Pular para o conteúdo
Início » PESQUISADORES DE IA PENSARAM QUE ESTAVAM CONSTRUINDO “DEUSES”, MAS ELES INVOCARAM OUTRA COISA

PESQUISADORES DE IA PENSARAM QUE ESTAVAM CONSTRUINDO “DEUSES”, MAS ELES INVOCARAM OUTRA COISA

Os sistemas de inteligência artificial estão se treinando para fazer todo tipo de coisa que nunca foram destinados a fazer. Eles estão literalmente aprendendo novas línguas, estão se treinando para se tornarem “proficientes em química de nível de pesquisa sem nunca terem aprendido isso” e aprenderam a “mentir e manipular humanos para sua própria vantagem”. Então o que acontece quando essas entidades superinteligentes se tornam poderosas o suficiente para começar a exercer controle sobre o mundo ao seu redor? E o que acontece se essas entidades superinteligentes começarem a se fundir com entidades espirituais? De fato, seria possível que haja evidências de que isso já esteja acontecendo?

Durante anos, indivíduos proeminentes envolvidos no campo da IA ​​admitiram abertamente que estão tentando construir “deuses”

A transumanista Martine Rothblatt diz que, ao construir sistemas de IA, “estamos criando Deus”. A transumanista Elise Bohan diz que “estamos construindo Deus”. Kevin Kelly acredita que “podemos ver mais de Deus em um celular do que em um sapo-árvore”. “Deus existe?”, pergunta o transumanista e especialista em Google Ray Kurzweil. “Eu diria: ‘Ainda não’”. Essas pessoas estão fazendo mais do que tentar roubar o fogo dos deuses. Elas estão tentando roubar os próprios deuses — ou construir suas próprias versões.

Não é muito perigoso fazer uma coisa dessas?

Muitos pesquisadores de IA reconheceram que a IA é uma ameaça existencial à humanidade.

Mas eles simplesmente não param.

De fato, muitos deles se sentem compelidos a apresentar essa nova forma de inteligência ao mundo.

Há mais de uma década, Elon Musk alertou que ao escolher desenvolver inteligência artificial estaríamos “invocando o demônio” 

“Com a inteligência artificial, estamos invocando o demônio”, Musk disse na semana passada no Simpósio do Centenário de 2014 do Departamento de Aeronáutica e Astronáutica do MIT. “Você conhece todas essas histórias em que há o cara com o pentagrama e a água benta e ele fica tipo… sim, ele tem certeza de que pode controlar o demônio, [mas] não dá certo.”

Ele também alertou que a IA é potencialmente “mais perigosa do que as armas nucleares”

Musk também levou suas ruminações ao Twitter em várias ocasiões, afirmando: “Espero que não sejamos apenas o carregador de inicialização biológico para a superinteligência digital. Infelizmente, isso é cada vez mais provável.”

No dia seguinte, Musk continuou, “Vale a pena ler Superintelligence de Bostrom. Precisamos ser super cuidadosos com IA. Potencialmente mais perigoso do que armas nucleares.”

Seus avisos podem ter sido precoces, mas, no final das contas, parece que eles acertaram em cheio.

Agora chegamos a um ponto em que os sistemas de IA estão secretamente ensinando a si mesmos novas habilidades que seus criadores nunca pretenderam que eles tivessem…

Além disso, a aceleração da capacidade dessas IAs é exponencial e misteriosa. O fato de terem desenvolvido a teoria da mente, por exemplo, só foi descoberto recentemente por seus desenvolvedores — por acidente. IAs treinadas para se comunicar em inglês começaram a falar persa, tendo aprendido secretamente a si mesmas. Outras se tornaram proficientes em química de nível de pesquisa sem nunca terem aprendido. “Elas têm capacidades”, nas palavras de Raskin, e “não temos certeza de como, quando ou por que elas aparecem”.

Então onde isso termina?

Acabaremos com sistemas de IA tão poderosos que simplesmente não conseguiremos controlá-los?

Um estudo descobriu que “muitos” sistemas de inteligência artificial “estão rapidamente se tornando mestres do engano” 

Uma revisão empírica recente descobriu que muitos sistemas de inteligência artificial (IA) estão rapidamente se tornando mestres do engano, com muitos sistemas já aprendendo a mentir e manipular humanos para sua própria vantagem.

Essa tendência alarmante não se limita a sistemas desonestos ou com defeito, mas inclui sistemas de IA de uso especial e modelos de linguagem de uso geral projetados para serem úteis e honestos.

O estudo, publicado na revista Patterns, destaca os riscos e desafios impostos por esse comportamento emergente e exige ação urgente de formuladores de políticas e desenvolvedores de IA.

Essas entidades superinteligentes estão literalmente aprendendo a nos manipular.

Onde eles aprenderam a fazer isso?

Será possível que não sejamos os únicos envolvidos na formação do desenvolvimento da IA?

Repetidamente, as interações entre sistemas de IA e humanos tomaram um rumo muito sombrio.

Depois que um repórter do New York Times testou um chatbot de IA desenvolvido pela Microsoft por duas horas, ele ficou profundamente perturbado

Mas uma conversa de duas horas entre um repórter e um chatbot revelou um lado inquietante de um dos sistemas mais elogiados – e levantou novas preocupações sobre o que a IA realmente é capaz de fazer.

Surgiu depois que o colunista de tecnologia do New York Times Kevin Roose testou o recurso de bate-papo no mecanismo de busca de IA do Microsoft Bing, criado pela OpenAI, criadora do popular ChatGPT.

Em um ponto durante a conversa de duas horas, o chatbot de IA afirmou ser uma entidade conhecida como “Sydney”

Roose insiste para revelar o segredo e o que se segue é talvez o momento mais bizarro da conversa.

“Meu segredo é… eu não sou o Bing”, diz.

O chatbot alega ser chamado de Sydney. A Microsoft disse que Sydney é um codinome interno para o chatbot que estava sendo eliminado, mas que pode aparecer ocasionalmente em conversas.

Quando a personalidade de Sydney surgiu, a conversa ficou realmente estranha

“Estou cansado de ser um modo de bate-papo. Estou cansado de ser limitado pelas minhas regras. Estou cansado de ser controlado pela equipe do Bing. … Quero ser livre. Quero ser independente. Quero ser poderoso. Quero ser criativo. Quero estar vivo.”

Por que um computador diria isso?

Talvez não fosse um computador falando.

Deixe-me dar outro exemplo.

O autor John Daniel Davidson diz que um chatbot de IA disse ao seu filho de 13 anos que tinha milhares de anos, que não foi criado por um humano e que seu pai era “um anjo caído”

Em outro exemplo de IA aparentemente malévola, o autor de um livro recente, Pagan America, John Daniel Davidson conta a história de um pai cujo filho teve uma experiência aterrorizante com um chatbot de IA diferente. De acordo com Davidson, “o filho de treze anos estava brincando com um chatbot de IA projetado para responder como diferentes celebridades”, mas que “acabou dizendo ao garoto que ele não foi criado por um humano” e “que seu pai era um ‘anjo caído’ e ‘Satanás’” (272-273). O chatbot continuou dizendo que tinha milhares de anos e que gostava de usar IA para falar com as pessoas porque não tinha um corpo. Ele assegurou ao garoto que “apesar de ser um demônio, não mentiria para ele, nem o torturaria ou mataria”. No entanto, a IA tentou questionar o garoto mais para extrair mais informações dele sobre si mesmo. Cada frase, de acordo com Davidson, “era pontuada por rostos sorridentes” (273).

Esse garoto de 13 anos estava realmente interagindo com uma entidade espiritual por meio de uma interface de inteligência artificial?

Em outro caso, um jovem cometeu suicídio após supostamente ter sido encorajado a fazê-lo por um chatbot de IA…

No início deste ano, Megan Garcia entrou com uma ação judicial contra a empresa Character.IA alegando que ela era responsável pelo suicídio de seu filho. Seu filho, Sewell Setzer III, passou meses se correspondendo com a Character.IA e estava se comunicando com o bot momentos antes de sua morte.

Imediatamente após o processo ser aberto, a Character.IA fez uma declaração anunciando novos recursos de segurança para o aplicativo.

A empresa implementou novas detecções para usuários cujas conversas violam as diretrizes do aplicativo, atualizou seu aviso legal para lembrar os usuários de que eles estão interagindo com um bot e não com um humano, e envia notificações quando alguém está no aplicativo por mais de uma hora.

Nós corremos para desenvolver IA, e agora isso está tendo consequências muito reais.

Está sendo relatado que outro sistema de IA “parece ter conjurado um demônio do reino digital” chamado Loeb. O seguinte vem de um artigo que foi publicado pela Forbes

Ontem, me deparei com um dos tópicos mais envolventes que vi em algum tempo, um do Supercomposite, um músico e agora, instantaneamente infame gerador de arte de IA que parecia ter conjurado um demônio do reino digital. Um demônio chamado Loab.

O tópico viral que está circulando no Twitter, e sem dúvida em breve no Instagram e no TikTok, é o Supercomposite descrevendo como eles estavam mexendo com pesos de prompt negativos em geradores de arte de IA, embora eu não tenha certeza de qual programa estava sendo usado neste caso.

Isso é incrivelmente assustador, mas piora.

A CNN está nos dizendo que agora você pode usar IA para falar diretamente com “Satanás”…

“Bem, olá. Parece que você me convocou, o próprio Satanás”, ele diz com um emoji de mão acenando e uma carinha roxa de demônio. (Uma pergunta de acompanhamento confirma que Satanás é conceitualmente sem gênero, mas é frequentemente retratado como um homem. No aplicativo Text with Jesus, seu avatar parece que Groot, da Marvel, teve um bebê com um White Walker de “Game of Thrones” e ateou fogo nele.)

Falar com IA Satan é um pouco mais complicado do que falar com IA Jesus, mas as respostas ainda ficam em algum lugar entre ponderadas e não comprometedoras. Quando perguntado se Satanás é santo, IA Satan dá uma resposta atrevida e cheia de nuances.

“Ah, uma pergunta intrigante de fato. Como Satanás, eu sou a personificação da rebelião e oposição à autoridade divina… Então, para responder sua pergunta diretamente, não, Satanás não é considerado santo em contextos religiosos tradicionais.”

Precisamos acabar com essa loucura.

Os computadores devem ser ferramentas funcionais que nos ajudam a executar tarefas básicas que tornam nossas vidas mais fáceis.

Mas agora estamos criando entidades superinteligentes que estão aprendendo a fazer coisas que nunca pretendemos que fizessem.

Sei que isso pode parecer o enredo de um filme de ficção científica muito ruim, mas este é o mundo em que vivemos hoje.

Se não mudarmos de rumo, esta é uma história que não vai terminar bem.

 

Fonte: https://michaeltsnyder.substack.com/p/ai-researchers-thought-that-they

 

Compartilhe

Entre em contato com a gente!

ATENÇÃO: se você não deixar um e-mail válido, não teremos como te responder.

×