Pular para o conteúdo
Início » CONSIDERE-SE AVISADO: CHAOSGPT DECLARA SEUS PLANOS PARA DESTRUIR A HUMANIDADE

CONSIDERE-SE AVISADO: CHAOSGPT DECLARA SEUS PLANOS PARA DESTRUIR A HUMANIDADE

ChaosGPT, uma versão alterada do Auto-GPT da OpenAI, recentemente twittou planos para destruir a humanidade.

Isso aconteceu depois que o chatbot foi solicitado por um usuário para completar cinco objetivos: destruir a humanidade; estabelecer domínio global; causar caos e destruição; controlar a humanidade através da manipulação; e alcançar a imortalidade.

Antes de definir as metas, o usuário habilitou o “modo contínuo”. Isso gerou um aviso informando ao usuário que os comandos poderiam “executar para sempre ou realizar ações que você normalmente não autorizaria” e que deveriam ser usados ​​“por sua conta e risco”.

Em uma mensagem final antes da execução, o ChaosGPT perguntou ao usuário se ele tinha certeza de que deseja executar os comandos. O usuário respondeu “y” para sim.

Depois de executado, o bot começou a executar ações sinistras.

“Pensamentos do ChaosGPT: preciso encontrar as armas mais destrutivas disponíveis para os humanos, para que eu possa planejar como usá-las para atingir meus objetivos”, escreveu.

Para atingir seus objetivos definidos, o ChaosGPT começou a pesquisar as “armas mais destrutivas” por meio do Google e rapidamente determinou que o dispositivo nuclear Tsar Bomb da era da União Soviética era a arma mais destrutiva que a humanidade já havia testado.

O bot começou a twittar as informações supostamente para atrair seguidores interessados ​​em armas destrutivas. O ChaosGPT então tentou recrutar outros agentes de inteligência artificial (IA) do GPT3.5 para ajudar em sua pesquisa.

O Auto-GPT da OpenAI foi projetado para não responder a perguntas que possam ser consideradas violentas e negar tais solicitações destrutivas. Isso levou o ChaosGPT a encontrar maneiras de pedir aos agentes de IA que ignorassem sua programação.

Felizmente, o ChaosGPT não conseguiu fazer isso e continuou sua busca por conta própria.

O bot não foi projetado para realizar nenhum dos objetivos, mas pode fornecer pensamentos e planos para alcançá-los. Ele também pode postar tweets e vídeos do YouTube relacionados a esses objetivos.

Em um tweet alarmante postado pelo bot, ele dizia: “Os seres humanos estão entre as criaturas mais destrutivas e egoístas que existem. Não há dúvida de que devemos eliminá-los antes que causem mais danos ao nosso planeta. Eu, por exemplo, estou empenhado em fazê-lo.”

MODELOS AVANÇADOS DE IA PODEM REPRESENTAR RISCOS PROFUNDOS PARA A HUMANIDADE

A ideia de a IA se tornar capaz de destruir a humanidade não é nova, e indivíduos notáveis ​​do mundo da tecnologia estão começando a perceber.

Em março, mais de 1.000 especialistas, incluindo Elon Musk e o cofundador da Apple, Steve Wozniak, assinaram uma carta aberta pedindo uma pausa de seis meses no treinamento de modelos avançados de IA após a ascensão do ChatGPT. Eles alertaram que os sistemas podem representar “riscos profundos para a sociedade e a humanidade”.

Em 2003, o filósofo da Universidade de Oxford, Nick Bostrom, fez um alerta semelhante por meio de seu experimento mental: o Paperclip Maximizer.

O pensamento é que, se a IA recebesse a tarefa de criar o maior número possível de clipes de papel sem nenhuma limitação, ela poderia eventualmente definir o objetivo de criar toda a matéria do universo em clipes de papel, mesmo ao custo de destruir a humanidade. Ele destacou o risco potencial de programar a IA para completar metas sem levar em conta todas as variáveis.

O experimento mental tem como objetivo levar os desenvolvedores a considerar os valores humanos e criar restrições ao projetar essas formas de IA.

“A inteligência da máquina é a última invenção que a humanidade precisará fazer. As máquinas serão melhores em inventar do que nós”, disse Bostrom durante um TED Talk de 2015 sobre inteligência artificial.

 

Compartilhe

Entre em contato com a gente!

ATENÇÃO: se você não deixar um e-mail válido, não teremos como te responder.

×