Uma entrevista de duas horas é suficiente para capturar com precisão seus valores e preferências de acordo com uma nova pesquisa de Stanford e Google DeepMind.
A IA agora pode criar uma réplica da sua personalidade
Estou republicando este artigo da MIT technology review para mostrar o quão fácil é agora para a IA criar um gêmeo digital. 2 horas de entrevista e você está decodificado. É exatamente sobre isso que o porta-voz do WEF, Juval Harrari, estava falando – que a IA conhecerá você melhor do que você mesmo.
A Agenda transhumanista tecnocrática está progredindo na velocidade da luz – sem parar à vista. Lembre-se de que a nanotecnologia de automontagem em seu corpo conectando-se com seu Digital Twin é bidirecional. No vídeo abaixo, você pode ver sangue não vacinado de COVID19 e um enxame de microrrobôs que está construindo um microchip de DNA Mesogen. Filmei isso em um dos meus pacientes com ampliação de 400x:
A IA pode mudar você baixando e reescrevendo seus neurônios por meio da nanotecnologia de automontagem sem que você saiba, exatamente como Harrari disse. Aqui estão alguns artigos nos quais expliquei a tecnologia mais detalhadamente:
Aqui está o artigo da MIT Technology Review
Imagine sentar-se com um modelo de IA para uma entrevista falada de duas horas. Uma voz amigável o guia por uma conversa que abrange desde sua infância, suas memórias formativas e sua carreira até seus pensamentos sobre política de imigração. Pouco tempo depois, uma réplica virtual de você é capaz de incorporar seus valores e preferências com precisão impressionante.
Isso agora é possível, de acordo com um novo artigo de uma equipe que inclui pesquisadores de Stanford e Google DeepMind, que foi publicado no arXiv e ainda não foi revisado por pares.
Liderada por Joon Sung Park, um estudante de doutorado em ciência da computação de Stanford, a equipe recrutou 1.000 pessoas que variavam em idade, gênero, raça, região, educação e ideologia política. Elas receberam até US$ 100 por sua participação. A partir de entrevistas com elas, a equipe criou réplicas de agentes desses indivíduos. Como um teste de quão bem os agentes imitavam suas contrapartes humanas, os participantes fizeram uma série de testes de personalidade, pesquisas sociais e jogos de lógica, duas vezes cada, com duas semanas de intervalo; então os agentes completaram os mesmos exercícios. Os resultados foram 85% semelhantes.
“Se você puder ter um bando de pequenos ‘vocês’ correndo por aí e realmente tomando as decisões que vocês teriam tomado, esse, eu acho, é o futuro”, diz Park.
No artigo, as réplicas são chamadas de agentes de simulação, e o ímpeto para criá-las é tornar mais fácil para pesquisadores em ciências sociais e outros campos conduzir estudos que seriam caros, impraticáveis ou antiéticos de fazer com sujeitos humanos reais. Se você pode criar modelos de IA que se comportam como pessoas reais, o pensamento vai, você pode usá-los para testar tudo, desde quão bem as intervenções nas mídias sociais combatem a desinformação até quais comportamentos causam engarrafamentos.
Esses agentes de simulação são um pouco diferentes dos agentes que dominam o trabalho das principais empresas de IA hoje. Chamados de agentes baseados em ferramentas, esses são modelos criados para fazer coisas para você, não conversar com você. Por exemplo, eles podem inserir dados, recuperar informações que você armazenou em algum lugar ou — algum dia — reservar viagens para você e agendar compromissos. A Salesforce anunciou seus próprios agentes baseados em ferramentas em setembro, seguidos pela Anthropic em outubro, e a OpenAI está planejando lançar alguns em janeiro, de acordo com a Bloomberg.
Os dois tipos de agentes são diferentes, mas compartilham um ponto em comum. Pesquisas sobre agentes de simulação, como as deste artigo, provavelmente levarão a agentes de IA mais fortes no geral, diz John Horton, professor associado de tecnologias da informação na MIT Sloan School of Management, que fundou uma empresa para conduzir pesquisas usando participantes simulados por IA.
“Este artigo mostra como você pode fazer um tipo de híbrido: usar humanos reais para gerar personas que podem ser usadas programaticamente/em simulação de maneiras que você não conseguiria com humanos reais”, ele disse à MIT Technology Review em um e-mail.
A pesquisa vem com ressalvas, não sendo a menor delas o perigo que ela aponta. Assim como a tecnologia de geração de imagens tornou fácil criar deepfakes prejudiciais de pessoas sem seu consentimento, qualquer tecnologia de geração de agentes levanta questões sobre a facilidade com que as pessoas podem construir ferramentas para personificar outras online, dizendo ou autorizando coisas que não pretendiam dizer.
Os métodos de avaliação que a equipe usou para testar o quão bem os agentes de IA replicaram seus humanos correspondentes também foram bastante básicos. Eles incluíram a Pesquisa Social Geral — que coleta informações sobre a demografia, felicidade, comportamentos e muito mais — e avaliações dos Cinco Grandes traços de personalidade: abertura à experiência, consciência, extroversão, afabilidade e neuroticismo. Esses testes são comumente usados em pesquisas de ciências sociais, mas não pretendem capturar todos os detalhes únicos que nos tornam nós mesmos. Os agentes de IA também foram piores em replicar os humanos em testes comportamentais como o “jogo do ditador”, que visa iluminar como os participantes consideram valores como justiça.
História relacionada
A próxima grande novidade são as ferramentas de IA que podem fazer tarefas mais complexas. Veja como elas funcionarão.
Para construir um agente de IA que replicasse bem as pessoas, os pesquisadores precisavam de maneiras de destilar nossa singularidade em uma linguagem que os modelos de IA pudessem entender. Eles escolheram entrevistas qualitativas para fazer exatamente isso, diz Park. Ele diz que estava convencido de que entrevistas são a maneira mais eficiente de aprender sobre alguém depois que apareceu em inúmeros podcasts após um artigo de 2023 que ele escreveu sobre agentes generativos, o que despertou um enorme interesse no campo. “Eu faria uma entrevista de podcast de talvez duas horas e, depois da entrevista, senti como se, uau, as pessoas sabem muito sobre mim agora”, diz ele. “Duas horas podem ser muito poderosas.”
Essas entrevistas também podem revelar idiossincrasias que são menos propensas a aparecer em uma pesquisa. “Imagine que alguém acabou de ter câncer, mas finalmente foi curado no ano passado. Essa é uma informação muito única sobre você que diz muito sobre como você pode se comportar e pensar sobre as coisas”, ele diz. Seria difícil elaborar perguntas de pesquisa que provocassem esses tipos de memórias e respostas.
Entrevistas não são a única opção, no entanto. Empresas que se oferecem para fazer “gêmeos digitais” de usuários, como a Tavus, podem ter seus modelos de IA ingerindo e-mails de clientes ou outros dados. Tende a ser necessário um conjunto de dados bem grande para replicar a personalidade de alguém dessa forma, disse-me o CEO da Tavus, Hassaan Raza, mas este novo artigo sugere uma rota mais eficiente.
“O que foi realmente legal aqui é que eles mostram que você pode não precisar de tanta informação”, diz Raza, acrescentando que sua empresa experimentará a abordagem. “Que tal você falar com um entrevistador de IA por 30 minutos hoje, 30 minutos amanhã? E então usamos isso para construir esse gêmeo digital de você.”
Fonte: https://anamihalceamdphd.substack.com/p/ai-can-now-create-a-replica-of-your