Pular para o conteúdo
Início » EXECUTIVO DO GOOGLE ADMITE QUE GLOBALISTAS ESTÃO USANDO IA PARA PROJETAR “PANDEMIAS MAIS MORTAIS”

EXECUTIVO DO GOOGLE ADMITE QUE GLOBALISTAS ESTÃO USANDO IA PARA PROJETAR “PANDEMIAS MAIS MORTAIS”

Um antigo executivo da Google alertou que a elite globalista está atualmente utilizando a inteligência artificial (IA) para desenvolver uma nova pandemia mais letal que será desencadeada para despovoar o mundo.

Mustafa Suleyman, que anteriormente atuou como executivo líder na divisão de IA do Google, DeepMind, diz estar profundamente preocupado com o fato de avanços não controlados na IA poderem levar a novas ameaças biológicas mais letais.

Durante uma entrevista no podcast O Diário de um CEO, Suleyman alertou: “O cenário mais sombrio é que as pessoas farão experiências com patógenos, patógenos sintéticos projetados que podem acabar acidentalmente ou intencionalmente sendo mais transmissíveis”.

Suleyman também disse que estes agentes patogênicos concebidos sinteticamente, resultantes de investigação conduzida pela IA, “podem espalhar-se mais rapidamente ou (ser) mais letais… Causam mais danos ou potencialmente matam, como uma pandemia”.

Thefederalistpapers.org relata: Ele enfatizou a necessidade urgente de uma regulamentação mais rigorosa em torno do software de IA.

Levantando uma preocupação hipotética, mas plausível, Suleyman compartilhou seu “maior medo” de que uma “criança na Rússia” pudesse modificar geneticamente um novo patógeno que poderia desencadear uma pandemia que é “mais letal” do que qualquer coisa que o mundo já enfrentou até agora, dentro dos próximos cinco anos.

Reconhecendo a urgência desta ameaça potencial, ele disse: “É aí que precisamos de contenção. Temos que limitar o acesso às ferramentas e ao conhecimento para conduzir tais experiências de alto risco.”

À medida que a indústria tecnológica converge em Washington, no dia 13 de setembro, para uma cúpula sobre IA, liderada pelo senador Chuck Schumer, líder da maioria, a voz de Suleyman ressoa com um sentido de urgência.

“Nós, na indústria, que estamos mais próximos da obra, podemos ver um lugar em cinco ou 10 anos onde ela poderá ficar fora de controle e temos que controlar isso agora”, disse ele.

“Estamos realmente fazendo experiências com materiais perigosos. O antraz não é algo que possa ser comprado pela Internet e que possa ser experimentado livremente”, continuou ele. “Temos que restringir o acesso a essas coisas.”

“Temos que restringir o acesso ao software que executa os modelos, aos ambientes de nuvem e, do lado da biologia, isso significa restringir o acesso a algumas das substâncias”, acrescentou Suleyman.

Suas declarações ecoam um sentimento mais amplo dentro da comunidade tecnológica. No início de março, uma série de magnatas da tecnologia colocaram a caneta no papel, assinando uma carta aberta que defendia uma moratória de seis meses na formação em IA.

Elon Musk, CEO da Tesla e da SpaceX, também partilhou preocupações semelhantes, traçando paralelos com narrativas ficcionais, alertando que a IA não controlada pode potencialmente tornar-se hostil, tal como os robôs da popular série de filmes “O Exterminador do Futuro”.

Suleyman terminou com uma nota contemplativa, afirmando: “Nunca antes, na invenção de uma tecnologia, dissemos proativamente que precisávamos ir devagar”.

“Precisamos ter certeza de que isso primeiro não causará danos.”

“Esse é um momento sem precedentes”, acrescentou. “Nenhuma outra tecnologia fez isso.”

 

Compartilhe

Entre em contato com a gente!

ATENÇÃO: se você não deixar um e-mail válido, não teremos como te responder.

×