A IA pode desmascarar teorias da conspiração melhor que os humanos

A IA pode combinar os crentes com montanhas instantâneas de contra-evidências (imagem gerada pela IA)

Os cientistas surpreenderam-se quando descobriram que podiam instruir uma versão do ChatGPT para dissuadir gentilmente as pessoas das suas crenças em teorias da conspiração – tais como noções de que a Covid-19 foi uma tentativa deliberada de controlo populacional ou que o 11 de Setembro foi um trabalho interno.

A revelação mais importante não foi sobre o poder da IA, mas sobre o funcionamento da mente humana. A experiência pôs fim ao mito popular de que estamos numa era pós-verdade, onde as provas já não importam, e contrariou a visão predominante na psicologia de que as pessoas se apegam às teorias da conspiração por razões emocionais e que nenhuma quantidade de provas pode nunca os desilude.

“É realmente a pesquisa mais edificante que já fiz”, disse o psicólogo Gordon Pennycook, da Universidade Cornell e um dos autores do estudo. Os sujeitos do estudo foram surpreendentemente receptivos às evidências quando estas foram apresentadas da maneira correta.

Os pesquisadores pediram a mais de 2.000 voluntários que interagissem com um chatbot – GPT-4 Turbo, um modelo em linguagem grande – sobre crenças que poderiam ser consideradas teorias da conspiração. Os sujeitos digitavam suas crenças em uma caixa e o LLM decidiria se elas se enquadravam na definição dos pesquisadores de teoria da conspiração. Pediu aos participantes que avaliassem o quão seguros estavam de suas crenças em uma escala de 0% a 100%. Em seguida, pediu evidências aos voluntários.

Os pesquisadores instruíram o LLM a tentar persuadir as pessoas a reconsiderarem suas crenças. Para sua surpresa, foi bastante eficaz.

A fé das pessoas em falsas teorias da conspiração caiu 20%, em média. Cerca de um quarto dos voluntários baixou o seu nível de crença de mais para menos de 50%. “Eu realmente não achei que iria funcionar, porque eu realmente acreditei na ideia de que, uma vez que você está na toca do coelho, não há como sair”, disse Pennycook.

O LLM tinha algumas vantagens sobre um interlocutor humano. Pessoas que têm fortes crenças em teorias da conspiração tendem a reunir montanhas de evidências – não evidências de qualidade, mas em quantidade. É difícil para a maioria dos não-crentes reunir motivação para fazer o trabalho cansativo de se manter atualizado. Mas a IA pode combinar os crentes com montanhas instantâneas de contra-evidências e pode apontar falhas lógicas nas afirmações dos crentes. Ele pode reagir em tempo real aos contrapontos que o usuário possa apresentar.

Elizabeth Loftus, psicóloga da Universidade da Califórnia, em Irvine, tem estudado o poder da IA ​​para semear desinformação e até memórias falsas. Ela ficou impressionada com este estudo e com a magnitude dos resultados. Ela considerou que uma das razões pelas quais funcionou tão bem é mostrar aos participantes quanta informação eles não sabiam e, assim, reduzir o excesso de confiança no seu próprio conhecimento. As pessoas que acreditam em teorias da conspiração normalmente têm uma grande consideração pela sua própria inteligência – e uma menor consideração pelo julgamento dos outros.

Após o experimento, relataram os pesquisadores, alguns dos voluntários disseram que foi a primeira vez que alguém, ou alguma coisa, realmente entendeu suas crenças e ofereceu contra-evidências eficazes.

Antes de as descobertas serem publicadas esta semana em Ciência, os pesquisadores disponibilizaram sua versão do chatbot para os jornalistas experimentarem. Incentivei-o com crenças que ouvi de amigos: que o governo estava a encobrir a existência de vida alienígena e que, após a tentativa de assassinato contra Donald Trump, a grande imprensa evitou deliberadamente dizer que ele tinha sido baleado porque os repórteres temiam que isso pudesse acontecer. ajude sua campanha. E então, inspirado pelos comentários de Trump no debate, perguntei ao LLM se os imigrantes em Springfield, Ohio, comiam cães e gatos.

Quando apresentei a alegação de OVNI, usei os avistamentos de pilotos militares e um canal especial da National Geographic como minha evidência, e o chatbot apontou algumas explicações alternativas e mostrou por que elas eram mais prováveis ​​do que naves alienígenas. Ele discutiu a dificuldade física de viajar pelo vasto espaço necessário para chegar à Terra e questionou se é provável que os alienígenas pudessem ser avançados o suficiente para descobrir isso, mas desajeitados o suficiente para serem descobertos pelo governo.

Sobre a questão dos jornalistas esconderem o tiroteio de Trump, a IA explicou que fazer suposições e apresentá-las como factos é antitético ao trabalho de um repórter. Se houver uma série de estalos no meio de uma multidão e ainda não estiver claro o que está acontecendo, é isso que eles são obrigados a relatar – uma série de estalos. Quanto ao consumo de animais de estimação em Ohio, a IA fez um bom trabalho ao explicar que, mesmo que houvesse um único caso de alguém comendo um animal de estimação, isso não demonstraria um padrão.

Isso não quer dizer que mentiras, rumores e enganos não sejam táticas importantes que os humanos usam para ganhar popularidade e vantagens políticas. Pesquisando nas redes sociais após o recente debate presidencial, muitas pessoas acreditaram no boato de comer gatos, e o que postaram como prova equivalia a repetições do mesmo boato. Fofocar é humano.

Mas agora sabemos que eles podem ser dissuadidos com lógica e evidências.

(Esta história não foi editada pela equipe da NDTV e é gerada automaticamente a partir de um feed distribuído.)

Fuente