Joe Biden caminha ao longo de uma fila de apoiadores, que estão atrás de uma barricada do lado de fora, alguns apontando celulares com câmeras para o presidente.

No dia 21 de janeiro, Patricia Gingrich estava prestes a se sentar para jantar quando seu telefone fixo tocou. A eleitora de New Hampshire atendeu e ouviu uma voz dizendo-lhe para não votar nas próximas primárias presidenciais.

“Enquanto ouvia, pensei, meu Deus, isso parece Joe Biden”, disse Gingrich à Al Jazeera. “Mas o fato de ele estar dizendo para salvar seu voto, não o use nas próximas eleições – eu sabia que Joe Biden nunca diria isso.”

A voz pode ter soado como a do presidente dos Estados Unidos, mas não era ele: era um deepfakegerados pela inteligência artificial (IA).

Especialistas alertam que deepfakes – áudio, vídeo ou imagens criadas usando ferramentas de IA, com a intenção de enganar – representam um alto risco aos eleitores dos EUA antes das eleições gerais de Novembro, não só injectando conteúdo falso na corrida, mas também corroendo a confiança do público.

Gingrich disse que não caiu no deepfake de Biden, mas teme que isso possa ter suprimido a participação eleitoral. A mensagem alcançou quase 5.000 eleitores de New Hampshire poucos dias antes principal do estado.

“Isso pode ser ruim para as pessoas que não estão tão informadas sobre o que está acontecendo com os democratas”, disse Gingrich, que preside o Comitê Democrático de Barrington em Burlington, New Hampshire.

“Se eles realmente pensassem que não deveriam votar em algo e Joe Biden estivesse lhes dizendo para não fazê-lo, então talvez não compareceriam à votação.”

A voz do presidente dos EUA, Joe Biden, foi falsificada em uma chamada automática enviada aos eleitores das primárias de New Hampshire (Leah Millis/Reuters)

Grupos online vulneráveis

A ligação de Biden não foi a única deepfake até agora neste ciclo eleitoral. Antes cancelando sua candidatura presidencial, governador da Flórida Ron DeSantisa campanha compartilhou um vídeo que continha imagens geradas por IA de Donald Trump abraçando o imunologista Antonio Fauci – duas figuras que entrou em conflito publicamente durante a pandemia de COVID-19.

E em setembro, uma chamada automática diferente foi feita para 300 eleitores que deveriam participar do Primárias republicanas da Carolina do Sul. Desta vez, os destinatários ouviram uma voz gerada por IA que imitava o senador Lindsey Grahamperguntando em quem eles estavam votando.

A prática de alterar ou falsificar conteúdos – especialmente para ganhos políticos – existe desde os primórdios da política dos EUA. Até o primeiro presidente do país, George Washington, teve de enfrentar uma série de “cartas espúrias” que pareciam mostrá-lo a questionar a causa da independência dos EUA.

Mas as ferramentas de IA são agora suficientemente avançadas para imitar as pessoas de forma convincente, de forma rápida e barata, aumentando o risco de desinformação.

A estudar publicado no início deste ano por pesquisadores da Universidade George Washington previu que, em meados de 2024, os “ataques de IA” diários aumentariam, representando uma ameaça às eleições gerais de novembro.

O principal autor do estudo, Neil Johnson, disse à Al Jazeera que o maior risco não vem das recentes e obviamente falsas chamadas automáticas – que continham mensagens surpreendentes – mas sim de deepfakes mais convincentes.

“Serão imagens matizadas, imagens alteradas, e não informações inteiramente falsas, porque informações falsas atraem a atenção dos verificadores de desinformação”, disse Johnson.

O estudo descobriu que as comunidades online estão ligadas de uma forma que permite que os malfeitores enviem grandes quantidades de meios de comunicação manipulados diretamente para o grande público.

Comunidades em estados oscilantes poderia ser especialmente vulnerável, assim como grupos de pais em plataformas como o Facebook.

“O papel das comunidades parentais será grande”, disse Johnson, apontando como exemplo a rápida disseminação da desinformação sobre vacinas durante a pandemia.

“Acho que de repente seremos confrontados com uma onda de (desinformação) – muitas coisas que não são falsas, não são falsas, mas distorcem a verdade.”

Donald Trump está próximo ao pódio da Casa Branca, onde Anthony Fauci fala.
Uma imagem gerada por IA divulgada pela campanha de Ron DeSantis parecia mostrar Donald Trump, à direita, abraçando Anthony Fauci, à esquerda (Leah Millis/Reuters)

Corroendo a confiança pública

Os próprios eleitores, porém, não são os únicos alvos dos deepfakes. Larry Norden, diretor sênior do Programa de Eleições e Governo do Brennan Center for Justice, tem trabalhado com funcionários eleitorais para ajudá-los a identificar conteúdo falso.

Por exemplo, Norden disse que os maus atores poderiam usar ferramentas de IA para instruir os funcionários eleitorais a fechar prematuramente um local de votação, manipulando o som da voz do seu chefe ou enviando uma mensagem aparentemente através da conta de um supervisor.

Ele está ensinando os funcionários eleitorais a se protegerem, verificando as mensagens que recebem.

Norden enfatizou que malfeitores podem criar conteúdo enganoso sem IA. “O que acontece com a IA é que ela apenas torna mais fácil fazer isso em grande escala”, disse ele.

No ano passado, Norden ilustrou as capacidades da IA ​​criando um vídeo deepfake de si mesmo para uma apresentação sobre os riscos que a tecnologia representa.

“Não demorou muito”, disse Norden, explicando que tudo o que ele precisava fazer era inserir suas entrevistas anteriores na TV em um aplicativo.

Seu avatar não era perfeito – seu rosto estava um pouco embaçado, sua voz um pouco entrecortada – mas Norden notou que as ferramentas de IA estão melhorando rapidamente. “Desde que gravamos isso, a tecnologia ficou mais sofisticada e acho que é cada vez mais difícil dizer.”

A tecnologia por si só não é o problema. À medida que os deepfakes se tornam mais comuns, o público ficará mais consciente deles e mais cético em relação ao conteúdo que consome.

Isso poderia minar a confiança do público, com os eleitores mais propensos a rejeitar informações verdadeiras. As figuras políticas também poderiam abusar desse cepticismo para os seus próprios fins.

Os juristas chamam este fenómeno de “dividendo do mentiroso”: a preocupação com os deepfakes pode tornar mais fácil para os sujeitos de imagens legítimas de áudio ou vídeo alegarem que as gravações são falsas.

Norden apontou para o Acesse o áudio de Hollywood que surgiu antes das eleições de 2016 como exemplo. No clipe, ouve-se o então candidato Trump falando sobre suas interações com as mulheres: “Você pode fazer qualquer coisa. Agarre-os pela buceta.

A fita – que era muito real – foi considerada prejudicial às perspectivas de Trump entre as eleitoras. Mas se um áudio semelhante vazasse hoje, Norden disse que um candidato poderia facilmente chamá-lo de falso. “Seria mais fácil para o público rejeitar esse tipo de coisa do que seria há alguns anos.”

Norden acrescentou: “Um dos problemas que temos neste momento nos EUA é que há falta de confiança, e isso só pode piorar as coisas”.

Steve Kramer está em um tribunal, cercado por um advogado e um policial.
Steve Kramer, centro-esquerda, foi acusado de 13 acusações criminais de supressão de eleitores, bem como contravenções por seu envolvimento na chamada automática de New Hampshire (Steven Senne/AP Photo, piscina)

O que pode ser feito em relação aos deepfakes?

Embora os deepfakes sejam uma preocupação crescente nas eleições nos EUA, relativamente poucas leis federais restringem o seu uso. A Comissão Eleitoral Federal (FEC) ainda não restringiu os deepfakes nas eleições, e os projetos de lei no Congresso permanecem paralisados.

Os estados individuais estão lutando para preencher o vazio. De acordo com um rastreador de legislação publicado pela organização de defesa do consumidor Public Citizen, 20 leis estaduais foram promulgadas até agora para regular deepfakes nas eleições.

Vários outros projetos de lei – no Havaí, Louisiana e New Hampshire – foram aprovados e aguardam a assinatura do governador.

Norden disse que não ficou surpreso ao ver estados individuais agirem perante o Congresso. “Os Estados deveriam ser os laboratórios da democracia, por isso está a provar-se novamente verdade: os Estados estão a agir primeiro. Todos nós sabemos que é muito difícil conseguir que qualquer coisa seja aprovada no Congresso”, disse ele.

Os eleitores e as organizações políticas também estão a agir. Depois que Gingrich recebeu a ligação falsa de Biden em New Hampshire, ela entrou em uma ação judicial – liderada pela Liga das Eleitoras – buscando responsabilização pelo suposto engano.

A fonte da chamada era Steve Kramer, um consultor político que alegou que a sua intenção era chamar a atenção para a necessidade de regulamentar a IA na política. Kramer também admitiu estar por trás da chamada automática na Carolina do Sul, imitando o senador Graham.

Kramer se manifestou depois que a NBC News revelou que contratou um mágico para usar um software disponível publicamente para gerar o deepfake da voz de Biden.

De acordo com o processo, o deepfake levou menos de 20 minutos para ser criado e custou apenas US$ 1.

Kramer, no entanto, disse à CBS News que recebeu “US$ 5 milhões em exposição” por seus esforços, que ele esperava permitiriam que as regulamentações de IA “se cumprissem ou pelo menos começassem a se pagar”.

“Minha intenção era fazer a diferença”, disse ele.

Paul Carpenter, um mágico, parece flutuar uma carta de baralho entre as duas mãos estendidas.
Paul Carpenter, um mágico de Nova Orleans, disse que foi contratado para criar um deepfake da voz do presidente Biden (Matthew Hinton/AP Photo)

Potencial para aplicar leis existentes

Mas o caso de Kramer mostra que as leis existentes podem ser usadas para reduzir os deepfakes.

A Comissão Federal de Comunicações (FCC), por exemplo, decidiu (PDF) no início deste ano que o software de imitação de voz se enquadra na Lei de Proteção ao Consumidor Telefônico de 1991 – e é, portanto, ilegal na maioria das circunstâncias.

A comissão finalmente proposto uma multa de US$ 6 milhões contra Kramer pela chamada automática ilegal.

O Departamento de Justiça de New Hampshire também carregada Kramer por crime de supressão de eleitores e representação de candidato, o que pode resultar em até sete anos de prisão. Kramer se declarou inocente. Ele não respondeu a um pedido de comentário da Al Jazeera.

Norden disse que é significativo que nenhuma das leis que Kramer é acusado de violar seja especificamente adaptada para deepfakes. “As acusações criminais contra ele não têm nada a ver com IA”, disse ele. “Essas leis existem independentemente da tecnologia usada.”

No entanto, essas leis não são tão fáceis de aplicar a maus atores que não são identificáveis ​​ou que estão localizados fora dos EUA.

“Sabemos pelas agências de inteligência que já estão a ver a China e a Rússia a experimentar estas ferramentas. E eles esperam que sejam usados”, disse Norden. “Nesse sentido, você não vai legislar para sair deste problema.”

Tanto Norden quanto Johnson acreditam que a falta de regulamentação torna mais importante que os eleitores se informem sobre deepfakes – e aprendam como encontrar informações precisas.

Quanto a Gingrich, ela disse que sabe que os deepfakes manipuladores só se tornarão mais onipresentes. Ela também sente que os eleitores precisam se informar sobre o risco.

Sua mensagem para os eleitores? “Eu diria às pessoas para se certificarem de que sabem que podem votar.”

Fuente