a segunda audiência pública do Comitê Seleto da Câmara dos EUA para Investigar o Ataque de 6 de janeiro ao Capitólio dos Estados Unidos, no Capitólio

O vídeo que a OpenAI lançou para revelar sua nova ferramenta de conversão de texto em vídeo, Sora, é preciso ver para acreditar. Cenas fotorrealistas de mamutes peludos atacando em nuvens de neve, um casal caminhando entre flores de cerejeira caindo e imagens aéreas da corrida do ouro na Califórnia.

A manifestação supostamente levou o produtor de cinema Tyler Perry a interromper um investimento de US$ 800 milhões no estúdio. Ferramentas como o Sora prometem traduzir a visão do usuário em imagens em movimento realistas com um simples prompt de texto, diz a lógica, tornando os estúdios obsoletos.

Outros temem que uma inteligência artificial (IA) como esta possa ser explorada por pessoas com uma imaginação mais sombria. Atores maliciosos poderiam usar esses serviços para criar deepfakes altamente realistasconfundir ou enganar os eleitores durante uma eleição ou simplesmente causar o caos ao espalhar rumores divisivos.

Os reguladores, as autoridades policiais e as plataformas de redes sociais já estão a lutar para lidar com o aumento da desinformação gerada pela IA, incluindo áudio falso de líderes políticos que alegadamente ajudaram a distorcer as eleições na Eslováquia e a desencorajar as pessoas de votar nas primárias de New Hampshire.

Os políticos e a sociedade civil temem que, à medida que estas ferramentas se tornam cada vez mais sofisticadas, seja mais difícil do que nunca para as pessoas comuns saberem o que é real e o que é falso.

Mas os especialistas em desinformação política e IA afirmam que a utilização crescente de produtos de IA é apenas uma nova faceta de um velho problema. Estas ferramentas apenas se somam a um arsenal já bem abastecido de tecnologias e técnicas utilizadas para manipular e enganar.

Lidar com o desafio dos deepfakes significa realmente abordar as questões não resolvidas de como regular as plataformas de redes sociais nas quais eles se espalharão e responsabilizar as grandes empresas de tecnologia quando os seus produtos são deixados abertos ao uso indevido.

“Estes geradores de imagens de IA ameaçam piorar o problema da desinformação eleitoral, mas devemos estar muito conscientes de que já é um problema”, disse Callum Hood, chefe de investigação do Centro de Combate ao Ódio Digital (CCDH), um grupo de campanha. “Já precisamos de medidas mais duras por parte das plataformas de mídia social para resolver esse problema existente.”

Várias empresas que oferecem criadores de imagens generativas de IA, incluindo Midjourney, OpenAI e Microsoft, têm políticas que supostamente evitam que os usuários gerem imagens enganosas. No entanto, a CCDH afirma que estas políticas não estão a ser aplicadas.

Num estudo divulgado em 6 de março, o centro mostrou que ainda era relativamente simples gerar imagens isso pode muito bem ser perigoso no contexto altamente partidário das eleições nos Estados Unidos, incluindo imagens fotorrealistas falsas do Presidente Joe Biden no hospital ou cumprimentando migrantes na fronteira mexicana e imagens estilo CCTV de adulteração eleitoral.

A afirmação do ex-presidente dos EUA, Donald Trump, de que as eleições de 2020 foram roubadas ajudou a instigar protestos violentos no edifício do Capitólio (Jonathan Ernst/Reuters)

Estas imagens refletem falsidades comuns na política dos EUA. O ex-presidente Donald Trump tem promovido rotineiramente a ideia de que os resultados das eleições de 2020 foram manipulados, uma mentira que ajudou a dar origem a protestos violentos no edifício do Capitólio em Janeiro de 2021.

“Isso mostra que (as empresas) não pensaram o suficiente sobre isso”, disse Hood. “A grande vulnerabilidade aqui está nas imagens que podem ser usadas para apoiar uma narrativa de eleições roubadas ou falsas alegações de fraude eleitoral.”

Os pesquisadores encontraram diferenças significativas na forma como os criadores de imagens individuais responderam às solicitações – alguns não permitiam que os usuários criassem imagens que fossem obviamente partidárias. “Essas diferenças mostram que é possível implementar salvaguardas eficazes”, disse Hood, acrescentando que isto reflecte uma escolha por parte das empresas.

“É sintomático de um desequilíbrio mais amplo entre a motivação do lucro e a segurança das empresas de IA”, disse ele. “Eles têm todos os incentivos para agir o mais rápido possível, com o mínimo de proteções instaladas, para que possam lançar produtos, lançar novos recursos e obter um pouco mais de financiamento de risco ou investimento. Eles não têm incentivo para desacelerar e estar seguros primeiro.”

OpenAI, Microsoft e MidJourney não responderam aos pedidos de comentários.

Pouco alcançado

É provável que esse incentivo só venha sob a forma de regulamentação que obrigue as empresas tecnológicas a agir e que as penalize caso não o façam. Mas os especialistas em desinformação nas redes sociais dizem que têm uma sensação de déjà vu. As conversas que ocorrem em torno da regulamentação da IA ​​soam assustadoramente como aquelas que ocorreram anos atrás em torno da disseminação da desinformação nas redes sociais. As grandes empresas tecnológicas comprometeram-se a implementar medidas para combater a propagação de falsidades perigosas, mas o problema persiste.

“É como o Dia da Marmota”, disse William Dance, pesquisador associado sênior da Universidade de Lancaster, que aconselhou departamentos governamentais e serviços de segurança do Reino Unido sobre desinformação. “E isso mostra o quão pouco realmente alcançamos nos últimos 10-15 anos.”

Com eleições potencialmente altamente carregadas a decorrer este ano na União Europeia, no Reino Unido, na Índia e nos EUA, as grandes empresas tecnológicas comprometeram-se mais uma vez, individual e colectivamente, a reduzir a propagação deste tipo de desinformação e desinformação nas suas plataformas.

No final de fevereiro, o proprietário do Facebook e Instagram Meta anunciada uma série de medidas destinadas a reduzir a desinformação e a limitar o alcance das operações de influência direcionadas durante as eleições para o Parlamento Europeu. Isso inclui permitir que parceiros de verificação de fatos – organizações independentes que a Meta permite rotular conteúdo em seu nome – rotulem conteúdo gerado ou manipulado por IA.

A Meta estava entre as aproximadamente 20 empresas que assinaram um “Acordo Tecnológico”, que promete desenvolver ferramentas para detectar, rotular e potencialmente desmascarar a desinformação gerada pela IA.

“Parece que existe uma espécie de modelo em branco que diz: ‘Faremos o nosso melhor para nos proteger contra os espaços em branco’”, disse Dance. “Desinformação, discurso de ódio, IA, tanto faz.”

A confluência de IA não regulamentada e redes sociais não regulamentadas preocupa muitos na sociedade civil, especialmente porque várias das maiores plataformas de redes sociais reduziram as suas equipas de “confiança e segurança” responsáveis ​​por supervisionar a sua resposta à desinformação e à desinformação, ao discurso de ódio e a outros conteúdos nocivos. . X – antigo Twitter – perdeu quase um terço de sua equipe de confiança e segurança depois que Elon Musk assumiu o controle da plataforma em 2022.

“Estamos numa situação duplamente preocupante, onde os propagadores da desinformação eleitoral têm novas ferramentas e capacidades à sua disposição, enquanto as empresas de redes sociais, em muitos casos, parecem estar deliberadamente a limitar-se em termos das capacidades que possuem para agir sobre a desinformação eleitoral. ”, disse Hood do CCDH. “Portanto, é uma tendência realmente significativa e preocupante.”

Antes que os ciclos eleitorais comecem para valer, será difícil prever até que ponto os deepfakes irão proliferar nas redes sociais. Mas alguns dos danos já foram causados, dizem os pesquisadores. À medida que as pessoas se tornam mais conscientes da capacidade de criar filmagens ou imagens falsas e sofisticadas, cria-se um sentimento mais amplo de desconfiança e desconforto. Imagens ou vídeos reais podem ser considerados falsos – um fenômeno conhecido como “dividendo do mentiroso”.

“Eu entro na Internet, vejo algo e penso: ‘Isso é real? Esta IA é gerada?’ Não posso dizer mais nada”, disse Kaicheng Yang, pesquisador da Northeastern University que estuda IA ​​e desinformação. “Para os usuários comuns, presumo que será pior. Não importa quanto conteúdo genuíno esteja online. Enquanto as pessoas acreditarem que há muito, teremos um problema.”

Fuente