William Lai

Taipei, Taiwan – “​​O sonho americano. Dizem que é para todos, mas será mesmo?”

Assim começa um vídeo animado de 65 segundos gerado por IA que aborda questões polêmicas nos Estados Unidos, que vão desde o vício em drogas e taxas de prisão até a crescente desigualdade de riqueza.

À medida que as nuvens de tempestade se acumulam sobre uma paisagem urbana que lembra a cidade de Nova York, as palavras “AMERICAN DREAM” pairam no céu escuro quando o vídeo termina.

A mensagem é clara: apesar das promessas de uma vida melhor para todos, os Estados Unidos estão em declínio terminal.

O vídeo, intitulado American Dream ou American Mirage, é um dos vários segmentos transmitidos pela emissora estatal chinesa CGTN – e amplamente compartilhado nas redes sociais – como parte de sua série animada A Fractured America.

Outros vídeos da série contêm títulos semelhantes que invocam imagens de uma sociedade distópica, como trabalhadores americanos em tumulto: um resultado de política e economia desequilibradas, e Desmascarando a ameaça real: o complexo militar-industrial da América.

Além de sua estridente mensagem antiamericana, todos os vídeos compartilham a mesma estética hiperestilizada gerada por IA e o estranho áudio gerado por computador.

A CGTN e a embaixada chinesa em Washington, DC não responderam aos pedidos de comentários.

A série Fractured America é apenas um exemplo de como a inteligência artificial (IA), com a sua capacidade de gerar multimédia de alta qualidade com o mínimo esforço em segundos, está a começar a moldar os esforços de propaganda de Pequim para minar a posição dos Estados Unidos no mundo.

Henry Ajder, especialista em IA generativa do Reino Unido, disse que embora a série CGTN não tente se passar por vídeo genuíno, é um exemplo claro de como a IA tornou muito mais fácil e barato produzir conteúdo.

“A razão pela qual eles fizeram isso dessa maneira é que você poderia contratar um animador e um dublador para fazer isso, mas provavelmente acabaria consumindo mais tempo. Provavelmente acabaria sendo mais caro”, disse Ajder à Al Jazeera.

“Esta é uma forma mais barata de dimensionar a criação de conteúdo. Quando você consegue reunir todos esses vários módulos, você pode gerar imagens, pode animar essas imagens, pode gerar apenas vídeo do zero. Você pode gerar uma conversão de texto em fala bastante atraente e com aparência humana. Então, você tem todo um pipeline de criação de conteúdo, automatizado ou pelo menos gerado de forma altamente sintética.”

A China há muito que explora o enorme alcance e a natureza sem fronteiras da Internet para conduzir campanhas de influência no estrangeiro.

O enorme exército de trolls da Internet da China, conhecido como “wumao”, tornou-se conhecido há mais de uma década por inundar websites com pontos de discussão do Partido Comunista Chinês.

Desde o advento das redes sociais, os esforços de propaganda de Pequim voltaram-se para plataformas como X e Facebook e influenciadores online.

Enquanto os protestos Black Lives Matter varriam os EUA em 2020, após o assassinato de George Floyd, as contas estatais chinesas nas redes sociais expressaram o seu apoio, mesmo quando Pequim restringiu as críticas ao seu historial de discriminação contra minorias étnicas, como os muçulmanos uigures, no seu país.

Num relatório do ano passado, o Centro de Análise de Ameaças da Microsoft disse que a IA tornou mais fácil a produção de conteúdo viral e, em alguns casos, mais difícil de identificar quando o material foi produzido por um ator estatal.

Atores apoiados pelo Estado chinês têm implantado conteúdo gerado por IA desde pelo menos março de 2023, disse a Microsoft, e esse “conteúdo visual de qualidade relativamente alta já atraiu níveis mais elevados de envolvimento de usuários autênticos de mídia social”.

“No ano passado, a China aperfeiçoou uma nova capacidade de gerar automaticamente imagens que pode utilizar para operações de influência destinadas a imitar os eleitores dos EUA em todo o espectro político e criar controvérsia em termos raciais, económicos e ideológicos”, afirma o relatório.

“Esta nova capacidade é alimentada por inteligência artificial que tenta criar conteúdo de alta qualidade que pode se tornar viral nas redes sociais nos EUA e em outras democracias.”

A Microsoft também identificou mais de 230 funcionários da comunicação social estatal que se faziam passar por influenciadores das redes sociais, com capacidade para atingir 103 milhões de pessoas em pelo menos 40 idiomas.

Os seus pontos de discussão seguiram um guião semelhante ao da série de vídeos da CGTN: a China está em ascensão e a vencer a competição pela supremacia económica e tecnológica, enquanto os EUA caminham para o colapso e a perder amigos e aliados.

Como Al modelos gostam Sora da OpenAI produzir vídeos, imagens e áudio cada vez mais hiperrealistas, o conteúdo gerado por IA deverá se tornar mais difícil de identificar e estimular a proliferação de deepfakes.

O astroturfing, a prática de criar a aparência de um amplo consenso social sobre questões específicas, poderia ser definido como uma “melhoria revolucionária”, de acordo com um relatório divulgado no ano passado pela RAND, um think tank que é parcialmente financiado pelo governo dos EUA.

A série de vídeos da CGTN, embora por vezes utilize uma gramática estranha, ecoa muitas das queixas partilhadas por cidadãos dos EUA em plataformas como X, Facebook, TikTok, Instagram e Reddit – websites que são copiados por modelos de IA para dados de treino.

A Microsoft disse em seu relatório que, embora o surgimento da IA ​​​​não torne mais ou menos provável a perspectiva de Pequim interferir nas eleições presidenciais dos EUA de 2024, “é muito provável que torne qualquer interferência eleitoral potencial mais eficaz se Pequim decidir se envolver”. .

Os EUA não são o único país preocupado com a perspectiva de conteúdo gerado por IA e astroturfing, à medida que se aproximam de um ano eleitoral tumultuado.

Até ao final de 2024, mais de 60 países terão realizado eleições que impactarão 2 mil milhões de eleitores num ano recorde para a democracia.

Entre eles está o democrático Taiwan, que elegeu um novo presidente, William Lai Ching-te, em 13 de janeiro.

Taiwan, tal como os EUA, é um alvo frequente das operações de influência de Pequim devido ao seu disputado estatuto político.

Beiijijng reivindica Taiwan e as suas ilhas periféricas como parte do seu território, embora funcione como um estado independente de facto.

No período que antecedeu as eleições de janeiro, mais de 100 vídeos falsos de âncoras de notícias falsas atacando o presidente cessante de Taiwan, Tsai Ing-wen, foram atribuídos ao Ministério da Segurança do Estado da China, informou o Taipei Times, citando fontes de segurança nacional.

Taiwan elegeu William Lai Ching-te como seu próximo presidente em janeiro (Louise Delmotte/AP)

Assim como a série de vídeos da CGTN, os vídeos careciam de sofisticação, mas mostravam como a IA poderia ajudar a espalhar a desinformação em grande escala, disse Chihhao Yu, codiretor do Centro de Pesquisa Ambiental de Informação de Taiwan (IORG).

Yu disse que sua organização rastreou a disseminação de conteúdo gerado por IA no LINE, Facebook, TikTok e YouTube durante a eleição e descobriu que o conteúdo de áudio gerado por IA era especialmente popular.

“(Os clipes) são frequentemente divulgados nas redes sociais e enquadrados como gravações vazadas/secretas de figuras políticas ou candidatos sobre escândalos de assuntos pessoais ou corrupção”, disse Yu à Al Jazeera.

O áudio deepfake também é mais difícil para os humanos distinguirem do real, em comparação com imagens adulteradas ou geradas por IA, disse Ajder, especialista em IA.

Num caso recente no Reino Unido, onde estão previstas eleições gerais para o segundo semestre de 2024, o líder da oposição Keir Starmer apareceu num clip de áudio deepfake que parecia mostrá-lo a abusar verbalmente de membros do pessoal.

Uma deturpação tão convincente teria sido anteriormente impossível sem um “impressionista impecável”, disse Ajder.

“Atores alinhados ou afiliados ao Estado que têm motivos – eles têm coisas que estão potencialmente tentando alcançar – agora têm uma nova ferramenta para tentar conseguir isso”, disse Ajder.

“E algumas dessas ferramentas apenas os ajudarão a dimensionar coisas que já estavam fazendo. Mas, em alguns contextos, pode muito bem ajudá-los a alcançar esses objetivos, utilizando meios completamente novos, aos quais já é difícil a resposta dos governos.”



Fuente