Nus falsos de Taylor Swift são ‘alarmantes’ – Casa Branca

A empresa-mãe do Facebook e do Instagram irá detectar e rotular vídeos, fotos e áudio criados por robôs

Meta começará a rotular conteúdo gerado por IA no Facebook e Instagram a partir de maio, anunciou a gigante da tecnologia. Até agora, a empresa tinha uma política de exclusão desse conteúdo criado por computador.

A empresa aplicará “Feito com IA” rótulos para conteúdo de foto, áudio ou vídeo criado com inteligência artificial, explicou em uma postagem de blog na sexta-feira. Esses rótulos serão aplicados automaticamente quando o Meta detectar “sinais compartilhados pela indústria” de conteúdo de IA, ou quando os usuários divulgam voluntariamente que algo que publicam foi criado com IA.

Se o conteúdo em questão contiver “um risco particularmente alto de enganar materialmente o público sobre uma questão de importância”, um rótulo mais proeminente pode ser aplicado, afirmou Meta.

Atualmente, a política de ‘mídia manipulada’ do Meta cobre apenas vídeos que foram “criado ou alterado pela IA para fazer uma pessoa parecer dizer algo que não disse.” O conteúdo que viola esta política é removido em vez de rotulado.

A nova política expande esta rede para vídeos que mostram alguém “fazendo algo que eles não fizeram”, e para fotos e áudio. No entanto, é mais flexível do que a abordagem antiga, na medida em que o conteúdo em questão poderá permanecer online.

A nova política expande esta rede para vídeos que mostram alguém “fazendo algo que eles não fizeram”, e para fotos e áudio. No entanto, é mais flexível do que a abordagem antiga, na medida em que o conteúdo em questão poderá permanecer online.

“Nossa política de mídia manipulada foi escrita em 2020, quando o conteúdo realista gerado por IA era raro e a preocupação geral era com os vídeos”, a empresa explicou. “Nos últimos quatro anos, e particularmente no ano passado, as pessoas desenvolveram outros tipos de conteúdo realista gerado por IA, como áudio e fotos, e esta tecnologia está evoluindo rapidamente.”

Desde o início deste ano, os reguladores dos EUA anunciaram uma banimento em IA gerada “chamadas automáticas” depois que os residentes de New Hampshire foram contatados por Joe Biden, gerado por computador, instando-os a ficar de fora das eleições primárias democratas do estado, enquanto a Casa Branca prometeu “tratar” o problema da pornografia não consensual depois que fotos falsas de nudez da estrela pop Taylor Swift se espalharam nas redes sociais. O ex-presidente dos EUA, Donald Trump, também opinou sobre o assunto, acusando os meios de comunicação dos EUA de usar IA para fazê-lo parecer mais gordo nas fotos.

A Meta não é a única Big Tech a combater conteúdo artificial com rótulos. Desde o ano passado, o TikTok pede aos usuários que rotulem seu próprio conteúdo gerado por IA, ao mesmo tempo que dá a outros usuários a opção de denunciar conteúdo que suspeitam ter sido gerado por IA. O YouTube introduziu um sistema semelhante baseado em honra no mês passado.

Com eleições cruciais a terem lugar na UE em Junho e nos EUA em Novembro, os legisladores pressionaram as empresas tecnológicas a tomar medidas contra as ameaças criadas pela IA. “deepfakes”, que eles argumentam que poderia ser usado para enganar os eleitores. No início deste ano, Microsoft, Meta e Google juntaram-se a mais de uma dúzia de outros líderes da indústria em promissor para “ajudar a evitar que conteúdo enganoso de IA interfira nas eleições globais deste ano.”

No entanto, plataformas como TikTok e YouTube que usam sistemas de honra poderão em breve ser forçadas a adotar a abordagem do Meta. De acordo com uma disposição da Lei de IA da UE, que entrará em vigor no próximo verão, as empresas de tecnologia serão multadas por não detectarem e identificarem conteúdo criado por IA, incluindo texto “publicado com o objetivo de informar o público sobre assuntos de interesse público.”

Fuente