Um banco do Reino Unido, o Starling Bank, emitiu um alerta sobre uma nova onda de golpes que usam inteligência artificial para replicar as vozes das pessoas. Os fraudadores podem criar clones de voz convincentes a partir de apenas alguns segundos de áudio, frequentemente encontrados em vídeos online, disse o banco em comunicado à imprensa.
O credor apenas online disse que esses golpes são altamente eficazes, com milhões de pessoas potencialmente em risco. A pesquisa do banco descobriu que mais de um quarto dos entrevistados foram alvo de tais golpes no ano passado e muitos não tinham conhecimento da ameaça. CNN relatado.
“As pessoas publicam regularmente conteúdo online que contém gravações de suas vozes, sem nunca imaginar que isso as torna mais vulneráveis a fraudadores”, disse Lisa Grahame, diretora de segurança da informação do Starling Bank, no comunicado à imprensa.
De acordo com a pesquisa, 46% dos entrevistados não sabiam da existência de tais golpes e que 8% enviariam tanto dinheiro quanto solicitado por um amigo ou familiar, mesmo que achassem a ligação estranha.
Para se protegerem, as pessoas são aconselhadas a estabelecer uma “frase segura” com seus entes queridos. Esta frase exclusiva pode ser usada para verificar a identidade durante chamadas telefônicas. O banco desaconselhou o compartilhamento da frase segura por meio de texto, o que poderia facilitar a descoberta dos golpistas, mas, se compartilhada neste dia, a mensagem deverá ser excluída assim que a outra pessoa a visualizar.
À medida que a tecnologia de IA continua a avançar, aumentam as preocupações sobre o seu potencial de utilização indevida. Os criadores do ChatGPT e do OpenAI reconheceram até os riscos associados às ferramentas de replicação de voz.