A IA pode fazer com que as pessoas se relacionem mais com os bots do que com os humanos, preocupa a OpenAI

Socializar com IA também pode tornar os usuários menos adeptos do relacionamento com humanos (representacional).

São Francisco, Estados Unidos:

A OpenAI afirma estar preocupada que um recurso de voz realista para sua inteligência artificial possa fazer com que as pessoas se relacionem com o bot às custas das interações humanas.

A empresa sediada em São Francisco citou literatura que indica que conversar com IA como se faria com uma pessoa pode resultar em confiança perdida e que a alta qualidade da voz GPT-4o pode exacerbar esse efeito.

“A antropomorfização envolve atribuir comportamentos e características semelhantes aos humanos a entidades não humanas, como modelos de IA”, disse a OpenAI na quinta-feira em um relatório sobre o trabalho de segurança que está realizando em uma versão ChatGPT-4o de sua IA.

“Este risco pode ser aumentado pelos recursos de áudio do GPT-4o, que facilitam interações mais humanas com o modelo.”

A OpenAI disse que notou testadores conversando com a IA de maneiras que sugeriam laços compartilhados, como lamentando em voz alta que aquele era o último dia juntos.

Ele disse que esses casos parecem benignos, mas devem ser estudados para ver como podem evoluir ao longo de longos períodos de tempo.

Socializar com IA também pode tornar os usuários menos adeptos ou inclinados quando se trata de relacionamentos com humanos, especulou a OpenAI.

“A interação prolongada com o modelo pode influenciar as normas sociais”, afirma o relatório.

“Por exemplo, nossos modelos são deferenciais, permitindo que os usuários interrompam e ‘peguem o microfone’ a qualquer momento, o que, embora esperado para uma IA, seria antinormativo nas interações humanas.”

A capacidade da IA ​​de lembrar detalhes enquanto conversa e de realizar tarefas também pode tornar as pessoas excessivamente dependentes da tecnologia, de acordo com a OpenAI.

“As preocupações recentes compartilhadas pela OpenAI em torno da dependência potencial do modo de voz do ChatGPT indicam o que muitos já começaram a perguntar: é hora de fazer uma pausa e considerar como esta tecnologia afeta a interação e os relacionamentos humanos?” disse Alon Yamin, cofundador e CEO da plataforma de detecção anti-plágio de IA Copyleaks.

Ele disse que a IA nunca deveria substituir a interação humana real.

A OpenAI disse que testará ainda mais como os recursos de voz em sua IA podem fazer com que as pessoas se tornem emocionalmente apegadas.

As equipes que testaram os recursos de voz do ChatGPT-4o também foram capazes de induzi-lo a repetir informações falsas e produzir teorias de conspiração, levantando preocupações de que o modelo de IA poderia ser instruído a fazê-lo de forma convincente.

A OpenAI foi forçada a pedir desculpas à atriz Scarlett Johansson em junho por usar algo muito semelhante à sua voz em seu último chatbot, destacando a tecnologia de clonagem de voz.

Embora a OpenAI tenha negado que a voz usada fosse a de Johansson, o caso não foi ajudado pelo CEO Sam Altman, sinalizando o novo modelo com uma mensagem de uma palavra nas redes sociais – “Ela”.

Johansson dublou um personagem de IA no filme “Her”, que Altman disse anteriormente ser seu filme favorito sobre tecnologia.

O filme de 2013 é estrelado por Joaquin Phoenix como um homem que se apaixona por uma assistente de IA chamada Samantha.

(Exceto a manchete, esta história não foi editada pela equipe da NDTV e é publicada a partir de um feed distribuído.)

Fuente