Foto do ex-chefe de alinhamento da OpenAI, Jan Leike.  Ele sorri contra um fundo marrom-acinzentado.

OpenAI tem criada um novo Comitê de Segurança e Proteção menos de duas semanas após a empresa dissolveu a equipe encarregada de proteger a humanidade das ameaças existenciais da IA. Esta última iteração do grupo responsável pelas proteções de segurança da OpenAI incluirá dois membros do conselho e o CEO Sam Altman, levantando questões sobre se a mudança é pouco mais do que um teatro de autopoliciamento em meio a uma corrida alucinante por lucro e domínio ao lado parceiro Microsoft.

O Comitê de Segurança e Proteção, formado pelo conselho da OpenAI, será liderado pelos membros do conselho Bret Taylor (Presidente), Nicole Seligman, Adam D’Angelo e Sam Altman (CEO). A nova equipe segue As demissões de alto perfil do cofundador Ilya Sutskever e Jan Leikeque levantou mais do que algumas sobrancelhas. Sua antiga “Equipe de Superalinhamento” era criado apenas em julho passado.

Após sua renúncia, Leike escreveu em um tópico do X (Twitter) em 17 de maio que, embora acreditasse na missão central da empresa, ele saiu porque os dois lados (produto e segurança) “chegaram a um ponto de ruptura”. Leike acrescentou que estava “preocupado por não estarmos em uma trajetória” para abordar adequadamente as questões relacionadas à segurança à medida que a IA se torna mais inteligente. Ele postou que a equipe de Superalinhamento estava recentemente “navegando contra o vento” dentro da empresa e que “a cultura e os processos de segurança ficaram em segundo plano em relação aos produtos brilhantes”.

Uma abordagem cínica seria que uma empresa focada principalmente em “produtos brilhantes” – ao mesmo tempo que tenta defender-se do golpe de relações públicas de desvios de segurança de alto perfil – poderia criar uma nova equipa de segurança liderada pelas mesmas pessoas que aceleram em direcção a esses produtos brilhantes.

Foto do ex-chefe de alinhamento da OpenAI, Jan Leike.  Ele sorri contra um fundo marrom-acinzentado.

Ex-chefe de alinhamento da OpenAI, Jan Leike (Jan Leike/X)

As saídas de segurança no início deste mês não foram as únicas notícias preocupantes da empresa recentemente. Também lançou (e puxou rapidamente) um novo modelo de voz que parecia notavelmente com a duas vezes indicada ao Oscar Scarlett Johansson. O Jojo Coelho O ator então revelou que OpenAI Sam Altman havia buscado seu consentimento para usar sua voz para treinar um modelo de IA, mas ela recusou.

Em comunicado ao Engadget, a equipe de Johansson disse que ficou chocada com o fato de a OpenAI ter lançado um talento vocal que “soava tão estranhamente semelhante” a ela após obter sua autorização. O comunicado acrescentou que “os amigos mais próximos e os meios de comunicação de Johansson não sabiam a diferença”.

OpenAI também retrocedeu em acordos de não depreciação exigia dos executivos que estavam saindo, mudando de tom para dizer que não os aplicaria. Antes disso, a empresa forçava os funcionários que saíam da empresa a escolher entre poder falar contra a empresa ou manter o patrimônio adquirido que ganhavam.

O Comitê de Segurança e Proteção planeja “avaliar e desenvolver ainda mais” os processos e salvaguardas da empresa durante os próximos 90 dias. Depois disso, o grupo compartilhará suas recomendações com toda a diretoria. Depois de toda a equipa de liderança rever as suas conclusões, “partilhará publicamente uma atualização sobre as recomendações adotadas de uma forma que seja consistente com a segurança e proteção”.

Em sua postagem no blog anunciando o novo Comitê de Segurança e Proteção, a OpenAI confirmou que a empresa está atualmente treinando seu próximo modelo, que terá sucesso GPT-4. “Embora estejamos orgulhosos de construir e lançar modelos que são líderes do setor em termos de capacidades e segurança, acolhemos com satisfação um debate robusto neste momento importante”, escreveu a empresa.

Fuente