OpenAI afirma estar dedicada à segurança em carta aos legisladores dos EUA

O CEO Sam Altman também acessou o Twitter para reafirmar o compromisso da empresa com a segurança da IA

A OpenAI, respondendo a perguntas de legisladores dos EUA, disse que está empenhada em garantir que suas poderosas ferramentas de IA não causem danos e que os funcionários tenham maneiras de levantar preocupações sobre práticas de segurança.

A startup procurou tranquilizar os legisladores sobre seu compromisso com a segurança depois que cinco senadores, incluindo o senador Brian Schatz, um democrata do Havaí, levantaram questões sobre as políticas da OpenAI em uma carta dirigida ao CEO Sam Altman.

“Nossa missão é garantir que a inteligência artificial beneficie toda a humanidade e estamos empenhados em implementar protocolos de segurança rigorosos em todas as fases do nosso processo”, disse o diretor de estratégia, Jason Kwon, na quarta-feira, em uma carta aos legisladores.

Especificamente, a OpenAI disse que continuará a cumprir a sua promessa de alocar 20% dos seus recursos computacionais para pesquisas relacionadas à segurança ao longo de vários anos.

A empresa, em sua carta, também se comprometeu a não fazer cumprir acordos de não depreciação para funcionários atuais e ex-funcionários, exceto em casos específicos de acordo mútuo de não depreciação. Os antigos limites da OpenAI para funcionários que deixaram a empresa foram examinados por serem excepcionalmente restritivos. Desde então, a OpenAI disse que mudou suas políticas.

Mais tarde, Altman elaborou sua estratégia nas redes sociais.

“Nossa equipe tem trabalhado com o Instituto de Segurança de IA dos EUA em um acordo onde forneceríamos acesso antecipado ao nosso próximo modelo básico para que possamos trabalhar juntos para impulsionar a ciência das avaliações de IA”, escreveu ele no X.

Kwon, em sua carta, também citou a recente criação de um comitê de segurança e proteção, que está atualmente passando por uma revisão dos processos e políticas da OpenAI.

Nos últimos meses, a OpenAI enfrentou uma série de controvérsias em torno de seu compromisso com a segurança e a capacidade dos funcionários de se manifestarem sobre o assunto. Vários membros importantes das suas equipas relacionadas com a segurança, incluindo o antigo cofundador e cientista-chefe Ilya Sutskever, demitiram-se, juntamente com outro líder da equipa da empresa dedicada à avaliação dos riscos de segurança a longo prazo, Jan Leike, que partilhou publicamente preocupações de que a empresa estava priorizando o desenvolvimento de produtos em detrimento da segurança.

(Exceto a manchete, esta história não foi editada pela equipe da NDTV e é publicada a partir de um feed distribuído.)



Fuente