OpenAI afirma que o controverso projeto de lei de IA da Califórnia prejudicará a inovação

A OpenAI argumentou que tal regulamentação precisa vir de agências federais, e não estaduais.

A OpenAI opõe-se a um projeto de lei na Califórnia que imporia novos requisitos de segurança às empresas de inteligência artificial, juntando-se a um coro de líderes tecnológicos e políticos que recentemente se manifestaram contra a controversa legislação.

A startup com sede em São Francisco disse que o projeto prejudicaria a inovação na indústria de IA e argumentou que a regulamentação sobre esta questão deveria vir do governo federal e não dos estados, de acordo com uma carta enviada ao gabinete do senador estadual da Califórnia, Scott Wiener, na quarta-feira e obtida. pela Bloomberg News. A carta também levantou preocupações de que o projeto de lei, se aprovado, poderia ter implicações “amplas e significativas” para a competitividade dos EUA em IA e segurança nacional.

O SB 1047, apresentado por Wiener, visa promulgar o que seu escritório chamou de “padrões de segurança de bom senso” para empresas que fabricam grandes modelos de IA acima de um tamanho e limite de custo específicos. O projeto de lei, aprovado no Senado estadual em maio, exigiria que as empresas de IA tomassem medidas para evitar que seus modelos causassem “danos críticos”, como permitir o desenvolvimento de armas biológicas que podem causar vítimas humanas em massa ou contribuir com mais de US$ 500 milhões. em danos financeiros.

De acordo com o projeto de lei, as empresas precisariam garantir que os sistemas de IA possam ser desligados, tomar “cuidado razoável” para que os modelos de inteligência artificial não causem catástrofes e divulgar uma declaração de conformidade ao procurador-geral da Califórnia. Se as empresas não seguirem esses requisitos, poderão ser processadas e enfrentar penalidades civis.

O projeto de lei recebeu forte oposição de muitas grandes empresas de tecnologia, startups e capitalistas de risco, que dizem que é um exagero para uma tecnologia ainda em sua infância e poderia sufocar a inovação tecnológica no estado. Alguns críticos do projeto levantaram preocupações de que ele poderia expulsar as empresas de IA da Califórnia. A OpenAI ecoou essas preocupações na carta ao escritório de Wiener.

“A revolução da IA ​​está apenas começando, e o status único da Califórnia como líder global em IA está alimentando o dinamismo econômico do estado”, escreveu Jason Kwon, diretor de estratégia da OpenAI, na carta. “O SB 1047 ameaçaria esse crescimento, desaceleraria o ritmo da inovação e levaria os engenheiros e empresários de classe mundial da Califórnia a deixar o estado em busca de maiores oportunidades em outro lugar.”

A OpenAI suspendeu as conversas sobre a expansão de seus escritórios em São Francisco em meio a preocupações com a incerteza com o cenário regulatório da Califórnia, de acordo com uma pessoa familiarizada com os planos imobiliários da empresa que pediu anonimato para discutir conversas internas.

Em comunicado, Wiener defendeu a legislação proposta e disse que a carta da OpenAI “não critica uma única disposição do projeto de lei”. Ele também disse que o argumento sobre a saída de talentos de IA do estado “não faz sentido” porque a lei se aplicaria a qualquer empresa que conduza negócios na Califórnia, independentemente de onde seus escritórios estejam localizados. Um representante do gabinete de Wiener apontou para dois proeminentes especialistas em segurança nacional que apoiaram publicamente o projecto de lei.

“Resumindo: o SB 1047 é um projeto de lei altamente razoável que pede aos grandes laboratórios de IA que façam o que já se comprometeram a fazer, ou seja, testar seus grandes modelos quanto a riscos catastróficos de segurança”, disse Wiener. “O SB 1047 está bem calibrado com o que sabemos sobre os riscos previsíveis de IA e merece ser promulgado.”

Os críticos argumentam que o projeto de lei prejudicará a inovação ao exigir que as empresas apresentem detalhes sobre seus modelos ao governo estadual, bem como impedirá que pequenos desenvolvedores de código aberto criem startups por medo de serem processados.

Na semana passada, num esforço para resolver parte da resistência, Wiener alterou a legislação proposta para eliminar a responsabilidade criminal para empresas de tecnologia que não estejam em conformidade, adicionou uma proteção para pequenos desenvolvedores de modelos de código aberto e livrou-se da nova proposta “Frontier Divisão Modelo.” Anteriormente, os desenvolvedores poderiam incorrer em penalidades criminais por enviarem intencionalmente informações falsas sobre seus planos de segurança ao governo, sob pena de perjúrio. A rival da OpenAI, Anthropic, que tem a reputação de ser mais orientada para a segurança do que os seus concorrentes, já disse anteriormente que apoiaria o projeto de lei com algumas destas alterações.

Mas mesmo depois de as alterações terem sido introduzidas, o projecto de lei continuou a reunir opositores, incluindo a ex-presidente da Câmara, Nancy Pelosi, que divulgou um comunicado qualificando-o de “mal informado”. Um grupo de membros democratas do Congresso também se opôs publicamente ao projeto. A OpenAI e outras empresas da indústria de tecnologia contrataram lobistas que têm trabalhado no projeto de lei, de acordo com documentos estaduais.

Na carta, a OpenAI disse que está trabalhando com o escritório de Wiener há vários meses no projeto de lei, mas no final das contas não o apoia.

“Devemos proteger a vantagem da IA ​​​​da América com um conjunto de políticas federais – em vez de estaduais – que possam fornecer clareza e certeza para laboratórios e desenvolvedores de IA, ao mesmo tempo que preservam a segurança pública”, de acordo com a carta. A OpenAI também disse que ter uma estrutura federal clara “ajudaria os EUA a manter a sua vantagem competitiva contra países como a China e a promover a governação e os valores democráticos em todo o mundo”.

A OpenAI argumentou que agências federais como o Escritório de Política Científica e Tecnológica da Casa Branca, o Departamento de Comércio e o Conselho de Segurança Nacional são mais adequadas para governar riscos críticos de IA do que agências governamentais estaduais da Califórnia. A empresa disse que apoia várias propostas de legislação federal, como a Lei do Futuro da Inovação em IA, que fornece apoio do Congresso para o novo Instituto de Segurança de IA dos EUA.

“Como afirmei repetidamente, concordo que idealmente o Congresso cuidaria disso”, disse Wiener no comunicado. “No entanto, o Congresso não o fez e estamos céticos que o Congresso o fará. De acordo com o argumento da OpenAI sobre o Congresso, a Califórnia nunca teria aprovado sua lei de privacidade de dados e, dada a falta de ação do Congresso, os californianos não teriam qualquer proteção para seus dados. .”

O SB 1047 deve ser votado na assembleia estadual da Califórnia ainda este mês. Se aprovado, acabará por passar para a mesa do governador da Califórnia, Gavin Newsom. Embora Newsom não tenha indicado se vetará o projeto de lei, ele falou publicamente sobre a necessidade de promover a inovação em IA na Califórnia e, ao mesmo tempo, mitigar seus riscos.

(Esta história não foi editada pela equipe da NDTV e é gerada automaticamente a partir de um feed distribuído.)

Fuente