Sam Altman

O governador da Califórnia, Gavin Newsom, vetou no domingo um projeto de lei de “segurança” da inteligência artificial que visava restringir a crescente indústria de IA.

O projeto, proposto pelo senador estadual democrata Scott Weiner, mencionou “segurança” 42 vezes e delineou vários guarda-corpos que pretendia colocar em prática.

Isso incluiu “implementar a capacidade de decretar imediatamente um desligamento total” de qualquer modelo de IA, bem como fazer com que os desenvolvedores “implementassem um protocolo de segurança e proteção escrito e separado” que estaria disponível publicamente.

O SB 1047 também exigiria que os desenvolvedores de IA avançassem “no desenvolvimento e implantação de inteligência artificial que seja segura, ética, equitativa e sustentável”. Isto seria conseguido através, entre outras medidas, da “expansão do acesso aos recursos computacionais” – embora o projeto de lei não diga a quem em particular.

Newsom já havia sugerido que vetaria o SB 1047 antes de domingo. O governador democrata, ao falar na conferência Dreamforce da Salesforce no início deste mês, disse que a Califórnia precisa estar na vanguarda da regulamentação da IA. Mas o SB 1047, disse ele, não era a maneira certa de fazer isso, porque “teria um efeito inibidor na indústria”.

Após seu veto no domingo, Newsom disse que o projeto era “bem intencionado”, mas insuficiente.

“O SB 1047 não leva em consideração se um sistema de IA é implantado em ambientes de alto risco, envolve tomadas de decisão críticas ou o uso de dados confidenciais”, disse Newsom em comunicado. “Em vez disso, o projeto de lei aplica padrões rigorosos até mesmo às funções mais básicas – desde que um grande sistema o implemente. Não acredito que esta seja a melhor abordagem para proteger o público das ameaças reais representadas pela tecnologia.”

Além de Newsom, o cientista-chefe de IA da OpenAI e da Meta, Yann LeCun, também se manifestou recentemente contra o projeto.

O projeto de lei afirmava que se a IA não fosse “devidamente sujeita a controles humanos”, poderia haver riscos significativos para a segurança pública. Isso incluiria modelos de IA desonestos “permitindo a criação e a proliferação de armas de destruição em massa”, bem como ataques cibernéticos líderes.

No domingo, Weiner disse que o veto era “um revés para todos os que acreditam na supervisão de grandes corporações que tomam decisões críticas que afetam a segurança e o bem-estar do público e o futuro do planeta”.

Fuente