OpenAI e Anthropic Sign fazem acordos com o governo dos EUA para pesquisa e testes de IA

Os acordos também permitirão a investigação colaborativa para avaliar as capacidades e os riscos dos modelos de IA.

As startups de IA OpenAI e Anthropic assinaram acordos com o governo dos Estados Unidos para pesquisa, teste e avaliação de seus modelos de inteligência artificial, disse o Instituto de Segurança de Inteligência Artificial dos EUA na quinta-feira.

Os acordos inéditos chegam num momento em que as empresas enfrentam o escrutínio regulamentar sobre a utilização segura e ética das tecnologias de IA.

Os legisladores da Califórnia devem votar um projeto de lei ainda esta semana para regulamentar amplamente como a IA é desenvolvida e implantada no estado.

“A IA segura e confiável é crucial para o impacto positivo da tecnologia. Nossa colaboração com o AI Safety Institute dos EUA aproveita sua ampla experiência para testar rigorosamente nossos modelos antes da implantação generalizada”, disse Jack Clark, cofundador e chefe de política da Anthropic, apoiado pela Amazon e Alphabet.

De acordo com os acordos, o AI Safety Institute dos EUA terá acesso a novos modelos importantes da OpenAI e da Anthropic antes e após seu lançamento público.

Os acordos também permitirão a investigação colaborativa para avaliar as capacidades dos modelos de IA e os riscos a eles associados.

“Acreditamos que o instituto tem um papel crítico a desempenhar na definição da liderança dos EUA no desenvolvimento responsável da inteligência artificial e esperamos que o nosso trabalho conjunto ofereça uma estrutura sobre a qual o resto do mundo possa construir”, disse Jason Kwon, diretor de estratégia da fabricante ChatGPT. OpenAI.

“Esses acordos são apenas o começo, mas são um marco importante enquanto trabalhamos para ajudar a administrar com responsabilidade o futuro da IA”, disse Elizabeth Kelly, diretora do Instituto de Segurança de IA dos EUA.

O instituto, que faz parte do Instituto Nacional de Padrões e Tecnologia (NIST) do departamento de comércio dos EUA, também colaborará com o Instituto de Segurança de IA do Reino Unido e fornecerá feedback às empresas sobre possíveis melhorias de segurança.

O Instituto de Segurança de IA dos EUA foi lançado no ano passado como parte de uma ordem executiva da administração do presidente Joe Biden para avaliar riscos conhecidos e emergentes de modelos de inteligência artificial.

(Esta história não foi editada pela equipe da NDTV e é gerada automaticamente a partir de um feed distribuído.)

Fuente