A vice-presidente Kamala Harris faz comentários durante um evento de campanha com o presidente Joe Biden em Raleigh, NC, terça-feira, 26 de março de 2024. (AP Photo/Stephanie Scarbrough)

Já se passaram cinco meses desde que o presidente Joe Biden assinou uma ordem executiva (EO) para abordar os rápidos avanços na inteligência artificial. A Casa Branca dá hoje mais um passo em frente na implementação da OE com uma política que visa regular a utilização da IA ​​pelo governo federal. As salvaguardas que as agências devem implementar incluem, entre outras coisas, formas de mitigar o risco de enviesamento algorítmico.

“Acredito que todos os líderes do governo, da sociedade civil e do setor privado têm o dever moral, ético e social de garantir que a inteligência artificial seja adotada e avançada de uma forma que proteja o público de danos potenciais, garantindo ao mesmo tempo que todos possam desfrutar seus benefícios”, disse a vice-presidente Kamala Harris aos repórteres em uma teleconferência.

Harris anunciou três requisitos vinculativos sob uma nova política do Escritório de Gestão e Orçamento (OMB). Em primeiro lugar, as agências terão de garantir que quaisquer ferramentas de IA que utilizem “não põem em perigo os direitos e a segurança do povo americano”. Eles têm até 1º de dezembro para garantir que tenham “salvaguardas concretas” em vigor para garantir que os sistemas de IA que empregam não afetem a segurança ou os direitos dos americanos. Caso contrário, a agência terá de parar de utilizar um produto de IA, a menos que os seus líderes possam justificar que o desmantelamento do sistema teria um impacto “inaceitável” em operações críticas.

Impacto nos direitos e segurança dos americanos

De acordo com a política, considera-se que um sistema de IA tem impacto na segurança se “for usado ou se espera que seja usado, em condições do mundo real, para controlar ou influenciar significativamente os resultados de” certas atividades e decisões. Isso inclui a manutenção da integridade eleitoral e da infraestrutura de votação; controlar funções críticas de segurança de infra-estruturas, como sistemas de água, serviços de emergência e redes eléctricas; veículos autônomos; e operar os movimentos físicos de robôs em “um local de trabalho, escola, habitação, transporte, ambiente médico ou policial”.

A menos que tenham salvaguardas adequadas em vigor ou possam justificar a sua utilização, as agências também terão de abandonar os sistemas de IA que infringem os direitos dos americanos. Os objetivos que a política presume impactar os direitos definidos incluem o policiamento preditivo; monitoramento de mídias sociais para aplicação da lei; detecção de plágio nas escolas; bloquear ou limitar a fala protegida; detectar ou medir emoções e pensamentos humanos; triagem pré-emprego; e “replicar a imagem ou voz de uma pessoa sem consentimento expresso”.

Quando se trata de IA generativaa política estipula que as agências devem avaliar os benefícios potenciais. Todos eles também precisam de “estabelecer salvaguardas adequadas e mecanismos de supervisão que permitam a utilização de IA generativa na agência sem representar riscos indevidos”.

Requisitos de transparência

O segundo requisito forçará as agências a serem transparentes sobre os sistemas de IA que utilizam. “Hoje, o presidente Biden e eu exigimos que todos os anos, as agências governamentais dos EUA publiquem online uma lista dos seus sistemas de IA, uma avaliação dos riscos que esses sistemas podem representar e como esses riscos estão a ser geridos”, disse Harris.

Como parte deste esforço, as agências terão de publicar códigos, modelos e dados de IA de propriedade do governo, desde que isso não prejudique o público ou as operações governamentais. Se uma agência não puder divulgar casos de uso específicos de IA por motivos de confidencialidade, ela ainda terá que relatar métricas

A vice-presidente Kamala Harris faz comentários durante um evento de campanha com o presidente Joe Biden em Raleigh, NC, terça-feira, 26 de março de 2024. (AP Photo/Stephanie Scarbrough)

IMPRENSA ASSOCIADA

Por último, mas não menos importante, as agências federais precisarão de supervisão interna do uso da IA. Isso inclui cada departamento nomear um diretor de IA para supervisionar todo o uso da IA ​​por uma agência. “Isso é para garantir que a IA seja usada de forma responsável, entendendo que devemos ter líderes seniores em todo o nosso governo que sejam especificamente encarregados de supervisionar a adoção e o uso da IA”, observou Harris. Muitas agências também precisarão ter conselhos de governança de IA em funcionamento até 27 de maio.

O vice-presidente acrescentou que figuras proeminentes dos sectores público e privado (incluindo líderes dos direitos civis e cientistas da computação) ajudaram a moldar a política juntamente com líderes empresariais e juristas.

O OMB sugere que, ao adoptar as salvaguardas, a Administração de Segurança dos Transportes poderá ter de permitir que os viajantes das companhias aéreas optem por não participar nas verificações de reconhecimento facial sem perderem o seu lugar na fila ou enfrentarem atrasos. Também sugere que deveria haver supervisão humana sobre coisas como detecção de fraudes de IA e decisões de diagnóstico no sistema federal de saúde.

Como você pode imaginar, as agências governamentais já estão usando sistemas de IA de diversas maneiras. A Administração Nacional Oceânica e Atmosférica está a trabalhar em modelos de inteligência artificial para ajudá-la a prever condições meteorológicas extremas, inundações e incêndios florestais com maior precisão, enquanto a Administração Federal de Aviação está a utilizar um sistema para ajudar a gerir o tráfego aéreo nas principais áreas metropolitanas para melhorar o tempo de viagem.

“A IA apresenta não apenas riscos, mas também uma tremenda oportunidade para melhorar os serviços públicos e fazer progressos nos desafios sociais, como enfrentar as alterações climáticas, melhorar a saúde pública e promover oportunidades económicas equitativas”, disse aos jornalistas a diretora do OMB, Shalanda Young. “Quando usada e supervisionada de forma responsável, a IA pode ajudar as agências a reduzir os tempos de espera em serviços governamentais críticos para melhorar a precisão e expandir o acesso a serviços públicos essenciais.”

Esta política é a mais recente de uma série de esforços para regular o domínio da IA, em rápida evolução. Embora a União Europeia tenha aprovou um conjunto abrangente de regras para uso de IA no blocoe há contas federais no pipelineos esforços para regulamentar a IA nos EUA adotaram uma abordagem mais fragmentada a nível estatal. Este mês, Utah promulgou uma lei para proteger os consumidores contra fraudes de IA. No Tennessee, a Lei de Segurança de Voz e Imagem de Garantia de Semelhança (também conhecida como Lei Elvis – sério) é uma tentativa para proteger os músicos de deepfakes, ou seja, ter suas vozes clonado sem permissão.

Fuente