Para dar às mulheres acadêmicas e outras pessoas focadas em IA o merecido – e devido – tempo de destaque, o TechCrunch publicou uma série de entrevistas focadas em mulheres notáveis ​​​​que contribuíram para a revolução da IA. Publicaremos esses artigos ao longo do ano, à medida que o boom da IA ​​continua, destacando trabalhos importantes que muitas vezes passam despercebidos. Leia mais perfis aqui.

Sarah Myers West é diretora administrativa do instituto AI Now, um instituto de pesquisa americano que estuda as implicações sociais da IA ​​e pesquisas políticas que abordam a concentração de poder na indústria de tecnologia. Anteriormente, ela atuou como consultora sênior em IA na Comissão Federal de Comércio dos EUA e é pesquisadora visitante na Northeastern University, além de colaboradora de pesquisa no Laboratório de Cidadãos e Tecnologia de Cornell.

Resumidamente, como você começou na IA? O que te atraiu para a área?

Passei os últimos 15 anos a interrogar o papel das empresas tecnológicas enquanto actores políticos poderosos à medida que emergiam na linha da frente da governação internacional. No início da minha carreira, ocupei um lugar na primeira fila observando como as empresas de tecnologia dos EUA apareceram em todo o mundo de maneiras que mudaram o cenário político – no Sudeste Asiático, na China, no Oriente Médio e em outros lugares – e escrevi um livro investigando como a indústria o lobby e a regulamentação moldaram as origens do modelo de negócios de vigilância para a Internet, apesar das tecnologias que ofereciam alternativas em teoria que em prática não se concretizou.

Em muitos momentos da minha carreira, perguntei-me: “Porque é que estamos a ficar presos a esta visão tão distópica do futuro?” A resposta tem pouco a ver com a tecnologia em si e muito a ver com políticas públicas e comercialização.

Esse tem sido praticamente o meu projeto desde então, tanto na minha carreira de pesquisa quanto agora no meu trabalho político como codiretor do AI Now. Se a IA faz parte da infraestrutura da nossa vida quotidiana, precisamos de examinar criticamente as instituições que a produzem e garantir que, como sociedade, haja atrito suficiente – seja através de regulamentação ou de organização – para garantir que são as necessidades do público. que são atendidos no final das contas, não os das empresas de tecnologia.

De qual trabalho você mais se orgulha na área de IA?

Estou muito orgulhoso do trabalho que fizemos enquanto estávamos na FTC, que é a agência governamental dos EUA que, entre outras coisas, está na linha de frente da aplicação regulatória da inteligência artificial. Adorei arregaçar as mangas e trabalhar em casos. Pude utilizar os meus métodos de formação como investigador para me envolver em trabalho de investigação, uma vez que o conjunto de ferramentas é essencialmente o mesmo. Foi gratificante poder usar essas ferramentas para responsabilizar diretamente o poder e ver este trabalho ter um impacto imediato no público, seja abordando como a IA é usada para desvalorizar os trabalhadores e aumentar os preços ou combater o comportamento anticompetitivo. das grandes empresas de tecnologia.

Conseguimos trazer a bordo uma equipe fantástica de tecnólogos que trabalham no Escritório de Política Científica e Tecnológica da Casa Branca, e tem sido emocionante ver que o trabalho de base que estabelecemos tem relevância imediata com o surgimento da IA ​​generativa e a importância da infraestrutura em nuvem .

Quais são algumas das questões mais urgentes que a IA enfrenta à medida que ela evolui?

Em primeiro lugar, é que as tecnologias de IA são amplamente utilizadas em contextos altamente sensíveis — em hospitais, escolas, fronteiras, etc. — mas continuam a ser testadas e validadas de forma inadequada. Esta é uma tecnologia propensa a erros e sabemos, através de pesquisas independentes, que esses erros não são distribuídos igualmente; prejudicam desproporcionalmente comunidades que há muito suportam o peso da discriminação. Deveríamos estabelecer um padrão muito, muito mais alto. Mas o que me preocupa é a forma como instituições poderosas estão a utilizar a IA – quer funcione ou não – para justificar as suas acções, desde a utilização de armamento contra civis em Gaza até à privação de direitos dos trabalhadores. Este é um problema não da tecnologia, mas do discurso: como orientamos a nossa cultura em torno da tecnologia e a ideia de que, se a IA estiver envolvida, certas escolhas ou comportamentos tornam-se mais “objectivos” ou de alguma forma são ignorados.

Qual é a melhor maneira de construir IA com responsabilidade?

Precisamos sempre partir da pergunta: Por que construir IA? O que exige o uso de inteligência artificial e a tecnologia de IA é adequada para esse fim? Às vezes a resposta é construir melhorar, e nesse caso os desenvolvedores devem garantir o cumprimento da lei, documentando e validando de forma robusta os seus sistemas e tornando aberto e transparente tudo o que puderem, para que investigadores independentes possam fazer o mesmo. Mas outras vezes a resposta não é construir: não precisamos de mais armas ou tecnologia de vigilância “construídas de forma responsável”. O uso final é importante para esta questão e é por onde precisamos começar.

Fuente