O preconceito político da Wikipédia se espalhando para a IA – estudo

A OpenAI busca aumentar substancialmente a capacidade de raciocínio de seus modelos, disse a agência

OpenAI, criadora do assistente virtual ChatGPT, está trabalhando em uma nova abordagem para sua tecnologia de inteligência artificial, informou a Reuters.

Como parte do projeto, de codinome ‘Strawberry’, a empresa apoiada pela Microsoft está tentando melhorar drasticamente as capacidades de raciocínio de seus modelos, disse a agência em um artigo na sexta-feira.

A maneira como o Strawberry funciona é “um segredo bem guardado” mesmo dentro da própria OpenAI, disse uma pessoa familiarizada com o assunto à Reuters.

A fonte disse que o projeto envolve uma “maneira especializada” de processar um modelo de IA depois de ele ter sido pré-treinado em extensos conjuntos de dados. O seu objectivo é permitir que a inteligência artificial não apenas gere respostas a perguntas, mas também planeie com antecedência suficiente para conduzir as chamadas “pesquisa profunda”, navegando na Internet de forma autônoma e confiável, explicou a fonte.

A Reuters disse que revisou um documento interno da OpenAI, detalhando um plano de como a empresa norte-americana poderia implantar o Strawberry para realizar pesquisas. No entanto, a agência disse que não foi capaz de estabelecer quando a tecnologia estará disponível ao público. A fonte descreveu o projeto como um “trabalho em progresso.”

Quando abordado sobre o assunto, um porta-voz da OpenAI disse à Reuters: “Queremos que nossos modelos de IA vejam e entendam o mundo mais como nós (humanos). A pesquisa contínua sobre novas capacidades de IA é uma prática comum na indústria, com a crença partilhada de que estes sistemas irão melhorar o raciocínio ao longo do tempo.” O porta-voz não se dirigiu diretamente a Strawberry em sua resposta.

Os atuais modelos de linguagem de IA são capazes de resumir grandes quantidades de texto e montar uma prosa coerente mais rapidamente do que as pessoas, mas geralmente enfrentam dificuldades com soluções de bom senso que são intuitivas para os humanos. Quando isso acontece, os modelos muitas vezes “alucinar” tentando representar informações falsas ou enganosas como fatos.

Pesquisadores que conversaram com a Reuters disseram que o raciocínio, que até agora escapou dos modelos de IA, é fundamental para que a inteligência artificial atinja o nível humano ou super-humano.

Na semana passada, um dos maiores especialistas mundiais em inteligência artificial e pioneiro em aprendizagem profunda, Yoshua Bengio, alertou novamente sobre o “muitos riscos”, incluindo possível “extinção da humanidade”, representada por empresas privadas que correm para alcançar a IA de nível humano e além.

“Entidades que são mais inteligentes que os humanos e que têm objetivos próprios: temos certeza de que agirão em prol do nosso bem-estar?” disse o professor da Universidade de Montreal e diretor científico do Instituto de Algoritmos de Aprendizagem de Montreal (MILA) em um artigo em seu site.

Bengio instou a comunidade científica e a sociedade como um todo a tomarem medidas “um enorme esforço coletivo” para descobrir maneiras de manter a IA avançada sob controle.

Você pode compartilhar esta história nas redes sociais:

Fuente