Meta está testando recomendações de conteúdo geradas por IA no feed principal do Facebook e Instagram.

No ano passado, a Meta tornou seu assistente de IA tão onipresente em seus aplicativos que é quase difícil acreditar que a Meta AI tenha apenas um ano de idade. Mas, um ano após o seu lançamento no último Connecta empresa está infundindo Meta AI com uma carga de novos recursos na esperança de que mais pessoas considerem seu assistente útil.

Uma das maiores mudanças é que os usuários poderão conversar por voz com Meta AI. Até agora, a única maneira de falar com Meta AI era através dos óculos inteligentes Ray-Ban Meta. E como no lançamento do Meta AI no ano passado, a empresa convocou um grupo de celebridades para a mudança.

Meta AI poderá assumir as vozes de Awkwafina, Dame Judi Dench, John Cena, Keegan Michael Key e Kristen Bell, além de um punhado de vozes mais genéricas. Embora a empresa espere que as celebridades vendam aos usuários as novas habilidades do Meta AI, é importante notar que a empresa silenciosamente descontinuado suas personalidades de chatbot de celebridades lançadas no Connect do ano passado.

Além do suporte para chat de voz, o Meta AI também está recebendo novos recursos de imagem. A Meta AI poderá responder a solicitações de alteração e edição de fotos de bate-papos de texto no Instagram, Messenger e WhatsApp. A empresa afirma que os usuários podem solicitar à IA que adicione ou remova objetos ou altere elementos de uma imagem, como trocar um plano de fundo ou uma peça de roupa.

Meta está testando recomendações de conteúdo geradas por IA no feed principal do Facebook e Instagram.

Meta está testando recomendações de conteúdo geradas por IA no feed principal do Facebook e Instagram. (Meta)

As novas habilidades chegam junto com o mais recente modelo Llama 3.2 da empresa. A nova iteração, que chega apenas dois meses depois do Llama Versão 3.1é o primeiro a ter capacidades de visão e pode “preencher a lacuna entre a visão e a linguagem, extraindo detalhes de uma imagem, compreendendo a cena e, em seguida, elaborando uma ou duas frases que possam ser usadas como legenda de imagem para ajudar a contar a história”. O Llama 3.2 é “competitivo” em “reconhecimento de imagem e uma variedade de tarefas de compreensão visual” em comparação com ofertas semelhantes do ChatGPT e Claude, diz Meta.

A rede social está testando outras maneiras, potencialmente controversas, de trazer IA para os principais recursos de seus principais aplicativos. A empresa testará recursos de tradução gerados por IA para Reels com “dublagem automática e sincronização labial”. De acordo com Meta, isso “simulará a voz do locutor em outro idioma e sincronizará seus lábios para combinar”. Ele chegará primeiro a “vídeos de alguns criadores” em inglês e espanhol nos EUA e na América Latina, embora a empresa não tenha divulgado detalhes sobre o momento do lançamento.

A Meta também planeja experimentar conteúdo gerado por IA diretamente nos principais feeds do Facebook e Instagram. Com o teste, o Meta AI apresentará imagens geradas por IA que devem ser personalizadas de acordo com os interesses e atividades anteriores de cada usuário. Por exemplo, a Meta AI pode trazer à tona uma imagem “imaginada para você” que apresente seu rosto.

Fuente