No ano passado, a Meta tornou seu assistente de IA tão onipresente em seus aplicativos que é quase difícil acreditar que a Meta AI tenha apenas um ano de idade. Mas, um ano após o seu lançamento no último Connecta empresa está infundindo Meta AI com uma carga de novos recursos na esperança de que mais pessoas considerem seu assistente útil.
Uma das maiores mudanças é que os usuários poderão conversar por voz com Meta AI. Até agora, a única maneira de falar com Meta AI era através dos óculos inteligentes Ray-Ban Meta. E como no lançamento do Meta AI no ano passado, a empresa convocou um grupo de celebridades para a mudança.
Meta AI poderá assumir as vozes de Awkwafina, Dame Judi Dench, John Cena, Keegan Michael Key e Kristen Bell, além de um punhado de vozes mais genéricas. Embora a empresa espere que as celebridades vendam aos usuários as novas habilidades do Meta AI, é importante notar que a empresa silenciosamente descontinuado suas personalidades de chatbot de celebridades lançadas no Connect do ano passado.
Além do suporte para chat de voz, o Meta AI também está recebendo novos recursos de imagem. A Meta AI poderá responder a solicitações de alteração e edição de fotos de bate-papos de texto no Instagram, Messenger e WhatsApp. A empresa afirma que os usuários podem solicitar à IA que adicione ou remova objetos ou altere elementos de uma imagem, como trocar um plano de fundo ou uma peça de roupa.
As novas habilidades chegam junto com o mais recente modelo Llama 3.2 da empresa. A nova iteração, que chega apenas dois meses depois do Llama Versão 3.1é o primeiro a ter capacidades de visão e pode “preencher a lacuna entre a visão e a linguagem, extraindo detalhes de uma imagem, compreendendo a cena e, em seguida, elaborando uma ou duas frases que possam ser usadas como legenda de imagem para ajudar a contar a história”. O Llama 3.2 é “competitivo” em “reconhecimento de imagem e uma variedade de tarefas de compreensão visual” em comparação com ofertas semelhantes do ChatGPT e Claude, diz Meta.
A rede social está testando outras maneiras, potencialmente controversas, de trazer IA para os principais recursos de seus principais aplicativos. A empresa testará recursos de tradução gerados por IA para Reels com “dublagem automática e sincronização labial”. De acordo com Meta, isso “simulará a voz do locutor em outro idioma e sincronizará seus lábios para combinar”. Ele chegará primeiro a “vídeos de alguns criadores” em inglês e espanhol nos EUA e na América Latina, embora a empresa não tenha divulgado detalhes sobre o momento do lançamento.
A Meta também planeja experimentar conteúdo gerado por IA diretamente nos principais feeds do Facebook e Instagram. Com o teste, o Meta AI apresentará imagens geradas por IA que devem ser personalizadas de acordo com os interesses e atividades anteriores de cada usuário. Por exemplo, a Meta AI pode trazer à tona uma imagem “imaginada para você” que apresente seu rosto.