SSI, nova startup de IA focada na segurança do cofundador da OpenAI, Sutskever, levanta US$ 1 bilhão

Daniel Gross, Ilya Sutskever e Daniel Levy cofundadores da AI Company Safe Superintelligence

Nova Iorque:

A Safe Superintelligence (SSI), recém-fundada pelo ex-cientista-chefe da OpenAI, Ilya Sutskever, arrecadou US$ 1 bilhão em dinheiro para ajudar a desenvolver sistemas seguros de inteligência artificial que ultrapassam em muito as capacidades humanas, disseram executivos da empresa à Reuters.

A SSI, que conta atualmente com 10 funcionários, planeja usar os fundos para adquirir capacidade computacional e contratar os melhores talentos. O foco será a construção de uma pequena equipe de pesquisadores e engenheiros de alta confiança, dividida entre Palo Alto, Califórnia, e Tel Aviv, Israel.

A empresa se recusou a compartilhar sua avaliação, mas fontes próximas ao assunto disseram que ela foi avaliada em US$ 5 bilhões. O financiamento sublinha como alguns investidores ainda estão dispostos a fazer apostas desproporcionais em talentos excepcionais centrados na investigação fundamental da IA. Isto apesar de um declínio geral no interesse em financiar tais empresas, que podem não ser lucrativas durante algum tempo, e que fez com que vários fundadores de startups deixassem os seus cargos para gigantes da tecnologia.

Os investidores incluíram as principais empresas de capital de risco Andreessen Horowitz, Sequoia Capital, DST Global e SV Angel. A NFDG, uma parceria de investimento dirigida por Nat Friedman e o CEO da SSI, Daniel Gross, também participou.

“É importante para nós estarmos rodeados de investidores que compreendem, respeitam e apoiam a nossa missão, que é avançar diretamente para uma superinteligência segura e, em particular, passar alguns anos a fazer investigação e desenvolvimento no nosso produto antes de o lançar no mercado.” Gross disse em uma entrevista.

A segurança da IA, que se refere à prevenção de danos causados ​​pela IA, é um tema quente em meio aos temores de que a IA desonesta possa agir contra os interesses da humanidade ou até mesmo causar a extinção humana.

Um projeto de lei da Califórnia que visa impor regulamentações de segurança às empresas dividiu o setor. É contestado por empresas como OpenAI e Google, e apoiado pela Anthropic e pelo xAI de Elon Musk.

Sutskever, 37 anos, é um dos tecnólogos mais influentes em IA. Ele foi cofundador da SSI em junho com Gross, que anteriormente liderou iniciativas de IA na Apple, e Daniel Levy, ex-pesquisador da OpenAI.

Sutskever é o cientista-chefe e Levy é o cientista principal, enquanto Gross é responsável pelo poder computacional e pela arrecadação de fundos.

NOVA MONTANHA

Sutskever disse que seu novo empreendimento fazia sentido porque ele “identificou uma montanha um pouco diferente daquela em que eu estava trabalhando”.

No ano passado, ele fez parte do conselho da controladora sem fins lucrativos da OpenAI, que votou pela destituição do CEO da OpenAI, Sam Altman, devido a um “colapso nas comunicações”.

Em poucos dias, ele reverteu sua decisão e juntou-se a quase todos os funcionários da OpenAI na assinatura de uma carta exigindo o retorno de Altman e a renúncia do conselho. Mas o rumo dos acontecimentos diminuiu seu papel na OpenAI. Ele foi afastado do conselho e deixou a empresa em maio.

Após a saída de Sutskever, a empresa desmantelou a sua equipa de “Superalinhamento”, que trabalhava para garantir que a IA permanecesse alinhada com os valores humanos para se preparar para um dia em que a IA excedesse a inteligência humana.

Ao contrário da estrutura corporativa pouco ortodoxa da OpenAI, implementada por razões de segurança da IA, mas que tornou possível a destituição de Altman, a SSI tem uma estrutura regular com fins lucrativos.

A SSI está atualmente muito focada na contratação de pessoas que se enquadrem na sua cultura.

Gross disse que eles passam horas verificando se os candidatos têm “bom caráter” e procuram pessoas com capacidades extraordinárias, em vez de enfatizar demais credenciais e experiência na área.

“Uma coisa que nos emociona é quando você encontra pessoas que se interessam pela obra, que não se interessam pela cena, pelo hype”, acrescentou.

A SSI afirma que planeja fazer parceria com provedores de nuvem e empresas de chips para financiar suas necessidades de poder computacional, mas ainda não decidiu com quais empresas trabalhará. As startups de IA geralmente trabalham com empresas como Microsoft e Nvidia para atender às suas necessidades de infraestrutura.

Sutskever foi um dos primeiros defensores do escalonamento, uma hipótese de que os modelos de IA melhorariam em desempenho devido a grandes quantidades de poder computacional. A ideia e sua execução deram início a uma onda de investimentos em IA em chips, data centers e energia, estabelecendo as bases para avanços generativos de IA como o ChatGPT.

Sutskever disse que abordará o dimensionamento de uma maneira diferente de seu antigo empregador, sem compartilhar detalhes.

“Todo mundo apenas diz hipóteses de escala. Todo mundo se esquece de perguntar: o que estamos escalando?” ele disse.

“Algumas pessoas podem trabalhar muitas horas e seguirão o mesmo caminho mais rápido. Não é tanto o nosso estilo. Mas se você fizer algo diferente, será possível fazer algo especial.”

(Esta história não foi editada pela equipe da NDTV e é gerada automaticamente a partir de um feed distribuído.)

Fuente