Ilya Sutskever, cofundador e Cientista Chefe da OpenAI, fala na Universidade de Tel Aviv em Tel Aviv em 5 de junho de 2023. | Créditos da imagem: JACK GUEZ/AFP / Getty Images Estamos em um momento único para empresas de IA que estão construindo seu próprio modelo fundamental.
Primeiro, há toda uma geração de veteranos da indústria que se destacaram em grandes empresas de tecnologia e agora estão seguindo carreira solo. Você também tem pesquisadores lendários com imensa experiência, mas aspirações comerciais ambíguas. Está claro que pelo menos alguns desses novos laboratórios podem se tornar gigantes do tamanho da OpenAI, mas também há espaço para que eles explorem pesquisas interessantes sem se preocupar tanto com a comercialização.
O resultado final? Está ficando difícil saber quem realmente está tentando ganhar dinheiro.
Para simplificar as coisas, estou propondo uma espécie de escala deslizante para qualquer empresa que esteja desenvolvendo um modelo fundamental. É uma escala de cinco níveis em que não importa se você realmente está ganhando dinheiro – apenas se está tentando. A ideia aqui é medir ambição, não sucesso.
Pense nisso nestes termos:
Os grandes nomes estão todos no Nível 5: OpenAI, Anthropic, Gemini e assim por diante. A escala fica mais interessante com a nova geração de laboratórios que está surgindo agora, com grandes sonhos mas ambições que podem ser mais difíceis de identificar.
O mais importante é que as pessoas envolvidas nesses laboratórios geralmente podem escolher o nível que quiserem. Há tanto dinheiro em IA no momento que ninguém vai exigir um plano de negócios. Mesmo que o laboratório seja apenas um projeto de pesquisa, os investidores ficarão satisfeitos em participar. Se você não está particularmente motivado a se tornar um bilionário, pode muito bem viver uma vida mais feliz no Nível 2 do que no Nível 5.
Os problemas surgem porque nem sempre está claro em qual nível um laboratório de IA se encontra — e grande parte do drama atual da indústria de IA vem dessa confusão. Muito da ansiedade sobre a conversão da OpenAI de uma organização sem fins lucrativos surgiu porque o laboratório passou anos no Nível 1 e depois pulou para o Nível 5 quase da noite para o dia. Por outro lado, você pode argumentar que as pesquisas iniciais de IA da Meta estavam firmemente no Nível 2, quando o que a empresa realmente queria era o Nível 4.
Com isso em mente, aqui está um breve resumo de quatro dos maiores laboratórios de IA contemporâneos e como eles se encaixam nessa escala.
Humans& foi a grande notícia de IA desta semana, e parte da inspiração para a criação desta escala. Os fundadores apresentam uma proposta convincente para a próxima geração de modelos de IA, com as leis de escala dando lugar a uma ênfase em ferramentas de comunicação e coordenação.
Mas apesar da imprensa positiva, Humans& tem sido discreto sobre como isso se traduziria em produtos realmente monetizáveis. Parece que eles querem construir produtos; a equipe apenas não se compromete com nada específico. O máximo que disseram é que vão desenvolver algum tipo de ferramenta de IA para o ambiente de trabalho, substituindo produtos como Slack, Jira e Google Docs, mas também redefinindo como essas outras ferramentas funcionam em um nível fundamental. Software corporativo para um ambiente pós-software!
É meu trabalho entender o que isso significa e, mesmo assim, ainda estou bastante confuso sobre essa última parte. Mas é específico o suficiente para que eu ache que podemos colocá-los no Nível 3.
Este é difícil de classificar! Geralmente, se você tem uma ex-CTO e líder de projeto do ChatGPT levantando uma rodada seed de US$ 2 bilhões, é preciso supor que há um roteiro bastante específico. Mira Murati não me parece alguém que entra em algo sem um plano, então, entrando em 2026, eu me sentiria confortável em colocar o TML no Nível 4.
Mas então as últimas duas semanas aconteceram. A saída do CTO e cofundador Barret Zoph ganhou as manchetes, em parte devido às circunstâncias especiais envolvidas. Mas pelo menos outros cinco funcionários saíram com Zoph, muitos citando preocupações sobre os rumos da empresa. Com apenas um ano de existência, quase metade dos executivos fundadores do TML já não trabalha mais lá. Uma forma de interpretar esses eventos é que eles pensavam ter um plano sólido para se tornar um laboratório de IA de classe mundial, apenas para descobrir que o plano não era tão sólido quanto imaginavam. Ou, em termos da escala, eles queriam um laboratório Nível 4, mas perceberam que estavam no Nível 2 ou 3.
Ainda não há evidências suficientes para justificar um rebaixamento, mas está chegando perto.
Fei-Fei Li é um dos nomes mais respeitados na pesquisa em IA, mais conhecida por estabelecer o desafio ImageNet, que impulsionou as técnicas contemporâneas de deep learning. Atualmente, ela ocupa uma cadeira patrocinada pela Sequoia em Stanford, onde codirige dois diferentes laboratórios de IA. Não vou entediar você listando todas as honrarias e posições acadêmicas, mas basta dizer que, se quisesse, ela poderia passar o resto da vida apenas recebendo prêmios e ouvindo elogios. O livro dela também é muito bom!
Então, em 2024, quando Li anunciou que havia levantado US$ 230 milhões para uma empresa de IA espacial chamada World Labs, você poderia pensar que estávamos operando no Nível 2 ou inferior.
Mas isso foi há mais de um ano, o que é muito tempo no mundo da IA. Desde então, a World Labs lançou tanto um modelo completo de geração de mundos quanto um produto comercializado construído sobre ele. No mesmo período, vimos sinais claros de demanda por modelagem de mundos tanto da indústria de videogames quanto de efeitos especiais — e nenhum dos grandes laboratórios lançou algo que possa competir. O resultado parece muito com uma empresa Nível 4, talvez prestes a avançar para o Nível 5.
Fundada pelo ex-cientista chefe da OpenAI, Ilya Sutskever, a Safe Superintelligence (ou SSI) parece um exemplo clássico de startup Nível 1. Sutskever fez de tudo para manter a SSI protegida de pressões comerciais, a ponto de rejeitar uma tentativa de aquisição por parte da Meta. Não há ciclos de produto e, além do modelo fundamental superinteligente ainda em desenvolvimento, não parece haver nenhum produto. Com esse argumento, ele arrecadou US$ 3 bilhões! Sutskever sempre se interessou mais pela ciência da IA do que pelos negócios, e tudo indica que este é um projeto genuinamente científico em sua essência.
Dito isso, o mundo da IA se move rápido — e seria tolice descartar completamente a SSI do âmbito comercial. Em sua recente participação no Dwarkesh, Sutskever deu dois motivos pelos quais a SSI poderia mudar de rumo: “se os cronogramas se mostrarem longos, o que pode acontecer”, ou porque “há muito valor em ter a melhor e mais poderosa IA impactando o mundo”. Em outras palavras, se a pesquisa for muito bem ou muito mal, podemos ver a SSI subir alguns níveis rapidamente.