Faz pouco mais de uma semana que Deepseek elevou o mundo da IA. A introdução de seu modelo de peso aberto-aparentemente treinado em uma fração dos chips de computação especializados que os líderes da indústria de energia-definiram ondas de choque dentro do Openai. Os funcionários não apenas afirmaram ver dicas de que a Deepseek “destilou inadequadamente” os modelos do Openai para criar seus próprios, mas o sucesso da startup teve Wall Street questionando se empresas como o OpenAI estavam gastando excessivamente em computação.
“Deepseek R1 é o momento de Sputnik da IA”, escreveu Marc Andreessen, um dos inventores mais influentes e provocativos do Vale do Silício, os inventores, em x.
Em resposta, o OpenAI está se preparando para lançar um novo modelo hoje, antes de sua programação originalmente planejada. O modelo, O3-mini, estreará na API e no bate-papo. Fontes dizem que possui raciocínio de nível O1 com velocidade de 4-nível. Em outras palavras, é rápido, barato, inteligente e projetado para esmagar o Deepseek. (O porta-voz da Openai, Niko Felix, diz que o trabalho na O3-Mini começou muito antes da estréia de Deepseek e o objetivo era lançar até o final de janeiro).
O momento galvanizou a equipe do Openai. Dentro da empresa, há uma sensação de que, principalmente, como Deepseek domina a conversa – o abertura deve se tornar mais eficiente ou correr o risco de ficar para trás de seu mais novo concorrente.
Parte da questão decorre das origens da Openai como uma organização de pesquisa sem fins lucrativos antes de se tornar uma potência de busca de lucro. Uma luta de poder contínua entre os grupos de pesquisa e produtos, afirmou os funcionários, resultou em uma brecha entre as equipes que trabalham em raciocínio avançado e aqueles que trabalham no bate -papo. (O porta -voz da Openai, Niko Felix, diz que isso é “incorreto” e observa que os líderes dessas equipes, o diretor de produtos Kevin Weil e o diretor de pesquisa Mark Chen, “se reúnem toda semana e trabalhe em estreita colaboração para se alinhar com prioridades de produtos e pesquisa”.
Alguns dentro do Openai querem que a empresa construa um produto de bate -papo unificado, um modelo que pode dizer se uma pergunta requer raciocínio avançado. Até agora, isso não aconteceu. Em vez disso, um menu suspenso no ChatGPT leva os usuários a decidirem se desejam usar o GPT-4O (“ótimo para a maioria das perguntas”) ou O1 (“usa o raciocínio avançado”).
Alguns funcionários afirmam que, embora o bate -papo traga a maior parte da receita da Openai, a O1 recebe mais atenção – e os recursos de computação – da liderança. “A liderança não se importa com o bate -papo”, diz um ex -funcionário que trabalhou (você adivinhou) bate -papo. “Todo mundo quer trabalhar na O1 porque é sexy, mas a base de código não foi construída para experimentação, então não há impulso.” O ex -funcionário pediu para permanecer anônimo, citando um contrato de não divulgação.
O OpenAI passou anos experimentando o reforço aprendendo a ajustar o modelo que acabou se tornando o sistema de raciocínio avançado chamado O1. (O aprendizado de reforço é um processo que treina modelos de IA com um sistema de penalidades e recompensas.) Deepseek construiu o trabalho de aprendizado de reforço que o OpenAI havia pioneiro para criar seu sistema de raciocínio avançado, chamado R1. “Eles se beneficiaram de saber que o aprendizado de reforço, aplicado a modelos de idiomas, obras”, diz um ex -pesquisador do Openai que não está autorizado a falar publicamente sobre a empresa.
“O aprendizado de reforço (Deepseek) foi semelhante ao que fizemos no Openai”, diz outro ex -pesquisador do Openai, “mas eles fizeram isso com melhores dados e pilha mais limpa”.
Os funcionários do OpenAI dizem que a pesquisa que entrou no O1 foi realizada em uma base de código, chamada pilha “Berry”, construída para a velocidade. “Houve trade-offs-rigor experimental para a taxa de transferência”, diz um ex-funcionário com conhecimento direto da situação.
Essas trocas faziam sentido para o O1, que foi essencialmente um experimento enorme, não obstante o código das limitações básicas. Eles não faziam tanto sentido para o bate -papo, um produto usado por milhões de usuários que foram construídos em uma pilha diferente e mais confiável. Quando a O1 lançou e se tornou um produto, as rachaduras começaram a surgir nos processos internos da OpenAI. “Foi como ‘Por que estamos fazendo isso na base de código experimental, não devemos fazer isso na base de código de pesquisa principal de produtos?'”, Explica o funcionário. “Havia uma grande reação nisso internamente”.