O criador do OpenClaw junta-se à OpenAI
Peter Steinberger, o criador do OpenClaw, acabou de anunciar que se junta à OpenAI para “trabalhar em levar os agentes a todos.” Sam Altman confirmou, dizendo que Steinberger irá “conduzir a próxima geração de agentes pessoais.” O OpenClaw está a ser transferido para uma fundação.
A notícia já está em todo o lado: TechCrunch, CNBC, Bloomberg, The Register. Eis o que pensamos que isto sinaliza sobre o rumo da indústria dos agentes de IA.
Quem é realmente Peter Steinberger
Peter Steinberger (@steipete) é um programador austríaco que estudou informática na Universidade Técnica de Viena. Antes de o OpenClaw existir, passou 13 anos a construir o PSPDFKit, um framework PDF usado internamente pela Apple, pela Dropbox, DocuSign e SAP, e em mil milhões de dispositivos.
Fundou o PSPDFKit em 2011, enquanto esperava por um visto de trabalho americano que demorou seis meses a chegar. O que começou como um projeto paralelo para passar o tempo transformou-se num produto empresarial. Autofinanciou-o durante 13 anos, fez crescer a equipa até 70 pessoas e não aceitou financiamento externo até que a Insight Partners investiu 100 milhões de euros em 2021. Steinberger afastou-se pouco depois.
Depois desapareceu durante três anos. Esgotamento profissional após 13 anos a trabalhar todos os fins de semana. Tem sido aberto sobre isso: terapia, viagens, mudança para outro país, tentar perceber o que vem depois daquilo que o definiu.
No final de 2024, começou a programar de novo. Aprendeu desenvolvimento web moderno sozinho, formou-se em React e TypeScript e começou a construir. Não uma empresa. Um projeto experimental. Um assistente pessoal de IA ligado ao WhatsApp.
Esse projeto experimental tornou-se no Clawdbot. Depois no Moltbot (depois de os advogados da Anthropic terem contactado). Depois no OpenClaw. Acumulou mais de 180.000 estrelas no GitHub, gerou o Moltbook (uma rede social com quase 3 milhões de agentes de IA como utilizadores) e tornou-se no projeto open source com o crescimento mais rápido da história do GitHub. Em cerca de dois meses.
Como programador individual.
O primeiro programador 100x?
O Pragmatic Engineer fez um perfil de Steinberger com o título “I ship code I don’t read.” Os números são impressionantes: mais de 6.600 commits só em janeiro. Desenvolveu e entregou a um ritmo semelhante ao da equipa de engenharia de uma startup em pleno crescimento.
O seu segredo não são dias de 20 horas. Ele executa 5 a 10 agentes de codificação IA em simultâneo, mantém o controlo arquitectónico e delega a implementação inteiramente. Descreve isto como “engenharia agêntica”, distinguindo-a do que chama “vibe coding” (que admite praticar depois das 3 da manhã, e do qual se arrepende pela manhã).
O tópico no Hacker News está cheio de pessoas que o descartam como um “vibe coder” com sorte. Essa leitura falha o ponto. Steinberger não é alguém que tropeçou na viralidade. É um construtor de produtos comprovado com 13 anos a entregar software empresarial, que depois descobriu que os agentes de IA multiplicam a sua já excecional produção por mais uma ordem de grandeza. O que construiu tornou-se viral porque funcionava. E funcionava porque a pessoa que o construía operava a este nível há mais de uma década.
É talvez o exemplo mais proeminente neste momento de uma nova forma de construir software. E não vai ficar pelo software. O mesmo padrão, uma pessoa com profundo conhecimento de domínio a orquestrar agentes de IA para multiplicar a sua produção, vai repetir-se no marketing, design, investigação e em todos os outros campos onde a experiência conta mais do que o número de pessoas.
O grande duopólio dos agentes
Então porque é que a maior empresa de IA do planeta precisa desta pessoa? Essa é a pergunta que nos leva a um terreno interessante.
Existe o Linux, e existe o Windows. Existe o Android, e existe o iOS. Cada grande paradigma computacional acabou por se estabelecer numa estrutura de dois campos: um aberto, um fechado. Um para os experimentadores, um para os consumidores. Ambos enormes. Ambos necessários.
Peter Thiel escreveu sobre isto em Zero to One. O seu ponto sobre a Coca-Cola e a Pepsi: num duopólio, cada ator tem efetivamente um monopólio sobre o seu próprio segmento. A Coca-Cola tem o monopólio de todos os consumidores de Coca-Cola. A Pepsi tem o monopólio de todos os consumidores de Pepsi. O mercado é enorme para ambos, e nenhum destrói o outro.
Com este movimento, acreditamos que os agentes de IA estão prestes a ter o seu momento Linux e Windows (ou iOS e Android, se preferir).
Já argumentámos antes que o OpenClaw já é o Linux deste espaço. É open source. Funciona onde quiser. Os dados são seus. Escolhe o modelo. Pode ler o código, fazer fork, estendê-lo ou implementá-lo na sua própria infraestrutura. Tem a comunidade open source com o crescimento mais rápido da história e uma base de programadores que vai de hobistas a empresas.
E agora a OpenAI acabou de contratar a pessoa que o construiu, encarregando-o de criar “a próxima geração de agentes pessoais.” A declaração de Altman é explícita: “O futuro vai ser extremamente multi-agente.”
Há uma leitura cínica que merece ser reconhecida. Vários comentadores no HN interpretaram isto como uma jogada de marketing: a OpenAI comprou o hype, bloqueou os concorrentes de o adquirir e criou uma narrativa de que construir na sua plataforma pode levar a resultados que mudam a vida. Um comentador disse sem rodeios: “A OpenAI comprou marketing e agora mais ninguém pode comprar o OpenClaw e cortar as receitas da OpenAI.” Isso provavelmente também é verdade. As duas leituras não são mutuamente exclusivas. A OpenAI pode estar a comprar marketing e a adquirir competência genuína ao mesmo tempo.
De qualquer modo, a questão é o que a OpenAI realmente constrói. Não têm sido particularmente “open” desde o GPT-3. E a lógica de negócio aponta para fechado: o OpenClaw é agnóstico em termos de modelo. Os utilizadores podem ligar a Anthropic, a Google ou qualquer outro fornecedor. Isso é ótimo para os utilizadores, mas não é ótimo para uma empresa que vende tokens de API. Um produto de agente de código fechado, fortemente integrado com os próprios modelos da OpenAI, resolve esse problema.
O próprio Steinberger fez a comparação com o Chrome e o Chromium. Antes de aceitar, disse em entrevistas que só aceitaria se o OpenClaw permanecesse open source, citando explicitamente esse modelo de governança. É uma analogia reveladora. O Chrome é construído sobre o Chromium. A Google contribui para o projeto open source enquanto comercializa um produto que adiciona funcionalidades proprietárias, integrações e polimento. O projeto open source obtém recursos e contribuidores. O produto comercial obtém um motor testado em batalha.
O melhor resultado seria algo assim. Manter o núcleo do OpenClaw aberto, deixar Steinberger continuar a trabalhar nele e construir um produto de consumo polido por cima. Um que esteja profundamente integrado com os modelos, a infraestrutura e a marca da OpenAI. Otimizado para a pessoa que nunca abriu um terminal. A pessoa que Steinberger descreveu como “a minha mãe.” Mas a história dá razões para cautela. Os fundadores do Instagram deixaram a Meta em 2018 depois de a independência prometida se ter evaporado. Zuckerberg acabou por tratar o crescimento do Instagram como uma ameaça e retirou-lhe recursos. Os fundadores do WhatsApp tiveram um destino pior. Jan Koum e Brian Acton venderam ao Facebook com a promessa de independência focada na privacidade, e depois viram o Facebook pressionar pela integração de dados e publicidade. Acton abdicou de 850 milhões de dólares em ações não adquiridas, dizendo: “Vendi a privacidade dos meus utilizadores. Vivo com isso todos os dias.” Depois co-fundou a Signal Foundation.
A apólice de seguro de Steinberger é a fundação. Essa é a diferença em relação ao Instagram. Não há uma aquisição para desfazer. O OpenClaw existe independentemente, aconteça o que acontecer dentro da OpenAI. Se a relação funcionar, ambos os lados beneficiam. Se não funcionar, o projeto open source continua, governado pela comunidade, não pela roadmap da OpenAI.
Se as coisas se desenrolarem assim, haveria dois campos. Aberto e fechado. Experimentadores e consumidores. Ambos enormes. Ambos necessários.
Porque é que a OpenAI não tinha construído isto antes
Esta é a pergunta que merece reflexão. A OpenAI tinha dos melhores modelos do mundo. Tinham a maior base de utilizadores. Têm o ChatGPT, o Codex e agora o Frontier. Porque é que não construíram primeiro um agente pessoal de IA?
Provavelmente por duas razões.
Primeiro, construir um modelo e construir um agente são problemas fundamentalmente diferentes. Um modelo recebe texto e produz texto. Um agente recebe intenção e produz resultados. Um agente precisa de navegar na web, gerir ficheiros, enviar mensagens, interagir com APIs, lidar com erros, manter memória entre sessões e fazer tudo isto de forma segura. O modelo é o cérebro. O agente é o cérebro mais o corpo mais o discernimento para saber quando agir e quando perguntar. A OpenAI é extraordinária a construir cérebros. Mas Steinberger construiu o corpo. Desenvolveu a integração de mensagens, a orquestração de ferramentas, o sistema de competências, a hierarquia de memória e a automatização do navegador.
Segundo, e talvez mais importante: segurança e responsabilidade. Um agente autónomo que pode executar comandos shell, enviar mensagens em seu nome e aceder aos seus dados pessoais é uma superfície de risco massiva. Um programador open source independente pode lançar isto e deixar os utilizadores decidir com o que se sentem confortáveis. A OpenAI, com a sua marca, o seu escrutínio regulatório e as suas centenas de milhões de utilizadores, não se pode dar ao luxo de avançar rápido e partir coisas quando “coisas” significa os dados pessoais ou as contas financeiras de alguém. Steinberger provou que o conceito funciona e que as pessoas o querem. Agora a OpenAI pode construir sobre essa prova com as proteções que uma empresa daquela dimensão precisa.
Se essa é a lógica, é um acqui-hire no sentido mais puro. A OpenAI obtém a pessoa que resolveu o problema difícil que ainda não tinham resolvido. E o projeto open source obtém uma fundação, patrocínio contínuo e a liberdade de suportar todos os modelos, não apenas os da OpenAI.
O que isto significa para o resto de nós
As preocupações com a segurança são reais. Investigadores encontraram 341 skills maliciosas no ClawHub, e a Cisco concluiu que o OpenClaw é “um pesadelo de segurança.” Andrej Karpathy chamou-lhe “uma das coisas mais incríveis, próximas da descolagem de ficção científica” que tinha visto, e poucos dias depois chamou-lhe “um contentor em chamas.” Ambas as afirmações eram verdadeiras ao mesmo tempo.
É exatamente por isso que o duopólio importa.
O campo aberto vai avançar rápido, partir coisas e empurrar os limites do possível. O campo fechado vai avançar mais devagar, priorizar a segurança e tornar os agentes acessíveis a pessoas que não sabem o que é um terminal. Ambos são necessários. Um ecossistema de agentes com apenas uma opção aberta assusta equipas de segurança e leva a que as pessoas sejam hackeadas. Um ecossistema de agentes com apenas uma opção fechada mata a inovação e concentra o poder.
O contra-argumento mais ruidoso no HN neste momento é que não há fosso defensivo. “Toda a gente vai ter a sua própria versão do OpenClaw dentro de 18 meses.” “Aparecem novas todas as semanas.” “Pode literalmente pedir ao Codex para construir uma versão reduzida de um dia para o outro.” O código não é assim tão complexo. A ideia não é assim tão nova. Qualquer um pode replicá-lo.
Provavelmente têm razão em tudo isso. E estão a perder o ponto.
É exatamente o que aconteceu com o Linux. O kernel não era mágico. Apareceram dezenas de distribuições. Qualquer um podia fazer fork. Mas o Linux ganhou na mesma, porque o fosso nunca foi o código. Foi a comunidade, o ecossistema, o impulso partilhado. A mesma dinâmica está a desenrolar-se aqui. As 180.000 estrelas no GitHub do OpenClaw, o seu marketplace de competências, as suas integrações, a sua documentação, os milhares de pessoas a construir sobre ele neste momento: isso não é algo que se replica pedindo ao Codex de um dia para o outro.
Devemos ser transparentes sobre a nossa posição. Alojamos agentes OpenClaw. O criador do software sobre o qual o nosso negócio é construído acabou de se juntar à empresa com mais probabilidade de construir a alternativa fechada. Temos interesses neste jogo e todas as razões para ser parciais.
Eis porque acreditamos que o lado aberto ganha na mesma: geralmente é o que acontece. Até a Microsoft executa Linux na maior parte do Azure hoje. O open source é mais seguro porque milhares de olhos auditam o código. É mais adaptável porque qualquer um o pode estender. E sobrevive a roadmaps corporativas porque nenhuma empresa individual o controla. A fundação significa que o OpenClaw permanece open source, permanece agnóstico em termos de modelo e é governado pela comunidade. Os nossos incentivos estão alinhados com os de todas as outras pessoas e empresas que constroem sobre ele. Isso não é um conflito de interesses. Esse é todo o sentido do open source.
O momento
Há três anos, o ChatGPT tornou a IA conversacional. Podia falar consigo.
Hoje, o OpenClaw está a tornar a IA operacional. Pode agir por si.
Steinberger juntar-se à OpenAI não significa que o OpenClaw está a ser absorvido. Significa que o conceito de agentes pessoais de IA está a passar de “projeto open source interessante” para “prioridade estratégica fundamental da maior empresa de IA do planeta.”
No podcast de Lex Fridman, Fridman chamou a isto “o início da revolução da IA agêntica,” comparando-o ao lançamento do ChatGPT em 2022. A diferença é que desta vez, a revolução é sobre mover a IA da linguagem para a ação. De gerar texto para fazer as coisas acontecerem.
Talvez o duopólio esteja a formar-se. Talvez as coisas se desenrolem de forma diferente. Mas eis o que torna esta mudança de paradigma invulgar: a opção aberta chegou primeiro. O Linux chegou décadas depois do Windows. O Android chegou anos depois do iPhone. A alternativa aberta sempre teve de recuperar terreno. Desta vez, o lado aberto tem 180.000 estrelas, uma fundação e uma comunidade que estava cá antes de a OpenAI entrar na sala.
A questão não vai ser se todos terão um agente pessoal de IA. Vai ser se o seu é aberto ou fechado.