Anthropic proibiu ferramentas de terceiros. Eis o que isto significa.
Anthropic tornou tudo oficial. Uma página recém-publicada sobre aspetos legais e conformidade na documentação do Claude Code diz-lo preto no branco:
“Using OAuth tokens obtained through Claude Free, Pro, or Max accounts in any other product, tool, or service — including the Agent SDK — is not permitted and constitutes a violation of the Consumer Terms of Service.”
Até o próprio Agent SDK da Anthropic está proibido com tokens de subscrição. Se o seu próprio SDK não está isento, nada está.
Esta documentação formaliza o que os programadores têm vivido desde janeiro. Mas vê-lo escrito, numa página jurídica dedicada com linguagem explícita de aplicação, tem outro impacto. O tópico no Hacker News que trouxe a página à luz hoje já está repleto de programadores frustrados a repetir os mesmos argumentos de há seis semanas.
Aqui está a história completa de como chegámos até aqui.
O bloqueio técnico: 9 de janeiro
A política escrita é nova. A aplicação não é.
A 9 de janeiro de 2026, Anthropic implementou proteções do lado do servidor que bloquearam tokens OAuth de subscrição fora da sua CLI oficial Claude Code. As ferramentas de terceiros recebiam uma única mensagem de erro: “This credential is only authorized for use with Claude Code and cannot be used for other API requests.”
Sem aviso prévio. Sem anúncio público. Programadores de OpenCode, Roo Code, Cline e outras ferramentas acordaram com fluxos de trabalho avariados e começaram a abrir issues.
OpenCode (agora com mais de 107.000 estrelas no GitHub), a alternativa mais popular ao Claude Code, foi a principal vítima. Estava a falsificar a identidade de cliente do Claude Code através de cabeçalhos HTTP, fazendo os servidores da Anthropic acreditarem que os pedidos vinham da CLI oficial.
Cline, RooCode e outras extensões de IDE que dependiam das credenciais de subscrição do Claude também pararam de funcionar.
Funcionários da xAI que usavam Claude via Cursor perderam o acesso. Separadamente, funcionários da OpenAI já tinham sido bloqueados em agosto de 2025, alegadamente por fazerem benchmarks do GPT-5 contra o Claude.
Utilizadores de OpenClaw e NanoClaw que encaminhavam via OAuth de subscrição (em vez de chaves API) também foram afetados, embora a Anthropic tenha posteriormente esclarecido que «nada muda na forma como os clientes têm usado a sua conta e a Anthropic não irá cancelar contas.»
O que não foi afetado: utilizadores de chaves API padrão, integrações OpenRouter, qualquer pessoa que pagasse por token. O bloqueio visava tokens OAuth de subscrição utilizados fora das próprias aplicações da Anthropic.
A economia por detrás da decisão
A motivação é aritmética simples.
| Método | Custo mensal (uso intensivo) |
|---|---|
| Subscrição Max via Claude Code | ~200 $ fixo |
| Uso equivalente por API | 1.000 $+ |
Uma subscrição Claude Max a 200 $/mês torna-se profundamente não lucrativa quando os utilizadores encaminham cargas de trabalho agênticas através de ferramentas de terceiros que contornam os limites de frequência integrados. O Claude Opus por API custa 15 $ por milhão de tokens de entrada e 75 $ por milhão de tokens de saída. Um agente de IA ativo a usar Opus pode consumir milhões de tokens por dia.
O problema acelerou quando a técnica “Ralph Wiggum” se tornou viral no final de 2025: programadores a prender o Claude em ciclos autónomos de auto-reparação que funcionam durante a noite, realimentando os erros na janela de contexto até os testes passarem. A Anthropic chegou a lançar um plugin oficial Ralph Wiggum para o Claude Code, porque dentro da sua própria ferramenta controlam os limites de frequência e recolhem telemetria. O problema eram as ferramentas de terceiros a executar os mesmos ciclos sem essas proteções, consumindo tokens a um ritmo que tornava as subscrições de tarifa fixa profundamente não lucrativas.
Um comentador no Hacker News resumiu sem rodeios: «Num mês de Claude Code, é fácil usar tantos tokens LLM que lhe teria custado mais de 1.000 $ se tivesse pago pela API.»
Modelos de fronteira mais ciclos agênticos mais preços fixos não podem coexistir. Algo tinha de ceder.
De bloqueio técnico a política oficial
O bloqueio de janeiro foi caótico. Thariq Shihipar da Anthropic reconheceu que algumas contas foram «automaticamente banidas por acionarem filtros anti-abuso», um erro que a empresa reverteu. A empresa enquadrou a ação como dirigida a ferramentas que «falsificavam o cliente oficial», mas não havia documentação que sustentasse isso. Apenas um interruptor do lado do servidor e uma mensagem de erro lacónica.
A reação foi severa. David Heinemeier Hansson (DHH), criador do Ruby on Rails, chamou-lhe «muito hostil para com os clientes». George Hotz (geohot) publicou «Anthropic is making a huge mistake», argumentando que as restrições «não vão converter as pessoas de volta ao Claude Code, vão convertê-las a outros fornecedores de modelos.» Gergely Orosz, autor do The Pragmatic Engineer, concluiu que a Anthropic «está satisfeita por não ter praticamente nenhum ecossistema à volta do Claude.»
Em poucas horas, acumularam-se mais de 147 reações em issues do GitHub e mais de 245 pontos no Hacker News. O AWS Hero AJ Stuyvenberg comentou: «Estão a speedrunnar a viagem de startup perdoável a corporação detestável antes de qualquer exit!»
Nem todos discordaram. O programador Artem K observou que a medida foi «a mais suave possível», apontando que foi «apenas uma mensagem educada em vez de eliminar a sua conta ou cobrar retroativamente a preços de API.» Outros argumentaram que o OpenCode violava os termos de serviço desde o início ao falsificar identidades de cliente.
Agora, seis semanas depois, a Anthropic publicou a documentação oficial que codifica o que o bloqueio do lado do servidor já aplicava. A página traça uma linha clara: a autenticação OAuth é «destinada exclusivamente ao Claude Code e Claude.ai.» Tudo o resto requer chaves API através da Claude Console, faturadas por token. A Anthropic reserva-se também o direito de aplicar «sem aviso prévio.»
A reação de hoje no Hacker News sugere que a ferida não sarou. Os programadores leem a documentação não como um esclarecimento, mas como uma confirmação: o jardim murado é permanente.
Isto já se preparava há algum tempo
O bloqueio de janeiro não foi o primeiro movimento.
Em junho de 2025, a Anthropic cortou quase todo o acesso direto do Windsurf aos modelos Claude com menos de uma semana de aviso, depois de surgirem rumores de que a OpenAI estaria a adquirir o Windsurf. O cofundador da Anthropic, Jared Kaplan, explicou que seria «estranho para nós vender o Claude à OpenAI.» O Windsurf foi forçado a pivotar para BYOK (Bring Your Own Key) e a promover o Google Gemini como alternativa.
A Google passou por um ciclo semelhante. Os programadores tinham extraído tokens OAuth do IDE Antigravity da Google e injetavam-nos em ferramentas de terceiros para acesso gratuito aos modelos Gemini. A Google classificou isto como violação dos termos de serviço sob «contornar medidas de segurança» e emitiu banimentos de contas.
O padrão é claro: as empresas de IA seguem o manual da Apple. A era inicial (2022 a 2024) oferecia APIs abertas e encorajava integrações de terceiros. A era atual prioriza o bloqueio do ecossistema e ferramentas oficiais.
As ferramentas estão a desacoplar-se dos fornecedores
Cada restrição acelera uma contratendência. Neste caso: independência do fornecedor.
Ainda pode levar a sua própria chave API da Anthropic para a maioria das ferramentas. Mas isso não é o ponto. Uma chave API não o protege se a Anthropic mudar os preços, restringir o acesso ou decidir que o seu caso de uso já não se enquadra nos seus termos. A verdadeira mudança é as ferramentas tornarem-se genuinamente agnósticas em relação ao fornecedor, para que possa trocar o modelo subjacente sem mudar mais nada.
Isso já está a acontecer em toda a indústria. O OpenCode pivotou em poucas horas após o bloqueio de janeiro para suportar todos os principais fornecedores. O Cline e o RooCode permitem trocar de modelo por tarefa. Gateways como OpenRouter e LiteLLM tornam o modelo uma opção de configuração em vez de uma dependência arquitetural.
O padrão é o mesmo em todo o lado: o modelo está a tornar-se um insumo intercambiável. As ferramentas que prosperam são as que o tratam como tal. O OpenClaw foi construído sobre este princípio desde o início. Funciona com qualquer endpoint compatível com OpenAI, o que significa que funciona com praticamente todos os modelos desta lista e todos os fornecedores que os servem.
Os modelos de código aberto estão a fechar a lacuna
As restrições da Anthropic chegam no pior momento possível para o lock-in proprietário.
O DeepSeek R1, lançado em janeiro de 2025, provou que os modelos open-weight podem oferecer raciocínio ao nível da fronteira. Igualou o GPT-4 em benchmarks custando 73% menos. O «momento DeepSeek» foi a primeira vez que muitos programadores perceberam que podiam obter desempenho de topo sem passar pela OpenAI, Anthropic ou Google.
Mesmo este mês, a paisagem open source mudou novamente:
- GLM-5 da Z AI lidera os rankings open source de fevereiro de 2026, com o seu predecessor GLM-4.7 a atingir 73,8% no SWE-bench Verified. Preços API: 1,00 $/3,20 $ por milhão de tokens de entrada/saída.
- Qwen 3.5 (Alibaba) foi lançado há dias com capacidades agênticas nativas, suporte para 201 idiomas e custos operacionais 60% inferiores ao predecessor. Preços API: 0,40 $/2,40 $ por milhão de tokens.
- DeepSeek V3.2 tem agora uma variante «Speciale» com 88,7% no LiveCodeBench, lançada sob licença MIT. Preços API: 0,28 $/0,42 $ por milhão de tokens.
- Kimi K2.5 (Moonshot AI) atinge 96% no AIME 2025, superando a maioria dos modelos proprietários em matemática. Preços API: 0,45 $/2,25 $ por milhão de tokens via DeepInfra.
- Grok 3 está confirmado para lançamento em código aberto por Elon Musk
Para comparação, o Claude Sonnet custa 3 $/15 $ por milhão de tokens e o Claude Opus custa 5 $/25 $. As opções open source mais baratas são 10 a 50 vezes mais económicas.
A diferença entre modelos open source e proprietários reduziu-se de 17,5 para 0,3 pontos MMLU num único ano. Os modelos open source abordam agora as duas maiores preocupações empresariais em torno da adoção de IA: privacidade dos dados e imprevisibilidade dos custos. E como o OpenClaw suporta qualquer endpoint compatível com OpenAI, pode apontar o seu agente para qualquer um destes modelos hoje mesmo.
O que isto significa para o OpenClaw
Sejamos diretos: OpenClaw.rocks não é afetado por esta proibição.
Nenhum plano utiliza tokens OAuth de subscrição. No plano Light, traz as suas próprias chaves API e liga-se diretamente ao fornecedor que escolher. No plano Pro, fornecemos acesso IA pré-configurado com tokens incluídos, encaminhados através do nosso gateway Bifrost. Em ambos os casos, o seu agente funciona na sua própria instância dedicada que controla.
Mudar de fornecedor é uma alteração de configuração. Hoje usa DeepSeek V3.2 a 0,28 $ por milhão de tokens de entrada. Amanhã a Qwen lança um modelo melhor e troca-o. Na próxima semana a Anthropic baixa os preços e volta a adicionar o Claude. O seu agente, os seus dados, o seu histórico de conversações: nada disso muda. Apenas o modelo por trás.
Quando um fornecedor pode restringir o seu acesso de um dia para o outro «sem aviso prévio», as ferramentas e plataformas que sobrevivem são as que não dependem da boa vontade de um único fornecedor. Como um comentador do HN o expressou: construir sobre um único fornecedor de código fechado pode ser «o equivalente em IA de escolher Oracle em vez de Postgres.»
A proibição da Anthropic valida um princípio fundamental que construímos: deve controlar a sua configuração de IA. Isso significa que o seu agente funciona na sua instância, as suas chaves API ligam-se ao fornecedor que lhe oferece o melhor desempenho por dólar, e nenhum fornecedor único pode cortar os seus fluxos de trabalho.
O que acontece a seguir
Três previsões:
1. O multi-fornecedor torna-se o padrão. Os programadores já tratam os modelos de IA como componentes intercambiáveis. A API compatível com OpenAI tornou-se um padrão de facto que a maioria dos fornecedores agora suporta, e gateways como OpenRouter e LiteLLM tornam a troca entre modelos uma alteração de configuração de uma linha. Quando a sua ferramenta funciona com qualquer fornecedor, nenhum vendedor tem poder sobre si.
2. Os modelos open source tornam-se a aposta segura. Quando um fornecedor proprietário pode revogar o seu acesso de um dia para o outro, os modelos open-weight como DeepSeek, Qwen e GLM parecem menos um compromisso e mais uma vantagem estratégica. Pode executá-los no seu próprio hardware, alojá-los através de qualquer fornecedor de inferência ou alternar entre eles livremente. Nenhum fornecedor pode desligar um modelo com licença MIT.
3. Executar o seu próprio agente torna-se a norma. Quando a escolha é entre confiar num fornecedor que pode mudar os termos de um dia para o outro e executar o seu próprio agente de IA numa instância que controla, mais equipas escolherão a segunda opção. Especialmente porque os modelos open source continuam a fechar a lacuna de capacidades e plataformas como OpenClaw.rocks transformam isso numa configuração de um clique em vez de um projeto DevOps.
A era de construir sobre a boa vontade de um único fornecedor de IA está a terminar. O que a substitui é mais resiliente: software open source, arquitetura agnóstica em relação ao fornecedor e infraestrutura que nenhum vendedor pode revogar.
Três conclusões a reter
-
Se está a usar tokens OAuth de subscrição do Claude em ferramentas de terceiros, pare. Agora viola explicitamente os termos de serviço da Anthropic e a sua conta pode ser sinalizada. Mude para chaves API (espere custos 5x+ superiores para uso intensivo) ou mude de fornecedor por completo.
-
Diversifique as suas dependências de IA. Qualquer ferramenta que só funcione com um fornecedor de modelos é um risco. Construa sobre frameworks que lhe permitam trocar de modelo sem reescrever fluxos de trabalho.
-
Escolha modelos open source e ferramentas agnósticas em relação ao fornecedor. Os modelos open-weight como DeepSeek e Qwen não podem ser revogados numa terça-feira às 2 da manhã. Combine-os com uma ferramenta que lhe permita trocar de fornecedor livremente. OpenClaw.rocks foi construído exatamente para isto.
Anthropic tomou uma decisão de negócio. Pode concordar ou discordar do raciocínio. Mas a lição para todos os que constroem com IA é a mesma: não construa sobre terreno proprietário que não possui.