Anthropic heeft het officieel gemaakt. Een nieuw gepubliceerde pagina over juridische zaken en compliance in de Claude Code documentatie zegt het zwart op wit:

“Using OAuth tokens obtained through Claude Free, Pro, or Max accounts in any other product, tool, or service — including the Agent SDK — is not permitted and constitutes a violation of the Consumer Terms of Service.”

Zelfs Anthropics eigen Agent SDK is verboden met abonnementstokens. Als hun eigen SDK niet is vrijgesteld, is niets dat.

Deze documentatie formaliseert wat ontwikkelaars sinds januari ervaren. Maar het zwart op wit zien staan, op een speciale juridische pagina met expliciet handhavingstaalgebruik, raakt anders. De Hacker News thread die de pagina vandaag naar boven bracht, zit al vol frustreerde ontwikkelaars die dezelfde argumenten van zes weken geleden opnieuw voeren.

Hier is het volledige verhaal van hoe we hier terecht zijn gekomen.

De technische blokkade: 9 januari

Het geschreven beleid is nieuw. De handhaving niet.

Op 9 januari 2026 implementeerde Anthropic server-side beveiligingen die OAuth-tokens van abonnementen buiten hun officiële Claude Code CLI blokkeerden. Tools van derden kregen één foutmelding: “This credential is only authorized for use with Claude Code and cannot be used for other API requests.”

Geen vooraankondiging. Geen publieke mededeling. Ontwikkelaars bij OpenCode, Roo Code, Cline en andere tools werden wakker met kapotte workflows en begonnen issues aan te maken.

OpenCode (inmiddels meer dan 107.000 GitHub-sterren), het populairste alternatief voor Claude Code, was het voornaamste slachtoffer. Het had de clientidentiteit van Claude Code vervalst via HTTP-headers, waardoor Anthropics servers dachten dat verzoeken van de officiële CLI kwamen.

Cline, RooCode en andere IDE-extensies die meeliftten op Claude-abonnementsgegevens vielen eveneens uit.

xAI-medewerkers die Claude via Cursor gebruikten, verloren hun toegang. Afzonderlijk waren OpenAI-medewerkers al in augustus 2025 geblokkeerd, naar verluidt vanwege het benchmarken van GPT-5 tegen Claude.

OpenClaw- en NanoClaw-gebruikers die via abonnements-OAuth routeerden (in plaats van API-sleutels) werden ook getroffen, hoewel Anthropic later verduidelijkte dat „er niets verandert aan hoe klanten hun account hebben gebruikt en Anthropic geen accounts zal opzeggen.”

Wat niet getroffen werd: standaard API-sleutelgebruikers, OpenRouter-integraties, iedereen die per token betaalde. De blokkade was gericht op OAuth-tokens van abonnementen die buiten Anthropics eigen apps werden gebruikt.

De economische achtergrond

De motivatie is eenvoudige wiskunde.

MethodeMaandelijkse kosten (intensief gebruik)
Max-abonnement via Claude Code~$200 vast
Gelijkwaardig API-gebruik$1.000+

Een Claude Max-abonnement van $200/maand wordt diep onrendabel wanneer gebruikers agentische workloads via tools van derden routeren die de ingebouwde snelheidslimieten omzeilen. Claude Opus kost via de API $15 per miljoen invoertokens en $75 per miljoen uitvoertokens. Een actieve AI-agent op Opus kan miljoenen tokens per dag verbruiken.

Het probleem versnelde toen de “Ralph Wiggum”-techniek eind 2025 viraal ging: ontwikkelaars die Claude vastzetten in autonome zelfherstellende lussen die ‘s nachts draaien en fouten terugvoeden in het contextvenster tot de tests slagen. Anthropic heeft zelfs een officiële Ralph Wiggum plugin voor Claude Code uitgebracht, omdat ze binnen hun eigen tool de snelheidslimieten beheersen en telemetrie verzamelen. Het probleem waren tools van derden die dezelfde lussen zonder die beveiligingen draaiden, tokens verbranden in een tempo dat vaste abonnementen diep onrendabel maakte.

Een Hacker News-commentator vatte het bondig samen: „In een maand Claude Code is het makkelijk om zoveel LLM-tokens te gebruiken dat het je meer dan $1.000 zou hebben gekost als je via de API had betaald.”

Frontier-modellen plus agentische lussen plus vaste prijzen kunnen niet naast elkaar bestaan. Er moest iets wijken.

Van technische blokkade naar officieel beleid

De blokkade in januari was rommelig. Anthropics Thariq Shihipar erkende dat sommige accounts „automatisch geblokkeerd werden door misbruikfilters”, een fout die het bedrijf terugdraaide. Het bedrijf presenteerde de handhaving als gericht op tools die „de officiële client vervalsten”, maar er was geen documentatie die dit onderbouwde. Alleen een server-side schakelaar en een kort foutbericht.

De tegenreactie was hevig. David Heinemeier Hansson (DHH), maker van Ruby on Rails, noemde het „zeer klantenvijandig”. George Hotz (geohot) publiceerde „Anthropic is making a huge mistake” en betoogde dat de beperkingen „mensen niet terug naar Claude Code zullen converteren, maar naar andere modelaanbieders.” Gergely Orosz, auteur van The Pragmatic Engineer, concludeerde dat Anthropic „tevreden is met praktisch geen ecosysteem rond Claude.”

Binnen enkele uren stapelden 147+ reacties zich op bij GitHub-issues en 245+ punten op Hacker News. AWS Hero AJ Stuyvenberg merkte op: „Ze speedrunnen de reis van vergeeflijke startup naar gehate corporatie voor er zelfs een exit is!”

Niet iedereen was het oneens. Ontwikkelaar Artem K merkte op dat het optreden „zo zacht was als het maar kon zijn”, en wees erop dat het „slechts een beleefd bericht was in plaats van je account verwijderen of je achteraf API-prijzen in rekening brengen.” Anderen betoogden dat OpenCode vanaf het begin de gebruiksvoorwaarden had geschonden door clientidentiteiten te vervalsen.

Nu, zes weken later, heeft Anthropic de officiële documentatie gepubliceerd die codificeert wat de server-side blokkade al handhaafde. De pagina trekt een harde lijn: OAuth-authenticatie is „uitsluitend bedoeld voor Claude Code en Claude.ai.” Al het andere vereist API-sleutels via de Claude Console, gefactureerd per token. Anthropic behoudt zich ook het recht voor om „zonder voorafgaande kennisgeving” te handhaven.

De reactie vandaag op Hacker News suggereert dat de wond niet is geheeld. Ontwikkelaars lezen de documentatie niet als een verduidelijking, maar als een bevestiging: de ommuurde tuin is permanent.

Dit bouwde al een tijdje op

De blokkade in januari was niet de eerste stap.

In juni 2025 sneed Anthropic bijna alle directe toegang van Windsurf tot Claude-modellen af met minder dan een week vooraankondiging, nadat geruchten opdoken dat OpenAI Windsurf aan het overnemen was. Anthropic-medeoprichter Jared Kaplan legde uit dat het „vreemd zou zijn voor ons om Claude aan OpenAI te verkopen.” Windsurf werd gedwongen om te pivoteren naar BYOK (Bring Your Own Key) en Google Gemini als alternatief aan te prijzen.

Google doorliep een vergelijkbare cyclus. Ontwikkelaars hadden OAuth-tokens uit Googles Antigravity IDE geëxtraheerd en in tools van derden geïnjecteerd voor gratis toegang tot Gemini-modellen. Google classificeerde dit als een schending van de gebruiksvoorwaarden onder „omzeiling van beveiligingsmaatregelen” en deelde accountverboden uit.

Het patroon is duidelijk: AI-bedrijven volgen het Apple-draaiboek. Het vroege tijdperk (2022 tot 2024) bood open API’s en moedigde integraties van derden aan. Het huidige tijdperk geeft prioriteit aan ecosysteem-lock-in en officiële tools.

Tools koppelen los van aanbieders

Elke beperking versnelt een tegentrend. In dit geval: aanbiederonafhankelijkheid.

U kunt nog steeds uw eigen Anthropic API-sleutel meenemen naar de meeste tools. Maar dat mist het punt. Een API-sleutel beschermt u niet als Anthropic de prijzen wijzigt, de toegang beperkt of beslist dat uw use case niet meer in hun voorwaarden past. De echte verschuiving is dat tools echt aanbiederagnostisch worden, zodat u het onderliggende model kunt wisselen zonder iets anders te veranderen.

Dat gebeurt al in de hele sector. OpenCode pivootte binnen uren na de januariblokkade naar ondersteuning voor alle grote aanbieders. Cline en RooCode laten u per taak van model wisselen. Gateways zoals OpenRouter en LiteLLM maken het model een configuratieoptie in plaats van een architecturale afhankelijkheid.

Het patroon is overal hetzelfde: het model wordt een inwisselbare input. De tools die floreren, zijn degenen die het als zodanig behandelen. OpenClaw is vanaf het begin op dit principe gebouwd. Het werkt met elk OpenAI-compatibel endpoint, wat betekent dat het werkt met vrijwel elk model op deze lijst en elke aanbieder die ze levert.

Open-source modellen dichten de kloof

Anthropics beperkingen komen op het slechtst denkbare moment voor propriëtaire lock-in.

DeepSeek R1, uitgebracht in januari 2025, bewees dat open-weight modellen frontier-niveau redenering kunnen leveren. Het evenaarde GPT-4 op benchmarks tegen 73% lagere kosten. Het „DeepSeek-moment” was de eerste keer dat veel ontwikkelaars beseften dat ze topprestaties konden krijgen zonder via OpenAI, Anthropic of Google te gaan.

Nog deze maand verschoof het open-source landschap opnieuw:

  • GLM-5 van Z AI leidt de open-source rankings van februari 2026, met voorganger GLM-4.7 die 73,8% scoorde op SWE-bench Verified. API-prijzen: $1,00/$3,20 per miljoen invoer-/uitvoertokens.
  • Qwen 3.5 (Alibaba) lanceerde dagen geleden met native agentische mogelijkheden, ondersteuning voor 201 talen en 60% lagere operationele kosten dan zijn voorganger. API-prijzen: $0,40/$2,40 per miljoen tokens.
  • DeepSeek V3.2 is nu beschikbaar in een „Speciale”-variant die 88,7% scoort op LiveCodeBench, uitgebracht onder MIT-licentie. API-prijzen: $0,28/$0,42 per miljoen tokens.
  • Kimi K2.5 (Moonshot AI) scoort 96% op AIME 2025, beter dan de meeste propriëtaire modellen op wiskunde. API-prijzen: $0,45/$2,25 per miljoen tokens via DeepInfra.
  • Grok 3 is bevestigd voor open-source release door Elon Musk

Ter vergelijking: Claude Sonnet kost $3/$15 per miljoen tokens en Claude Opus kost $5/$25. De goedkoopste open-source opties zijn 10 tot 50 keer voordeliger.

De kloof tussen open-source en propriëtaire modellen is in één jaar teruggelopen van 17,5 naar 0,3 MMLU-punten. Open-source modellen adresseren nu de twee grootste bedrijfszorgen rond AI-adoptie: dataprivacy en kostenonvoorspelbaarheid. En omdat OpenClaw elk OpenAI-compatibel endpoint ondersteunt, kunt u uw agent vandaag nog op elk van deze modellen richten.

Wat dit betekent voor OpenClaw

Laten we direct zijn: OpenClaw.rocks wordt niet geraakt door dit verbod.

Geen enkel plan gebruikt OAuth-tokens van abonnementen. Met het Light-plan brengt u uw eigen API-sleutels mee en verbindt u rechtstreeks met de aanbieder van uw keuze. Met het Pro-plan bieden wij voorgeconfigureerde AI-toegang met tokens inbegrepen, gerouteerd via onze Bifrost-gateway. In beide gevallen draait uw agent op een eigen dedicated instantie die u beheert.

Van aanbieder wisselen is een configuratiewijziging. Vandaag gebruikt u DeepSeek V3.2 voor $0,28 per miljoen invoertokens. Morgen brengt Qwen een beter model uit en wisselt u het in. Volgende week verlaagt Anthropic de prijzen en voegt u Claude weer toe. Uw agent, uw gegevens, uw gespreksgeschiedenis: niets daarvan verandert. Alleen het model erachter.

Wanneer een aanbieder uw toegang van de ene op de andere dag „zonder voorafgaande kennisgeving” kan beperken, zijn de tools en platformen die overleven degenen die niet afhangen van de goede wil van één enkele aanbieder. Zoals een HN-commentator het verwoordde: bouwen op één enkele closed-source aanbieder zou „het AI-equivalent kunnen zijn van Oracle kiezen boven Postgres.”

Het Anthropic-verbod bevestigt een kernprincipe waaromheen we hebben gebouwd: u zou uw AI-setup moeten beheersen. Dat betekent dat uw agent op uw instantie draait, uw API-sleutels verbinden met de aanbieder die u de beste prestaties per dollar biedt, en geen enkele aanbieder de stekker uit uw workflows kan trekken.

Wat er hierna gebeurt

Drie voorspellingen:

1. Multi-provider wordt de standaard. Ontwikkelaars behandelen AI-modellen al als inwisselbare componenten. De OpenAI-compatibele API is een de facto standaard geworden die de meeste aanbieders nu ondersteunen, en gateways zoals OpenRouter en LiteLLM maken wisselen tussen modellen een configuratiewijziging van één regel. Wanneer uw tool met elke aanbieder werkt, heeft geen enkele verkoper druk op u.

2. Open-source modellen worden de veilige keuze. Wanneer een propriëtaire aanbieder uw toegang van de ene op de andere dag kan intrekken, zien open-weight modellen zoals DeepSeek, Qwen en GLM er minder uit als een compromis en meer als een strategisch voordeel. U kunt ze op eigen hardware draaien, via elke inferentie-aanbieder hosten of vrij tussen hen wisselen. Geen aanbieder kan de stekker uit een MIT-gelicentieerd model trekken.

3. Uw eigen agent draaien wordt de norm. Wanneer de keuze is tussen een aanbieder vertrouwen die de voorwaarden van de ene op de andere dag kan wijzigen en uw eigen AI-agent draaien op een instantie die u beheert, zullen meer teams voor het laatste kiezen. Zeker nu open-source modellen de capaciteitskloof blijven dichten en platformen zoals OpenClaw.rocks het een one-click setup maken in plaats van een DevOps-project.

Het tijdperk van bouwen op de goede wil van één AI-aanbieder loopt ten einde. Wat het vervangt is veerkrachtiger: open-source software, aanbiederagnostische architectuur en infrastructuur die geen enkele verkoper kan intrekken.

Drie belangrijke punten

  1. Als u Claude-abonnement OAuth-tokens in tools van derden gebruikt, stop daar dan mee. Het is nu expliciet in strijd met Anthropics gebruiksvoorwaarden en uw account kan worden gemarkeerd. Stap over op API-sleutels (verwacht 5x+ hogere kosten bij intensief gebruik) of op een andere aanbieder.

  2. Diversifieer uw AI-afhankelijkheden. Elke tool die alleen met één modelaanbieder werkt, is een risico. Bouw op frameworks die u laten wisselen van model zonder workflows te herschrijven.

  3. Kies voor open-source modellen en aanbiederagnostische tools. Open-weight modellen zoals DeepSeek en Qwen kunnen niet op een dinsdag om 2 uur ‘s nachts worden ingetrokken. Combineer ze met een tool die u vrij van aanbieder laat wisselen. OpenClaw.rocks is precies hiervoor gebouwd.

Anthropic heeft een zakelijke beslissing genomen. U kunt het eens of oneens zijn met de redenering. Maar de les voor iedereen die met AI bouwt, is dezelfde: bouw niet op gesloten grond die u niet bezit.