Anthropic har lige gjort det officielt. En nyligt publiceret side om Legal and compliance i Claude Code-dokumentationen siger det sort pa hvidt:

“Using OAuth tokens obtained through Claude Free, Pro, or Max accounts in any other product, tool, or service — including the Agent SDK — is not permitted and constitutes a violation of the Consumer Terms of Service.”

Selv Anthropics eget Agent SDK er forbudt med abonnementstokens. Hvis ikke engang deres eget SDK er undtaget, er intet det.

Denne dokumentation formaliserer det, som udviklere har levet med siden januar. Men at se det skrevet ned sort pa hvidt, pa en dedikeret juridisk side med udtrykkelig handhaevelsesformulering, rammer anderledes. Hacker News-traden, der bragte siden frem i dag, er allerede fuld af frustrerede udviklere, der genoptager de samme argumenter fra seks uger siden.

Her er den fulde historie om, hvordan vi endte her.

Den tekniske blokering: 9. januar

Den skriftlige politik er ny. Handhaevelsen er det ikke.

Den 9. januar 2026 implementerede Anthropic serversidebeskyttelsesmekanismer, der blokerede abonnements-OAuth-tokens fra at fungere uden for deres officielle Claude Code CLI. Tredjepartsvaerktoejer modtog en enkelt fejlbesked: “This credential is only authorized for use with Claude Code and cannot be used for other API requests.”

Ingen forudgaende varsel. Ingen offentlig meddelelse. Udviklere, der brugte OpenCode, Roo Code, Cline og andre vaerktoejer, vagnede op til oedelagte arbejdsgange og begyndte at indrapportere problemer.

OpenCode (nu med over 107.000 GitHub-stjerner), det mest populaere alternativ til Claude Code, var det primaere offer. Det forfalskede Claude Codes klientidentitet via HTTP-headers, hvilket fik Anthropics servere til at tro, at forepoergslerne kom fra den officielle CLI.

Cline, RooCode og andre IDE-udvidelser, der baserede sig pa Claude-abonnementsoplysninger, holdt ogsa op med at fungere.

xAI-ansatte, der brugte Claude via Cursor, mistede adgang. Separat var OpenAI-ansatte allerede blevet blokeret i august 2025, angiveligt for at benchmarke GPT-5 mod Claude.

OpenClaw- og NanoClaw-brugere, der routede via abonnements-OAuth (frem for API-noegler), var ogsa pvirket, selvom Anthropic senere praeciserede, at “intet aendrer sig omkring, hvordan kunder har brugt deres konti, og Anthropic vil ikke annullere konti.”

Hvad der ikke var pavirket: standard API-noglebrugere, OpenRouter-integrationer, alle der betaler per token. Blokeringen var rettet mod abonnements-OAuth-tokens, der blev brugt uden for Anthropics egne apps.

Oekonomien bag det

Motivationen er ligetil matematik.

MetodeManedlig omkostning (tungt forbrug)
Max-abonnement via Claude Code~200 $ fast
Tilsvarende API-forbrug1.000+ $

Et Claude Max-abonnement til 200 $/maned bliver dybt urentabelt, nar brugere router agentarbejdsgange gennem tredjepartsvaerktoejer, der fjerner de indbyggede begraensninger. Claude Opus API-prissaetning ligger pa 15 $ per million input-tokens og 75 $ per million output-tokens. En aktiv AI-agent, der koerer Opus, kan braende millioner af tokens om dagen.

Problemet accelererede, da “Ralph Wiggum”-teknikken gik viral i slutningen af 2025: udviklere fangede Claude i autonome selvreparerende sloejfer, der koerer natten over, feeder fejl tilbage i kontekstvinduet, indtil tests bestar. Anthropic leverede endda et officielt Ralph Wiggum-plugin til Claude Code, fordi de inden for deres eget vaerktoej kontrollerer begraensningerne og indsamler telemetri. Problemet var tredjepartsvaerktoejer, der koerte de samme sloejfer uden disse beskyttelsesmekanismer og braendte tokens i et tempo, der gjorde faste abonnementer dybt urentable.

En Hacker News-kommentator opsummerede det direkte: “Pa en maned med Claude Code er det nemt at bruge sa mange LLM-tokens, at det ville have kostet dig mere end 1.000 $, hvis du havde betalt via API’et.”

Frontlinjemodeller plus agentsloejfer plus fast prissaetning kan ikke sameksistere. Noget matte give efter.

Fra teknisk blokering til officiel politik

Januarblokeringen var rodet. Anthropics Thariq Shihipar anerkendte, at nogle konti var “automatisk bandlyst for at udloese misbrugsfiltre,” en fejl som virksomheden rettede. Virksomheden rammesatte handhaevelsen som rettet mod vaerktoejer, der “forfalskede den officielle klient,” men der var ingen dokumentation, der underbyggede det. Bare en serversidekontakt og en kort fejlbesked.

Modreaktionen var voldsom. David Heinemeier Hansson (DHH), skaberen af Ruby on Rails, kaldte det “meget kundefjendtligt”. George Hotz (geohot) publicerede “Anthropic begir en kaempe fejl” og havdede, at begransningerne “ikke vil konvertere folk tilbage til Claude Code, men konvertere dem til andre modeludbydere.” Gergely Orosz, forfatter til The Pragmatic Engineer, konkluderede, at Anthropic er “tilfreds med praktisk talt ikke at have noget oekosystem omkring Claude.”

Inden for fa timer hobede 147+ reaktioner sig pa GitHub-issues og 245+ point pa Hacker News. AWS Hero AJ Stuyvenberg bemrkede vittigt: “De speedrunner rejsen fra tilgivelig startup til foragtelig koncern foer nogen exit!”

Ikke alle var uenige. Udvikleren Artem K bemrkede, at blokeringen var “den mildeste den kunne vaere,” og pegede pa, at det var “bare en hoeflig besked i stedet for at oedelaegge din konto eller retroaktivt opkraeve dig API-priser.” Andre havdede, at OpenCode havde overtrt brugervilkarene fra starten ved at forfalske klientidentiteter.

Nu, seks uger senere, har Anthropic publiceret den officielle dokumentation, der kodificerer det, som serversideblokeringen allerede handhaevede. Siden traekker en hard linje: OAuth-godkendelse er “udelukkende beregnet til Claude Code og Claude.ai.” Alt andet kraever API-noegler via Claude Console, faktureret per token. Anthropic forbeholder sig ogsa retten til at handhaeve “uden forudgaende varsel.”

Dagens Hacker News-reaktion tyder pa, at saret ikke er helet. Udviklere laeser dokumentationen ikke som en praecisering, men som en bekraeftelse: den lukkede have er permanent.

Dette har vaeret undervejs laenge

Januarblokeringen var ikke det foerste traek.

I juni 2025 begraensede Anthropic naesten al Windsurfs direkte adgang til Claude-modeller med mindre end en uges varsel, efter rygter om at OpenAI opkoebte Windsurf. Anthropics medstifter Jared Kaplan forklarede, at det ville vaere “maerkeligt for os at saelge Claude til OpenAI.” Windsurf blev tvunget til at dreje mod BYOK (Bring Your Own Key) og fremhaeve Google Gemini som alternativ.

Google gennemgik en lignende cyklus. Udviklere havde udtrukket OAuth-tokens fra Googles Antigravity IDE og injiceret dem i tredjepartsvaerktoejer for gratis adgang til Gemini-modeller. Google karakteriserede dette som en overtraedelse af brugervilkarene under “omgaelse af sikkerhedsforanstaltninger” og udstedte kontoforbud.

Moensteret er klart: AI-virksomheder foelger Apples drejebog. Den tidlige aera (2022 til 2024) indeholdt abne API’er og opmuntrede tredjepartsintegrationer. Den nuvaerende aera prioriterer oekosystemlasning og officielle vaerktoejer.

Vaerktoejer afkobles fra udbydere

Enhver begraensning accelererer en modtrend. I dette tilfaelde: udbyderuafhaengighed.

Du kan stadig medbringe din egen Anthropic API-noegle til de fleste vaerktoejer. Men det rammer forbi pointen. En API-noegle beskytter dig ikke, hvis Anthropic aendrer prissaetning, begraenser adgang eller beslutter, at dit use case ikke laengere passer til deres vilkar. Den egentlige forandring er, at vaerktoejer bliver genuint udbyderagnostiske, sa du kan udskifte den underliggende model uden at aendre noget andet.

Det sker allerede pa tvaers af branchen. OpenCode pivoterede inden for timer fra januarblokeringen til at understoette alle store udbydere. Cline og RooCode lader dig skifte modeller per opgave. Gateways som OpenRouter og LiteLLM goer modellen til en konfigurationsmulighed frem for en arkitekturafhaengighed.

Moensteret er det samme overalt: modellen bliver en handelsvare. Vaerktoejerne, der trives, er dem, der behandler den saledes. OpenClaw blev bygget pa dette princip fra starten. Det fungerer med enhver OpenAI-kompatibel endpoint, hvilket betyder, at det fungerer med naesten enhver model pa denne liste og enhver udbyder, der betjener dem.

Open source-modeller lukker hullet

Anthropics begraensninger ankommer pa det vaerst taenkelige tidspunkt for proprietaer inlasning.

DeepSeek R1, udgivet i januar 2025, beviste, at modeller med abne vagte kan levere frontlinje-raesonnement. Den matchede GPT-4 pa benchmarks og kostede 73 % mindre. “DeepSeek-oejeblikket” var foerste gang, mange udviklere indsa, at de kunne fa top-ydeevne uden at ga gennem OpenAI, Anthropic eller Google.

Netop denne maned aendrede open source-landskabet sig igen:

  • GLM-5 fra Z AI leder februar 2026 open source-ranglisten, med forgaengeren GLM-4.7 der scorer 73,8 % pa SWE-bench Verified. API-pris: 1,00 $/3,20 $ per million input/output-tokens.
  • Qwen 3.5 (Alibaba) lanceret for dage siden med native agentevner, understottelse af 201 sprog og 60 % lavere driftsomkostninger end forgaengeren. API-pris: 0,40 $/2,40 $ per million tokens.
  • DeepSeek V3.2 leveres nu i en “Speciale”-variant, der scorer 88,7 % pa LiveCodeBench, udgivet under MIT-licens. API-pris: 0,28 $/0,42 $ per million tokens.
  • Kimi K2.5 (Moonshot AI) scorer 96 % pa AIME 2025 og overgr de fleste proprietaere modeller i matematik. API-pris: 0,45 $/2,25 $ per million tokens via DeepInfra.
  • Grok 3 er bekraeftet til open source-udgivelse af Elon Musk

Til sammenligning koster Claude Sonnet 3 $/15 $ per million tokens og Claude Opus 5 $/25 $. De billigste open source-muligheder er 10 til 50 gange billigere.

Hullet mellem open source- og proprietaere modeller er indsnvret fra 17,5 til 0,3 MMLU-point pa et enkelt ar. Open source-modeller adresserer nu de to stoerste virksomhedsbekymringer omkring AI-adoption: databeskyttelse og omkostningsuprdikterbarhed. Og fordi OpenClaw understoetter enhver OpenAI-kompatibel endpoint, kan du pege din agent mod enhver af disse modeller allerede i dag.

Hvad dette betyder for OpenClaw

Lad os vaere direkte: OpenClaw.rocks er ikke pavirket af dette forbud.

Ingen af planerne bruger abonnements-OAuth-tokens. Pa Light-planen medbringer du dine egne API-noegler og forbinder direkte til den udbyder, du vslger. Pa Pro-planen leverer vi forkonfigureret AI-adgang med inkluderede tokens, routet gennem vores Bifrost-gateway. I begge tilfaelde koerer din agent pa sin egen dedikerede instans, som du kontrollerer.

At skifte udbyder er en konfigurationsaendring. I dag koerer du DeepSeek V3.2 til 0,28 $ per million input-tokens. I morgen slipper Qwen en bedre model, og du bytter den ind. Naeste uge saenker Anthropic deres priser, og du tilfoeger Claude igen. Din agent, dine data, din samtalehistorik: intet af det aendrer sig. Kun modellen bag.

Nar en leverandoer kan begraense din adgang natten over “uden forudgaende varsel,” er vaerktoejer og platforme, der overlever, dem, der ikke afhaenger af en enkelt udbyders velvilje. Som en HN-kommentator udtrykte det: at bygge pa en enkelt closed-source-udbyder kan vaere “AI-akvivalenten af at valge Oracle over Postgres.”

Anthropics forbud validerer et kerneprincip, vi har bygget omkring: du boer kontrollere din AI-opsaetning. Det betyder, at din agent koerer pa din instans, dine API-noegler forbinder til den udbyder, der giver dig den bedste ydeevne per krone, og ingen enkelt leverandoer kan traekke stikket pa dine arbejdsgange.

Hvad der sker nu

Tre forudsigelser:

1. Multi-udbyder bliver standarden. Udviklere behandler allerede AI-modeller som udskiftelige komponenter. Det OpenAI-kompatible API er blevet en de facto-standard, som de fleste udbydere nu understoetter, og gateways som OpenRouter og LiteLLM goer skift mellem modeller til en enkelt linjes konfigurationsaendring. Nar dit vaerktoej fungerer med enhver udbyder, har ingen enkelt leverandoer indflydelse over dig.

2. Open source-modeller bliver det sikre valg. Nar en proprietaer udbyder kan tilbagekalde din adgang natten over, begynder modeller med abne vagte som DeepSeek, Qwen og GLM at se ud som mindre et kompromis og mere som en strategisk fordel. Du kan koere dem pa din egen hardware, hoste dem gennem enhver inferensudbyder eller skifte frit mellem dem. Ingen leverandoer kan traekke stikket pa en model med MIT-licens.

3. At koere sin egen agent bliver normen. Nar valget star mellem at stole pa en leverandoer, der kan aendre vilkar natten over, og at koere sin egen AI-agent pa en instans, man kontrollerer, vil flere teams vaelge det sidste. Isaer nar open source-modeller fortsaetter med at lukke kapabilitetsgabet, og platforme som OpenClaw.rocks goer det til en et-klik-opsaetning i stedet for et DevOps-projekt.

Aeraen med at bygge pa en enkelt AI-udbyders velvilje slutter. Det, der erstatter den, er mere modstandsdygtigt: open source-software, udbyderagnostisk arkitektur og infrastruktur, som ingen leverandoer kan tilbagekalde.

Tre ting at tage med

  1. Hvis du bruger Claude-abonnements-OAuth-tokens i tredjepartsvaerktoejer, stop. Det overtder nu udtrykkeligt Anthropics brugervilkar, og din konto kan blive markeret. Skift til API-noegler (forvent 5x+ hoejere omkostninger ved tungt forbrug) eller en helt anden udbyder.

  2. Diversificer dine AI-afhaengigheder. Ethvert vaerktoej, der kun fungerer med en modeludbyder, er en risiko. Byg pa frameworks, der lader dig skifte modeller uden at omskrive arbejdsgange.

  3. Vaelg open source-modeller og udbyderagnostiske vaerktoejer. Modeller med abne vagte som DeepSeek og Qwen kan ikke tilbagekaldes en tirsdag kl. 2 om natten. Kombiner dem med et vaerktoej, der lader dig skifte udbydere frit. OpenClaw.rocks blev bygget til netop dette.

Anthropic traf en forretningsbeslutning. Du kan vaere enig eller uenig i begrundelsen. Men laererdommen for alle, der bygger med AI, er den samme: byg ikke pa lukket grund, du ikke ejer.