Anthropic har precis gjort det officiellt. En nyligen publicerad sida for Legal and compliance i Claude Code-dokumentationen sager det i klartext:

“Using OAuth tokens obtained through Claude Free, Pro, or Max accounts in any other product, tool, or service — including the Agent SDK — is not permitted and constitutes a violation of the Consumer Terms of Service.”

Till och med Anthropics eget Agent SDK ar forbjudet med prenumerationstokens. Om inte ens deras eget SDK ar undantaget, sa ar ingenting det.

Denna dokumentation formaliserar det som utvecklare har levt med sedan januari. Men att se det nedskrivet svart pa vitt, pa en dedicerad juridisk sida med uttryckligt verkstallningssprak, traffar annorlunda. Hacker News-traden som lyfte fram sidan idag ar redan full av frustrerade utvecklare som aterupptar samma argument fran sex veckor sedan.

Har ar hela historien om hur vi hamnade har.

Det tekniska blocket: 9 januari

Den skriftliga policyn ar ny. Verkstallandet ar det inte.

Den 9 januari 2026 implementerade Anthropic skyddsmekanismer pa serversidan som blockerade prenumerations-OAuth-tokens fran att fungera utanfor deras officiella Claude Code CLI. Tredjepartsverktyg fick ett enda felmeddelande: “This credential is only authorized for use with Claude Code and cannot be used for other API requests.”

Inget forhandsmeddelande. Inget offentligt uttalande. Utvecklare som anvande OpenCode, Roo Code, Cline och andra verktyg vaknade till trasiga arbetsfloden och borjade rapportera problem.

OpenCode (nu med over 107 000 GitHub-stjarnor), det mest populara alternativet till Claude Code, var det primara offret. Det forfalskade Claude Codes klientidentitet via HTTP-headers, vilket fick Anthropics servrar att tro att forfragan kom fran den officiella CLI:n.

Cline, RooCode och andra IDE-tillagg som forlitade sig pa Claude-prenumerationsuppgifter slutade ocksa fungera.

xAI-anstallda som anvande Claude via Cursor forlorade atkomst. Separat hade OpenAI-anstallda redan blockerats i augusti 2025, uppges for att ha jamnfort GPT-5 med Claude.

OpenClaw- och NanoClaw-anvandare som routade via prenumerations-OAuth (istallet for API-nycklar) pverkades ocksa, aven om Anthropic senare klargjorde att “ingenting andras kring hur kunder har anvant sina konton och Anthropic kommer inte att avsluta konton.”

Vad som inte pavverkades: vanliga API-nyckelanvandare, OpenRouter-integrationer, alla som betalar per token. Blockeringen riktades mot prenumerations-OAuth-tokens som anvandes utanfor Anthropics egna appar.

Ekonomin bakom det

Motivationen ar enkel matematik.

MetodManadskostnad (tung anvandning)
Max-prenumeration via Claude Code~200 $ fast
Motsvarande API-anvandning1 000+ $

En Claude Max-prenumeration pa 200 $/manad blir djupt olonsam nar anvandare routar agentarbetsfloden genom tredjepartsverktyg som tar bort de inbyggda begransningarna. Claude Opus API-prissattning ligger pa 15 $ per miljon inmatningstokens och 75 $ per miljon utmatningstokens. En aktiv AI-agent som kor Opus kan branna igenom miljontals tokens per dag.

Problemet accelererade nar “Ralph Wiggum”-tekniken blev viral i slutet av 2025: utvecklare fangade Claude i autonoma sjalvlagande slingor som kor over natten, matar misslyckanden tillbaka i kontextfonster tills testerna gar igenom. Anthropic levererade till och med ett officiellt Ralph Wiggum-plugin for Claude Code, eftersom de inom sitt eget verktyg kontrollerar begransningarna och samlar in telemetri. Problemet var tredjepartsverktyg som korde samma slingor utan dessa skyddsmekanismer, brannde igenom tokens i en takt som gjorde fastprenumerationer djupt olonsamma.

En Hacker News-kommentator sammanfattade det rakt pa sak: “Pa en manad med Claude Code ar det latt att anvanda sa manga LLM-tokens att det hade kostat dig mer an 1 000 $ om du hade betalat via API:et.”

Frontlinjemodeller plus agentslingor plus fast prissattning kan inte samexistera. Nagot var tvunget att ge vika.

Fran tekniskt block till officiell policy

Januariblocket var rorigt. Anthropics Thariq Shihipar erkande att vissa konton “automatiskt bannades for att ha utlost missbruksfilter,” ett fel som foretaget rattade. Foretaget framstallde verkstallandet som riktat mot verktyg som “forfalskade den officiella klienten,” men det fanns ingen dokumentation som stodde det. Bara en serversideskontakt och ett kort felmeddelande.

Motreaktionen var kraftig. David Heinemeier Hansson (DHH), skaparen av Ruby on Rails, kallade det “valdigt kundfientligt”. George Hotz (geohot) publicerade “Anthropic gor ett enormt misstag” och havdade att begransningarna “inte kommer att konvertera folk tillbaka till Claude Code, utan konvertera dem till andra modellleverantorer.” Gergely Orosz, forfattare till The Pragmatic Engineer, drog slutsatsen att Anthropic ar “nojda med att praktiskt taget inte ha nagot ekosystem kring Claude.”

Inom nagra timmar ansamlades 147+ reaktioner pa GitHub-arenden och 245+ poang pa Hacker News. AWS Hero AJ Stuyvenberg kommenterade kvickt: “De speedrunnar resan fran forlattlig startup till avskyvaerd koncern fore nagon exit!”

Alla holl inte med. Utvecklaren Artem K noterade att blocket var “det mildaste det kunde ha varit,” och pekade pa att det var “bara ett artigt meddelande istallet for att forstora ditt konto eller retroaktivt debitera dig API-priser.” Andra havdade att OpenCode hade brutit mot anvandarvillkoren fran borjan genom att forfalska klientidentiteter.

Nu, sex veckor senare, har Anthropic publicerat den officiella dokumentationen som kodifierar det som serversideblocket redan verkstallde. Sidan drar en hard linje: OAuth-autentisering ar “avsedd uteslutande for Claude Code och Claude.ai.” Allt annat kraver API-nycklar via Claude Console, debiterade per token. Anthropic forbehaller sig ocksa ratten att verkstalla “utan forhandsmeddelande.”

Dagens Hacker News-reaktion tyder pa att saret inte har lakt. Utvecklare laser dokumentationen inte som ett fortydligande, utan som en bekraftelse: den slutna tradgarden ar permanent.

Det har har byggts upp ett tag

Januariblocket var inte det forsta draget.

I juni 2025 begransade Anthropic nastan all Windsurfs direktatkomst till Claude-modeller med mindre an en veckas varsel, efter rykten om att OpenAI forvarvar Windsurf. Anthropics medgrundare Jared Kaplan forklarade att det vore “konstigt for oss att salja Claude till OpenAI.” Windsurf tvingades pivotera till BYOK (Bring Your Own Key) och framhava Google Gemini som alternativ.

Google gick igenom en liknande cykel. Utvecklare hade extraherat OAuth-tokens fran Googles Antigravity IDE och injicerat dem i tredjepartsverktyg for gratisatkomst till Gemini-modeller. Google karaktariserade detta som ett brott mot anvandarvillkoren under “kringgende av sakerhetsatgarder” och utfardade kontobann.

Monstret ar tydligt: AI-foretag foljer Apples spelbok. Den tidiga eran (2022 till 2024) inneholl oppna API:er och uppmanade tredjepartsintegrationer. Den nuvarande eran prioriterar ekosystemlasning och officiella verktyg.

Verktyg kopplas loss fran leverantorer

Varje begransning accelererar en mottrend. I det har fallet: leverantorsoberoende.

Du kan fortfarande ta med din egen Anthropic API-nyckel till de flesta verktyg. Men det missar poangen. En API-nyckel skyddar dig inte om Anthropic andrar prissattning, begransar atkomst eller beslutar att ditt anvandningsfall inte langre passar deras villkor. Den riktiga forandringen ar att verktyg blir genuint leverantorsagnostiska, sa att du kan byta den underliggande modellen utan att andra nagot annat.

Det hander redan i hela branschen. OpenCode pivoterade inom timmar fran januariblocket till att stodja alla stora leverantorer. Cline och RooCode later dig byta modeller per uppgift. Gateways som OpenRouter och LiteLLM gor modellen till en konfigurationsoption snarare an ett arkitekturberoende.

Monstret ar detsamma overallt: modellen blir en vara. Verktygen som blomstrar ar de som behandlar den sa. OpenClaw byggdes pa denna princip fran borjan. Det fungerar med alla OpenAI-kompatibla endpoints, vilket innebar att det fungerar med nastan varje modell pa denna lista och varje leverantor som tillhandahaller dem.

Modeller med oppen kallkod sluter gapet

Anthropics begransningar kommer vid samsta mojliga tidpunkt for proprietar inlasning.

DeepSeek R1, slappt i januari 2025, bevisade att modeller med oppna vikter kan leverera frontlinjeresonemang. Det matchade GPT-4 pa benchmarks och kostade 73 % mindre. “DeepSeek-ogonblicket” var forsta gangen manga utvecklare insag att de kunde fa toppprestanda utan att ga genom OpenAI, Anthropic eller Google.

Just denna manad forandrades landskapet for oppen kallkod igen:

  • GLM-5 fran Z AI leder februari 2026-rankingen for oppen kallkod, med foreganaren GLM-4.7 som uppnar 73,8 % pa SWE-bench Verified. API-pris: 1,00 $/3,20 $ per miljon inmatnings/utmatningstokens.
  • Qwen 3.5 (Alibaba) lanserades for dagar sedan med inbyggda agentformgor, stod for 201 sprak och 60 % lagre driftkostnader an foreganaren. API-pris: 0,40 $/2,40 $ per miljon tokens.
  • DeepSeek V3.2 levereras nu i en “Speciale”-variant som uppnar 88,7 % pa LiveCodeBench, slappt under MIT-licens. API-pris: 0,28 $/0,42 $ per miljon tokens.
  • Kimi K2.5 (Moonshot AI) uppnar 96 % pa AIME 2025, overtraffar de flesta proprietara modeller i matematik. API-pris: 0,45 $/2,25 $ per miljon tokens via DeepInfra.
  • Grok 3 ar bekraftad for oppen kallkodsrelease av Elon Musk

For jamforelse kostar Claude Sonnet 3 $/15 $ per miljon tokens och Claude Opus 5 $/25 $. De billigaste alternativen med oppen kallkod ar 10 till 50 ganger billigare.

Gapet mellan oppen kallkod och proprietara modeller har minskats fran 17,5 till 0,3 MMLU-poang pa ett enda ar. Modeller med oppen kallkod adresserar nu de tva storsta foretagsbekymren kring AI-adoption: datasekretess och kostnadsopredikterbarhet. Och eftersom OpenClaw stodjer alla OpenAI-kompatibla endpoints kan du rikta din agent mot vilken som helst av dessa modeller redan idag.

Vad detta innebar for OpenClaw

Lat oss vara direkta: OpenClaw.rocks paverkas inte av detta forbud.

Inget av planerna anvander prenumerations-OAuth-tokens. Pa Light-planen tar du med dina egna API-nycklar och ansluter direkt till vilken leverantor du valjer. Pa Pro-planen tillhandahaller vi forkonfigurerad AI-atkomst med inkluderade tokens, routade genom var Bifrost-gateway. I bada fallen kor din agent pa sin egen dedikerade instans som du kontrollerar.

Att byta leverantor ar en konfigurationsandring. Idag kor du DeepSeek V3.2 till 0,28 $ per miljon inmatningstokens. Imorgon slapper Qwen en battre modell och du byter in den. Nasta vecka sanker Anthropic sina priser och du lagger till Claude igen. Din agent, dina data, din konversationshistorik: inget av det andras. Bara modellen bakom.

Nar en leverantor kan begransa din atkomst over natten “utan forhandsmeddelande,” ar verktygen och plattformarna som overlever de som inte ar beroende av en enda leverantors valvilja. Som en HN-kommentator uttryckte det: att bygga pa en enda leverantor med sluten kallkod kan vara “AI-ekvivalenten av att valja Oracle over Postgres.”

Anthropics forbud validerar en karnprincip vi har byggt kring: du bor kontrollera din AI-setup. Det innebar att din agent kor pa din instans, dina API-nycklar ansluter till vilken leverantor som ger dig bast prestanda per krona, och ingen enskild leverantor kan dra ur kontakten pa dina arbetsfloden.

Vad som hander harnast

Tre forutsagelser:

1. Multi-leverantor blir standard. Utvecklare behandlar redan AI-modeller som utbytbara komponenter. Det OpenAI-kompatibla API:et har blivit en de facto-standard som de flesta leverantorer nu stodjer, och gateways som OpenRouter och LiteLLM gor bytet mellan modeller till en enradsandring i konfigurationen. Nar ditt verktyg fungerar med vilken leverantor som helst har ingen enskild leverantor inflytande over dig.

2. Modeller med oppen kallkod blir det sakra valet. Nar en proprietar leverantor kan aterka din atkomst over natten borjar modeller med oppna vikter som DeepSeek, Qwen och GLM se ut mindre som en kompromiss och mer som en strategisk fordel. Du kan kora dem pa din egen hardvara, vara vard for dem genom vilken inferensleverantor som helst, eller byta fritt mellan dem. Ingen leverantor kan dra ur kontakten pa en modell med MIT-licens.

3. Att kora sin egen agent blir normen. Nar valet star mellan att lita pa en leverantor som kan andra villkor over natten och att kora sin egen AI-agent pa en instans man kontrollerar, kommer fler team att valja det senare. Sarskilt nar modeller med oppen kallkod fortsatter att sluta kapabilitetsgapet och plattformar som OpenClaw.rocks gor det till en ettklicksinstallation istallet for ett DevOps-projekt.

Eran av att bygga pa en enda AI-leverantors valvilja tar slut. Det som ersatter den ar mer motstandskraftigt: mjukvara med oppen kallkod, leverantorsagnostisk arkitektur och infrastruktur som ingen leverantor kan aterka.

Tre saker att ta med sig

  1. Om du anvander Claude-prenumerations-OAuth-tokens i tredjepartsverktyg, sluta. Det bryter nu uttryckligen mot Anthropics anvandarvillkor och ditt konto kan flaggas. Byt till API-nycklar (forvanta dig 5x+ hogre kostnader for tung anvandning) eller en helt annan leverantor.

  2. Diversifiera dina AI-beroenden. Varje verktyg som bara fungerar med en modellleverantor ar en risk. Bygg pa ramverk som later dig byta modeller utan att skriva om arbetsfloden.

  3. Valj modeller med oppen kallkod och leverantorsagnostiska verktyg. Modeller med oppna vikter som DeepSeek och Qwen kan inte aterkas en tisdag klockan 2 pa natten. Kombinera dem med ett verktyg som later dig byta leverantorer fritt. OpenClaw.rocks byggdes for precis detta.

Anthropic fattade ett affärsbeslut. Du kan halla med eller inte om logiken. Men laerdomen for alla som bygger med AI ar densamma: bygg inte pa sluten mark som du inte ager.