Anthropic forbod tredjepartsverktoy. Her er hva det betyr.
Anthropic har nettopp gjort det offisielt. En nylig publisert side for Legal and compliance i Claude Code-dokumentasjonen sier det svart pa hvitt:
“Using OAuth tokens obtained through Claude Free, Pro, or Max accounts in any other product, tool, or service — including the Agent SDK — is not permitted and constitutes a violation of the Consumer Terms of Service.”
Til og med Anthropics eget Agent SDK er forbudt med abonnementstokens. Hvis ikke engang deres eget SDK er unntatt, er ingenting det.
Denne dokumentasjonen formaliserer det utviklere har levd med siden januar. Men a se det skrevet ned svart pa hvitt, pa en dedikert juridisk side med uttrykkelig handhevelsessprak, treffer annerledes. Hacker News-traden som bragte siden frem i dag, er allerede full av frustrerte utviklere som gjenopptar de samme argumentene fra seks uker siden.
Her er den fulle historien om hvordan vi havnet her.
Den tekniske blokkeringen: 9. januar
Den skriftlige policyen er ny. Haandheving er det ikke.
Den 9. januar 2026 implementerte Anthropic beskyttelsesmekanismer pa serversiden som blokkerte abonnements-OAuth-tokens fra a fungere utenfor deres offisielle Claude Code CLI. Tredjepartsverktoy mottok en enkelt feilmelding: “This credential is only authorized for use with Claude Code and cannot be used for other API requests.”
Ingen forhåndsvarsel. Ingen offentlig kunngjoring. Utviklere som brukte OpenCode, Roo Code, Cline og andre verktoy vaknet til oedelagte arbeidsflyter og begynte a rapportere problemer.
OpenCode (na med over 107 000 GitHub-stjerner), det mest populaere alternativet til Claude Code, var det primaere offeret. Det forfalsket Claude Codes klientidentitet via HTTP-headers, noe som fikk Anthropics servere til a tro at foreporslene kom fra den offisielle CLI-en.
Cline, RooCode og andre IDE-utvidelser som baserte seg pa Claude-abonnementslegitimasjon sluttet ogsa a fungere.
xAI-ansatte som brukte Claude via Cursor mistet tilgang. Separat hadde OpenAI-ansatte allerede blitt blokkert i august 2025, angivelig for benchmarking av GPT-5 mot Claude.
OpenClaw- og NanoClaw-brukere som routet via abonnements-OAuth (i stedet for API-nokler) ble ogsa pavirket, selv om Anthropic senere presiserte at “ingenting endres rundt hvordan kunder har brukt kontoene sine, og Anthropic vil ikke kansellere kontoer.”
Hva som ikke ble pavirket: vanlige API-nokelbrukere, OpenRouter-integrasjoner, alle som betaler per token. Blokkeringen var rettet mot abonnements-OAuth-tokens som ble brukt utenfor Anthropics egne apper.
Okonomien bak det
Motivasjonen er enkel matematikk.
| Metode | Manedlig kostnad (tung bruk) |
|---|---|
| Max-abonnement via Claude Code | ~200 $ fast |
| Tilsvarende API-bruk | 1 000+ $ |
Et Claude Max-abonnement til 200 $/maned blir dypt uloennsomt nar brukere router agentarbeidsflyter gjennom tredjepartsverktoy som fjerner de innebygde begrensningene. Claude Opus API-prising er 15 $ per million input-tokens og 75 $ per million output-tokens. En aktiv AI-agent som kjorer Opus kan brenne gjennom millioner av tokens per dag.
Problemet akselererte da “Ralph Wiggum”-teknikken ble viral sent i 2025: utviklere fanget Claude i autonome selvhelbredende lokker som kjorer over natten, mater feil tilbake i kontekstvinduet til testene bestar. Anthropic leverte til og med en offisiell Ralph Wiggum-plugin for Claude Code, fordi de innenfor sitt eget verktoy kontrollerer begrensningene og samler inn telemetri. Problemet var tredjepartsverktoy som kjorte de samme lokkene uten disse beskyttelsesmekanismene, og brant tokens i et tempo som gjorde fastprisabonnementer dypt ulonnsomme.
En Hacker News-kommentator oppsummerte det rett pa sak: “Pa en maned med Claude Code er det lett a bruke sa mange LLM-tokens at det ville ha kostet deg mer enn 1 000 $ om du hadde betalt via API-et.”
Frontlinjemodeller pluss agentlokker pluss fast prising kan ikke sameksistere. Noe matte gi etter.
Fra teknisk blokkering til offisiell policy
Januarblokkeringen var rotete. Anthropics Thariq Shihipar erkjente at noen kontoer ble “automatisk utestengt for a utlose misbruksfiltre,” en feil selskapet rettet. Selskapet rammet inn haandheving som rettet mot verktoy som “forfalsket den offisielle klienten,” men det fantes ingen dokumentasjon som underbygget det. Bare en serversidebryter og en kort feilmelding.
Motreaksjonen var kraftig. David Heinemeier Hansson (DHH), skaperen av Ruby on Rails, kalte det “veldig kundefiendtlig”. George Hotz (geohot) publiserte “Anthropic gjor en enorm feil” og hevdet at restriksjonene “ikke vil konvertere folk tilbake til Claude Code, men konvertere dem til andre modellleverandorer.” Gergely Orosz, forfatter av The Pragmatic Engineer, konkluderte at Anthropic er “fornoyd med a praktisk talt ikke ha noe okosystem rundt Claude.”
I lopet av noen fa timer hopet det seg opp 147+ reaksjoner pa GitHub-issues og 245+ poeng pa Hacker News. AWS Hero AJ Stuyvenberg kommenterte kvikt: “De speedrunner reisen fra tilgivelig startup til avskyelig konsern for noen exit!”
Ikke alle var uenige. Utvikleren Artem K bemerket at blokkeringen var “den mildeste den kunne vaere,” og pekte pa at det var “bare en hoeflig melding i stedet for a odelegge kontoen din eller retroaktivt belaste deg API-priser.” Andre hevdet at OpenCode hadde brutt bruksvilkarene fra starten ved a forfalske klientidentiteter.
Na, seks uker senere, har Anthropic publisert den offisielle dokumentasjonen som kodifiserer det serversideblokkeringen allerede handhevet. Siden trekker en hard linje: OAuth-autentisering er “utelukkende beregnet for Claude Code og Claude.ai.” Alt annet krever API-nokler via Claude Console, fakturert per token. Anthropic forbeholder seg ogsa retten til a handheve “uten forhandsvarsel.”
Dagens Hacker News-reaksjon tyder pa at saret ikke har grodd. Utviklere leser dokumentasjonen ikke som en presisering, men som en bekreftelse: den lukkede hagen er permanent.
Dette har vaert pa vei lenge
Januarblokkeringen var ikke det forste trekket.
I juni 2025 kuttet Anthropic nesten all Windsurfs direkte tilgang til Claude-modeller med mindre enn en ukes varsel, etter rykter om at OpenAI kjopte Windsurf. Anthropics medgrunnlegger Jared Kaplan forklarte at det ville vaere “rart for oss a selge Claude til OpenAI.” Windsurf ble tvunget til a dreie mot BYOK (Bring Your Own Key) og fremme Google Gemini som alternativ.
Google gikk gjennom en lignende syklus. Utviklere hadde trukket ut OAuth-tokens fra Googles Antigravity IDE og injisert dem i tredjepartsverktoy for gratis tilgang til Gemini-modeller. Google karakteriserte dette som et brudd pa bruksvilkarene under “omgaelse av sikkerhetstiltak” og utstedte kontoutestengelser.
Monsteret er tydelig: AI-selskaper folger Apples spillebok. Den tidlige aeraen (2022 til 2024) inneholdt apne API-er og oppmuntret tredjepartsintegrasjoner. Den navrende aeraen prioriterer okosystemlasing og offisielle verktoy.
Verktoy kobles fra leverandorer
Hver restriksjon akselererer en mottrend. I dette tilfellet: leverandoruavhengighet.
Du kan fortsatt ta med din egen Anthropic API-nokel til de fleste verktoy. Men det bommer pa poenget. En API-nokel beskytter deg ikke hvis Anthropic endrer prising, begrenser tilgang eller bestemmer at brukstilfellet ditt ikke lenger passer deres vilkar. Den virkelige endringen er at verktoy blir genuint leverandoragnostiske, slik at du kan bytte den underliggende modellen uten a endre noe annet.
Det skjer allerede pa tvers av bransjen. OpenCode pivoterte innen timer fra januarblokkeringen til a stotte alle store leverandorer. Cline og RooCode lar deg bytte modeller per oppgave. Gateways som OpenRouter og LiteLLM gjor modellen til et konfigurasjonsvalg i stedet for en arkitekturavhengighet.
Monsteret er det samme overalt: modellen blir en vare. Verktoyene som trives er de som behandler den slik. OpenClaw ble bygget pa dette prinsippet fra starten. Det fungerer med enhver OpenAI-kompatibel endpoint, noe som betyr at det fungerer med nesten enhver modell pa denne listen og enhver leverandor som betjener dem.
Apne kildekodemodeller lukker gapet
Anthropics restriksjoner ankommer pa det verst tenkelige tidspunktet for proprietaer inlasing.
DeepSeek R1, utgitt i januar 2025, beviste at modeller med apne vekter kan levere frontlinjeresonering. Den matchet GPT-4 pa benchmarks og kostet 73 % mindre. “DeepSeek-oyeblikket” var forste gang mange utviklere innsa at de kunne fa toppytelse uten a ga gjennom OpenAI, Anthropic eller Google.
Nettopp denne maneden endret apent kildekode-landskapet seg igjen:
- GLM-5 fra Z AI leder februar 2026-rankingen for apen kildekode, med forgjengeren GLM-4.7 som scorer 73,8 % pa SWE-bench Verified. API-pris: 1,00 $/3,20 $ per million input/output-tokens.
- Qwen 3.5 (Alibaba) lansert for dager siden med native agentevner, stotte for 201 sprak og 60 % lavere driftskostnader enn forgjengeren. API-pris: 0,40 $/2,40 $ per million tokens.
- DeepSeek V3.2 kommer na i en “Speciale”-variant som scorer 88,7 % pa LiveCodeBench, utgitt under MIT-lisens. API-pris: 0,28 $/0,42 $ per million tokens.
- Kimi K2.5 (Moonshot AI) scorer 96 % pa AIME 2025 og overgår de fleste proprietaere modeller i matematikk. API-pris: 0,45 $/2,25 $ per million tokens via DeepInfra.
- Grok 3 er bekreftet for apen kildekode-utgivelse av Elon Musk
Til sammenligning koster Claude Sonnet 3 $/15 $ per million tokens og Claude Opus 5 $/25 $. De billigste alternativene med apen kildekode er 10 til 50 ganger billigere.
Gapet mellom apne kildekode- og proprietaere modeller har krympet fra 17,5 til 0,3 MMLU-poeng pa et enkelt ar. Modeller med apen kildekode adresserer na de to storste bekymringene bedrifter har rundt AI-adopsjon: datapersonvern og kostnadsupredikterbarhet. Og fordi OpenClaw stotter enhver OpenAI-kompatibel endpoint, kan du peke agenten din mot hvilken som helst av disse modellene allerede i dag.
Hva dette betyr for OpenClaw
La oss vaere direkte: OpenClaw.rocks er ikke pavirket av dette forbudet.
Ingen av planene bruker abonnements-OAuth-tokens. Pa Light-planen tar du med dine egne API-nokler og kobler deg direkte til leverandoren du velger. Pa Pro-planen tilbyr vi forhåndskonfigurert AI-tilgang med inkluderte tokens, routet gjennom var Bifrost-gateway. I begge tilfeller kjorer agenten din pa sin egen dedikerte instans som du kontrollerer.
A bytte leverandor er en konfigurasjonsendring. I dag kjorer du DeepSeek V3.2 til 0,28 $ per million input-tokens. I morgen slipper Qwen en bedre modell og du bytter den inn. Neste uke senker Anthropic prisene og du legger til Claude igjen. Agenten din, dataene dine, samtalehistorikken din: ingenting av det endres. Bare modellen bak.
Nar en leverandor kan begrense tilgangen din over natten “uten forhandsvarsel,” er verktoyene og plattformene som overlever de som ikke er avhengige av en enkelt leverandors velvilje. Som en HN-kommentator uttrykte det: a bygge pa en enkelt lukket kildekode-leverandor kan vaere “AI-ekvivalenten av a velge Oracle over Postgres.”
Anthropics forbud validerer et kjerneprinsipp vi har bygget rundt: du bor kontrollere AI-oppsettet ditt. Det betyr at agenten din kjorer pa din instans, API-noklene dine kobler til leverandoren som gir deg best ytelse per krone, og ingen enkelt leverandor kan trekke ut kontakten pa arbeidsflytene dine.
Hva som skjer videre
Tre spadommer:
1. Multi-leverandor blir standarden. Utviklere behandler allerede AI-modeller som utbyttbare komponenter. Det OpenAI-kompatible API-et har blitt en de facto-standard som de fleste leverandorer na stotter, og gateways som OpenRouter og LiteLLM gjor bytte mellom modeller til en enkelt linjes konfigurasjonsendring. Nar verktøyet ditt fungerer med enhver leverandor, har ingen enkelt leverandor innflytelse over deg.
2. Modeller med apen kildekode blir det sikre valget. Nar en proprietaer leverandor kan tilbakekalle tilgangen din over natten, begynner modeller med apne vekter som DeepSeek, Qwen og GLM a se ut som mindre et kompromiss og mer som en strategisk fordel. Du kan kjore dem pa din egen maskinvare, hoste dem gjennom enhver inferensleverandor eller bytte fritt mellom dem. Ingen leverandor kan trekke ut kontakten pa en modell med MIT-lisens.
3. A kjore sin egen agent blir normen. Nar valget star mellom a stole pa en leverandor som kan endre vilkar over natten og a kjore sin egen AI-agent pa en instans man kontrollerer, vil flere team velge det siste. Spesielt nar modeller med apen kildekode fortsetter a lukke kapabilitetsgapet og plattformer som OpenClaw.rocks gjor det til et ettklikksoppsett i stedet for et DevOps-prosjekt.
AEraen med a bygge pa en enkelt AI-leverandors velvilje tar slutt. Det som erstatter den er mer motstandsdyktig: apen kildekode-programvare, leverandoragnostisk arkitektur og infrastruktur som ingen leverandor kan tilbakekalle.
Tre ting a ta med seg
-
Hvis du bruker Claude-abonnements-OAuth-tokens i tredjepartsverktoy, slutt. Det bryter na uttrykkelig Anthropics bruksvilkar og kontoen din kan bli flagget. Bytt til API-nokler (forvent 5x+ hoyere kostnader for tung bruk) eller en helt annen leverandor.
-
Diversifiser AI-avhengighetene dine. Ethvert verktoy som bare fungerer med en modellleverandor er en risiko. Bygg pa rammeverk som lar deg bytte modeller uten a skrive om arbeidsflyter.
-
Velg modeller med apen kildekode og leverandoragnostiske verktoy. Modeller med apne vekter som DeepSeek og Qwen kan ikke tilbakekalles en tirsdag klokken 2 pa natten. Kombiner dem med et verktoy som lar deg bytte leverandorer fritt. OpenClaw.rocks ble bygget for nettopp dette.
Anthropic tok en forretningsbeslutning. Du kan vaere enig eller uenig i begrunnelsen. Men laeerdommen for alle som bygger med AI er den samme: ikke bygg pa lukket grunn du ikke eier.