Anthropic je prepovedal orodja tretjih oseb. Tukaj je, kaj to pomeni.
Anthropic je to ravnokar naredil uradno. Na novo objavljena stran Legal and compliance v dokumentaciji Claude Code to jasno pove:
“Using OAuth tokens obtained through Claude Free, Pro, or Max accounts in any other product, tool, or service — including the Agent SDK — is not permitted and constitutes a violation of the Consumer Terms of Service.”
Tudi Anthropicov lastni Agent SDK je prepovedan z naročniškimi žetoni. Če niti njihov lastni SDK ni izvzet, potem nič ni.
Ta dokumentacija formalizira, kar razvijalci doživljajo od januarja. Toda videti to zapisano črno na belem, na posebni pravni strani z izrecnim jezikom izvajanja, zadane drugače. Hacker News tema, ki je danes razkrila to stran, je že polna frustriranih razvijalcev, ki ponovno odpirajo iste argumente izpred šestih tednov.
Tukaj je celotna zgodba o tem, kako smo prišli do sem.
Tehnična blokada: 9. januar
Pisana politika je nova. Izvajanje ni.
9. januarja 2026 je Anthropic uvedel zaščitne ukrepe na strežniški strani, ki so blokirali naročniške OAuth žetone zunaj njihovega uradnega Claude Code CLI-ja. Orodja tretjih oseb so prejela eno samo sporočilo o napaki: “This credential is only authorized for use with Claude Code and cannot be used for other API requests.”
Brez predhodnega obvestila. Brez javne objave. Razvijalci, ki uporabljajo OpenCode, Roo Code, Cline in druga orodja, so se zbudili s pokvarjenimi delovnimi tokovi in začeli prijavljati težave.
OpenCode (zdaj z več kot 107 tisoč GitHub zvezdicami), najbolj priljubljena alternativa Claude Code, je bil primarna žrtev. Ponarejevalt je identiteto odjemalca Claude Code prek HTTP glav, s čimer je Anthropicove strežnike prepričal, da zahteve prihajajo iz uradnega CLI-ja.
Cline, RooCode in druge razširitve IDE, ki so se opirali na Claude naročniške poverilnice, so prav tako prenehali delovati.
Zaposleni pri xAI, ki so uporabljali Claude prek Cursorja, so izgubili dostop. Ločeno so bili zaposleni pri OpenAI blokirani že avgusta 2025, domnevno zaradi primerjave GPT-5 s Claudeom.
Uporabniki OpenClaw in NanoClaw, ki so usmerjali promet prek naročniškega OAuth (namesto API ključev), so bili prav tako prizadeti, čeprav je Anthropic pozneje pojasnil, da se “nič ne spremeni glede načina, kako so stranke uporabljale svoje račune, in Anthropic ne bo ukinjal računov.”
Kar ni bilo prizadeto: standardni uporabniki API ključev, integracije OpenRouter, vsi, ki plačujejo po žetonu. Blokada je ciljala naročniške OAuth žetone, ki se uporabljajo zunaj Anthropicovih lastnih aplikacij.
Ekonomska ozadja
Motivacija je preprosta matematika.
| Metoda | Mesečni strošek (intenzivna uporaba) |
|---|---|
| Max naročnina prek Claude Code | ~200 $ pavšalno |
| Enakovredna uporaba API-ja | 1.000+ $ |
Claude Max naročnina po 200 $/mesec postane globoko nedobičkonosna, ko uporabniki usmerjajo agentske delovne tokove skozi orodja tretjih oseb, ki odstranijo vgrajene omejitve. Cena Claude Opus API-ja je 15 $ za milijon vhodnih žetonov in 75 $ za milijon izhodnih žetonov. Aktiven AI agent, ki poganja Opus, lahko porabi milijone žetonov na dan.
Problem se je pospešil, ko je tehnika “Ralph Wiggum” postala viralna konec leta 2025: razvijalci so ujeli Claudea v avtonomne zanke samopopravljanja, ki tečejo čez noč, napake vračajo v kontekstno okno, dokler testi ne uspejo. Anthropic je celo objavil uradni Ralph Wiggum vtičnik za Claude Code, ker znotraj lastnega orodja nadzorujejo omejitve in zbirajo telemetrijo. Problem so bila orodja tretjih oseb, ki poganjajo iste zanke brez teh zaščitnih ukrepov, porabljajo žetone s hitrostjo, ki naredi pavšalne naročnine globoko nedobičkonosne.
Eden od komentatorjev na Hacker Newsu je to jedro strnil: “V mesecu dni uporabe Claude Codea zlahka porabite toliko LLM žetonov, da bi vas to stalo več kot 1.000 $, če bi plačevali prek API-ja.”
Vrhunski modeli plus agentske zanke plus pavšalno določanje cen ne morejo soobstajati. Nekaj je moralo popustiti.
Od tehnične blokade do uradne politike
Januarska blokada je bila kaotična. Anthropicov Thariq Shihipar je priznal, da so bili nekateri računi “samodejno prepovedani, ker so sprožili filtre za zlorabo,” napako, ki jo je podjetje popravilo. Podjetje je izvajanje predstavilo kot ciljanje orodij, ki so “ponarejevala uradnega odjemalca,” toda ni bilo dokumentacije, ki bi to podpirala. Le stikalo na strežniški strani in kratko sporočilo o napaki.
Odziv je bil oster. David Heinemeier Hansson (DHH), ustvarjalec Ruby on Rails, je to označil za “zelo sovražno do strank”. George Hotz (geohot) je objavil “Anthropic dela ogromno napako” in trdil, da omejitve “ljudi ne bodo pretvorile nazaj v uporabnike Claude Codea, pretvorile jih bodo v uporabnike drugih ponudnikov modelov.” Gergely Orosz, avtor The Pragmatic Engineer, je zaključil, da je Anthropic “zadovoljen s tem, da praktično nima ekosistema okoli Claudea.”
V nekaj urah se je nabralo 147+ reakcij na GitHub zadevah in 245+ točk na Hacker Newsu. AWS Hero AJ Stuyvenberg je duhovito pripomnil: “Hitrostno prečkajo pot od oprostljivega startupa do odvratne korporacije pred kakršnim koli izhodom!”
Niso se vsi strinjali. Razvijalec Artem K je opazil, da je bila blokada “najnežnejša možna,” in poudaril, da je šlo “le za vljudno sporočilo namesto uničenja vašega računa ali retroaktivnega zaračunavanja po API cenah.” Drugi so trdili, da je OpenCode od začetka kršil pogoje uporabe s ponarejevanjem identitete odjemalca.
Zdaj, šest tednov pozneje, je Anthropic objavil uradno dokumentacijo, ki kodificira, kar je blokada na strežniški strani že izvajala. Stran jasno pove: OAuth avtentikacija je “namenjena izključno za Claude Code in Claude.ai.” Vse ostalo zahteva API ključe prek Claude Console, z zaračunavanjem po žetonu. Anthropic si prav tako pridržuje pravico do izvajanja “brez predhodnega obvestila.”
Današnji odziv na Hacker Newsu kaže, da rana ni zacelila. Razvijalci berejo dokumentacijo ne kot pojasnitev, temveč kot potrditev: zaprti vrt je trajen.
To se pripravlja že dolgo
Januarska blokada ni bila prvi korak.
Junija 2025 je Anthropic ukinil skoraj ves Windsurfov neposredni dostop do Claude modelov z manj kot tednom dni najave, potem ko so se pojavile govorice, da OpenAI prevzema Windsurf. Anthropicov soustanovitelj Jared Kaplan je pojasnil, da bi bilo “čudno, da prodajamo Claudea OpenAI-ju.” Windsurf je bil prisiljen preusmeriti se na BYOK (Bring Your Own Key) in promovirati Google Gemini kot alternativo.
Google je šel skozi podoben cikel. Razvijalci so izvlačevali OAuth žetone iz Googlovega Antigravity IDE-ja in jih vbrizgavali v orodja tretjih oseb za brezplačen dostop do Gemini modelov. Google je to označil kot kršitev pogojev uporabe pod “zaobhajanje varnostnih ukrepov” in izdal prepovedi računov.
Vzorec je jasen: AI podjetja sledijo Applovemu priročniku. Zgodnje obdobje (2022 do 2024) je vključevalo odprte API-je in spodbujanje integracij tretjih oseb. Sedanje obdobje daje prednost zaklepanju v ekosistem in uradnim orodjem.
Orodja se ločujejo od ponudnikov
Vsaka omejitev pospeši nasprotni trend. V tem primeru: neodvisnost od ponudnika.
Še vedno lahko prinesete svoj lastni Anthropic API ključ v večino orodij. Toda to zgreši bistvo. API ključ vas ne zaščiti, če Anthropic spremeni cene, omeji dostop ali odloči, da vaš primer uporabe ne ustreza več njihovim pogojem. Prava sprememba je v tem, da orodja postajajo resnično neodvisna od ponudnika, tako da lahko zamenjate osnovni model brez spreminjanja česarkoli drugega.
To se že dogaja po celotni industriji. OpenCode se je preusmeri v nekaj urah po januarski blokadi na podporo za vsakega večjega ponudnika. Cline in RooCode omogočata preklapljanje modelov po nalogi. Prehodi kot OpenRouter in LiteLLM naredijo model konfiguracijska opcijo namesto arhitekturne odvisnosti.
Vzorec je povsod enak: model postaja blago. Orodja, ki uspevajo, so tista, ki ga tako obravnavajo. OpenClaw je od začetka zgrajen na tem principu. Deluje s katero koli OpenAI-kompatibilno končno točko, kar pomeni, da deluje s skoraj vsakim modelom na tem seznamu in vsakim ponudnikom, ki jih streže.
Modeli odprtega koda zmanjšujejo razliko
Anthropicove omejitve prihajajo ob najslabšem možnem času za lastniško zaklepanje.
DeepSeek R1, objavljen januarja 2025, je dokazal, da lahko modeli odprtih uteži zagotovijo sklepanje na ravni najnaprednejših modelov. Izenačil se je z GPT-4 na primerjalnih testih ob 73 % nižji ceni. “DeepSeek trenutek” je bil prvi trenutek, ko so mnogi razvijalci spoznali, da lahko dobijo vrhunsko zmogljivost brez prehoda skozi OpenAI, Anthropic ali Google.
Ravno ta mesec se je pokrajina odprtega koda ponovno spremenila:
- GLM-5 od Z AI vodi lestvico odprtega koda za februar 2026, s predhodnikom GLM-4.7, ki dosega 73,8 % na SWE-bench Verified. Cena API-ja: 1,00 $/3,20 $ za milijon vhodnih/izhodnih žetonov.
- Qwen 3.5 (Alibaba) lansiran pred nekaj dnevi z izvornimi agentskimi zmogljivostmi, podporo za 201 jezik in 60 % nižjimi operativnimi stroški od predhodnika. Cena API-ja: 0,40 $/2,40 $ za milijon žetonov.
- DeepSeek V3.2 zdaj prihaja v varianti “Speciale” z rezultatom 88,7 % na LiveCodeBench, objavljen pod licenco MIT. Cena API-ja: 0,28 $/0,42 $ za milijon žetonov.
- Kimi K2.5 (Moonshot AI) dosega 96 % na AIME 2025, presega večino lastniških modelov v matematiki. Cena API-ja: 0,45 $/2,25 $ za milijon žetonov prek DeepInfra.
- Grok 3 je potrjen za objavo odprtega koda s strani Elona Muska
Za primerjavo, Claude Sonnet stane 3 $/15 $ za milijon žetonov, Claude Opus pa 5 $/25 $. Najcenejše možnosti odprtega koda so 10- do 50-krat cenejše.
Razlika med modeli odprtega koda in lastniškimi modeli se je zmanjšala s 17,5 na 0,3 MMLU točke v enem letu. Modeli odprtega koda zdaj naslavljajo dve največji skrbi podjetij glede uvajanja AI: zasebnost podatkov in nepredvidljivost stroškov. In ker OpenClaw podpira katero koli OpenAI-kompatibilno končno točko, lahko svojega agenta usmerite na katerega koli od teh modelov že danes.
Kaj to pomeni za OpenClaw
Bodimo neposredni: OpenClaw.rocks ni prizadet s to prepovedjo.
Noben načrt ne uporablja naročniških OAuth žetonov. Na Light načrtu prinesete svoje API ključe in se neposredno povežete s ponudnikom po vaši izbiri. Na Pro načrtu nudimo vnaprej konfiguriran AI dostop z vključenimi žetoni, usmerjen prek našega prehoda Bifrost. V obeh primerih vaš agent teče na lastni namenski instanci, ki jo vi upravljate.
Zamenjava ponudnika je sprememba konfiguracije. Danes poganjate DeepSeek V3.2 po 0,28 $ za milijon vhodnih žetonov. Jutri Qwen objavi boljši model in ga preprosto zamenjate. Naslednji teden Anthropic zniža cene in dodate Claudea nazaj. Vaš agent, vaši podatki, vaša zgodovina pogovorov: nič od tega se ne spremeni. Le model za njim.
Ko vam dobavitelj lahko omeji dostop čez noč “brez predhodnega obvestila,” orodja in platforme, ki preživijo, so tista, ki niso odvisna od dobre volje enega ponudnika. Kot je en komentator na HN povedal: graditi na enem ponudniku zaprte kode bi lahko bilo “AI ekvivalent izbire Oracla namesto Postgresa.”
Anthropicova prepoved potrjuje temeljni princip, okoli katerega smo gradili: morali bi nadzorovati svojo AI infrastrukturo. To pomeni, da vaš agent teče na vaši instanci, vaši API ključi se povezujejo s ponudnikom, ki vam zagotavlja najboljše razmerje med zmogljivostjo in ceno, in noben dobavitelj ne more prekiniti vaših delovnih tokov.
Kaj sledi
Tri napovedi:
1. Več ponudnikov postane standard. Razvijalci že obravnavajo AI modele kot zamenljive komponente. OpenAI-kompatibilni API je postal de facto standard, ki ga zdaj podpira večina ponudnikov, prehodi kot OpenRouter in LiteLLM pa omogočajo preklapljanje med modeli s spremembo ene vrstice konfiguracije. Ko vaše orodje deluje s katerim koli ponudnikom, noben dobavitelj nima vpliva nad vami.
2. Modeli odprtega koda postanejo varna stava. Ko lahko lastniški ponudnik prekliče vaš dostop čez noč, modeli odprtih uteži kot DeepSeek, Qwen in GLM začnejo izgledati manj kot kompromis in bolj kot strateška prednost. Poganjate jih lahko na lastni strojni opremi, gostite prek katerega koli ponudnika sklepanja ali prosto preklapljate med njimi. Noben dobavitelj ne more potegniti vtiča na modelu z licenco MIT.
3. Poganjanje lastnega agenta postane norma. Ko je izbira med zaupanjem dobavitelju, ki lahko spremeni pogoje čez noč, in poganjanjem lastnega AI agenta na instanci, ki jo vi nadzirate, bo vse več ekip izbralo slednje. Zlasti ko modeli odprtega koda nadaljujejo z zmanjševanjem razlike v zmogljivostih, platforme kot OpenClaw.rocks pa to naredijo nastavitev z enim klikom namesto DevOps projekta.
Era gradnje na dobri volji enega ponudnika AI se končuje. Kar jo zamenjuje, je bolj odporno: programska oprema odprtega koda, arhitektura neodvisna od ponudnika in infrastruktura, ki je noben dobavitelj ne more preklicati.
Tri stvari za zapomniti
-
Če uporabljate Claude naročniške OAuth žetone v orodjih tretjih oseb, prenehajte. To zdaj izrecno krši Anthropicove pogoje uporabe in vaš račun bi lahko bil označen. Preklopite na API ključe (pričakujte 5x+ višje stroške za intenzivno uporabo) ali popolnoma drugega ponudnika.
-
Diverzificirajte svoje AI odvisnosti. Vsako orodje, ki deluje le z enim ponudnikom modelov, je tveganje. Gradite na ogrodjih, ki vam omogočajo zamenjavo modelov brez prepisovanja delovnih tokov.
-
Izberite modele odprtega koda in orodja, neodvisna od ponudnika. Modeli odprtih uteži kot DeepSeek in Qwen ne morejo biti preklicani v torek ob 2. uri zjutraj. Kombinirajte jih z orodjem, ki vam omogoča prosto zamenjavo ponudnikov. OpenClaw.rocks je zgrajen točno za to.
Anthropic je sprejel poslovno odločitev. Lahko se strinjate ali ne strinjate z razlogi. Toda pouka za vse, ki gradijo z AI, je enaka: ne gradite na zaprtem terenu, ki ga ne posedujete.