Anthropic je zabranio alate trećih strana. Evo što to znači.
Anthropic je upravo to učinio službenim. Novoobjavljenja stranica Legal and compliance u dokumentaciji Claude Code to jasno izražava:
“Using OAuth tokens obtained through Claude Free, Pro, or Max accounts in any other product, tool, or service — including the Agent SDK — is not permitted and constitutes a violation of the Consumer Terms of Service.”
Čak je i Anthropicov vlastiti Agent SDK zabranjen s pretplatničkim tokenima. Ako ni njihov vlastiti SDK nije izuzet, ništa nije.
Ova dokumentacija formalizira ono kroz što programeri prolaze od siječnja. Ali vidjeti to napisano crno na bijelo, na posebnoj pravnoj stranici s izričitim jezikom provedbe, pogađa drugačije. Hacker News rasprava koja je danas iznijela tu stranicu na vidjelo već je prepuna frustriranih programera koji ponovno otvaraju iste argumente od prije šest tjedana.
Evo cijele priče o tome kako smo stigli dovde.
Tehnička blokada: 9. siječnja
Pisana politika je nova. Provedba nije.
9. siječnja 2026. Anthropic je implementirao zaštitne mjere na strani poslužitelja koje su blokirale pretplatničke OAuth tokene izvan njihovog službenog Claude Code CLI-ja. Alati trećih strana dobili su jednu poruku o pogrešci: “This credential is only authorized for use with Claude Code and cannot be used for other API requests.”
Bez prethodne najave. Bez javnog priopćenja. Programeri koji koriste OpenCode, Roo Code, Cline i druge alate probudili su se s pokvarenim radnim tijekovima i počeli prijavljivati probleme.
OpenCode (sada s preko 107 tisuća GitHub zvjezdica), najpopularnija alternativa Claude Code, bio je primarna žrtva. Lažirao je identitet klijenta Claude Code putem HTTP zaglavlja, uvjeravajući Anthropicove poslužitelje da zahtjevi dolaze iz službenog CLI-ja.
Cline, RooCode i druge IDE ekstenzije koje su se oslanjale na Claude pretplatničke vjerodajnice također su prestale raditi.
Zaposlenici xAI-ja koji su koristili Claude putem Cursora izgubili su pristup. Zasebno, zaposlenici OpenAI-ja već su bili blokirani u kolovozu 2025., navodno zbog uspoređivanja GPT-5 s Claudeom.
Korisnici OpenClaw i NanoClaw koji su koristili pretplatnički OAuth (umjesto API ključeva) također su bili pogođeni, iako je Anthropic kasnije pojasnio da “ništa se ne mijenja u načinu na koji su korisnici koristili svoje račune i Anthropic neće otkazivati račune.”
Što nije bilo pogođeno: standardni korisnici API ključeva, OpenRouter integracije, svi koji plaćaju po tokenu. Blokada je ciljala pretplatničke OAuth tokene koji se koriste izvan Anthropicovih vlastitih aplikacija.
Ekonomska pozadina
Motivacija je jednostavna matematika.
| Metoda | Mjesečni trošak (intenzivno korištenje) |
|---|---|
| Max pretplata putem Claude Code | ~200 $ paušalno |
| Ekvivalentno korištenje API-ja | 1.000+ $ |
Claude Max pretplata po 200 $/mjesečno postaje duboko neprofitabilna kada korisnici usmjeravaju agentske radne tokove kroz alate trećih strana koji uklanjaju ugrađena ograničenja. Cijena Claude Opus API-ja iznosi 15 $ za milijun ulaznih tokena i 75 $ za milijun izlaznih tokena. Aktivni AI agent koji koristi Opus može potrošiti milijune tokena dnevno.
Problem se ubrzao kada je tehnika “Ralph Wiggum” postala viralna krajem 2025.: programeri su zarobljivali Claudea u autonomne petlje samopopravka koje se izvršavaju preko noći, vraćajući neuspjehe natrag u kontekstni prozor dok testovi ne prođu. Anthropic je čak objavio službeni Ralph Wiggum dodatak za Claude Code, jer unutar vlastitog alata kontroliraju ograničenja i prikupljaju telemetriju. Problem su bili alati trećih strana koji izvršavaju iste petlje bez tih zaštitnih mjera, trošeći tokene tempom koji čini paušalne pretplate duboko neprofitabilnima.
Jedan komentator na Hacker Newsu sažeo je to izravno: “U mjesec dana korištenja Claude Codea, lako je potrošiti toliko LLM tokena da bi vas to koštalo više od 1.000 $ da ste plaćali putem API-ja.”
Napredni modeli plus agentske petlje plus paušalno određivanje cijena ne mogu koegzistirati. Nešto je moralo popustiti.
Od tehničke blokade do službene politike
Siječanjska blokada bila je kaotična. Anthropicov Thariq Shihipar priznao je da su neki računi “automatski zabranjeni jer su aktivirali filtre za zlouporabu,” pogrešku koju je tvrtka ispravila. Tvrtka je uokvirila provedbu kao ciljanje alata koji su “lažirali službenog klijenta,” ali nije postojala dokumentacija koja bi to potkrijepila. Samo prekidač na strani poslužitelja i kratka poruka o pogrešci.
Reakcija je bila oštra. David Heinemeier Hansson (DHH), kreator Ruby on Rails, nazvao je to “izrazito neprijateljskim prema korisnicima”. George Hotz (geohot) objavio je “Anthropic čini ogromnu pogrešku”, tvrdeći da ograničenja “neće pretvoriti ljude natrag u korisnike Claude Codea, nego će ih pretvoriti u korisnike drugih pružatelja modela.” Gergely Orosz, autor The Pragmatic Engineer, zaključio je da je Anthropic “sretan što praktički nema ekosustav oko Claudea.”
U roku od nekoliko sati, 147+ reakcija nakupilo se na GitHub problemima i 245+ bodova na Hacker Newsu. AWS Hero AJ Stuyvenberg je duhovito primijetio: “Jure kroz put od oprostivog startupa do odvratne korporacije prije ikakve prodaje!”
Nisu se svi slagali. Programer Artem K primijetio je da je blokada bila “najnježnija moguća,” ističući da je to “samo pristojna poruka umjesto uništavanja vašeg računa ili retroaktivnog naplaćivanja po API cijenama.” Drugi su tvrdili da je OpenCode od početka kršio uvjete korištenja lažiranjem identiteta klijenta.
Sada, šest tjedana kasnije, Anthropic je objavio službenu dokumentaciju koja kodificira ono što je blokada na strani poslužitelja već provodila. Stranica povlači jasnu crtu: OAuth autentifikacija je “namijenjena isključivo za Claude Code i Claude.ai.” Sve ostalo zahtijeva API ključeve putem Claude Console, s naplatom po tokenu. Anthropic također zadržava pravo provedbe “bez prethodne najave.”
Današnja reakcija na Hacker Newsu sugerira da rana nije zacijelila. Programeri čitaju dokumentaciju ne kao pojašnjenje, nego kao potvrdu: zatvoreni vrt je trajan.
Ovo se priprema već dugo
Siječanjska blokada nije bila prvi potez.
U lipnju 2025. Anthropic je ukinuo gotovo sav Windsurfov izravan pristup Claude modelima s manje od tjedan dana najave, nakon što su se pojavile glasine da OpenAI preuzima Windsurf. Anthropicov suosnivač Jared Kaplan objasnio je da bi bilo “čudno da prodajemo Claudea OpenAI-ju.” Windsurf je bio prisiljen preusmjeriti se na BYOK (Bring Your Own Key) i promovirati Google Gemini kao alternativu.
Google je prošao sličan ciklus. Programeri su izvlačili OAuth tokene iz Googleovog Antigravity IDE-a i ubacivali ih u alate trećih strana za besplatan pristup Gemini modelima. Google je to okarakterizirao kao kršenje uvjeta korištenja pod “zaobilaženje sigurnosnih mjera” i izdao zabrane računa.
Obrazac je jasan: AI tvrtke slijede Appleov playbook. Rano razdoblje (2022. do 2024.) karakterizirali su otvoreni API-ji i poticanje integracija trećih strana. Sadašnje razdoblje prioritizira zaključavanje u ekosustav i službene alate.
Alati se odvajaju od pružatelja
Svako ograničenje ubrzava protutrend. U ovom slučaju: neovisnost o pružatelju.
I dalje možete donijeti svoj vlastiti Anthropic API ključ u većinu alata. Ali to promašuje bit. API ključ vas ne štiti ako Anthropic promijeni cijene, ograniči pristup ili odluči da vaš slučaj korištenja više ne odgovara njihovim uvjetima. Prava promjena je u tome da alati postaju istinski neovisni o pružatelju, tako da možete zamijeniti osnovni model bez mijenjanja ičega drugog.
To se već događa u cijeloj industriji. OpenCode se preusmjerio unutar nekoliko sati od siječanjske blokade na podršku za svakog velikog pružatelja. Cline i RooCode omogućuju prebacivanje modela po zadatku. Pristupnici poput OpenRouter i LiteLLM čine model opcijom konfiguracije, a ne arhitekturalnom ovisnošću.
Obrazac je svugdje isti: model postaje roba. Alati koji uspijevaju su oni koji ga tako tretiraju. OpenClaw je od samog početka izgrađen na tom principu. Radi s bilo kojim OpenAI-kompatibilnim krajnjim točkama, što znači da radi s gotovo svakim modelom na ovom popisu i svakim pružateljem koji ih poslužuje.
Modeli otvorenog koda zatvaraju jaz
Anthropicova ograničenja dolaze u najgore moguće vrijeme za vlasničko zaključavanje.
DeepSeek R1, objavljen u siječnju 2025., dokazao je da modeli otvorenih težina mogu isporučiti zaključivanje na razini najnaprednijih modela. Izjednačio se s GPT-4 na mjerilima uz 73% nižu cijenu. “DeepSeek trenutak” bio je prvi put da su mnogi programeri shvatili da mogu dobiti vrhunske performanse bez prolaska kroz OpenAI, Anthropic ili Google.
Upravo ovog mjeseca, pejzaž otvorenog koda ponovno se promijenio:
- GLM-5 od Z AI predvodi ljestvicu otvorenog koda za veljaču 2026., s prethodnikom GLM-4.7 koji postiže 73,8% na SWE-bench Verified. Cijena API-ja: 1,00 $/3,20 $ za milijun ulaznih/izlaznih tokena.
- Qwen 3.5 (Alibaba) lansiran je prije nekoliko dana s izvornim agentskim sposobnostima, podrškom za 201 jezik i 60% nižim operativnim troškovima od prethodnika. Cijena API-ja: 0,40 $/2,40 $ za milijun tokena.
- DeepSeek V3.2 sada dolazi u varijanti “Speciale” s rezultatom 88,7% na LiveCodeBench, objavljenoj pod MIT licencom. Cijena API-ja: 0,28 $/0,42 $ za milijun tokena.
- Kimi K2.5 (Moonshot AI) postiže 96% na AIME 2025, nadmašujući većinu vlasničkih modela u matematici. Cijena API-ja: 0,45 $/2,25 $ za milijun tokena putem DeepInfra.
- Grok 3 potvrđen za objavljivanje otvorenog koda od strane Elona Muska
Za usporedbu, Claude Sonnet košta 3 $/15 $ za milijun tokena, a Claude Opus košta 5 $/25 $. Najjeftinije opcije otvorenog koda su 10 do 50 puta jeftinije.
Jaz između modela otvorenog koda i vlasničkih modela suzio se s 17,5 na 0,3 MMLU boda u jednoj godini. Modeli otvorenog koda sada odgovaraju na dvije najveće brige poduzeća oko usvajanja AI-ja: privatnost podataka i nepredvidivost troškova. A budući da OpenClaw podržava bilo koju OpenAI-kompatibilnu krajnju točku, možete usmjeriti svog agenta na bilo koji od ovih modela već danas.
Što ovo znači za OpenClaw
Budimo izravni: OpenClaw.rocks nije pogođen ovom zabranom.
Nijedan plan ne koristi pretplatničke OAuth tokene. Na Light planu, donosite vlastite API ključeve i izravno se povezujete s pružateljem po vašem izboru. Na Pro planu, nudimo unaprijed konfiguriran AI pristup s uključenim tokenima, usmjeren kroz naš Bifrost pristupnik. U oba slučaja, vaš agent radi na vlastitoj namjenskoj instanci kojom vi upravljate.
Promjena pružatelja je promjena konfiguracije. Danas koristite DeepSeek V3.2 po 0,28 $ za milijun ulaznih tokena. Sutra Qwen objavi bolji model i vi ga jednostavno zamijenite. Sljedeći tjedan Anthropic snizi cijene i vi vratite Claudea. Vaš agent, vaši podaci, vaša povijest razgovora: ništa se od toga ne mijenja. Samo model iza toga.
Kada vam dobavljač može ograničiti pristup preko noći “bez prethodne najave,” alati i platforme koji preživljavaju su oni koji ne ovise o dobroj volji jednog pružatelja. Kako je jedan komentator na HN-u rekao: graditi na jednom pružatelju zatvorenog koda moglo bi biti “AI ekvivalent biranja Oraclea umjesto Postgresa.”
Anthropicova zabrana potvrđuje temeljni princip oko kojeg smo gradili: trebali biste kontrolirati svoju AI infrastrukturu. To znači da vaš agent radi na vašoj instanci, vaši API ključevi se povezuju s pružateljem koji vam daje najbolji omjer performansi i cijene, i nijedan dobavljač ne može prekinuti vaše radne tijekove.
Što slijedi
Tri predviđanja:
1. Višestruki pružatelji postaju standard. Programeri već tretiraju AI modele kao zamjenjive komponente. OpenAI-kompatibilni API postao je de facto standard koji većina pružatelja sada podržava, a pristupnici poput OpenRouter i LiteLLM čine prebacivanje između modela promjenom jednog retka konfiguracije. Kada vaš alat radi s bilo kojim pružateljem, nijedan dobavljač nema utjecaj nad vama.
2. Modeli otvorenog koda postaju siguran izbor. Kada vlasnički pružatelj može opozvati vaš pristup preko noći, modeli otvorenih težina poput DeepSeek, Qwen i GLM počinju izgledati manje kao kompromis, a više kao strateška prednost. Možete ih pokrenuti na vlastitom hardveru, hostati ih putem bilo kojeg pružatelja inferencije ili slobodno prelaziti između njih. Nijedan dobavljač ne može povući utikač na model s MIT licencom.
3. Pokretanje vlastitog agenta postaje norma. Kada je izbor između povjerenja dobavljaču koji može promijeniti uvjete preko noći i pokretanja vlastitog AI agenta na instanci kojom vi upravljate, sve više timova će izabrati ovo drugo. Posebno kako modeli otvorenog koda nastavljaju zatvarati jaz u sposobnostima, a platforme poput OpenClaw.rocks to čine postavkom jednim klikom umjesto DevOps projektom.
Era gradnje na dobroj volji jednog AI pružatelja završava. Ono što je zamjenjuje je otpornije: softver otvorenog koda, arhitektura neovisna o pružatelju i infrastruktura koju nijedan dobavljač ne može opozvati.
Tri stvari za zapamtiti
-
Ako koristite Claude pretplatničke OAuth tokene u alatima trećih strana, prestanite. To sada izričito krši Anthropicove uvjete korištenja i vaš račun bi mogao biti označen. Prebacite se na API ključeve (očekujte 5x+ veće troškove za intenzivno korištenje) ili potpuno drugog pružatelja.
-
Diverzificirajte svoje AI ovisnosti. Svaki alat koji radi samo s jednim pružateljem modela je rizik. Gradite na okvirima koji vam omogućuju zamjenu modela bez prepisivanja radnih tijekova.
-
Birajte modele otvorenog koda i alate neovisne o pružatelju. Modeli otvorenih težina poput DeepSeek i Qwen ne mogu biti opozvani u utorak u 2 ujutro. Kombinirajte ih s alatom koji vam omogućuje slobodnu zamjenu pružatelja. OpenClaw.rocks je izgrađen upravo za to.
Anthropic je donio poslovnu odluku. Možete se složiti ili ne složiti s obrazloženjem. Ali pouka za sve koji grade s AI-jem je ista: ne gradite na zatvorenom tlu koje ne posjedujete.