Anthropic je zabranio alate trećih strana. Evo šta to znači.
Anthropic je upravo to učinio zvaničnim. Novoobjavljena stranica Legal and compliance u dokumentaciji Claude Code to jasno kaže:
“Using OAuth tokens obtained through Claude Free, Pro, or Max accounts in any other product, tool, or service — including the Agent SDK — is not permitted and constitutes a violation of the Consumer Terms of Service.”
Čak ni Anthropicov sopstveni Agent SDK nije dozvoljen sa pretplatničkim tokenima. Ako ni njihov sopstveni SDK nije izuzet, ništa nije.
Ova dokumentacija formalizuje ono kroz šta programeri prolaze od januara. Ali videti to napisano crno na belo, na posebnoj pravnoj stranici sa izričitim jezikom primene, pogađa drugačije. Hacker News diskusija koja je danas iznela ovu stranicu na videlo već je puna frustriranih programera koji ponovo otvaraju iste argumente od pre šest nedelja.
Evo cele priče o tome kako smo stigli dovde.
Tehnička blokada: 9. januar
Pisana politika je nova. Primena nije.
9. januara 2026. Anthropic je implementirao zaštitne mere na strani servera koje su blokirale pretplatničke OAuth tokene od funkcionisanja izvan njihovog zvaničnog Claude Code CLI-ja. Alati trećih strana dobili su jednu poruku o grešci: “This credential is only authorized for use with Claude Code and cannot be used for other API requests.”
Bez prethodnog obaveštenja. Bez javnog saopštenja. Programeri koji koriste OpenCode, Roo Code, Cline i druge alate probudili su se sa pokvarenim radnim tokovima i počeli da prijavljuju probleme.
OpenCode (sada sa preko 107 hiljada GitHub zvezdica), najpopularnija alternativa Claude Code, bio je primarna žrtva. Falsifikovao je identitet klijenta Claude Code putem HTTP zaglavlja, navodeći Anthropicove servere da veruju da zahtevi dolaze iz zvaničnog CLI-ja.
Cline, RooCode i druga IDE proširenja koja su se oslanjala na Claude pretplatničke akreditive takođe su prestala da rade.
Zaposleni u xAI koji su koristili Claude putem Cursora izgubili su pristup. Odvojeno, zaposleni u OpenAI već su bili blokirani u avgustu 2025., navodno zbog poređenja GPT-5 sa Claudeom.
Korisnici OpenClaw i NanoClaw koji su usmeravali saobraćaj kroz pretplatnički OAuth (umesto API ključeva) takođe su bili pogođeni, mada je Anthropic kasnije pojasnio da “ništa se ne menja u vezi sa načinom na koji su korisnici koristili svoje naloge i Anthropic neće otkazivati naloge.”
Šta nije bilo pogođeno: standardni korisnici API ključeva, OpenRouter integracije, svi koji plaćaju po tokenu. Blokada je ciljala pretplatničke OAuth tokene koji se koriste izvan Anthropicovih sopstvenih aplikacija.
Ekonomska pozadina
Motivacija je jednostavna matematika.
| Metod | Mesečni trošak (intenzivno korišćenje) |
|---|---|
| Max pretplata putem Claude Code | ~200 $ paušalno |
| Ekvivalentno korišćenje API-ja | 1.000+ $ |
Claude Max pretplata od 200 $/mesečno postaje duboko neprofitabilna kada korisnici usmeravaju agentske radne tokove kroz alate trećih strana koji uklanjaju ugrađena ograničenja. Cena Claude Opus API-ja iznosi 15 $ za milion ulaznih tokena i 75 $ za milion izlaznih tokena. Aktivan AI agent koji pokreće Opus može potrošiti milione tokena dnevno.
Problem se ubrzao kada je tehnika “Ralph Wiggum” postala viralna krajem 2025.: programeri su zarobljivali Claudea u autonomne petlje samoispravke koje rade preko noći, vraćajući neuspehe nazad u kontekstni prozor dok testovi ne prođu. Anthropic je čak objavio zvanični Ralph Wiggum dodatak za Claude Code, jer unutar sopstvenog alata kontrolišu ograničenja i prikupljaju telemetriju. Problem su bili alati trećih strana koji pokreću iste petlje bez tih zaštitnih mera, trošeći tokene tempom koji čini paušalne pretplate duboko neprofitabilnim.
Jedan komentator na Hacker Newsu sumirao je to direktno: “U mesecu dana korišćenja Claude Codea, lako je potrošiti toliko LLM tokena da bi vas to koštalo više od 1.000 $ da ste plaćali putem API-ja.”
Napredni modeli plus agentske petlje plus paušalno određivanje cena ne mogu koegzistirati. Nešto je moralo popustiti.
Od tehničke blokade do zvanične politike
Januarska blokada bila je haotična. Anthropicov Thariq Shihipar priznao je da su neki nalozi “automatski zabranjeni jer su aktivirali filtere za zloupotrebu,” grešku koju je kompanija ispravila. Kompanija je uokvirila primenu kao ciljanje alata koji su “falsifikovali zvaničnog klijenta,” ali nije postojala dokumentacija koja bi to potkrepila. Samo prekidač na strani servera i kratka poruka o grešci.
Reakcija je bila oštra. David Heinemeier Hansson (DHH), kreator Ruby on Rails, nazvao je to “veoma neprijateljskim prema korisnicima”. George Hotz (geohot) objavio je “Anthropic čini ogromnu grešku”, tvrdeći da ograničenja “neće pretvoriti ljude nazad u korisnike Claude Codea, već će ih pretvoriti u korisnike drugih provajdera modela.” Gergely Orosz, autor The Pragmatic Engineer, zaključio je da je Anthropic “zadovoljan time što praktično nema ekosistem oko Claudea.”
U roku od nekoliko sati, nakupilo se 147+ reakcija na GitHub problemima i 245+ poena na Hacker Newsu. AWS Hero AJ Stuyvenberg je duhovito primetio: “Jure kroz put od oprostivog startapa do odvratne korporacije pre ikakvog izlaska!”
Nisu se svi slagali. Programer Artem K primetio je da je blokada bila “najblaža moguća,” ističući da je to “samo pristojna poruka umesto uništavanja vašeg naloga ili retroaktivnog naplaćivanja po API cenama.” Drugi su tvrdili da je OpenCode od početka kršio uslove korišćenja falsifikovanjem identiteta klijenta.
Sada, šest nedelja kasnije, Anthropic je objavio zvaničnu dokumentaciju koja kodifikuje ono što je blokada na strani servera već primenjivala. Stranica povlači jasnu liniju: OAuth autentifikacija je “namenjena isključivo za Claude Code i Claude.ai.” Sve ostalo zahteva API ključeve putem Claude Console, sa naplatom po tokenu. Anthropic takođe zadržava pravo primene “bez prethodnog obaveštenja.”
Današnja reakcija na Hacker Newsu sugeriše da rana nije zacelila. Programeri čitaju dokumentaciju ne kao pojašnjenje, već kao potvrdu: zatvorena bašta je trajna.
Ovo se priprema već dugo
Januarska blokada nije bila prvi potez.
U junu 2025. Anthropic je ukinuo gotovo sav Windsurfov direktan pristup Claude modelima sa manje od nedelju dana obaveštenja, nakon što su se pojavile glasine da OpenAI preuzima Windsurf. Anthropicov suosnivač Jared Kaplan objasnio je da bi bilo “čudno za nas da prodajemo Claudea OpenAI-ju.” Windsurf je bio prinuđen da se preusmeri na BYOK (Bring Your Own Key) i promoviše Google Gemini kao alternativu.
Google je prošao kroz sličan ciklus. Programeri su izvlačili OAuth tokene iz Googleovog Antigravity IDE-a i ubacivali ih u alate trećih strana za besplatan pristup Gemini modelima. Google je to okarakterisao kao kršenje uslova korišćenja pod “zaobilaženje bezbednosnih mera” i izdao zabrane naloga.
Obrazac je jasan: AI kompanije slede Appleov priručnik. Rano razdoblje (2022. do 2024.) karakterisali su otvoreni API-ji i podsticanje integracija trećih strana. Sadašnje razdoblje daje prioritet zaključavanju u ekosistem i zvaničnim alatima.
Alati se odvajaju od provajdera
Svako ograničenje ubrzava protivtrend. U ovom slučaju: nezavisnost od provajdera.
I dalje možete doneti svoj sopstveni Anthropic API ključ u većinu alata. Ali to promašuje suštinu. API ključ vas ne štiti ako Anthropic promeni cene, ograniči pristup ili odluči da vaš slučaj korišćenja više ne odgovara njihovim uslovima. Prava promena je u tome da alati postaju istinski nezavisni od provajdera, tako da možete zameniti osnovni model bez menjanja ičeg drugog.
To se već dešava širom industrije. OpenCode se preusmeri u roku od nekoliko sati od januarske blokade na podršku za svakog velikog provajdera. Cline i RooCode vam omogućavaju prebacivanje modela po zadatku. Pristupnici poput OpenRouter i LiteLLM čine model opcijom konfiguracije, a ne arhitekturalnom zavisnošću.
Obrazac je svuda isti: model postaje roba. Alati koji uspevaju su oni koji ga tako tretiraju. OpenClaw je od samog početka izgrađen na tom principu. Radi sa bilo kojim OpenAI-kompatibilnim krajnjim tačkama, što znači da radi sa gotovo svakim modelom na ovom spisku i svakim provajderom koji ih opslužuje.
Modeli otvorenog koda zatvaraju jaz
Anthropicova ograničenja dolaze u najgore moguće vreme za vlasničko zaključavanje.
DeepSeek R1, objavljen u januaru 2025., dokazao je da modeli otvorenih težina mogu obezbediti rezonovanje na nivou najnaprednijih modela. Izjednačio se sa GPT-4 na merilima uz 73% nižu cenu. “DeepSeek momenat” bio je prvi put da su mnogi programeri shvatili da mogu dobiti vrhunske performanse bez prolaska kroz OpenAI, Anthropic ili Google.
Upravo ovog meseca, pejzaž otvorenog koda ponovo se promenio:
- GLM-5 od Z AI predvodi rang listu otvorenog koda za februar 2026., sa prethodnikom GLM-4.7 koji postiže 73,8% na SWE-bench Verified. Cena API-ja: 1,00 $/3,20 $ za milion ulaznih/izlaznih tokena.
- Qwen 3.5 (Alibaba) lansiran je pre nekoliko dana sa izvornim agentskim sposobnostima, podrškom za 201 jezik i 60% nižim operativnim troškovima od prethodnika. Cena API-ja: 0,40 $/2,40 $ za milion tokena.
- DeepSeek V3.2 sada dolazi u varijanti “Speciale” sa rezultatom 88,7% na LiveCodeBench, objavljenoj pod MIT licencom. Cena API-ja: 0,28 $/0,42 $ za milion tokena.
- Kimi K2.5 (Moonshot AI) postiže 96% na AIME 2025, nadmašujući većinu vlasničkih modela u matematici. Cena API-ja: 0,45 $/2,25 $ za milion tokena putem DeepInfra.
- Grok 3 je potvrđen za objavljivanje otvorenog koda od strane Ilona Maska
Za poređenje, Claude Sonnet košta 3 $/15 $ za milion tokena, a Claude Opus košta 5 $/25 $. Najjeftinije opcije otvorenog koda su 10 do 50 puta jeftinije.
Jaz između modela otvorenog koda i vlasničkih modela sužen je sa 17,5 na 0,3 MMLU poena za jednu godinu. Modeli otvorenog koda sada odgovaraju na dve najveće brige preduzeća oko usvajanja AI-ja: privatnost podataka i nepredvidivost troškova. A budući da OpenClaw podržava bilo koju OpenAI-kompatibilnu krajnju tačku, možete usmeriti svog agenta na bilo koji od ovih modela već danas.
Šta ovo znači za OpenClaw
Budimo direktni: OpenClaw.rocks nije pogođen ovom zabranom.
Nijedan plan ne koristi pretplatničke OAuth tokene. Na Light planu, donosite sopstvene API ključeve i direktno se povezujete sa provajderom po vašem izboru. Na Pro planu, nudimo unapred konfigurisan AI pristup sa uključenim tokenima, usmeren kroz naš Bifrost pristupnik. U oba slučaja, vaš agent radi na sopstvenoj namenskoj instanci kojom vi upravljate.
Promena provajdera je promena konfiguracije. Danas koristite DeepSeek V3.2 po 0,28 $ za milion ulaznih tokena. Sutra Qwen objavi bolji model i vi ga jednostavno zamenite. Sledeće nedelje Anthropic smanji cene i vi vratite Claudea. Vaš agent, vaši podaci, vaša istorija razgovora: ništa se od toga ne menja. Samo model iza toga.
Kada vam dobavljač može ograničiti pristup preko noći “bez prethodnog obaveštenja,” alati i platforme koji preživljavaju su oni koji ne zavise od dobre volje jednog provajdera. Kao što je jedan komentator na HN rekao: građenje na jednom provajderu zatvorenog koda moglo bi biti “AI ekvivalent biranja Oraclea umesto Postgresa.”
Anthropicova zabrana potvrđuje osnovni princip oko kojeg smo gradili: trebalo bi da kontrolišete svoju AI infrastrukturu. To znači da vaš agent radi na vašoj instanci, vaši API ključevi se povezuju sa provajderom koji vam daje najbolji odnos performansi i cene, i nijedan dobavljač ne može prekinuti vaše radne tokove.
Šta sledi
Tri predviđanja:
1. Višestruki provajderi postaju standard. Programeri već tretiraju AI modele kao zamenjive komponente. OpenAI-kompatibilni API postao je de facto standard koji većina provajdera sada podržava, a pristupnici poput OpenRouter i LiteLLM čine prebacivanje između modela promenom jednog reda konfiguracije. Kada vaš alat radi sa bilo kojim provajderom, nijedan dobavljač nema uticaj nad vama.
2. Modeli otvorenog koda postaju siguran izbor. Kada vlasnički provajder može opozvati vaš pristup preko noći, modeli otvorenih težina poput DeepSeek, Qwen i GLM počinju da izgledaju manje kao kompromis, a više kao strateška prednost. Možete ih pokrenuti na sopstvenom hardveru, hostovati ih putem bilo kog provajdera inferencije ili slobodno prelaziti između njih. Nijedan dobavljač ne može povući utikač na model sa MIT licencom.
3. Pokretanje sopstvenog agenta postaje norma. Kada je izbor između poverenja dobavljaču koji može promeniti uslove preko noći i pokretanja sopstvenog AI agenta na instanci kojom vi upravljate, sve više timova će izabrati ovo drugo. Posebno kako modeli otvorenog koda nastavljaju da zatvaraju jaz u sposobnostima, a platforme poput OpenClaw.rocks to čine podešavanjem jednim klikom umesto DevOps projektom.
Era građenja na dobroj volji jednog AI provajdera završava se. Ono što je zamenjuje je otpornije: softver otvorenog koda, arhitektura nezavisna od provajdera i infrastruktura koju nijedan dobavljač ne može opozvati.
Tri stvari za pamćenje
-
Ako koristite Claude pretplatničke OAuth tokene u alatima trećih strana, prestanite. To sada izričito krši Anthropicove uslove korišćenja i vaš nalog bi mogao biti označen. Prebacite se na API ključeve (očekujte 5x+ veće troškove za intenzivno korišćenje) ili potpuno drugog provajdera.
-
Diversifikujte svoje AI zavisnosti. Svaki alat koji radi samo sa jednim provajderom modela je rizik. Gradite na okvirima koji vam omogućavaju zamenu modela bez prepisivanja radnih tokova.
-
Birajte modele otvorenog koda i alate nezavisne od provajdera. Modeli otvorenih težina poput DeepSeek i Qwen ne mogu biti opozvani u utorak u 2 ujutru. Kombinujte ih sa alatom koji vam omogućava slobodnu zamenu provajdera. OpenClaw.rocks je izgrađen upravo za to.
Anthropic je doneo poslovnu odluku. Možete se složiti ili ne složiti sa obrazloženjem. Ali pouka za sve koji grade sa AI-jem je ista: ne gradite na zatvorenom tlu koje ne posedujete.