Anthropic to práve urobil oficiálnym. Novo zverejnená stránka o právnych záležitostiach a súlade v dokumentácii Claude Code to hovorí čierne na bielom:

“Using OAuth tokens obtained through Claude Free, Pro, or Max accounts in any other product, tool, or service — including the Agent SDK — is not permitted and constitutes a violation of the Consumer Terms of Service.”

Dokonca aj vlastné Agent SDK spoločnosti Anthropic je s predplatiteľskými tokenmi zakázané. Ak ani ich vlastné SDK nie je vyňaté, nič nie je.

Táto dokumentácia formalizuje to, čo vývojári zažívajú od januára. Ale vidieť to napísané, na vyhradenej právnej stránke s explicitným jazykom vymáhania, zasiahne inak. Vlákno na Hacker News, ktoré dnes stránku vynieslo na povrch, je už plné frustrovaných vývojárov, ktorí opakujú tie isté argumenty ako pred šiestimi týždňami.

Tu je kompletný príbeh toho, ako sme sa sem dostali.

Technická blokácia: 9. januára

Písaná politika je nová. Vymáhanie nie.

9. januára 2026 Anthropic nasadil serverové ochranné opatrenia, ktoré blokovali predplatiteľské OAuth tokeny mimo ich oficiálneho Claude Code CLI. Nástroje tretích strán dostávali jedinú chybovú správu: “This credential is only authorized for use with Claude Code and cannot be used for other API requests.”

Žiadne predchádzajúce oznámenie. Žiadne verejné vyhlásenie. Vývojári na OpenCode, Roo Code, Cline a ďalších nástrojoch sa zobudili s nefunkčnými pracovnými postupmi a začali vytvárať hlásenia.

OpenCode (teraz s viac ako 107 000 hviezdami na GitHub), najpopulárnejšia alternatíva k Claude Code, bol hlavnou obeťou. Falšoval klientsku identitu Claude Code prostredníctvom HTTP hlavičiek, takže servery Anthropic verili, že požiadavky prichádzajú z oficiálneho CLI.

Cline, RooCode a ďalšie rozšírenia IDE, ktoré sa opierali o prihlasovacie údaje predplatného Claude, tiež prestali fungovať.

Zamestnanci xAI používajúci Claude cez Cursor stratili prístup. Osobitne, zamestnanci OpenAI boli zablokovaní už v auguste 2025, údajne za benchmarkovanie GPT-5 oproti Claude.

Používatelia OpenClaw a NanoClaw, ktorí smerovali cez predplatiteľský OAuth (namiesto API kľúčov), boli tiež postihnutí, hoci Anthropic neskôr spresnil, že „nič sa nemení na spôsobe, akým zákazníci používali svoj účet, a Anthropic nebude rušiť účty.”

Čo nebolo postihnuté: používatelia štandardných API kľúčov, integrácie OpenRouter, ktokoľvek platiaci za token. Blokácia cielila na predplatiteľské OAuth tokeny používané mimo vlastných aplikácií Anthropic.

Ekonomika za rozhodnutím

Motivácia je jednoduchá matematika.

MetódaMesačné náklady (intenzívne využitie)
Max predplatné cez Claude Code~200 $ paušálne
Ekvivalentné využitie API1 000 $+

Predplatné Claude Max za 200 $/mesiac sa stáva hlboko nerentabilným, keď používatelia smerujú agentné záťaže cez nástroje tretích strán, ktoré obchádzajú zabudované rýchlostné limity. Claude Opus cez API stojí 15 $ za milión vstupných tokenov a 75 $ za milión výstupných tokenov. Aktívny AI agent bežiaci na Opus môže spotrebovať milióny tokenov denne.

Problém sa zrýchlil, keď sa technika „Ralph Wiggum” stala na konci roku 2025 virálnou: vývojári zachytávajúci Claude v autonómnych samoopravných slučkách, ktoré bežia cez noc a vkladajú chyby späť do kontextového okna, kým testy neprejdú. Anthropic dokonca vydal oficiálny plugin Ralph Wiggum pre Claude Code, pretože v rámci vlastného nástroja kontrolujú rýchlostné limity a zbierajú telemetriu. Problémom boli nástroje tretích strán, ktoré spúšťali tie isté slučky bez týchto ochranných opatrení a spaľovali tokeny tempom, ktoré paušálne predplatné robilo hlboko nerentabilným.

Jeden komentátor na Hacker News to zhrnul priamo: „Za mesiac Claude Code je jednoduché použiť toľko LLM tokenov, že by vás to stálo viac ako 1 000 $, keby ste platili cez API.”

Špičkové modely plus agentné slučky plus paušálne ceny nemôžu koexistovať. Niečo muselo ustúpiť.

Od technickej blokácie k oficiálnej politike

Januárová blokácia bola chaotická. Thariq Shihipar z Anthropic uznal, že niektoré účty boli „automaticky zablokované za spustenie filtrov zneužitia”, chyba, ktorú firma napravila. Firma prezentovala vymáhanie ako zamerané na nástroje, ktoré „falšovali oficiálneho klienta”, ale nebola žiadna dokumentácia, ktorá by to podporila. Len serverový prepínač a stručná chybová správa.

Reakcia bola tvrdá. David Heinemeier Hansson (DHH), tvorca Ruby on Rails, to nazval „veľmi nepriateľským voči zákazníkom”. George Hotz (geohot) publikoval „Anthropic is making a huge mistake” s argumentom, že obmedzenia „neprevedú ľudí späť na Claude Code, prevedú ich k iným poskytovateľom modelov.” Gergely Orosz, autor The Pragmatic Engineer, uzavrel, že Anthropic je „spokojný s tým, že nemá prakticky žiadny ekosystém okolo Claude.”

Počas hodín sa nahromadilo viac ako 147 reakcií na GitHub issues a viac ako 245 bodov na Hacker News. AWS Hero AJ Stuyvenberg poznamenal: „Speedrunnujú cestu od odpustiteľného startupu k nenávidenému korporátu, skôr než dôjde k akémukoľvek exitu!”

Nie všetci nesúhlasili. Vývojár Artem K poznamenal, že zásah bol „čo najmiernejší”, a poukázal na to, že to bola „len zdvorilá správa namiesto zmazania účtu alebo spätného účtovania API cien.” Ďalší argumentovali, že OpenCode od začiatku porušoval podmienky služby tým, že falšoval klientske identity.

Teraz, šesť týždňov neskôr, Anthropic zverejnil oficiálnu dokumentáciu, ktorá kodifikuje to, čo serverová blokácia už vymáhala. Stránka vytyčuje tvrdú hranicu: OAuth autentifikácia je „určená výhradne pre Claude Code a Claude.ai.” Všetko ostatné vyžaduje API kľúče cez Claude Console, fakturované za token. Anthropic si tiež vyhradzuje právo vymáhať „bez predchádzajúceho upozornenia.”

Dnešná reakcia na Hacker News naznačuje, že rana sa nezahojila. Vývojári čítajú dokumentáciu nie ako objasnenie, ale ako potvrdenie: uzavretá záhrada je trvalá.

Toto sa pripravovalo dlhšiu dobu

Januárová blokácia nebola prvým krokom.

V júni 2025 Anthropic odstrihol takmer všetok priamy prístup Windsurf k modelom Claude s menej ako týždenným predstihom, po tom, čo sa objavili zvesti, že OpenAI preberá Windsurf. Spoluzakladateľ Anthropic Jared Kaplan vysvetlil, že by bolo „zvláštne, keby sme predávali Claude spoločnosti OpenAI.” Windsurf bol nútený prejsť na BYOK (Bring Your Own Key) a propagovať Google Gemini ako alternatívu.

Google prešiel podobným cyklom. Vývojári extrahovali OAuth tokeny z IDE Antigravity spoločnosti Google a vkladali ich do nástrojov tretích strán pre bezplatný prístup k modelom Gemini. Google to kvalifikoval ako porušenie podmienok služby pod „obchádzanie bezpečnostných opatrení” a vydal zákazy účtov.

Vzorec je jasný: AI spoločnosti nasledujú Apple scenár. Raná éra (2022 až 2024) ponúkala otvorené API a podporovala integrácie tretích strán. Súčasná éra uprednostňuje uzamknutie ekosystému a oficiálne nástroje.

Nástroje sa oddeľujú od poskytovateľov

Každé obmedzenie urýchľuje protitrend. V tomto prípade: nezávislosť od poskytovateľa.

Stále môžete použiť vlastný API kľúč Anthropic vo väčšine nástrojov. Ale to míňa podstatu. API kľúč Vás neochráni, ak Anthropic zmení ceny, obmedzí prístup alebo rozhodne, že Váš prípad použitia už nezapadá do ich podmienok. Skutočný posun spočíva v tom, že nástroje sa stávajú skutočne agnostickými voči poskytovateľovi, takže môžete vymeniť podkladový model bez zmeny čohokoľvek iného.

To sa už deje v celom odvetví. OpenCode sa počas hodín po januárovej blokácii preorientoval na podporu všetkých hlavných poskytovateľov. Cline a RooCode Vám umožňujú prepínať modely na úlohu. Brány ako OpenRouter a LiteLLM robia z modelu konfiguračnú voľbu namiesto architektonickej závislosti.

Vzorec je všade rovnaký: model sa stáva zameniteľným vstupom. Nástroje, ktoré prosperujú, sú tie, ktoré s ním tak zaobchádzajú. OpenClaw bol postavený na tomto princípe od počiatku. Funguje s akýmkoľvek endpointom kompatibilným s OpenAI, čo znamená, že funguje s prakticky každým modelom na tomto zozname a každým poskytovateľom, ktorý ich ponúka.

Open source modely zatvárajú medzeru

Obmedzenia Anthropic prichádzajú v najhoršom možnom čase pre proprietárne uzamknutie.

DeepSeek R1, vydaný v januári 2025, dokázal, že open-weight modely môžu poskytnúť uvažovanie na úrovni špičky. Na benchmarkoch sa vyrovnal GPT-4 a stál o 73 % menej. „Moment DeepSeek” bol prvýkrát, kedy si mnoho vývojárov uvedomilo, že môžu získať špičkový výkon bez OpenAI, Anthropic alebo Google.

Práve tento mesiac sa open source krajina opäť posunula:

  • GLM-5 od Z AI vedie rebríčky open source za február 2026, pričom jeho predchodca GLM-4.7 dosiahol 73,8 % na SWE-bench Verified. Ceny API: 1,00 $/3,20 $ za milión vstupných/výstupných tokenov.
  • Qwen 3.5 (Alibaba) spustený pred niekoľkými dňami s natívnymi agentnými schopnosťami, podporou 201 jazykov a o 60 % nižšími prevádzkovými nákladmi ako predchodca. Ceny API: 0,40 $/2,40 $ za milión tokenov.
  • DeepSeek V3.2 je teraz k dispozícii vo variante „Speciale” s 88,7 % na LiveCodeBench, vydanej pod licenciou MIT. Ceny API: 0,28 $/0,42 $ za milión tokenov.
  • Kimi K2.5 (Moonshot AI) dosahuje 96 % na AIME 2025, čím prekonáva väčšinu proprietárnych modelov v matematike. Ceny API: 0,45 $/2,25 $ za milión tokenov cez DeepInfra.
  • Grok 3 je Elonom Muskom potvrdený na vydanie ako open source

Pre porovnanie: Claude Sonnet stojí 3 $/15 $ za milión tokenov a Claude Opus stojí 5 $/25 $. Najlacnejšie open source možnosti sú 10-krát až 50-krát lacnejšie.

Medzera medzi open source a proprietárnymi modelmi sa za jediný rok zúžila zo 17,5 na 0,3 bodu MMLU. Open source modely teraz riešia dve najväčšie obavy podnikov ohľadom adopcie AI: ochranu údajov a nepredvídateľnosť nákladov. A pretože OpenClaw podporuje akýkoľvek endpoint kompatibilný s OpenAI, môžete svojho agenta nasmerovať na ktorýkoľvek z týchto modelov ešte dnes.

Čo to znamená pre OpenClaw

Buďme priami: OpenClaw.rocks nie je týmto zákazom dotknutý.

Žiadny plán nepoužíva predplatiteľské OAuth tokeny. Na pláne Light si prinesiete vlastné API kľúče a pripojíte sa priamo k poskytovateľovi podľa vlastného výberu. Na pláne Pro poskytujeme predkonfigurovaný AI prístup s tokenmi v cene, smerovaný cez našu bránu Bifrost. V oboch prípadoch beží Váš agent na vlastnej vyhradenej inštancii, ktorú ovládate Vy.

Prepnutie poskytovateľa je zmena konfigurácie. Dnes používate DeepSeek V3.2 za 0,28 $ za milión vstupných tokenov. Zajtra Qwen vydá lepší model a Vy ho vymeníte. Budúci týždeň Anthropic zníži ceny a Vy pridáte Claude späť. Váš agent, Vaše údaje, Vaša história konverzácií: nič z toho sa nemení. Mení sa len model za tým.

Keď Vám poskytovateľ môže zo dňa na deň obmedziť prístup „bez predchádzajúceho upozornenia”, prežijú tie nástroje a platformy, ktoré nezávisia od dobrej vôle jedného poskytovateľa. Ako napísal jeden komentátor na HN: stavať na jedinom poskytovateľovi uzavretého kódu by mohlo byť „AI ekvivalent voľby Oracle namiesto Postgres.”

Zákaz Anthropic potvrdzuje základný princíp, na ktorom sme stavali: mali by ste mať kontrolu nad svojím AI nastavením. To znamená, že Váš agent beží na Vašej inštancii, Vaše API kľúče sa pripájajú k poskytovateľovi, ktorý Vám ponúka najlepší výkon za dolár, a žiadny jednotlivý poskytovateľ nemôže odpojiť Vaše pracovné postupy.

Čo sa stane ďalej

Tri predpovede:

1. Multi-poskytovateľ sa stáva štandardom. Vývojári už zaobchádzajú s AI modelmi ako so zameniteľnými komponentmi. API kompatibilné s OpenAI sa stalo de facto štandardom, ktorý väčšina poskytovateľov teraz podporuje, a brány ako OpenRouter a LiteLLM robia z prepínania medzi modelmi jednoriadkovú zmenu konfigurácie. Keď Váš nástroj funguje s akýmkoľvek poskytovateľom, žiadny dodávateľ na Vás nemá páku.

2. Open source modely sa stávajú bezpečnou stávkou. Keď Vám proprietárny poskytovateľ môže zo dňa na deň odobrať prístup, open-weight modely ako DeepSeek, Qwen a GLM vyzerajú menej ako kompromis a viac ako strategická výhoda. Môžete ich prevádzkovať na vlastnom hardware, hostovať cez akéhokoľvek poskytovateľa inferencie alebo medzi nimi voľne prepínať. Žiadny poskytovateľ nemôže odpojiť model s licenciou MIT.

3. Prevádzkovanie vlastného agenta sa stáva normou. Keď je voľba medzi dôverou v poskytovateľa, ktorý môže podmienky meniť zo dňa na deň, a prevádzkovaním vlastného AI agenta na inštancii, ktorú kontrolujete, stále viac tímov zvolí to druhé. Najmä keď open source modely ďalej zatvárajú medzeru v schopnostiach a platformy ako OpenClaw.rocks z toho robia nastavenie na jedno kliknutie namiesto DevOps projektu.

Éra stavania na dobrej vôli jedného AI poskytovateľa sa končí. To, čo ju nahrádza, je odolnejšie: open source softvér, architektúra agnostická voči poskytovateľovi a infraštruktúra, ktorú žiadny dodávateľ nemôže odvolať.

Tri závery

  1. Ak používate predplatiteľské OAuth tokeny Claude v nástrojoch tretích strán, prestaňte. Teraz to výslovne porušuje podmienky služby Anthropic a Váš účet môže byť označený. Prejdite na API kľúče (očakávajte 5x+ vyššie náklady pri intenzívnom využití) alebo na úplne iného poskytovateľa.

  2. Diverzifikujte svoje AI závislosti. Akýkoľvek nástroj, ktorý funguje len s jedným poskytovateľom modelov, predstavuje riziko. Stavajte na frameworkoch, ktoré Vám umožňujú meniť modely bez prepisovania pracovných postupov.

  3. Zvoľte open source modely a nástroje agnostické voči poskytovateľovi. Open-weight modely ako DeepSeek a Qwen nemôžu byť odvolané v utorok o druhej ráno. Spojte ich s nástrojom, ktorý Vám umožňuje voľne meniť poskytovateľov. OpenClaw.rocks bol postavený presne pre toto.

Anthropic urobil obchodné rozhodnutie. Môžete súhlasiť alebo nesúhlasiť s dôvodmi. Ale poučenie pre všetkých, kto stavia s AI, je rovnaké: nestavajte na uzavretom teréne, ktorý nevlastníte.