Anthropic to právě udělal oficiálním. Nově zveřejněná stránka o právních záležitostech a shodě v dokumentaci Claude Code to říká černé na bílém:

“Using OAuth tokens obtained through Claude Free, Pro, or Max accounts in any other product, tool, or service — including the Agent SDK — is not permitted and constitutes a violation of the Consumer Terms of Service.”

Dokonce i vlastní Agent SDK společnosti Anthropic je s předplatitelskými tokeny zakázáno. Pokud ani jejich vlastní SDK není vyňato, nic není.

Tato dokumentace formalizuje to, co vývojáři zažívají od ledna. Ale vidět to napsané, na vyhrazené právní stránce s explicitním jazykem vymáhání, zasahuje jinak. Vlákno na Hacker News, které dnes stránku vyneslo na povrch, je již plné frustrovaných vývojářů, kteří opakují stejné argumenty jako před šesti týdny.

Zde je kompletní příběh toho, jak jsme se sem dostali.

Technická blokace: 9. ledna

Psaná politika je nová. Vymáhání nikoli.

9. ledna 2026 Anthropic nasadil serverová ochranná opatření, která blokovala předplatitelské OAuth tokeny mimo jejich oficiální Claude Code CLI. Nástroje třetích stran dostávaly jedinou chybovou zprávu: “This credential is only authorized for use with Claude Code and cannot be used for other API requests.”

Žádné předběžné oznámení. Žádné veřejné prohlášení. Vývojáři na OpenCode, Roo Code, Cline a dalších nástrojích se probudili s nefunkčními pracovními postupy a začali vytvářet hlášení.

OpenCode (nyní přes 107 000 hvězd na GitHub), nejpopulárnější alternativa k Claude Code, byl hlavní obětí. Falšoval klientskou identitu Claude Code prostřednictvím HTTP hlaviček, takže servery Anthropic věřily, že požadavky přicházejí z oficiálního CLI.

Cline, RooCode a další rozšíření IDE, která se opírala o přihlašovací údaje předplatného Claude, také přestala fungovat.

Zaměstnanci xAI používající Claude přes Cursor ztratili přístup. Zvlášť, zaměstnanci OpenAI byli zablokováni již v srpnu 2025, údajně za benchmarkování GPT-5 proti Claude.

Uživatelé OpenClaw a NanoClaw, kteří směrovali přes předplatitelský OAuth (místo API klíčů), byli také postiženi, ačkoli Anthropic později upřesnil, že „nic se nemění na způsobu, jakým zákazníci používali svůj účet, a Anthropic nebude rušit účty.”

Co nebylo postiženo: uživatelé standardních API klíčů, integrace OpenRouter, kdokoli platící za token. Blokace cílila na předplatitelské OAuth tokeny používané mimo vlastní aplikace Anthropic.

Ekonomika za rozhodnutím

Motivace je prostá matematika.

MetodaMěsíční náklady (intenzivní využití)
Max předplatné přes Claude Code~200 $ paušálně
Ekvivalentní využití API1 000 $+

Předplatné Claude Max za 200 $/měsíc se stává hluboce nerentabilním, když uživatelé směrují agentní zátěže přes nástroje třetích stran, které obcházejí vestavěné rychlostní limity. Claude Opus přes API stojí 15 $ za milion vstupních tokenů a 75 $ za milion výstupních tokenů. Aktivní AI agent běžící na Opus může spotřebovat miliony tokenů denně.

Problém se zrychlil, když technika „Ralph Wiggum” se na konci roku 2025 stala virální: vývojáři zachycující Claude v autonomních samoopravných smyčkách, které běží přes noc a vkládají chyby zpět do kontextového okna, dokud testy neprojdou. Anthropic dokonce vydal oficiální plugin Ralph Wiggum pro Claude Code, protože v rámci vlastního nástroje kontrolují rychlostní limity a sbírají telemetrii. Problémem byly nástroje třetích stran, které spouštěly stejné smyčky bez těchto ochranných opatření a spalovaly tokeny tempem, které paušální předplatné činilo hluboce nerentabilním.

Jeden komentátor na Hacker News to shrnul přímo: „Za měsíc Claude Code je snadné použít tolik LLM tokenů, že by vás to stálo přes 1 000 $, kdybyste platili přes API.”

Špičkové modely plus agentní smyčky plus paušální ceny nemohou koexistovat. Něco muselo ustoupit.

Od technické blokace k oficiální politice

Lednová blokace byla chaotická. Thariq Shihipar z Anthropic uznal, že některé účty byly „automaticky zablokovány za spuštění filtrů zneužití”, chyba, kterou firma napravila. Firma prezentovala vymáhání jako zaměřené na nástroje, které „falšovaly oficiálního klienta”, ale nebyla žádná dokumentace, která by to podpořila. Jen serverový přepínač a strohá chybová zpráva.

Reakce byla tvrdá. David Heinemeier Hansson (DHH), tvůrce Ruby on Rails, to nazval „velmi nepřátelským vůči zákazníkům”. George Hotz (geohot) publikoval „Anthropic is making a huge mistake” s argumentem, že omezení „nepřevedou lidi zpět na Claude Code, převedou je k jiným poskytovatelům modelů.” Gergely Orosz, autor The Pragmatic Engineer, uzavřel, že Anthropic je „spokojen s tím, že nemá prakticky žádný ekosystém kolem Claude.”

Během hodin se nahromadilo přes 147 reakcí na GitHub issues a přes 245 bodů na Hacker News. AWS Hero AJ Stuyvenberg poznamenal: „Speedrunnují cestu od odpustitelného startupu k nenáviděné korporaci, než dojde k jakémukoli exitu!”

Ne všichni nesouhlasili. Vývojář Artem K poznamenal, že zásah byl „co nejmírnější”, a poukázal na to, že to byla „jen zdvořilá zpráva místo smazání účtu nebo zpětného účtování API cen.” Další argumentovali, že OpenCode od začátku porušoval podmínky služby tím, že falšoval klientské identity.

Nyní, šest týdnů poté, Anthropic zveřejnil oficiální dokumentaci, která kodifikuje to, co serverová blokace již vymáhala. Stránka vytyčuje tvrdou hranici: OAuth autentizace je „určena výhradně pro Claude Code a Claude.ai.” Vše ostatní vyžaduje API klíče přes Claude Console, fakturované za token. Anthropic si rovněž vyhrazuje právo vymáhat „bez předchozího upozornění.”

Dnešní reakce na Hacker News naznačuje, že rána se nezahojila. Vývojáři čtou dokumentaci nikoli jako vyjasnění, ale jako potvrzení: uzavřená zahrada je trvalá.

Tohle se chystalo již delší dobu

Lednová blokace nebyla prvním krokem.

V červnu 2025 Anthropic odřízl téměř veškerý přímý přístup Windsurf k modelům Claude s méně než týdenním předstihem, poté co se objevily zvěsti, že OpenAI přebírá Windsurf. Spoluzakladatel Anthropic Jared Kaplan vysvětlil, že by bylo „zvláštní, kdybychom prodávali Claude společnosti OpenAI.” Windsurf byl nucen přejít na BYOK (Bring Your Own Key) a propagovat Google Gemini jako alternativu.

Google prošel podobným cyklem. Vývojáři extrahovali OAuth tokeny z IDE Antigravity společnosti Google a vkládali je do nástrojů třetích stran pro bezplatný přístup k modelům Gemini. Google to kvalifikoval jako porušení podmínek služby pod „obcházení bezpečnostních opatření” a vydal zákazy účtů.

Vzorec je jasný: AI společnosti následují Apple scénář. Raná éra (2022 až 2024) nabízela otevřená API a podporovala integrace třetích stran. Současná éra upřednostňuje uzamčení ekosystému a oficiální nástroje.

Nástroje se oddělují od poskytovatelů

Každé omezení urychluje protitrend. V tomto případě: nezávislost na poskytovateli.

Stále můžete použít vlastní API klíč Anthropic ve většině nástrojů. Ale to míjí podstatu. API klíč Vás neochrání, pokud Anthropic změní ceny, omezí přístup nebo rozhodne, že Váš případ použití již neodpovídá jejich podmínkám. Skutečný posun spočívá v tom, že se nástroje stávají skutečně agnostickými vůči poskytovateli, takže můžete vyměnit podkladový model bez změny čehokoli jiného.

To se již děje v celém odvětví. OpenCode se během hodin po lednové blokaci přeorientoval na podporu všech hlavních poskytovatelů. Cline a RooCode Vám umožňují přepínat modely na úkol. Brány jako OpenRouter a LiteLLM dělají z modelu konfigurační volbu místo architektonické závislosti.

Vzorec je všude stejný: model se stává zaměnitelným vstupem. Nástroje, které prosperují, jsou ty, které s ním tak zacházejí. OpenClaw byl postaven na tomto principu od počátku. Funguje s jakýmkoli endpointem kompatibilním s OpenAI, což znamená, že funguje s prakticky každým modelem na tomto seznamu a každým poskytovatelem, který je nabízí.

Open source modely uzavírají mezeru

Omezení Anthropic přicházejí v nejhorší možný čas pro proprietární uzamčení.

DeepSeek R1, vydaný v lednu 2025, dokázal, že open-weight modely mohou poskytnout uvažování na úrovni špičky. Na benchmarcích se vyrovnal GPT-4 a stál o 73 % méně. „Moment DeepSeek” byl poprvé, kdy si mnoho vývojářů uvědomilo, že mohou získat špičkový výkon bez OpenAI, Anthropic nebo Google.

Právě tento měsíc se open source krajina opět posunula:

  • GLM-5 od Z AI vede žebříčky open source za únor 2026, přičemž jeho předchůdce GLM-4.7 dosáhl 73,8 % na SWE-bench Verified. Ceny API: 1,00 $/3,20 $ za milion vstupních/výstupních tokenů.
  • Qwen 3.5 (Alibaba) spuštěn před několika dny s nativními agentními schopnostmi, podporou 201 jazyků a o 60 % nižšími provozními náklady než předchůdce. Ceny API: 0,40 $/2,40 $ za milion tokenů.
  • DeepSeek V3.2 je nyní k dispozici ve variantě „Speciale” s 88,7 % na LiveCodeBench, vydané pod licencí MIT. Ceny API: 0,28 $/0,42 $ za milion tokenů.
  • Kimi K2.5 (Moonshot AI) dosahuje 96 % na AIME 2025, čímž překonává většinu proprietárních modelů v matematice. Ceny API: 0,45 $/2,25 $ za milion tokenů přes DeepInfra.
  • Grok 3 je Elonem Muskem potvrzen k vydání jako open source

Pro srovnání: Claude Sonnet stojí 3 $/15 $ za milion tokenů a Claude Opus stojí 5 $/25 $. Nejlevnější open source možnosti jsou 10krát až 50krát levnější.

Mezera mezi open source a proprietárními modely se za jediný rok zúžila z 17,5 na 0,3 bodu MMLU. Open source modely nyní řeší dvě největší obavy podniků ohledně adopce AI: ochranu dat a nepředvídatelnost nákladů. A protože OpenClaw podporuje jakýkoli endpoint kompatibilní s OpenAI, můžete svého agenta nasměrovat na kterýkoli z těchto modelů ještě dnes.

Co to znamená pro OpenClaw

Buďme přímí: OpenClaw.rocks není tímto zákazem dotčen.

Žádný plán nepoužívá předplatitelské OAuth tokeny. Na plánu Light si přinesete vlastní API klíče a připojíte se přímo k poskytovateli dle svého výběru. Na plánu Pro poskytujeme předkonfigurovaný AI přístup s tokeny v ceně, směrovaný přes naši bránu Bifrost. V obou případech běží Váš agent na vlastní dedikované instanci, kterou ovládáte Vy.

Přepnutí poskytovatele je změna konfigurace. Dnes používáte DeepSeek V3.2 za 0,28 $ za milion vstupních tokenů. Zítra Qwen vydá lepší model a Vy ho vyměníte. Příští týden Anthropic sníží ceny a Vy přidáte Claude zpět. Váš agent, Vaše data, Vaše historie konverzací: nic z toho se nemění. Mění se jen model za tím.

Když Vám poskytovatel může ze dne na den omezit přístup „bez předchozího upozornění”, přežijí ty nástroje a platformy, které nezávisí na dobré vůli jednoho poskytovatele. Jak napsal jeden komentátor na HN: stavět na jediném poskytovateli uzavřeného kódu by mohlo být „AI ekvivalent volby Oracle místo Postgres.”

Zákaz Anthropic potvrzuje základní princip, na kterém jsme stavěli: měli byste mít kontrolu nad svým AI nastavením. To znamená, že Váš agent běží na Vaší instanci, Vaše API klíče se připojují k poskytovateli, který Vám nabízí nejlepší výkon za dolar, a žádný jednotlivý poskytovatel nemůže Vaše pracovní postupy odpojit.

Co se stane dál

Tři předpovědi:

1. Multi-poskytovatel se stává standardem. Vývojáři již zacházejí s AI modely jako se zaměnitelnými komponentami. API kompatibilní s OpenAI se stalo de facto standardem, který většina poskytovatelů nyní podporuje, a brány jako OpenRouter a LiteLLM dělají z přepínání mezi modely jednořádkovou změnu konfigurace. Když Váš nástroj funguje s jakýmkoli poskytovatelem, žádný dodavatel na Vás nemá páku.

2. Open source modely se stávají bezpečnou sázkou. Když Vám proprietární poskytovatel může ze dne na den odebrat přístup, open-weight modely jako DeepSeek, Qwen a GLM vypadají méně jako kompromis a více jako strategická výhoda. Můžete je provozovat na vlastním hardware, hostovat přes jakéhokoli poskytovatele inference nebo mezi nimi volně přepínat. Žádný poskytovatel nemůže odpojit model s licencí MIT.

3. Provozování vlastního agenta se stává normou. Když je volba mezi důvěrou v poskytovatele, který může podmínky měnit ze dne na den, a provozováním vlastního AI agenta na instanci, kterou kontrolujete, stále více týmů zvolí to druhé. Zvláště když open source modely dále uzavírají mezeru v schopnostech a platformy jako OpenClaw.rocks z toho dělají nastavení na jedno kliknutí místo DevOps projektu.

Éra stavění na dobré vůli jednoho AI poskytovatele končí. To, co ji nahrazuje, je odolnější: open source software, architektura agnostická vůči poskytovateli a infrastruktura, kterou žádný dodavatel nemůže odvolat.

Tři závěry

  1. Pokud používáte předplatitelské OAuth tokeny Claude v nástrojích třetích stran, přestaňte. Nyní to výslovně porušuje podmínky služby Anthropic a Váš účet může být označen. Přejděte na API klíče (očekávejte 5x+ vyšší náklady při intenzivním využití) nebo na úplně jiného poskytovatele.

  2. Diverzifikujte své AI závislosti. Jakýkoli nástroj, který funguje pouze s jedním poskytovatelem modelů, představuje riziko. Stavte na frameworcích, které Vám umožňují měnit modely bez přepisování pracovních postupů.

  3. Zvolte open source modely a nástroje agnostické vůči poskytovateli. Open-weight modely jako DeepSeek a Qwen nemohou být odvolány v úterý ve dvě ráno. Spojte je s nástrojem, který Vám umožňuje volně měnit poskytovatele. OpenClaw.rocks byl postaven přesně pro toto.

Anthropic učinil obchodní rozhodnutí. Můžete souhlasit nebo nesouhlasit s důvody. Ale poučení pro všechny, kdo staví s AI, je stejné: nestavte na uzavřeném terénu, který nevlastníte.