Anthropic właśnie uczynił to oficjalnym. Nowo opublikowana strona dotycząca kwestii prawnych i zgodności w dokumentacji Claude Code mówi wprost:

“Using OAuth tokens obtained through Claude Free, Pro, or Max accounts in any other product, tool, or service — including the Agent SDK — is not permitted and constitutes a violation of the Consumer Terms of Service.”

Nawet własny Agent SDK Anthropic jest zabroniony z tokenami subskrypcji. Jeśli ich własne SDK nie jest zwolnione, to nic nie jest.

Ta dokumentacja formalizuje to, czego deweloperzy doświadczają od stycznia. Ale zobaczenie tego na piśmie, na dedykowanej stronie prawnej z wyraźnym językiem egzekwowania, trafia inaczej. Wątek na Hacker News, który ujawnił tę stronę dzisiaj, jest już pełen sfrustrowanych deweloperów powtarzających te same argumenty sprzed sześciu tygodni.

Oto pełna historia tego, jak tu doszliśmy.

Blokada techniczna: 9 stycznia

Pisemna polityka jest nowa. Egzekwowanie nie.

9 stycznia 2026 Anthropic wdrożył zabezpieczenia po stronie serwera, które blokowały tokeny OAuth subskrypcji poza ich oficjalnym CLI Claude Code. Narzędzia firm trzecich otrzymywały jeden komunikat o błędzie: “This credential is only authorized for use with Claude Code and cannot be used for other API requests.”

Żadnego uprzedzenia. Żadnego publicznego ogłoszenia. Deweloperzy korzystający z OpenCode, Roo Code, Cline i innych narzędzi obudzili się z niedziałającymi przepływami pracy i zaczęli zgłaszać problemy.

OpenCode (obecnie ponad 107 000 gwiazdek na GitHub), najpopularniejsza alternatywa dla Claude Code, był główną ofiarą. Podszywał się pod tożsamość klienta Claude Code za pomocą nagłówków HTTP, sprawiając, że serwery Anthropic wierzyły, że żądania pochodzą z oficjalnego CLI.

Cline, RooCode i inne rozszerzenia IDE, które korzystały z danych uwierzytelniających subskrypcji Claude, również przestały działać.

Pracownicy xAI korzystający z Claude przez Cursor stracili dostęp. Osobno, pracownicy OpenAI zostali zablokowani już w sierpniu 2025, podobno za benchmarkowanie GPT-5 w porównaniu z Claude.

Użytkownicy OpenClaw i NanoClaw kierujący ruch przez OAuth subskrypcji (zamiast kluczy API) również zostali dotknięci, choć Anthropic później wyjaśnił, że „nic się nie zmienia w sposobie, w jaki klienci korzystali ze swoich kont, i Anthropic nie będzie anulować kont.”

Czego to nie dotyczyło: użytkowników standardowych kluczy API, integracji OpenRouter, kogokolwiek płacącego za token. Blokada była wymierzona w tokeny OAuth subskrypcji używane poza własnymi aplikacjami Anthropic.

Ekonomia stojąca za decyzją

Motywacja to prosta matematyka.

MetodaMiesięczny koszt (intensywne użycie)
Subskrypcja Max przez Claude Code~200 $ ryczałt
Równoważne użycie API1 000 $+

Subskrypcja Claude Max za 200 $/miesiąc staje się głęboko nierentowna, gdy użytkownicy kierują agentyczne obciążenia przez narzędzia firm trzecich, które omijają wbudowane limity szybkości. Claude Opus przez API kosztuje 15 $ za milion tokenów wejściowych i 75 $ za milion tokenów wyjściowych. Aktywny agent AI działający na Opus może zużywać miliony tokenów dziennie.

Problem przyspieszył, gdy technika „Ralph Wiggum” stała się wiralowa pod koniec 2025: deweloperzy zamykający Claude w autonomicznych, samoleczących się pętlach, które działają przez noc, wrzucając błędy z powrotem do okna kontekstu aż testy przejdą. Anthropic nawet wypuścił oficjalną wtyczkę Ralph Wiggum dla Claude Code, ponieważ w ramach własnego narzędzia kontrolują limity szybkości i zbierają telemetrię. Problem stanowiły narzędzia firm trzecich uruchamiające te same pętle bez tych zabezpieczeń, spalające tokeny w tempie, które czyniło subskrypcje ryczałtowe głęboko nierentownymi.

Jeden komentator Hacker News podsumował wprost: „W ciągu miesiąca korzystania z Claude Code łatwo jest zużyć tyle tokenów LLM, że kosztowałoby to ponad 1000 $, gdyby się płaciło przez API.”

Modele frontier plus pętle agentyczne plus ceny ryczałtowe nie mogą współistnieć. Coś musiało ustąpić.

Od blokady technicznej do oficjalnej polityki

Blokada w styczniu była chaotyczna. Thariq Shihipar z Anthropic przyznał, że niektóre konta zostały „automatycznie zablokowane za uruchomienie filtrów nadużyć”, błąd, który firma cofnęła. Firma przedstawiła egzekwowanie jako wymierzone w narzędzia, które „podszywały się pod oficjalnego klienta”, ale nie było żadnej dokumentacji to potwierdzającej. Tylko przełącznik po stronie serwera i lakoniczny komunikat o błędzie.

Reakcja była ostra. David Heinemeier Hansson (DHH), twórca Ruby on Rails, nazwał to „bardzo wrogim wobec klientów”. George Hotz (geohot) opublikował „Anthropic is making a huge mistake”, argumentując, że ograniczenia „nie przekonają ludzi z powrotem do Claude Code, przekonają ich do innych dostawców modeli.” Gergely Orosz, autor The Pragmatic Engineer, stwierdził, że Anthropic „jest zadowolony z posiadania praktycznie żadnego ekosystemu wokół Claude.”

W ciągu kilku godzin nagromadziło się ponad 147 reakcji w issue na GitHub i ponad 245 punktów na Hacker News. AWS Hero AJ Stuyvenberg skomentował: „Speedrunnują podróż od wybaczalnego startupu do znienawidzonej korporacji, zanim jeszcze dojdzie do exitu!”

Nie wszyscy się nie zgadzali. Deweloper Artem K zauważył, że zaostrzenie było „tak łagodne, jak tylko mogło być”, wskazując, że to „tylko grzeczna wiadomość zamiast usunięcia konta lub retroaktywnego naliczenia cen API.” Inni argumentowali, że OpenCode od początku łamał warunki korzystania z usługi, podszywając się pod tożsamość klienta.

Teraz, sześć tygodni później, Anthropic opublikował oficjalną dokumentację, która kodyfikuje to, co blokada po stronie serwera już egzekwowała. Strona wyznacza twardą granicę: uwierzytelnianie OAuth jest „przeznaczone wyłącznie dla Claude Code i Claude.ai.” Wszystko inne wymaga kluczy API przez Claude Console, rozliczanych za token. Anthropic zastrzega sobie również prawo do egzekwowania „bez uprzedniego powiadomienia.”

Dzisiejsza reakcja na Hacker News sugeruje, że rana się nie zagoiła. Deweloperzy czytają dokumentację nie jako wyjaśnienie, ale jako potwierdzenie: zamknięty ogród jest stały.

To narastało od dawna

Blokada w styczniu nie była pierwszym ruchem.

W czerwcu 2025 Anthropic odciął prawie cały bezpośredni dostęp Windsurf do modeli Claude z mniej niż tygodniowym wyprzedzeniem, po pojawieniu się plotek, że OpenAI przejmuje Windsurf. Współzałożyciel Anthropic Jared Kaplan wyjaśnił, że byłoby „dziwne, gdybyśmy sprzedawali Claude firmie OpenAI.” Windsurf został zmuszony do przejścia na BYOK (Bring Your Own Key) i promowania Google Gemini jako alternatywy.

Google przeszedł podobny cykl. Deweloperzy wydobywali tokeny OAuth z IDE Antigravity Google i wstrzykiwali je do narzędzi firm trzecich w celu uzyskania bezpłatnego dostępu do modeli Gemini. Google zakwalifikował to jako naruszenie warunków korzystania z usługi pod „obchodzenie środków bezpieczeństwa” i wydał bany kont.

Wzorzec jest jasny: firmy AI podążają za podręcznikiem Apple. Wczesna era (2022 do 2024) oferowała otwarte API i zachęcała do integracji firm trzecich. Obecna era priorytetyzuje lock-in ekosystemu i oficjalne narzędzia.

Narzędzia odłączają się od dostawców

Każde ograniczenie przyspiesza kontrtrend. W tym przypadku: niezależność od dostawcy.

Nadal można używać własnego klucza API Anthropic w większości narzędzi. Ale to nie o to chodzi. Klucz API nie chroni Państwa, jeśli Anthropic zmieni ceny, ograniczy dostęp lub zdecyduje, że Państwa przypadek użycia nie pasuje już do ich warunków. Prawdziwa zmiana polega na tym, że narzędzia stają się naprawdę agnostyczne wobec dostawcy, pozwalając na wymianę bazowego modelu bez zmiany czegokolwiek innego.

To już się dzieje w całej branży. OpenCode przestawił się w ciągu kilku godzin po styczniowej blokadzie na obsługę wszystkich głównych dostawców. Cline i RooCode pozwalają zmieniać modele na zadanie. Bramki takie jak OpenRouter i LiteLLM czynią model opcją konfiguracyjną zamiast zależnością architekturalną.

Wzorzec jest wszędzie taki sam: model staje się wymiennym nakładem. Narzędzia, które prosperują, to te, które traktują go w ten sposób. OpenClaw został zbudowany na tym zasadzie od samego początku. Działa z każdym endpointem zgodnym z OpenAI, co oznacza, że działa z praktycznie każdym modelem na tej liście i każdym dostawcą, który je obsługuje.

Modele open source zamykają lukę

Ograniczenia Anthropic pojawiają się w najgorszym możliwym momencie dla proprietarnego lock-in.

DeepSeek R1, wydany w styczniu 2025, udowodnił, że modele open-weight mogą dostarczać rozumowanie na poziomie frontier. Dorównał GPT-4 w benchmarkach, kosztując 73% mniej. „Moment DeepSeek” był pierwszym razem, gdy wielu deweloperów zdało sobie sprawę, że mogą uzyskać najwyższą wydajność bez korzystania z OpenAI, Anthropic czy Google.

Właśnie w tym miesiącu krajobraz open source zmienił się ponownie:

  • GLM-5 od Z AI prowadzi w rankingach open source na luty 2026, z poprzednikiem GLM-4.7 osiągającym 73,8% na SWE-bench Verified. Ceny API: 1,00 $/3,20 $ za milion tokenów wejściowych/wyjściowych.
  • Qwen 3.5 (Alibaba) uruchomiony kilka dni temu z natywnymi zdolnościami agentycznymi, obsługą 201 języków i kosztami operacyjnymi niższymi o 60% od poprzednika. Ceny API: 0,40 $/2,40 $ za milion tokenów.
  • DeepSeek V3.2 jest teraz dostępny w wariancie „Speciale” z wynikiem 88,7% na LiveCodeBench, wydany na licencji MIT. Ceny API: 0,28 $/0,42 $ za milion tokenów.
  • Kimi K2.5 (Moonshot AI) osiąga 96% na AIME 2025, przewyższając większość proprietarnych modeli w matematyce. Ceny API: 0,45 $/2,25 $ za milion tokenów przez DeepInfra.
  • Grok 3 potwierdzony do wydania open source przez Elona Muska

Dla porównania, Claude Sonnet kosztuje 3 $/15 $ za milion tokenów, a Claude Opus kosztuje 5 $/25 $. Najtańsze opcje open source są 10 do 50 razy tańsze.

Luka między modelami open source a proprietarnymi zmniejszyła się z 17,5 do 0,3 punktów MMLU w ciągu jednego roku. Modele open source odpowiadają teraz na dwa największe obawy przedsiębiorstw dotyczące adopcji AI: prywatność danych i nieprzewidywalność kosztów. A ponieważ OpenClaw obsługuje każdy endpoint zgodny z OpenAI, można skierować swojego agenta na dowolny z tych modeli już dziś.

Co to oznacza dla OpenClaw

Powiedzmy to wprost: OpenClaw.rocks nie jest dotknięty tym zakazem.

Żaden plan nie używa tokenów OAuth subskrypcji. W planie Light Państwo przynoszą własne klucze API i łączą się bezpośrednio z wybranym dostawcą. W planie Pro zapewniamy wstępnie skonfigurowany dostęp AI z tokenami w zestawie, kierowanymi przez naszą bramkę Bifrost. W obu przypadkach Państwa agent działa na własnej dedykowanej instancji, którą Państwo kontrolują.

Zmiana dostawcy to zmiana konfiguracji. Dziś używają Państwo DeepSeek V3.2 za 0,28 $ za milion tokenów wejściowych. Jutro Qwen wypuści lepszy model i go podmienią. W przyszłym tygodniu Anthropic obniży ceny i dodadzą Claude z powrotem. Agent, dane, historia konwersacji: nic z tego się nie zmienia. Zmienia się tylko model za tym stojący.

Gdy dostawca może ograniczyć dostęp z dnia na dzień „bez uprzedniego powiadomienia”, narzędzia i platformy, które przetrwają, to te, które nie zależą od dobrej woli jednego dostawcy. Jak ujął to komentator HN skomentował: budowanie na jednym dostawcy zamkniętego kodu może być „AI-owym odpowiednikiem wybrania Oracle zamiast Postgres.”

Zakaz Anthropic potwierdza fundamentalną zasadę, wokół której budujemy: powinni Państwo kontrolować swoją konfigurację AI. To oznacza, że agent działa na Państwa instancji, klucze API łączą się z dostawcą oferującym najlepszą wydajność za dolara, i żaden pojedynczy dostawca nie może odciąć Państwa przepływów pracy.

Co się stanie dalej

Trzy prognozy:

1. Multi-dostawca staje się standardem. Deweloperzy już traktują modele AI jako wymienne komponenty. API zgodne z OpenAI stało się de facto standardem, który większość dostawców teraz obsługuje, a bramki takie jak OpenRouter i LiteLLM czynią przełączanie między modelami jednoliniową zmianą konfiguracji. Gdy narzędzie działa z każdym dostawcą, żaden sprzedawca nie ma na Państwa wpływu.

2. Modele open source stają się bezpiecznym wyborem. Gdy proprietarny dostawca może cofnąć dostęp z dnia na dzień, modele open-weight takie jak DeepSeek, Qwen i GLM wyglądają mniej jak kompromis, a bardziej jak strategiczna przewaga. Można je uruchamiać na własnym sprzęcie, hostować przez dowolnego dostawcę inferencji lub swobodnie między nimi przełączać. Żaden dostawca nie może odłączyć modelu na licencji MIT.

3. Prowadzenie własnego agenta staje się normą. Gdy wybór jest między zaufaniem dostawcy, który może zmienić warunki z dnia na dzień, a prowadzeniem własnego agenta AI na kontrolowanej instancji, coraz więcej zespołów wybierze to drugie. Zwłaszcza że modele open source dalej zamykają lukę zdolności, a platformy takie jak OpenClaw.rocks zamieniają to w konfigurację jednym kliknięciem zamiast projektu DevOps.

Era budowania na łasce jednego dostawcy AI dobiega końca. To, co ją zastąpi, jest bardziej odporne: oprogramowanie open source, architektura agnostyczna wobec dostawców i infrastruktura, której żaden sprzedawca nie może cofnąć.

Trzy wnioski do zapamiętania

  1. Jeśli używają Państwo tokenów OAuth subskrypcji Claude w narzędziach firm trzecich, proszę przestać. Teraz wyraźnie narusza to warunki korzystania z usługi Anthropic i konto może zostać oflagowane. Proszę przejść na klucze API (należy spodziewać się 5x+ wyższych kosztów przy intensywnym użyciu) lub na zupełnie innego dostawcę.

  2. Proszę zdywersyfikować swoje zależności AI. Każde narzędzie, które działa tylko z jednym dostawcą modeli, stanowi ryzyko. Proszę budować na frameworkach, które pozwalają zmieniać modele bez przepisywania przepływów pracy.

  3. Proszę wybrać modele open source i narzędzia agnostyczne wobec dostawców. Modele open-weight takie jak DeepSeek i Qwen nie mogą zostać cofnięte we wtorek o 2 w nocy. Proszę połączyć je z narzędziem pozwalającym swobodnie zmieniać dostawców. OpenClaw.rocks został zbudowany dokładnie w tym celu.

Anthropic podjął decyzję biznesową. Można zgadzać się lub nie z jej uzasadnieniem. Ale lekcja dla wszystkich budujących z AI jest ta sama: nie budujcie na zamkniętym gruncie, którego nie posiadacie.