Anthropic tocmai a făcut totul oficial. O pagină nou publicată despre aspecte legale și conformitate în documentația Claude Code o spune clar:

“Using OAuth tokens obtained through Claude Free, Pro, or Max accounts in any other product, tool, or service — including the Agent SDK — is not permitted and constitutes a violation of the Consumer Terms of Service.”

Chiar și propriul Agent SDK al Anthropic este interzis cu tokenuri de abonament. Dacă nici propriul lor SDK nu este exceptat, nimic nu este.

Această documentație formalizează ceea ce dezvoltatorii trăiesc din ianuarie. Dar a vedea totul scris, pe o pagină juridică dedicată cu un limbaj explicit de aplicare, lovește diferit. Discuția de pe Hacker News care a scos pagina la lumină astăzi este deja plină de dezvoltatori frustrați care reiau aceleași argumente de acum șase săptămâni.

Iată povestea completă a modului în care am ajuns aici.

Blocajul tehnic: 9 ianuarie

Politica scrisă este nouă. Aplicarea nu este.

Pe 9 ianuarie 2026, Anthropic a implementat protecții pe partea de server care au blocat tokenurile OAuth de abonament în afara CLI-ului oficial Claude Code. Instrumentele terțe primeau un singur mesaj de eroare: “This credential is only authorized for use with Claude Code and cannot be used for other API requests.”

Fără aviz prealabil. Fără anunț public. Dezvoltatorii de la OpenCode, Roo Code, Cline și alte instrumente s-au trezit cu fluxuri de lucru defecte și au început să raporteze probleme.

OpenCode (acum cu peste 107.000 de stele pe GitHub), cea mai populară alternativă la Claude Code, a fost victima principală. Falsifica identitatea de client a Claude Code prin anteturi HTTP, făcând serverele Anthropic să creadă că cererile veneau de la CLI-ul oficial.

Cline, RooCode și alte extensii IDE care se bazau pe credențialele de abonament Claude au încetat și ele să funcționeze.

Angajații xAI care foloseau Claude prin Cursor au pierdut accesul. Separat, angajații OpenAI fuseseră deja blocați în august 2025, aparent pentru că făceau benchmark GPT-5 împotriva Claude.

Utilizatorii OpenClaw și NanoClaw care direcționau prin OAuth de abonament (în loc de chei API) au fost și ei afectați, deși Anthropic a clarificat ulterior că „nimic nu se schimbă în modul în care clienții și-au folosit contul și Anthropic nu va anula conturi.”

Ce nu a fost afectat: utilizatorii de chei API standard, integrările OpenRouter, oricine plătea per token. Blocajul viza tokenurile OAuth de abonament folosite în afara aplicațiilor proprii ale Anthropic.

Economia din spatele deciziei

Motivația este aritmetică simplă.

MetodăCost lunar (utilizare intensivă)
Abonament Max prin Claude Code~200 $ forfait
Utilizare echivalentă API1.000 $+

Un abonament Claude Max la 200 $/lună devine profund neprofitabil când utilizatorii direcționează sarcini de lucru agentice prin instrumente terțe care ocolesc limitele de rată integrate. Claude Opus prin API costă 15 $ per milion de tokenuri de intrare și 75 $ per milion de tokenuri de ieșire. Un agent AI activ care rulează Opus poate consuma milioane de tokenuri pe zi.

Problema s-a accelerat când tehnica „Ralph Wiggum” a devenit virală la sfârșitul lui 2025: dezvoltatori care prind Claude în bucle autonome de auto-reparare care rulează peste noapte, readucând erorile în fereastra de context până când testele trec. Anthropic chiar a lansat un plugin oficial Ralph Wiggum pentru Claude Code, deoarece în cadrul propriului instrument controlează limitele de rată și colectează telemetrie. Problema erau instrumentele terțe care rulau aceleași bucle fără aceste protecții, consumând tokenuri într-un ritm care făcea abonamentele forfetare profund neprofitabile.

Un comentator pe Hacker News a rezumat direct: „Într-o lună de Claude Code, este ușor să folosești atâtea tokenuri LLM încât te-ar fi costat peste 1.000 $ dacă ai fi plătit prin API.”

Modele frontier plus bucle agentice plus prețuri forfetare nu pot coexista. Ceva trebuia să cedeze.

De la blocaj tehnic la politică oficială

Blocajul din ianuarie a fost haotic. Thariq Shihipar de la Anthropic a recunoscut că unele conturi au fost „blocate automat pentru declanșarea filtrelor de abuz”, o eroare pe care compania a corectat-o. Compania a prezentat aplicarea ca vizând instrumente care „falsificau clientul oficial”, dar nu exista documentație care să susțină acest lucru. Doar un comutator pe partea de server și un mesaj de eroare laconic.

Reacția a fost severă. David Heinemeier Hansson (DHH), creatorul Ruby on Rails, a numit-o „foarte ostilă față de clienți”. George Hotz (geohot) a publicat „Anthropic is making a huge mistake”, argumentând că restricțiile „nu vor converti oamenii înapoi la Claude Code, îi vor converti la alți furnizori de modele.” Gergely Orosz, autorul The Pragmatic Engineer, a concluzionat că Anthropic „este mulțumit să nu aibă practic niciun ecosistem în jurul Claude.”

În câteva ore, s-au acumulat peste 147 de reacții pe issue-uri GitHub și peste 245 de puncte pe Hacker News. AWS Hero AJ Stuyvenberg a comentat: „Fac speedrun de la startup iertabil la corporație detestabilă înainte de orice exit!”

Nu toți au fost în dezacord. Dezvoltatorul Artem K a observat că măsura a fost „cât se poate de blândă”, subliniind că a fost „doar un mesaj politicos în loc de ștergerea contului sau facturarea retroactivă la prețuri API.” Alții au argumentat că OpenCode încălca termenii de serviciu de la început prin falsificarea identităților de client.

Acum, șase săptămâni mai târziu, Anthropic a publicat documentația oficială care codifică ceea ce blocajul pe partea de server deja aplica. Pagina trasează o linie clară: autentificarea OAuth este „destinată exclusiv pentru Claude Code și Claude.ai.” Orice altceva necesită chei API prin Claude Console, facturate per token. Anthropic își rezervă, de asemenea, dreptul de a aplica „fără notificare prealabilă.”

Reacția de astăzi pe Hacker News sugerează că rana nu s-a vindecat. Dezvoltatorii citesc documentația nu ca o clarificare, ci ca o confirmare: grădina închisă este permanentă.

Acest lucru se pregătea de ceva vreme

Blocajul din ianuarie nu a fost prima mișcare.

În iunie 2025, Anthropic a tăiat aproape tot accesul direct al Windsurf la modelele Claude cu mai puțin de o săptămână de preaviz, după ce au apărut zvonuri că OpenAI achiziționa Windsurf. Cofondatorul Anthropic, Jared Kaplan, a explicat că ar fi „ciudat pentru noi să vindem Claude către OpenAI.” Windsurf a fost forțat să pivoteze spre BYOK (Bring Your Own Key) și să promoveze Google Gemini ca alternativă.

Google a trecut printr-un ciclu similar. Dezvoltatorii extraseseră tokenuri OAuth din IDE-ul Antigravity al Google și le injectau în instrumente terțe pentru acces gratuit la modelele Gemini. Google a caracterizat acest lucru ca o încălcare a termenilor de serviciu sub „eludarea măsurilor de securitate” și a emis interdicții de cont.

Modelul este clar: companiile AI urmează manualul Apple. Era timpurie (2022 până la 2024) a oferit API-uri deschise și a încurajat integrările terțe. Era actuală prioritizează lock-in-ul ecosistemului și instrumentele oficiale.

Instrumentele se decuplează de furnizori

Fiecare restricție accelerează o contratendință. În acest caz: independența față de furnizor.

Puteți încă să aduceți propria cheie API Anthropic în majoritatea instrumentelor. Dar asta ratează esențialul. O cheie API nu vă protejează dacă Anthropic schimbă prețurile, restricționează accesul sau decide că cazul dumneavoastră de utilizare nu mai se încadrează în termenii lor. Schimbarea reală este că instrumentele devin cu adevărat agnostice față de furnizor, astfel încât puteți schimba modelul subiacent fără a modifica nimic altceva.

Acest lucru se întâmplă deja în întreaga industrie. OpenCode a pivotat în câteva ore de la blocajul din ianuarie pentru a suporta toți furnizorii majori. Cline și RooCode vă permit să schimbați modelele pe sarcină. Gateway-uri precum OpenRouter și LiteLLM transformă modelul într-o opțiune de configurare mai degrabă decât o dependență arhitecturală.

Modelul este același peste tot: modelul devine un input interschimbabil. Instrumentele care prosperă sunt cele care îl tratează ca atare. OpenClaw a fost construit pe acest principiu de la început. Funcționează cu orice endpoint compatibil OpenAI, ceea ce înseamnă că funcționează cu aproape fiecare model din această listă și fiecare furnizor care le servește.

Modelele open source reduc diferența

Restricțiile Anthropic sosesc în cel mai prost moment posibil pentru lock-in-ul proprietar.

DeepSeek R1, lansat în ianuarie 2025, a demonstrat că modelele open-weight pot oferi raționament la nivel de frontieră. A egalat GPT-4 la benchmark-uri costând cu 73% mai puțin. „Momentul DeepSeek” a fost prima dată când mulți dezvoltatori au realizat că pot obține performanțe de top fără a trece prin OpenAI, Anthropic sau Google.

Chiar în această lună, peisajul open source s-a schimbat din nou:

  • GLM-5 de la Z AI conduce clasamentele open source din februarie 2026, cu predecesorul GLM-4.7 atingând 73,8% pe SWE-bench Verified. Prețuri API: 1,00 $/3,20 $ per milion de tokenuri de intrare/ieșire.
  • Qwen 3.5 (Alibaba) a fost lansat acum câteva zile cu capabilități agentice native, suport pentru 201 limbi și costuri operaționale cu 60% mai mici decât predecesorul. Prețuri API: 0,40 $/2,40 $ per milion de tokenuri.
  • DeepSeek V3.2 vine acum într-o variantă „Speciale” cu 88,7% pe LiveCodeBench, lansată sub licență MIT. Prețuri API: 0,28 $/0,42 $ per milion de tokenuri.
  • Kimi K2.5 (Moonshot AI) atinge 96% pe AIME 2025, depășind majoritatea modelelor proprietare la matematică. Prețuri API: 0,45 $/2,25 $ per milion de tokenuri prin DeepInfra.
  • Grok 3 este confirmat pentru lansare open source de Elon Musk

Pentru comparație, Claude Sonnet costă 3 $/15 $ per milion de tokenuri și Claude Opus costă 5 $/25 $. Cele mai ieftine opțiuni open source sunt de 10 până la 50 de ori mai puțin costisitoare.

Diferența dintre modelele open source și cele proprietare s-a redus de la 17,5 la 0,3 puncte MMLU într-un singur an. Modelele open source abordează acum cele două mari preocupări ale întreprinderilor legate de adoptarea AI: confidențialitatea datelor și imprevizibilitatea costurilor. Și pentru că OpenClaw suportă orice endpoint compatibil OpenAI, puteți direcționa agentul către oricare dintre aceste modele chiar astăzi.

Ce înseamnă pentru OpenClaw

Să fim direcți: OpenClaw.rocks nu este afectat de această interdicție.

Niciun plan nu folosește tokenuri OAuth de abonament. La planul Light, aduceți propriile chei API și vă conectați direct la furnizorul pe care îl alegeți. La planul Pro, oferim acces AI preconfigurat cu tokenuri incluse, direcționate prin gateway-ul nostru Bifrost. În ambele cazuri, agentul dumneavoastră rulează pe propria instanță dedicată pe care o controlați.

Schimbarea furnizorului este o modificare de configurare. Astăzi folosiți DeepSeek V3.2 la 0,28 $ per milion de tokenuri de intrare. Mâine Qwen lansează un model mai bun și îl schimbați. Săptămâna viitoare Anthropic scade prețurile și adăugați Claude înapoi. Agentul, datele, istoricul conversațiilor: nimic nu se schimbă. Doar modelul din spate.

Când un furnizor vă poate restricționa accesul peste noapte „fără notificare prealabilă”, instrumentele și platformele care supraviețuiesc sunt cele care nu depind de bunăvoința unui singur furnizor. Așa cum un comentator HN a spus: construirea pe un singur furnizor closed-source ar putea fi „echivalentul AI al alegerii Oracle în loc de Postgres.”

Interdicția Anthropic validează un principiu fundamental pe care l-am construit: ar trebui să controlați configurarea AI. Asta înseamnă că agentul dumneavoastră rulează pe instanța dumneavoastră, cheile API se conectează la furnizorul care oferă cele mai bune performanțe per dolar, și niciun furnizor nu poate opri fluxurile dumneavoastră de lucru.

Ce urmează

Trei predicții:

1. Multi-furnizor devine standardul. Dezvoltatorii tratează deja modelele AI ca pe componente interschimbabile. API-ul compatibil OpenAI a devenit un standard de facto pe care majoritatea furnizorilor îl suportă acum, și gateway-uri precum OpenRouter și LiteLLM fac din schimbarea între modele o modificare de configurare de o linie. Când instrumentul dumneavoastră funcționează cu orice furnizor, niciun vânzător nu are pârghie asupra dumneavoastră.

2. Modelele open source devin pariul sigur. Când un furnizor proprietar vă poate revoca accesul peste noapte, modelele open-weight precum DeepSeek, Qwen și GLM arată mai puțin ca un compromis și mai mult ca un avantaj strategic. Le puteți rula pe propriul hardware, le puteți găzdui prin orice furnizor de inferență sau puteți alterna liber între ele. Niciun furnizor nu poate deconecta un model cu licență MIT.

3. Rularea propriului agent devine norma. Când alegerea este între a avea încredere într-un furnizor care poate schimba termenii peste noapte și a rula propriul agent AI pe o instanță pe care o controlați, tot mai multe echipe vor alege a doua opțiune. Mai ales că modelele open source continuă să reducă diferența de capabilități și platforme precum OpenClaw.rocks transformă totul într-o configurare cu un singur clic în loc de un proiect DevOps.

Era construirii pe bunăvoința unui singur furnizor AI se apropie de sfârșit. Ceea ce o înlocuiește este mai rezilient: software open source, arhitectură agnostică față de furnizor și infrastructură pe care niciun vânzător nu o poate revoca.

Trei concluzii de reținut

  1. Dacă folosiți tokenuri OAuth de abonament Claude în instrumente terțe, opriți-vă. Acum încalcă explicit termenii de serviciu ai Anthropic și contul dumneavoastră ar putea fi semnalat. Treceți la chei API (așteptați-vă la costuri de 5x+ mai mari pentru utilizare intensivă) sau la un furnizor complet diferit.

  2. Diversificați-vă dependențele AI. Orice instrument care funcționează doar cu un singur furnizor de modele este un risc. Construiți pe framework-uri care vă permit să schimbați modelele fără a rescrie fluxurile de lucru.

  3. Alegeți modele open source și instrumente agnostice față de furnizor. Modelele open-weight precum DeepSeek și Qwen nu pot fi revocate într-o marți la ora 2 dimineața. Combinați-le cu un instrument care vă permite să schimbați liber furnizorii. OpenClaw.rocks a fost construit exact pentru acest lucru.

Anthropic a luat o decizie de afaceri. Puteți fi de acord sau nu cu raționamentul. Dar lecția pentru toți cei care construiesc cu AI este aceeași: nu construiți pe teren proprietar pe care nu îl dețineți.