Anthropic tikko to padarīja oficiālu. Tikko publicēta lapa Legal and compliance Claude Code dokumentācijā to pasaka melnbalti:

“Using OAuth tokens obtained through Claude Free, Pro, or Max accounts in any other product, tool, or service — including the Agent SDK — is not permitted and constitutes a violation of the Consumer Terms of Service.”

Pat Anthropic paša Agent SDK ir aizliegts ar abonementu tokenem. Ja pat viņu paša SDK nav izņēmums, nekas nav.

Šī dokumentācija formalizē to, ko izstrādātāji piedzīvo kopš janvāra. Taču to redzēt uzrakstītu melnbalti, speciālā juridiskā lapā ar tiešu izpildes valodu, skar citādi. Hacker News diskusija, kas šodien iznesa šo lapu gaismā, jau ir pilna ar frustrētiem izstrādātājiem, kuri atkārto tos pašus argumentus no pirms sešām nedēļām.

Lūk visa stāsts par to, kā mēs šeit nonācām.

Tehniskais bloks: 9. janvāris

Rakstiskā politika ir jauna. Izpilde nav.

2026. gada 9. janvārī Anthropic ieviesā servera puses aizsardzības mehānismus, kas bloķēja abonementu OAuth tokenu izmantošanu ārpus viņu oficiālā Claude Code CLI. Trešo pušu rīki saņēma vienu kļūdas ziņojumu: “This credential is only authorized for use with Claude Code and cannot be used for other API requests.”

Bez iepriekšēja brīdinājuma. Bez publiska paziņojuma. Izstrādātāji, kas izmantoja OpenCode, Roo Code, Cline un citus rīkus, pamodās ar bojātām darba plūsmām un sāka ziņot par problēmām.

OpenCode (tagad ar vairāk nekā 107 tūkstošiem GitHub zvaigznēm), populārākā alternatīva Claude Code, bija galvenais upuris. Tas viltoja Claude Code klienta identitāti caur HTTP galvenēm, lieku Anthropic serveriem ticēt, ka pieprasījumi nāk no oficiālā CLI.

Cline, RooCode un citi IDE paplašinājumi, kas balstījās uz Claude abonementu akreditācijas datiem, arī pārstāja darboties.

xAI darbinieki, kas izmantoja Claude caur Cursor, zaudēja piekļuvi. Atsevišķi OpenAI darbinieki jau bija bloķēti 2025. gada augustā, iespējams, par GPT-5 salīdzināšanu ar Claude.

OpenClaw un NanoClaw lietotāji, kas maršrutēja caur abonementu OAuth (nevis API atslēgām), arī bija ietekmēti, lai gan Anthropic vēlāk precizēja, ka “nekas nemainās attiecībā uz to, kā klienti ir izmantojuši savus kontus, un Anthropic neatcels kontus.”

Kas netika ietekmēts: standarta API atslēgu lietotāji, OpenRouter integrācijas, visi, kas maksā par tokenu. Bloks bija vērsts pret abonementu OAuth tokenem, kas tiek izmantoti ārpus Anthropic paša lietotnēm.

Ekonomikas pamatojums

Motivācija ir vienkārša matemātika.

MetodeIkmēneša izmaksas (intensīva lietošana)
Max abonements caur Claude Code~200 $ fiksēts
Ekvivalenta API lietošana1000+ $

Claude Max abonements par 200 $/mēnesī kļūst dziļi nerentabls, kad lietotāji maršrutē agentu darba plūsmas caur trešo pušu rīkiem, kas noņem iebūvētos ierobežojumus. Claude Opus API cena ir 15 $ par miljonu ievades tokenu un 75 $ par miljonu izvades tokenu. Aktīvs AI agents, kas izmanto Opus, var sadedzināt miljonus tokenu dienā.

Problēma paātrinājās, kad “Ralph Wiggum” tehnika kļuva virāla 2025. gada beigās: izstrādātāji ieslodzīja Claude autonomās pašlabošanas cilpās, kas darbojas nakti, atgriežot kļūmes konteksta logā, līdz testi iztur. Anthropic pat izlaida oficiālu Ralph Wiggum spraudni Claude Code, jo viņu paša rīkā viņi kontrolē ierobežojumus un apkopo telemetriju. Problēma bija trešo pušu rīki, kas izpilda tās pašas cilpas bez šiem aizsardzības mehānismiem, dedzinot tokenus tempā, kas padarīja fiksētos abonementus dziļi nerentablus.

Viens Hacker News komentētājs to rezumēja tiešā veidā: “Viena Claude Code lietošanas mēneša laikā ir viegli izlietot tik daudz LLM tokenu, ka tas jums būtu izmaksājis vairāk nekā 1000 $, ja būtu maksājis caur API.”

Vadošie modeļi plus agentu cilpas plus fiksēta cenu noteikšana nevar līdzāspastāvēt. Kaut kam bija jāpiekāpjas.

No tehniskā bloka līdz oficiālai politikai

Janvāra bloks bija haotisks. Anthropic Thariq Shihipar atzina, ka daži konti bija “automātiski bloķēti, jo aktivizēja ļaunprātīgas izmantošanas filtrus,” kļūda, ko uzņēmums laboja. Uzņēmums prezentēja izpildi kā vērstu pret rīkiem, kas “viltoja oficiālo klientu,” taču nebija dokumentācijas, kas to pamatotu. Tikai servera puses slēdzis un īss kļūdas ziņojums.

Pretreakcija bija asa. David Heinemeier Hansson (DHH), Ruby on Rails radītājs, to nosauca par “ļoti naidīgu pret klientiem”. George Hotz (geohot) publicēja “Anthropic pielauj milzīgu kļūdu”, apgalvojot, ka ierobežojumi “nepārvērtīs cilvēkus atpakaļ par Claude Code lietotājiem, bet pārvērtīs viņus par citu modeļu nodrošinātāju lietotājiem.” Gergely Orosz, The Pragmatic Engineer autors, secināja, ka Anthropic ir “apmierināts, ka ap Claude praktiski nav ekosistēmas.”

Dažu stundu laikā sakrājās 147+ reakcijas GitHub problēmām un 245+ punkti Hacker News. AWS Hero AJ Stuyvenberg vītīgi atzīmēja: “Viņi ātruma režīmā izbrauc ceļu no piedodama jaunuzņēmuma līdz pretīgai korporācijai pirms jebkāda izeja!”

Ne visi nepiekrita. Izstrādātājs Artem K atzīmēja, ka bloks bija “maigākais, kāds tas varēja būt,” norādot, ka tā bija “tikai pieklājīgs ziņojums, nevis jūsu konta iznīcināšana vai retrospektīva rēķinu izrakstīšana par API cenām.” Citi apgalvoja, ka OpenCode no paša sākuma pārkāpa lietošanas noteikumus, viltojot klienta identitāti.

Tagad, sešas nedēļas vēlāk, Anthropic ir publicējis oficiālo dokumentāciju, kas kodificē to, ko servera puses bloks jau izpildīja. Lapa velk skaidru līniju: OAuth autentifikācija ir “paredzēta tikai Claude Code un Claude.ai.” Viss pārējais prasa API atslēgas caur Claude Console, ar norēķiniem par tokenu. Anthropic arī patur tiesības izpildīt “bez iepriekšēja brīdinājuma.”

Šodienas Hacker News reakcija liecina, ka brūce nav dzijusi. Izstrādātāji lasa dokumentāciju nevis kā precizējumu, bet kā apstiprinājumu: noslēgtais dārzs ir pastāvīgs.

Tas gatavojas jau ilgi

Janvāra bloks nebija pirmais solis.

  1. gada jūnijā Anthropic liedza gandrīz visu Windsurf tiešo piekļuvi Claude modeļiem ar mazāk nekā nedēļas brīdinājumu, pēc tam, kad parādījās baumas, ka OpenAI iegādājas Windsurf. Anthropic līdzdibinātājs Jared Kaplan paskaidroja, ka būtu “dīvaini, ja mēs pārdotu Claude OpenAI.” Windsurf bija spiests pāriet uz BYOK (Bring Your Own Key) un reklamēt Google Gemini kā alternatīvu.

Google izgāja cauri līdzīgam ciklam. Izstrādātāji bija ieguvuši OAuth tokenus no Google Antigravity IDE un injicējuši tos trešo pušu rīkos, lai iegūtu bezmaksas piekļuvi Gemini modeļiem. Google to raksturoja kā lietošanas noteikumu pārkāpumu saskaņā ar “drošības pasākumu apiešanu” un izdeva kontu aizliegumus.

Modelis ir skaidrs: AI uzņēmumi seko Apple rokasgrāmatai. Agrīnais laikmets (2022 līdz 2024) ietvēra atvērtus API un trešo pušu integrāciju veicināšanu. Pašreizējais laikmets prioritizē ekosistēmas ieslēgšanu un oficiālos rīkus.

Rīki atdalās no pakalpojumu sniedzējiem

Katrs ierobežojums paātrina pretēju tendenci. Šajā gadījumā: sniedzēja neatkarību.

Jūs joprojām varat atnest savu Anthropic API atslēgu vairumam rīku. Taču tas neķer būtību. API atslēga jūs neaizsargā, ja Anthropic maina cenas, ierobežo piekļuvi vai nolemj, ka jūsu lietošanas gadījums vairs neatbilst viņu noteikumiem. Īstā pārmaiņa ir tā, ka rīki kļūst patiesi neatkarīgi no sniedzēja, lai jūs varētu nomainīt pamatā esošo modeli, nemainot neko citu.

Tas jau notiek visā nozarē. OpenCode dažu stundu laikā pēc janvāra bloka pievienoja atbalstu visiem lielākajiem sniedzējiem. Cline un RooCode ļauj pārslēgt modeļus katram uzdevumam. Vārtejas kā OpenRouter un LiteLLM padara modeli par konfigurācijas opciju, nevis arhitektūras atkarību.

Modelis ir visur vienāds: modelis kļūst par preci. Rīki, kas attīstās, ir tie, kas to tā uztver. OpenClaw tika būvēts uz šī principa no paša sākuma. Tas darbojas ar jebkuru OpenAI saderīgu galapunktu, kas nozīmē, ka tas darbojas ar gandrīz katru modeli šajā sarakstā un katru sniedzēju, kas tos apkalpo.

Atvērtā koda modeļi samazina plaisu

Anthropic ierobežojumi pienāk vissliktākajā iespējamajā laikā īpašnieciskajam ieslēgšanai.

DeepSeek R1, izlaists 2025. gada janvārī, pierādīja, ka atvērto svaru modeļi var nodrošināt vadošā līmeņa spriešanu. Tas izlīdzinājās ar GPT-4 etalontestos, maksājot par 73% mazāk. “DeepSeek moments” bija pirmā reize, kad daudzi izstrādātāji saprata, ka var iegūt augstākā līmeņa veiktspēju bez OpenAI, Anthropic vai Google starpniecības.

Tieši šomēnes atvērtā koda ainava atkal mainījās:

  • GLM-5 no Z AI vada 2026. gada februāra atvērtā koda reitingus, ar priekšteci GLM-4.7, kas sasniedz 73,8% SWE-bench Verified testā. API cena: 1,00 $/3,20 $ par miljonu ievades/izvades tokenu.
  • Qwen 3.5 (Alibaba) palaists pirms dažām dienām ar iebūvētām agentu spējām, 201 valodas atbalstu un par 60% zemākām ekspluatācijas izmaksām nekā priekštecim. API cena: 0,40 $/2,40 $ par miljonu tokenu.
  • DeepSeek V3.2 tagad ir pieejams “Speciale” variantā ar 88,7% rezultātu LiveCodeBench, izlaists ar MIT licenci. API cena: 0,28 $/0,42 $ par miljonu tokenu.
  • Kimi K2.5 (Moonshot AI) sasniedz 96% AIME 2025, pārspējot vairumu īpašniecisko modeļu matemātikā. API cena: 0,45 $/2,25 $ par miljonu tokenu caur DeepInfra.
  • Grok 3 ir apstiprināts izlaišanai kā atvērtais kods no Elon Musk puses

Salīdzinājumam, Claude Sonnet maksā 3 $/15 $ par miljonu tokenu un Claude Opus maksā 5 $/25 $. Lētākās atvērtā koda iespējas ir 10 līdz 50 reizes lētākas.

Plaisa starp atvērtā koda un īpašnieciskajiem modeļiem ir samazinājusies no 17,5 līdz 0,3 MMLU punktiem viena gada laikā. Atvērtā koda modeļi tagad risina divas lielākās uzņēmumu bažas par AI ieviešanu: datu privātums un izmaksu neprognozējamība. Un tā kā OpenClaw atbalsta jebkuru OpenAI saderīgu galapunktu, jūs varat savu agentu novirzīt uz jebkuru no šiem modeļiem jau šodien.

Ko tas nozīmē OpenClaw

Būsim tiešī: OpenClaw.rocks šis aizliegums neskar.

Neviens plāns neizmanto abonementu OAuth tokenus. Light plānā jūs atnesāt savus API atslēgas un tieši savienojaties ar savu izvēlēto sniedzēju. Pro plānā mēs nodrošinām iepriekš konfigurētu AI piekļuvi ar iekļautiem tokeniem, maršrutētu caur mūsu Bifrost vārteju. Abos gadījumos jūsu agents darbojas uz savas atsevišķas instances, kuru jūs kontrolējat.

Sniedzēja maiņa ir konfigurācijas izmaiņa. Šodien jūs izmantojat DeepSeek V3.2 par 0,28 $ par miljonu ievades tokenu. Rīt Qwen izlaiž labāku modeli un jūs to vienkārši nomaināt. Nākamnedēļ Anthropic pazemina cenas un jūs pievienojat Claude atpakaļ. Jūsu agents, jūsu dati, jūsu sarunu vēsture: nekas no tā nemainās. Tikai modelis aiz tā.

Kad pakalpojumu sniedzējs var ierobežot jūsu piekļuvi nakts laikā “bez iepriekšēja brīdinājuma,” rīki un platformas, kas izdzīvo, ir tie, kas nav atkarīgi no viena sniedzēja labas gribas. Kā viens HN komentētājs teica: būvēšana uz viena slēgtā koda sniedzēja varētu būt “AI ekvivalents Oracle izvēlei pār Postgres.”

Anthropic aizliegums apstiprina pamatprincipu, uz kura mēs esam būvējuši: jums vajadzētu kontrolēt savu AI iestatījumu. Tas nozīmē, ka jūsu agents darbojas uz jūsu instances, jūsu API atslēgas savienojas ar sniedzēju, kas jums dod labāko veiktspēju par dolāru, un neviens pakalpojumu sniedzējs nevar pārtraukt jūsu darba plūsmas.

Kas notiks tālāk

Trīs prognozes:

1. Vairāku sniedzēju izmantošana kļūst par standartu. Izstrādātāji jau uztver AI modeļus kā aizstājamas komponentes. OpenAI saderīgais API ir kļuvis par de facto standartu, ko tagad atbalsta vairums sniedzēju, un vārtejas kā OpenRouter un LiteLLM padara pārslēgšanos starp modeļiem par vienas rindas konfigurācijas maiņu. Kad jūsu rīks darbojas ar jebkuru sniedzēju, nevienam pakalpojumu sniedzējam nav sviras pār jums.

2. Atvērtā koda modeļi kļūst par drošāko izvēli. Kad īpašniecisks sniedzējs var atsaukt jūsu piekļuvi nakts laikā, atvērto svaru modeļi kā DeepSeek, Qwen un GLM sāk izskatīties mazāk kā kompromiss un vairāk kā stratēģiska priekšrocība. Jūs varat tos palaist uz savas aparatūras, mitināt caur jebkuru inferenču sniedzēju vai brīvi pārslēgties starp tiem. Neviens pakalpojumu sniedzējs nevar atvienot modeli ar MIT licenci.

3. Sava agenta palaišana kļūst par normu. Kad izvēle ir starp uzticēšanos sniedzējam, kas var mainīt noteikumus nakts laikā, un sava AI agenta palaišanu uz instances, ko jūs kontrolējat, arvien vairāk komandu izvēlēsies pēdējo. It īpaši, kad atvērtā koda modeļi turpina samazināt spēju plaisu un platformas kā OpenClaw.rocks to padara par viena klikšķa iestatīšanu, nevis DevOps projektu.

Laikmets, kad būvē uz viena AI sniedzēja labas gribas, beidzas. To, kas nāk vietā, ir noturīgāks: atvērtā koda programmatūra, no sniedzēja neatkarīga arhitektūra un infrastruktūra, ko neviens pakalpojumu sniedzējs nevar atsaukt.

Trīs galvenās atziņas

  1. Ja izmantojat Claude abonementu OAuth tokenus trešo pušu rīkos, pārtrauciet. Tas tagad skaidri pārkāpj Anthropic lietošanas noteikumus un jūsu konts varētu tikt atzīmēts. Pārejiet uz API atslēgām (gaidiet 5x+ augstākas izmaksas intensīvai lietošanai) vai pilnībā uz citu sniedzēju.

  2. Diversificējiet savas AI atkarības. Jebkurš rīks, kas darbojas tikai ar vienu modeļa sniedzēju, ir risks. Būvējiet uz ietvariem, kas ļauj mainīt modeļus bez darba plūsmu pārrakstīšanas.

  3. Izvēlieties atvērtā koda modeļus un no sniedzēja neatkarīgus rīkus. Atvērto svaru modeļi kā DeepSeek un Qwen nevar tikt atsaukti otrdien plkst. 2 naktī. Kombinējiet tos ar rīku, kas ļauj brīvi mainīt sniedzējus. OpenClaw.rocks tika būvēts tieši tam.

Anthropic pieņēma biznesa lēmumu. Jūs varat piekrist vai nepiekrist pamatojumam. Taču mācība visiem, kas būvē ar AI, ir viena: nebūvējiet uz slēgtas zemes, kas jums nepieder.