Az Anthropic betiltotta a harmadik féltől származó eszközöket. Íme, mit jelent ez.
Az Anthropic most tette hivatalossá. Egy újonnan közzétett jogi és megfelelőségi oldal a Claude Code dokumentációjában egyértelműen fogalmaz:
“Using OAuth tokens obtained through Claude Free, Pro, or Max accounts in any other product, tool, or service — including the Agent SDK — is not permitted and constitutes a violation of the Consumer Terms of Service.”
Még az Anthropic saját Agent SDK-ja is tiltott az előfizetési tokenekkel. Ha a saját SDK-juk sem mentesül, semmi sem.
Ez a dokumentáció formalizálja azt, amit a fejlesztők január óta tapasztalnak. De látni leírva, egy dedikált jogi oldalon, kifejezett végrehajtási nyelvvel, másként hat. A Hacker News szál, amely ma felszínre hozta az oldalt, már tele van frusztrált fejlesztőkkel, akik hat héttel ezelőtti érveket ismételgetnek.
Íme a teljes története annak, hogyan jutottunk ide.
A technikai blokkolás: január 9.
Az írásos irányelv új. A végrehajtás nem.
2026. január 9-én az Anthropic szerveroldali védelmet telepített, amely blokkolta az előfizetési OAuth tokeneket az hivatalos Claude Code CLI-n kívül. A harmadik féltől származó eszközök egyetlen hibaüzenetet kaptak: “This credential is only authorized for use with Claude Code and cannot be used for other API requests.”
Előzetes értesítés nélkül. Nyilvános bejelentés nélkül. Az OpenCode, Roo Code, Cline és más eszközök fejlesztői hibás munkafolyamatokra ébredtek, és elkezdtek hibajegyeket nyitni.
Az OpenCode (jelenleg több mint 107 000 GitHub csillaggal), a Claude Code legnépszerűbb alternatívája volt az elsődleges áldozat. HTTP fejléceken keresztül hamisította a Claude Code kliens identitását, így az Anthropic szerverei azt hitték, a kérések az hivatalos CLI-ből érkeznek.
A Cline, RooCode és más IDE-bővítmények, amelyek a Claude előfizetési hitelesítő adataira támaszkodtak, szintén leálltak.
Az xAI alkalmazottai, akik a Claude-ot Cursor-on keresztül használták, elvesztették a hozzáférésüket. Külön eset, hogy az OpenAI alkalmazottait már 2025 augusztusában blokkolták, állítólag a GPT-5 Claude elleni benchmarkolása miatt.
Az OpenClaw és NanoClaw felhasználói, akik előfizetési OAuth-on keresztül irányították a forgalmat (API kulcsok helyett), szintén érintettek voltak, bár az Anthropic később tisztázta, hogy „semmi nem változik abban, ahogyan az ügyfelek a fiókjukat használták, és az Anthropic nem fog fiókokat törölni.”
Ami nem volt érintett: a standard API kulcsot használók, az OpenRouter integrációk, bárki, aki tokenenként fizetett. A blokkolás az Anthropic saját alkalmazásain kívül használt előfizetési OAuth tokenekre irányult.
A mögöttes gazdasági okok
A motiváció egyszerű matematika.
| Módszer | Havi költség (intenzív használat) |
|---|---|
| Max előfizetés Claude Code-on keresztül | ~200 $ átalány |
| Egyenértékű API használat | 1 000 $+ |
Egy Claude Max előfizetés havi 200 $-ért mélyen veszteségessé válik, amikor a felhasználók ügynöki terheléseket irányítanak harmadik féltől származó eszközökön keresztül, amelyek megkerülik a beépített sebességkorlátokat. A Claude Opus API ára 15 $ millió bemeneti tokenenként és 75 $ millió kimeneti tokenenként. Egy aktív AI ügynök Opus-szal naponta milliónyi tokent égethet el.
A probléma felgyorsult, amikor a „Ralph Wiggum” technika 2025 végén vírusszerűen terjedt: fejlesztők, akik Claude-ot autonóm, önjavító ciklusokba zárták, amelyek éjszaka futnak, és a hibákat visszatáplálják a kontextusablakba, amíg a tesztek nem sikerülnek. Az Anthropic még egy hivatalos Ralph Wiggum plugint is kiadott a Claude Code-hoz, mert a saját eszközükön belül kontrollálják a sebességkorlátokat és telemetriát gyűjtenek. A probléma a harmadik féltől származó eszközök voltak, amelyek ugyanazokat a ciklusokat futtatták ezek nélkül a védelmek nélkül, olyan tempóban égetve a tokeneket, amely az átalánydíjas előfizetéseket mélyen veszteségessé tette.
Egy Hacker News kommentelő összefoglalta egyenesen: „Egy hónap Claude Code alatt könnyű annyi LLM tokent használni, hogy az több mint 1 000 $-ba került volna, ha az API-n keresztül fizettél volna.”
Élvonalbeli modellek plusz ügynöki ciklusok plusz átalányárazás nem létezhetnek együtt. Valaminek engednie kellett.
Technikai blokkolástól hivatalos irányelvekig
A januári blokkolás kaotikus volt. Az Anthropic Thariq Shihiparja elismerte, hogy egyes fiókokat „automatikusan kitiltottak, mert visszaélési szűrőket aktiváltak”, egy hiba, amelyet a cég visszavont. A cég a végrehajtást az „hivatalos klienst hamisító” eszközök elleni intézkedésként mutatta be, de nem volt dokumentáció, ami ezt alátámasztotta volna. Csak egy szerveroldali kapcsoló és egy szűkszavú hibaüzenet.
A visszahatás súlyos volt. David Heinemeier Hansson (DHH), a Ruby on Rails megalkotója, „nagyon ügyfélellenes”-nek nevezte. George Hotz (geohot) kiadta az „Anthropic is making a huge mistake” című cikket, amelyben azt állította, hogy a korlátozások „nem fogják az embereket visszakonvertálni a Claude Code-hoz, hanem más modellszolgáltatókhoz konvertálják őket.” Gergely Orosz, a The Pragmatic Engineer szerzője arra jutott, hogy az Anthropic „elégedett azzal, hogy gyakorlatilag nincs ökoszisztémája a Claude körül.”
Órák alatt 147+ reakció gyűlt össze GitHub issue-kon és 245+ pont a Hacker News-on. AJ Stuyvenberg AWS Hero megjegyezte: „Speedrunnolják az utat a megbocsátható startuptól a gyűlölt nagyvállalatig, mielőtt bármilyen exit lenne!”
Nem mindenki volt más véleményen. Artem K fejlesztő megjegyezte, hogy a szigorítás „a lehető legszelídebb volt”, rámutatva, hogy „csak egy udvarias üzenet volt ahelyett, hogy törölték volna a fiókját vagy visszamenőleg API árat számítottak volna fel.” Mások azzal érveltek, hogy az OpenCode kezdettől fogva megszegte a felhasználási feltételeket azzal, hogy kliens-identitásokat hamisított.
Most, hat héttel később, az Anthropic közzétette a hivatalos dokumentációt, amely kodifikálja, amit a szerveroldali blokkolás már végrehajtott. Az oldal kemény határt húz: az OAuth hitelesítés „kizárólag a Claude Code és a Claude.ai számára készült.” Minden máshoz API kulcsok szükségesek a Claude Console-on keresztül, tokenenként számlázva. Az Anthropic fenntartja a jogot az „előzetes értesítés nélküli” végrehajtásra is.
A mai Hacker News reakció azt sugallja, hogy a seb nem gyógyult be. A fejlesztők a dokumentációt nem tisztázásként olvassák, hanem megerősítésként: a zárt kert végleges.
Ez már régóta épült
A januári blokkolás nem volt az első lépés.
2025 júniusában az Anthropic szinte teljesen elvágta a Windsurf közvetlen hozzáférését a Claude modellekhez, kevesebb mint egy hét előzetes értesítéssel, miután pletykák terjedtek el arról, hogy az OpenAI felvásárolja a Windsurf-öt. Az Anthropic társalapítója, Jared Kaplan elmagyarázta, hogy „furcsa lenne számunkra eladni a Claude-ot az OpenAI-nak.” A Windsurf kénytelen volt BYOK-ra (Bring Your Own Key) váltani és a Google Gemini-t alternatívaként hirdetni.
A Google hasonló cikluson ment keresztül. A fejlesztők OAuth tokeneket vontak ki a Google Antigravity IDE-jéből, és harmadik féltől származó eszközökbe injektálták azokat a Gemini modellekhez való ingyenes hozzáférésért. A Google ezt a felhasználási feltételek megsértéseként minősítette a „biztonsági intézkedések megkerülése” alatt, és fióktiltásokat adott ki.
A minta egyértelmű: az AI cégek az Apple forgatókönyvét követik. A korai korszak (2022-től 2024-ig) nyílt API-kat kínált és harmadik féltől származó integrációkat ösztönzött. A jelenlegi korszak az ökoszisztéma-bezárást és az hivatalos eszközöket részesíti előnyben.
Az eszközök leválnak a szolgáltatókról
Minden korlátozás felgyorsít egy ellentrendet. Ebben az esetben: a szolgáltatófüggetlenséget.
Továbbra is használhatja saját Anthropic API kulcsát a legtöbb eszközben. De ez nem az igazi kérdés. Egy API kulcs nem védi meg Önt, ha az Anthropic megváltoztatja az árakat, korlátozza a hozzáférést, vagy úgy dönt, hogy az Ön felhasználási esete már nem illik a feltételeikbe. Az igazi változás az, hogy az eszközök valóban szolgáltatóagnosztikussá válnak, így Ön lecserélheti az alapul szolgáló modellt anélkül, hogy bármi mást megváltoztatna.
Ez már az egész iparágban zajlik. Az OpenCode órák alatt váltott a januári blokkolás után az összes nagyobb szolgáltató támogatására. A Cline és a RooCode lehetővé teszi a modellek feladatonkénti váltását. Az olyan átjárók, mint az OpenRouter és a LiteLLM, a modellt konfigurációs opcióvá teszik, nem architekturális függőséggé.
A minta mindenhol ugyanaz: a modell cserélhető inputtá válik. Azok az eszközök virágoznak, amelyek így kezelik. Az OpenClaw ezen elv alapján épült a kezdetektől. Bármely OpenAI-kompatibilis végponttal működik, ami azt jelenti, hogy a listán szereplő szinte minden modellel és minden szolgáltatóval működik.
A nyílt forráskódú modellek zárkóznak fel
Az Anthropic korlátozásai a lehető legrosszabb időpontban érkeznek a tulajdonosi bezárás szempontjából.
A DeepSeek R1, amely 2025 januárjában jelent meg, bebizonyította, hogy a nyílt súlyú modellek élvonalbeli gondolkodást tudnak nyújtani. Teljesítményben megegyezett a GPT-4-gyel, miközben 73%-kal kevesebbe került. A „DeepSeek pillanat” volt az első alkalom, amikor sok fejlesztő rájött, hogy csúcsteljesítményt kaphat anélkül, hogy az OpenAI-on, az Anthropic-on vagy a Google-ön keresztül kellene mennie.
Éppen ebben a hónapban a nyílt forráskódú táj ismét megváltozott:
- A GLM-5 a Z AI-tól vezeti a 2026 februári nyílt forráskódú rangsorokat, elődjével, a GLM-4.7-tel, amely 73,8%-ot ért el a SWE-bench Verified-en. API árak: 1,00 $/3,20 $ millió bemeneti/kimeneti tokenenként.
- A Qwen 3.5 (Alibaba) napokkal ezelőtt jelent meg natív ügynöki képességekkel, 201 nyelv támogatásával és az elődhöz képest 60%-kal alacsonyabb üzemeltetési költségekkel. API árak: 0,40 $/2,40 $ millió tokenenként.
- A DeepSeek V3.2 most „Speciale” változatban is elérhető, 88,7%-kal a LiveCodeBench-en, MIT licenc alatt kiadva. API árak: 0,28 $/0,42 $ millió tokenenként.
- A Kimi K2.5 (Moonshot AI) 96%-ot ér el az AIME 2025-ön, felülmúlva a legtöbb tulajdonosi modellt matematikából. API árak: 0,45 $/2,25 $ millió tokenenként a DeepInfra-n keresztül.
- A Grok 3 nyílt forráskódú kiadását Elon Musk megerősítette
Összehasonlításképpen: a Claude Sonnet 3 $/15 $ millió tokenenként, a Claude Opus pedig 5 $/25 $ millió tokenenként. A legolcsóbb nyílt forráskódú opciók 10-szer és 50-szer olcsóbbak.
A nyílt forráskódú és a tulajdonosi modellek közötti szakadék egyetlen év alatt 17,5-ről 0,3 MMLU pontra csökkent. A nyílt forráskódú modellek most az AI bevezetésével kapcsolatos két legnagyobb vállalati aggályt kezelik: az adatvédelmet és a költségek kiszámíthatatlanságát. És mivel az OpenClaw bármely OpenAI-kompatibilis végpontot támogat, ügynökét bármelyik ilyen modellre irányíthatja még ma.
Mit jelent ez az OpenClaw számára
Legyünk egyenesek: az OpenClaw.rocks-ot nem érinti ez a tiltás.
Egyik csomag sem használ előfizetési OAuth tokeneket. A Light csomagban saját API kulcsait hozza, és közvetlenül csatlakozik a választott szolgáltatóhoz. A Pro csomagban előre konfigurált AI hozzáférést biztosítunk tokenekkel együtt, a Bifrost átjárónkon keresztül irányítva. Mindkét esetben az ügynöke saját dedikált példányán fut, amelyet Ön irányít.
A szolgáltató váltása konfigurációs módosítás. Ma a DeepSeek V3.2-t használja 0,28 $-ért millió bemeneti tokenenként. Holnap a Qwen kiad egy jobb modellt, és Ön lecseréli. Jövő héten az Anthropic csökkenti az árait, és visszateszi a Claude-ot. Az ügynöke, az adatai, a beszélgetési előzményei: semmi sem változik. Csak a mögöttes modell.
Amikor egy szolgáltató „előzetes értesítés nélkül” korlátozhatja a hozzáférését egyik napról a másikra, azok az eszközök és platformok maradnak fenn, amelyek nem egyetlen szolgáltató jóindulatától függenek. Ahogy egy HN kommentelő fogalmazott: egyetlen zárt forráskódú szolgáltatóra építeni „az AI megfelelője lehet annak, hogy Oracle-t választunk Postgres helyett.”
Az Anthropic tiltása megerősíti az alapelvet, amelyre építettünk: Önnek kell irányítania az AI beállítását. Ez azt jelenti, hogy az ügynöke az Ön példányán fut, az API kulcsai ahhoz a szolgáltatóhoz csatlakoznak, amelyik a legjobb teljesítményt nyújtja dollárért, és egyetlen szolgáltató sem tudja leállítani a munkafolyamatait.
Mi történik ezután
Három előrejelzés:
1. A több szolgáltató lesz az alapértelmezett. A fejlesztők már cserélhető komponensekként kezelik az AI modelleket. Az OpenAI-kompatibilis API de facto szabvánnyá vált, amelyet a legtöbb szolgáltató már támogat, és az olyan átjárók, mint az OpenRouter és a LiteLLM, egysoros konfigurációs módosítássá teszik a modellek közötti váltást. Ha az eszköze bármely szolgáltatóval működik, egyetlen szállítónak sincs befolyása Önre.
2. A nyílt forráskódú modellek lesznek a biztonságos fogadás. Amikor egy tulajdonosi szolgáltató egyik napról a másikra visszavonhatja a hozzáférését, a nyílt súlyú modellek, mint a DeepSeek, Qwen és GLM kevésbé tűnnek kompromisszumnak és inkább stratégiai előnynek. Futtathatja őket saját hardverén, bármely inferencia-szolgáltatón keresztül üzemeltetheti, vagy szabadon válthat közöttük. Egyetlen szolgáltató sem tudja kihúzni a csatlakozót egy MIT licencű modellből.
3. A saját ügynök futtatása lesz a norma. Amikor a választás aközött áll, hogy megbízunk egy szolgáltatóban, aki egyik napról a másikra megváltoztathatja a feltételeket, vagy saját AI ügynököt futtatunk egy általunk irányított példányon, egyre több csapat az utóbbit választja. Különösen, mivel a nyílt forráskódú modellek tovább zárkóznak fel képességben, és az olyan platformok, mint az OpenClaw.rocks, egykattintásos beállítássá teszik ezt egy DevOps projekt helyett.
Véget ér az a korszak, amikor egyetlen AI szolgáltató jóindulatára építünk. Ami helyettesíti, az ellenállóbb: nyílt forráskódú szoftver, szolgáltatóagnosztikus architektúra és infrastruktúra, amelyet egyetlen szállító sem vonhat vissza.
Három tanulság
-
Ha Claude előfizetési OAuth tokeneket használ harmadik féltől származó eszközökben, hagyja abba. Most már kifejezetten sérti az Anthropic felhasználási feltételeit, és fiókja megjelölhető. Váltson API kulcsokra (számítson 5x+ magasabb költségekre intenzív használat esetén) vagy teljesen más szolgáltatóra.
-
Diverzifikálja AI függőségeit. Bármely eszköz, amely csak egyetlen modellszolgáltatóval működik, kockázatot jelent. Építsen olyan keretrendszerekre, amelyek lehetővé teszik a modellek cseréjét a munkafolyamatok újraírása nélkül.
-
Válasszon nyílt forráskódú modelleket és szolgáltatóagnosztikus eszközöket. A nyílt súlyú modellek, mint a DeepSeek és a Qwen, nem vonhatók vissza egy keddi hajnali 2 órakor. Párosítsa őket egy olyan eszközzel, amely lehetővé teszi a szolgáltatók szabad váltását. Az OpenClaw.rocks pontosan erre készült.
Az Anthropic üzleti döntést hozott. Egyetérthet vagy vitatkozhat az indoklással. De a tanulság mindenki számára, aki AI-val épít, ugyanaz: ne építsen zárt forráskódú talajra, amelyet nem Ön birtokol.