Anthropic sapo e beri zyrtare. Nje faqe e sapopublikuar Legal and compliance ne dokumentacionin e Claude Code e thote qarte:

“Using OAuth tokens obtained through Claude Free, Pro, or Max accounts in any other product, tool, or service — including the Agent SDK — is not permitted and constitutes a violation of the Consumer Terms of Service.”

Edhe Agent SDK i vete i Anthropic eshte i ndaluar me tokena abonimentesh. Nese as SDK-ja e tyre nuk eshte e perjashtuar, asgje nuk eshte.

Ky dokumentacion formalizon ate qe zhvilluesit kane jetuar qe nga janari. Por ta shikosh te shkruar bardh e zi, ne nje faqe te dedikuar ligjore me gjuhe te qarte zbatimi, godet ndryshe. Tema ne Hacker News qe sot nxori faqen ne drite eshte tashme plot me zhvillues te frustruar qe rihappin te njejtat argumente nga gjashte jave me pare.

Ja historia e plote e se si arrijtem ketu.

Bllokimi teknik: 9 janar

Politika me shkrim eshte e re. Zbatimi jo.

Me 9 janar 2026, Anthropic vendosi masa mbrojtese ne anen e serverit qe bllokuan tokenat OAuth te abonimit nga funksionimi jashte CLI-se se tyre zyrtare Claude Code. Mjetet e paleve te treta moren nje mesazh gabimi te vetem: “This credential is only authorized for use with Claude Code and cannot be used for other API requests.”

Pa njoftim paraprak. Pa njoftim publik. Zhvilluesit qe perdornin OpenCode, Roo Code, Cline dhe mjete te tjera u zgjuan me flukse pune te prishura dhe filluan te raportonin probleme.

OpenCode (tani me mbi 107 mije yje ne GitHub), alternativa me e popullarizuar ndaj Claude Code, ishte viktima kryesore. Po falsifikonte identitetin e klientit te Claude Code permes headerave HTTP, duke bere serverit e Anthropic te besonin se kerkesat vinin nga CLI-ja zyrtare.

Cline, RooCode dhe shtesa te tjera IDE qe mbeshteteshin ne kredencialet e abonimit Claude gjithashtu ndaluan se punuarit.

Punonjesit e xAI qe perdornin Claude permes Cursor humbem aksesin. Vecanerisht, punonjesit e OpenAI ishin bllokuar qe ne gusht 2025, sipas raportimeve per krahasimin e GPT-5 me Claude.

Perdoruesit e OpenClaw dhe NanoClaw qe ridrejtonin permes OAuth te abonimit (ne vend te celesave API) gjithashtu u prekuen, megjidhese Anthropic me vone sqaroi se “asgjëe nuk ndryshon ne lidhje me menyren se si klientet kane perdorur llogarite e tyre dhe Anthropic nuk do te anuloje llogarite.”

Cfare nuk u prek: perdoruesit standarde te celesave API, integrimit OpenRouter, te gjithe ata qe paguajne per token. Bllokimi u drejtua tokenave OAuth te abonimit qe perdoreshin jashte aplikacioneve te veta te Anthropic.

Ekonomia prapa kesaj

Motivimi eshte matematike e thjeshte.

MetodaKostoja mujore (perdorim intensiv)
Aboniment Max permes Claude Code~200 $ e fiksuar
Perdorim ekuivalent API1.000+ $

Nje aboniment Claude Max me 200 $/muaj behet thellsisht joperfitueshem kur perdoruesit ridrejtojne flukset e punes se agjenteve permes mjeteve te paleve te treta qe heqin kufizimet e integruara. Cmimi i API Claude Opus eshte 15 $ per milion tokena te hyrjes dhe 75 $ per milion tokena te daljes. Nje agjent AI aktiv qe ekzekuton Opus mund te djege miliona tokena ne dite.

Problemi u perlesua kur teknika “Ralph Wiggum” u be virale ne fund te 2025: zhvilluesit bllokonin Claude ne laka autonome veteriparuse qe funksionojne gjate nates, duke ushqyer deshtimet prapa ne dritaren e kontekstit derisa testet te kalonin. Anthropic madje publikoi nje shtojce zyrtare Ralph Wiggum per Claude Code, sepse brenda mjetes se tyre kontrollojne kufizimet dhe mbledhin telemetrine. Problemi ishin mjetet e paleve te treta qe ekzekutonin te njejtat laka pa keto masa mbrojtese, duke djegur tokena me nje ritëm qe beri abonimentet me cmim te fiksuar thellsisht joperfitueshem.

Nje komentues ne Hacker News e permblodhi drejtperdrejt: “Ne nje muaj Claude Code, eshte e lehte te perdoresh aq shume tokena LLM sa do te kishe kushtuar me shume se 1.000 $ nese do te kishe paguar permes API-se.”

Modelet e avancuara plus lakat e agjenteve plus cmimi i fiksuar nuk mund te bashkejetojne. Dicka duhej te jepte.

Nga bllokimi teknik ne politike zyrtare

Bllokimi i janarit ishte kaotik. Thariq Shihipar i Anthropic pranoi se disa llogari ishin “bllokuar automatikisht sepse aktivizuan filtrat e abuzimit,” nje gabim qe kompania e korrigjoi. Kompania e prezantoi zbatimin si te drejtuar ndaj mjeteve qe “falsifikonin klientin zyrtar,” por nuk kishte dokumentacion qe ta mbeshteste. Vetem nje celes ne anen e serverit dhe nje mesazh gabimi i shkurter.

Reagimi ishte i ashper. David Heinemeier Hansson (DHH), krijuesi i Ruby on Rails, e quajti “shume armiqesor ndaj klienteve”. George Hotz (geohot) publikoi “Anthropic po ben nje gabim te madh”, duke argumentuar se kufizimet “nuk do t’i kthejne njerezit prapa te Claude Code, por do t’i kthejne te ofruesit e tjere te modeleve.” Gergely Orosz, autori i The Pragmatic Engineer, arriti ne perfundimin se Anthropic eshte “i kenaqur qe praktikisht nuk ka ekosistem rreth Claude.”

Brenda pak oreve, 147+ reagime u grumbulluan ne ceshtjet e GitHub dhe 245+ pike ne Hacker News. AWS Hero AJ Stuyvenberg vuri re me humor: “Po bejne speedrun udhetimin nga startup i falshëm ne korporate te urrejtur para cdo daljeie!”

Jo te gjithe nuk u pajtuanme. Zhvilluesie Artem K vuri re se bllokimi ishte “me i buti qe mund te ishte,” duke theksuar se ishte “vetem nje mesazh i sjelleshem ne vend qe te shkatrrohej llogaria juaj ose t’ju faturohej retroaktivisht me cmimet e API-se.” Te tjere argumentuan se OpenCode kishte shkeleyer kushtet e perdorimit qe ne fillim duke falsifikuar identitetet e klientit.

Tani, gjashte jave me vone, Anthropic ka publikuar dokumentacionin zyrtar qe kodifikon ate qe bllokimi ne anen e serverit tashme zbatonte. Faqja terhiqe nje vije te qarte: autentifikimi OAuth eshte “i destinuar ekskluzivisht per Claude Code dhe Claude.ai.” Cdo gje tjeter kerkon celesa API permes Claude Console, te faturuara per token. Anthropic gjithashtu rezervon te drejten per te zbatuar “pa njoftim paraprak.”

Reagimi i sotem ne Hacker News sugjeron se plaga nuk eshte sheruar. Zhvilluesit e lexojne dokumentacionin jo si nje sqarim, por si nje konfirmim: kopshti i mbyllur eshte i perhershem.

Kjo ka qene duke u ndertuar prej kohesh

Bllokimi i janarit nuk ishte levizja e pare.

Ne qershor 2025, Anthropic preu pothuajse te gjithe aksesin e drejtperdrejte te Windsurf ne modelet Claude me me pak se nje jave njoftim, pasi u pehapen thashetheme se OpenAI po blinte Windsurf. Bashkethemelesi i Anthropic Jared Kaplan shpjegoi se do te ishte “e cuditshme per ne te shisnim Claude te OpenAI.” Windsurf u detyrua te kthehej ne BYOK (Bring Your Own Key) dhe te promovonte Google Gemini si alternative.

Google kaloi nje cikeel te ngjashem. Zhvilluesit kishin nxjerre tokena OAuth nga Antigravity IDE e Google dhe i kishin injektuar ne mjete te paleve te treta per akses falas ne modelet Gemini. Google e karakterizoi kete si shkelje te kushteve te perdorimit nen “anashkalimin e masave te sigurise” dhe leshoi ndalime llogarise.

Modeli eshte i qarte: kompaanite AI ndjekin librin e lojrave te Apple. Era e hershme (2022 deri 2024) perfshinte API te hapura dhe inkurajim te integrimit te paleve te treta. Era aktuale i jep perparesi mbylljes se ekosistemit dhe mjeteve zyrtare.

Mjetet po ndahen nga ofruesit

Cdo kufizim pershpejton nje kundertend. Ne kete rast: pavaresi nga ofruesi.

Ende mund te sillni celesin tuaj API Anthropic ne shumicen e mjeteve. Por kjo e humb thelbin. Nje celes API nuk ju mbron nese Anthropic ndryshon cmimet, kufizon aksesin ose vendos qe rasti juaj i perdorimit nuk perputhet me kushtet e tyre. Ndryshimi i vertete eshte qe mjetet behen vertete te pavarura nga ofruesi, keshtu qe mund te nderroni modelin baze pa ndryshuar asgje tjeter.

Kjo tashme po ndodh ne te gjithe industrine. OpenCode u ridrejtua brenda pak oreve pas bllokimit te janarit per te mbeshtetur cdo ofrues te madh. Cline dhe RooCode ju lejojne te nderroni modelet per detyre. Portat si OpenRouter dhe LiteLLM e bejne modelin nje opsion konfigurimi ne vend te nje varësie arkitekturore.

Modeli eshte i njejte kudo: modeli po behet nje mall. Mjetet qe lulezojne jane ato qe e trajtojne si te tille. OpenClaw u ndertua mbi kete parim qe ne fillim. Punon me cdo pike fundore te pajtueshme me OpenAI, qe do te thote se punon me pothuajse cdo model ne kete liste dhe cdo ofrues qe i sherbyen.

Modelet me burim te hapur po mbyllin hendekun

Kufizimet e Anthropic arrijne ne kohen me te keqe te mundshme per mbylljen proprietare.

DeepSeek R1, i publikuar ne janar 2025, provoi se modelet me peshe te hapura mund te ofrojne arsyetim te nivelit te avancuar. Barazoi GPT-4 ne standarde duke kushtuar 73% me pak. “Momenti DeepSeek” ishte hera e pare qe shume zhvillues kuptuan se mund te merrnin performancen me te mire pa kaluar permes OpenAI, Anthropic ose Google.

Pikerisht kete muaj, peizazhi i burimit te hapur ndryshoi perseri:

  • GLM-5 nga Z AI udhheq renditjet e burimit te hapur per shkurt 2026, me paraardhesen GLM-4.7 qe shknon 73,8% ne SWE-bench Verified. Cmimi API: 1,00 $/3,20 $ per milion tokena hyrje/dalje.
  • Qwen 3.5 (Alibaba) u lansua dite me pare me aftesi agjenti vendase, mbeshtjetje per 201 gjuhe dhe kostot operative 60% me te uleta se paraardhesi. Cmimi API: 0,40 $/2,40 $ per milion tokena.
  • DeepSeek V3.2 tani vjen ne varientin “Speciale” qe shknon 88,7% ne LiveCodeBench, i publikuar nen licencen MIT. Cmimi API: 0,28 $/0,42 $ per milion tokena.
  • Kimi K2.5 (Moonshot AI) shknon 96% ne AIME 2025, duke tejkaluar shumicen e modeleve proprietare ne matematike. Cmimi API: 0,45 $/2,25 $ per milion tokena permes DeepInfra.
  • Grok 3 eshte konfirmuar per publikim me burim te hapur nga Elon Musk

Per krahasim, Claude Sonnet kushton 3 $/15 $ per milion tokena dhe Claude Opus 5 $/25 $. Opsionet me te lira me burim te hapur jane 10 deri 50 here me te lira.

Hendeku mes modeleve me burim te hapur dhe atyre proprietare eshte ngushtuar nga 17,5 ne 0,3 pike MMLU ne nje vit te vetem. Modelet me burim te hapur tani adresojne dy shqetesimet me te medha te nderrmarrjeve per adoptimin e AI: privatesia e te dhenave dhe paparashikueshmeria e kostove. Dhe meqenese OpenClaw mbeshtet cdo pike fundore te pajtueshme me OpenAI, mund te drejtoni agjentin tuaj ne cilindo nga keto modele sot.

Cfare do te thote kjo per OpenClaw

Le te jemi te drejttyperdrejte: OpenClaw.rocks nuk preket nga ky ndalim.

Asnje plan nuk perdor tokena OAuth abonimenti. Ne planin Light, ju sillni celesat tuaja API dhe lidheni drejtperdrejt me ofruesin qe zgjidhni. Ne planin Pro, ne ofrojme akses AI te parakonfiguruar me tokena te perfshira, te ridrejtuara permes portes sone Bifrost. Ne te dy rastet, agjenti juaj funksionon ne instancen e tij te dedikuar qe ju kontrolloni.

Nderrimi i ofruesit eshte ndryshim konfigurimi. Sot perdorni DeepSeek V3.2 me 0,28 $ per milion tokena hyrje. Neser Qwen publikon nje model me te mire dhe ju e zevendesoni. Javen tjeter Anthropic ul cmimet dhe ju shtoni Claude perseri. Agjenti juaj, te dhenat tuaja, historia e bisedave tuaja: asgje nga keto nuk ndryshon. Vetem modeli prapa tij.

Kur nje ofrues mund te kufizoje aksesin tuaj brenda nates “pa njoftim paraprak,” mjetet dhe platformat qe mbijetojne jane ato qe nuk varen nga vullneti i mire i nje ofruesi te vetem. Sic nje komentues ne HN tha: ndertimi mbi nje ofrues te vetem me burim te mbyllur mund te jete “ekuivalenti AI i zgjedhjes se Oracle mbi Postgres.”

Ndalimi i Anthropic vlefteson nje parim themeltar qe kemi ndertuar rreth tij: ju duhet te kontrolloni konfigurimin tuaj te AI. Kjo do te thote qe agjenti juaj funksionon ne instancen tuaj, celesat tuaja API lidhen me ofruesin qe ju jep performancen me te mire per dollar, dhe asnje ofrues i vetem nuk mund te nderprese flukset e punes tuaja.

Cfare ndodh me pas

Tre parashikime:

1. Shumeofruesi behet standardi. Zhvilluesit tashme i trajtojne modelet AI si komponente te nderrueshme. API i pajtueshemn me OpenAI eshte bere nje standard de facto qe shumica e ofruesve tani mbeshtete, dhe portat si OpenRouter dhe LiteLLM e bejne nderrimin mes modeleve nje ndryshim konfigurimi te nje rreshti. Kur mjeti juaj punon me cdo ofrues, asnje ofrues i vetem nuk ka ndikim mbi ju.

2. Modelet me burim te hapur behen zgjedhja e sigurt. Kur nje ofrues proprietar mund te revokoje aksesin tuaj brenda nates, modelet me peshe te hapura si DeepSeek, Qwen dhe GLM fillojne te duken me pak si kompromis dhe me shume si avantazh strategjik. Mund t’i ekzekutoni ne hardwerin tuaj, t’i prisni permes cdo ofruesi inferimi ose te nderroni lirisht mes tyre. Asnje ofrues nuk mund te heqe spinonen nga nje model me licence MIT.

3. Ekzekutimi i agjentit tuaj behet normja. Kur zgjedhja eshte mes besimit tek nje ofrues qe mund te ndryshoje kushtet brenda nates dhe ekzekutimit te agjentit tuaj AI ne nje instance qe ju kontrolloni, me shume ekipe do te zgjedhin te dyten. Vecanerisht ndersa modelet me burim te hapur vazhdojne te mbyllin hendekun e aftesive dhe platformat si OpenClaw.rocks e bejne nje konfigurim me nje klikim ne vend te nje projekti DevOps.

Era e ndertimit mbi vullnetin e mire te nje ofruesi te vetem AI po perfundon. Ajo qe e zevendeson eshte me elastike: software me burim te hapur, arkitekture e pavarur nga ofruesi dhe infrastructure qe asnje ofrues nuk mund ta revokoje.

Tre gjera per te mbajtur mend

  1. Nese perdorni tokena OAuth te abonimit Claude ne mjete te paleve te treta, ndaloni. Kjo tani shkel haptazi Kushtet e Sherbimit te Anthropic dhe llogaria juaj mund te shenohet. Kaloni ne celesa API (prisni kosto 5x+ me te larta per perdorim intensiv) ose ne nje ofrues krejt te ndryshem.

  2. Diversifikoni varesiet tuaja te AI. Cdo mjet qe punon vetem me nje ofrues modelesh eshte nje risk. Ndertoni mbi korniza qe ju lejojne te nderroni modelet pa rishkruar flukset e punes.

  3. Zgjidhni modelet me burim te hapur dhe mjete te pavarura nga ofruesi. Modelet me peshe te hapura si DeepSeek dhe Qwen nuk mund te revokohen te marten ne oren 2 te nates. Kombinojini me nje mjet qe ju lejon te nderroni ofruesit lirisht. OpenClaw.rocks u ndertua pikerisht per kete.

Anthropic mori nje vendim biznesi. Mund te pajtohenini ose jo me arsyetimin. Por mesimi per te gjithe ata qe ndertojne me AI eshte i njejti: mos ndertoni mbi terren te mbyllur qe nuk eshte i juaji.