Anthropic bunu resmi olarak duyurdu. Claude Code dokumantasyonunda yeni yayinlanan bir Legal and compliance sayfasi bunu acikca belirtiyor:

“Using OAuth tokens obtained through Claude Free, Pro, or Max accounts in any other product, tool, or service — including the Agent SDK — is not permitted and constitutes a violation of the Consumer Terms of Service.”

Anthropic’in kendi Agent SDK’si bile abonelik tokenlariyla yasak. Kendi SDK’leri bile muaf degilse, hicbir sey degil.

Bu dokumantasyon, gelistiricilerin Ocak ayindan beri yasadiklarini resmilistiriyor. Ancak bunu siyah uzerine beyaz yazilmis, ozel bir hukuki sayfada acik uygulama diliyle gormek farkli vuruyor. Bugun sayfayi gun yuzune cikaran Hacker News basligi zaten alti hafta onceki ayni argumanlari yeniden acan hayal kirikligi yasamis gelistiricilerle dolu.

Buraya nasil geldigimizin tam hikayesi.

Teknik engel: 9 Ocak

Yazili politika yeni. Uygulama degil.

9 Ocak 2026 tarihinde Anthropic, abonelik OAuth tokenlarinin resmi Claude Code CLI’lari disinda calismisini engelleyen sunucu tarafi koruma onlemleri uyguladi. Ucuncu taraf araclar tek bir hata mesaji aldi: “This credential is only authorized for use with Claude Code and cannot be used for other API requests.”

Onceden bildirim yok. Kamuya aciklama yok. OpenCode, Roo Code, Cline ve diger araclari kullanan gelistiriciler bozulmus is akislariyla uyandi ve sorunlari bildirmeye basladi.

OpenCode (artik 107 binden fazla GitHub yildizi ile), Claude Code’un en populer alternatifi, birincil kurbandi. HTTP basliklari araciligiyla Claude Code istemci kimligini taklit ederek Anthropic sunucularina isteklerin resmi CLI’dan geldigini dusundurmekti.

Cline, RooCode ve diger IDE uzantilari Claude abonelik kimlik bilgilerine dayananlar da calismay durdurdu.

Cursor uzerinden Claude kullanan xAI calisanlari erisimlerini kaybetti. Ayri olarak, OpenAI calisanlari zaten Agustos 2025’te, GPT-5’i Claude ile kiyasladiklari icin engellensmiti.

Abonelik OAuth uzerinden yonlendiren (API anahtarlari yerine) OpenClaw ve NanoClaw kullanicilari da etkilendi, ancak Anthropic daha sonra “musterilerin hesaplarini nasil kullandiklariyla ilgili hicbir seyin degismedigini ve Anthropic’in hesaplari iptal etmeyecegini” acikladi.

Neler etkilenmedi: standart API anahtari kullanicilari, OpenRouter entegrasyonlari, token basina odeme yapan herkes. Engelleme, Anthropic’in kendi uygulamalari disinda kullanilan abonelik OAuth tokenlarini hedef aldi.

Arkasindaki ekonomi

Motivasyon basit matematiktir.

YontemAylik maliyet (yogun kullanim)
Claude Code uzerinden Max aboneligi~200 $ sabit
Esdeger API kullanimi1.000+ $

Aylik 200 $‘lik Claude Max aboneligi, kullanicilar ajan is akislarini yerlesik sinirlamalari kaldiran ucuncu taraf araclar uzerinden yonlendirdiginde derinden karliksiz hale gelir. Claude Opus API fiyatlandirmasi milyon giris tokeni basina 15 $ ve milyon cikis tokeni basina 75 $‘dir. Opus calistiran aktif bir AI ajani gunde milyonlarca token yakabilir.

Sorun, “Ralph Wiggum” teknigi 2025 sonlarinda viral oldugunda hizlandi: gelistiriciler Claude’u gece boyunca calisan otonom kendi kendini iyilestiren donguluere hapsederek, testler gecene kadar basarisizliklari baglam penceresine geri beslerdi. Anthropic, kendi araclari icinde sinirlari kontrol ettikleri ve telemetri topladiklari icin Claude Code icin resmi bir Ralph Wiggum eklentisi bile yayinladi. Sorun, ayni donguleri bu koruma onlemleri olmadan calistiran, sabit abonelikleri derinden karliksiz kilan bir hizda token yakan ucuncu taraf araclariydi.

Bir Hacker News yorumcusu bunu dogrudan ozetledi: “Bir ay Claude Code kullanmakta, API uzerinden odeseydiniz size 1.000 $‘dan fazlaya mal olacak kadar cok LLM tokeni kullanmak kolaydir.”

Ust duzey modeller arti ajan donguleri arti sabit fiyatlandirma bir arada var olamaz. Bir seyin yol vermesi gerekiyordu.

Teknik engelden resmi politikaya

Ocak engeli daginikti. Anthropic’in Thariq Shihipar’i bazi hesaplarin “kotuye kullanma filtrelerini tetikledigi icin otomatik olarak yasaklandigini” kabul etti, sirketin duzeltigi bir hata. Sirket, uygulamayi “resmi istemciyi taklit eden” araclari hedefleme olarak cerceveledi, ancak bunu destekleyen bir dokumantasyon yoktu. Sadece bir sunucu tarafi anahtari ve kisa bir hata mesaji.

Tepki sert oldu. Ruby on Rails’in yaraticisi David Heinemeier Hansson (DHH), bunu “musteriye cok dusmanca” olarak nitelendirdi. George Hotz (geohot) “Anthropic dev bir hata yapiyor” yazisini yayinlayarak kisitlamalarin “insanlari Claude Code’a geri dondurmeyecegini, onlari diger model saglayicilarina dondurecegini” savundu. The Pragmatic Engineer yazari Gergely Orosz, Anthropic’in “Claude etrafinda neredeyse hicbir ekosistem olmamaktan memnun” oldugu sonucuna vardi.

Birkaç saat icinde GitHub sorunlarinda 147+ tepki ve Hacker News’te 245+ puan birikti. AWS Hero AJ Stuyvenberg nulkeli bir sekilde belirtti: “Affedilebilir bir girisimlden nefret edilen bir sirkete gecis yolculugunu herhangi bir cikisindan once hizlandiriyorlar!”

Herkes katilmadi. Gelistirici Artem K, engelin “olabilecek en yumusak oldugunu” belirtti ve “hesabinizi yok etmek veya geriye donuk API fiyatlari uygulamak yerine sadece kibar bir mesaj” oldugunu vurguladi. Diger kisiler OpenCode’un basindan beri istemci kimliklerini taklit ederek kullanim kosullarini ihlal ettigini savundu.

Simdi, alti hafta sonra, Anthropic sunucu tarafi engelinin zaten uyguladigini kodifiye eden resmi dokuemantasyonu yayinladi. Sayfa net bir cizgi cekiyor: OAuth kimlik dogrulamasi “yalnizca Claude Code ve Claude.ai icin tasarlanmistir.” Diger her sey Claude Console uzerinden API anahtarlari gerektiriyor ve token basina faturalandiriliyor. Anthropic ayrica “onceden bildirimde bulunmaksizin” uygulama hakkini sakli tutuyor.

Bugunku Hacker News tepkisi, yaranin iyilesmedigini gosteriyor. Gelistiriciler dokumantasyonu bir aciklama olarak degil, bir onay olarak okuyor: kapali bahce kalici.

Bu bir suredir hazirlaniyor

Ocak engeli ilk hamle degildi.

Haziran 2025’te Anthropic, OpenAI’nin Windsurf’u satin aldigi soylentilerinin ardindan bir haftadan az bir bildirimle Windsurf’un Claude modellerine neredeyse tum dogrudan erisimini kesti. Anthropic kurucusu Jared Kaplan, “Claude’u OpenAI’ye satmamiz tuhaf olurdu” diye acikladi. Windsurf, BYOK’a (Bring Your Own Key) donmek ve Google Gemini’yi alternatif olarak tanitmak zorunda kaldi.

Google benzer bir donguden gecti. Gelistiriciler Google’in Antigravity IDE’sinden OAuth tokenlari cikarip Gemini modellerine ucretsiz erisim icin ucuncu taraf araclara enjekte ediyordu. Google bunu “guvenlik onlemlerinin atlatilmasi” altinda kullanim kosullari ihlali olarak nitelendirdi ve hesap yasaklari cikardi.

Kalip aciktir: AI sirketleri Apple’in oyun kitabini takip ediyor. Erken donem (2022’den 2024’e) acik API’ler ve ucuncu taraf entegrasyonlarini tesvik etmeyi iceriyordu. Mevcut donem ekosistem kilitlenmesine ve resmi araclara oncelik veriyor.

Araclar saglayicilardan ayrisiyor

Her kisitlama bir karsi trendi hizlandirir. Bu durumda: saglayici bagimsizligi.

Kendi Anthropic API anahtarinizi cogu araca getirebilirsiniz. Ancak bu konuyu kacirir. Anthropic fiyatlandirmayi degistirirse, erisimi kisitlarsa veya kullanim durumunuzun artik kosullarina uymadigina karar verirse bir API anahtari sizi korumaz. Gercek degisim, araclarin gercekten saglayicidan bagimsiz hale gelmesidir, boylece baska hicbir seyi degistirmeden temel modeli degistirebilirsiniz.

Bu zaten sektorun genelinde oluyor. OpenCode, Ocak engelinden saatler icinde her buyuk saglayiciyi desteklemeye gecti. Cline ve RooCode, gorev basina model degistirmenize izin veriyor. OpenRouter ve LiteLLM gibi gecitler modeli mimari bagimliligin yerine yapilandirma secenegi haline getiriyor.

Kalip her yerde ayni: model bir meta haline geliyor. Basarili olan araclar onu boyle ele alanlardir. OpenClaw basindan beri bu ilke uzerine insa edildi. Herhangi bir OpenAI uyumlu uc noktayla calisir, bu da bu listedeki neredeyse her modelle ve onlari sunan her saglayiciyla calistioi anlamina gelir.

Acik kaynakli modeller acioi kapatiyor

Anthropic’in kisitlamalari, tescilli kilitlenme icin mumkun olan en kotu zamanda geliyor.

Ocak 2025’te yayinlanan DeepSeek R1, acik agirlik modellerinin ust duzey muhakeme sunabilecegini kanitladi. Karsilastirmalarda GPT-4 ile eslesti ve %73 daha az maliyetliydi. “DeepSeek ani” birçok gelistiricinin OpenAI, Anthropic veya Google’dan gecmeden ust duzey performans elde edebileceklerini ilk kez fark ettigi andı.

Bu ay, acik kaynak peyzaji yeniden degisti:

  • GLM-5, Z AI’dan Subat 2026 acik kaynak siralamasinda lider, selef GLM-4.7’nin SWE-bench Verified’de %73,8 puan almasiyla. API fiyati: milyon giris/cikis tokeni basina 1,00 $/3,20 $.
  • Qwen 3.5 (Alibaba) gunler once yerel ajan yetenekleri, 201 dil destegi ve selefinden %60 daha dusuk isletme maliyetleriyle lansiran edildi. API fiyati: milyon token basina 0,40 $/2,40 $.
  • DeepSeek V3.2 artik LiveCodeBench’te %88,7 puan alan, MIT lisansi altinda yayinlanan “Speciale” varyantinda mevcut. API fiyati: milyon token basina 0,28 $/0,42 $.
  • Kimi K2.5 (Moonshot AI) AIME 2025’te %96 puan alarak cogu tescilli modeli matematkte geciyor. API fiyati: DeepInfra uzerinden milyon token basina 0,45 $/2,25 $.
  • Grok 3, Elon Musk tarafindan acik kaynak yayini icin onaylandi

Karsilastirma icin, Claude Sonnet milyon token basina 3 $/15 $ ve Claude Opus 5 $/25 $ maliyetindedir. En ucuz acik kaynak secenekleri 10 ila 50 kat daha ucuzdur.

Acik kaynak ve tescilli modeller arasindaki fark tek bir yilda 17,5’ten 0,3 MMLU puanina dusmustur. Acik kaynak modeller artik isletmelerin AI benimsemesiyle ilgili en buyuk iki endisesini karsiliyor: veri gizliligi ve maliyet ongorelemezligi. Ve OpenClaw herhangi bir OpenAI uyumlu uc noktayi destekledigi icin, ajaninizi bu modellerden herhangi birine bugun yonlendirebilirsiniz.

Bu OpenClaw icin ne anlama geliyor

Acik konusalim: OpenClaw.rocks bu yasaktan etkilenmemektedir.

Hicbir plan abonelik OAuth tokenlari kullanmaz. Light planinda, kendi API anahtarlarinizi getirip sectiginiz saglayiciya dogrudan baglanirsiniz. Pro planinda, Bifrost gecidiniz uzerinden yonlendirilen, tokenleri dahil onceden yapilandirilmis AI erisimi sagliyoruz. Her iki durumda da, ajaniniz sizin kontrol ettiginiz kendi ozel ornegi uzerinde calisir.

Saglayici degistirmek bir yapilandirma degisikligidir. Bugun DeepSeek V3.2’yi milyon giris tokeni basina 0,28 $‘a kullaniyorsunuz. Yarin Qwen daha iyi bir model yayinlar ve siz onu degistirirsiniz. Gelecek hafta Anthropic fiyatlarini dusurur ve Claude’u geri eklersiniz. Ajaniniz, verileriniz, konusma gecmisiniz: bunlarin hicbiri degismez. Sadece arkasindaki model.

Bir saglayici erisiminizi gece boyunca “onceden bildirimde bulunmaksizin” kisitlayabildiginde, hayatta kalan araclar ve platformlar tek bir saglayicinin iyi niyetine bagimli olmayanlardir. Bir HN yorumcusunun belirttigi gibi: tek bir kapali kaynak saglayicisi uzerine insa etmek “Oracle’i Postgres yerine secmenin AI esdegeri” olabilir.

Anthropic yasagi, etrafinda insa ettigimiz temel bir ilkeyi dogruluyor: AI kurulumunuzu siz kontrol etmelisiniz. Bu, ajaninizin sizin orneginizde calisması, API anahtarlarinizin size dolar basina en iyi performansi veren saglayiciya baglanmasi ve hicbir tek saglayicinin is akislarinizi kesememesi anlamina gelir.

Bundan sonra ne olacak

Uc tahmin:

1. Coklu saglayici standart haline gelir. Gelistiriciler zaten AI modellerini degistirilebilir bilesenler olarak ele aliyor. OpenAI uyumlu API, cogu saglayicinin artik destekledigi fiili bir standart haline geldi ve OpenRouter ve LiteLLM gibi gecitler modeller arasi gecisi tek satirlik yapilandirma degisikligi haline getiriyor. Araciniz herhangi bir saglayiciyla calistiginda, hicbir tek saglayicinin sizin uzerinizde etkisi yoktur.

2. Acik kaynak modeller guvenli secenek haline gelir. Tescilli bir saglayici erisiminizi gece boyunca iptal edebildiginde, DeepSeek, Qwen ve GLM gibi acik agirlik modelleri daha az bir uzlasma ve daha cok stratejik bir avantaj gibi gorumnmeye baslar. Bunlari kendi donaniminizda calistirebilir, herhangi bir cikarim saglayicisi araciligiyla barindirabilir veya aralarinda serbestce gecis yapabilirsiniz. Hicbir saglayici MIT lisansli bir modelin fisini cekemez.

3. Kendi ajanini calistirmak norm haline gelir. Secim, kosullari gece boyunca degistirebilen bir saglayiciya guvenmekle kontrol ettiginiz bir ornekte kendi AI ajanınızı calistirmak arasinda oldugunda, daha fazla ekip ikincisini sececektir. Ozellikle acik kaynak modeller yetenek acigini kapatmaya devam ettikce ve OpenClaw.rocks gibi platformlar bunu bir DevOps projesi yerine tek tiklamalik bir kurulum haline getirdikce.

Tek bir AI saglayicisinin iyi niyeti uzerine insa etme donemi sona eriyor. Onun yerini alan daha dayaniklidir: acik kaynak yazilim, saglayicidan bagimsiz mimari ve hicbir saglayicinin iptal edemeyecegi altyapi.

Uc onemli cikarim

  1. Claude abonelik OAuth tokenlarini ucuncu taraf araclarda kullaniyorsaniz, durdurun. Bu artik acikca Anthropic’in Kullanim Kosullarini ihlal ediyor ve hesabiniz isaretlenebilir. API anahtarlarina gecin (yogun kullanim icin 5x+ daha yuksek maliyetler bekleyin) veya tamamen farkli bir saglayiciya.

  2. AI bagimliklarinizi cesitlendirin. Yalnizca bir model saglayicisiyla calisan herhangi bir arac bir risktir. Is akislarini yeniden yazmadan modelleri degistirmenize izin veren cerceveler uzerine insa edin.

  3. Acik kaynak modelleri ve saglayicidan bagimsiz araclari secin. DeepSeek ve Qwen gibi acik agirlik modelleri Sali gunu sabah 2’de iptal edilemez. Bunlari saglayicilari serbestce degistirmenize izin veren bir aracla birlistirin. OpenClaw.rocks tam olarak bunun icin insa edildi.

Anthropic bir is karari verdi. Gerekceye katilabilir veya katilmayabilirsiniz. Ancak AI ile insa eden herkes icin ders aynidir: sahip olmadiginiz kapali zemin uzerine insa etmeyin.