Anthropic забрани инструментите на трети страни. Ето какво означава това.
Anthropic току-що го направи официално. Новопубликувана страница за правни въпроси и съответствие в документацията на Claude Code го казва черно на бяло:
“Using OAuth tokens obtained through Claude Free, Pro, or Max accounts in any other product, tool, or service — including the Agent SDK — is not permitted and constitutes a violation of the Consumer Terms of Service.”
Дори собственият Agent SDK на Anthropic е забранен с абонаментни токени. Ако собственият им SDK не е изключение, нищо не е.
Тази документация формализира това, което разработчиците изживяват от януари. Но да го видиш написано, на специална правна страница с изрични формулировки за прилагане, въздейства по различен начин. Темата в Hacker News, която извади страницата на бял свят днес, вече е пълна с разочаровани разработчици, които повтарят същите аргументи от преди шест седмици.
Ето пълната история на това как стигнахме дотук.
Техническото блокиране: 9 януари
Писаната политика е нова. Прилагането не е.
На 9 януари 2026 г. Anthropic внедри сървърни защити, които блокираха абонаментните OAuth токени извън официалния им CLI Claude Code. Инструментите на трети страни получаваха едно единствено съобщение за грешка: “This credential is only authorized for use with Claude Code and cannot be used for other API requests.”
Без предварително известие. Без публично обявление. Разработчиците на OpenCode, Roo Code, Cline и други инструменти се събудиха с неработещи работни процеси и започнаха да отварят доклади за проблеми.
OpenCode (вече с над 107 000 звезди в GitHub), най-популярната алтернатива на Claude Code, беше основната жертва. Той фалшифицираше клиентската идентичност на Claude Code чрез HTTP заглавки, карайки сървърите на Anthropic да вярват, че заявките идват от официалния CLI.
Cline, RooCode и други разширения за IDE, които разчитаха на абонаментните данни за вход на Claude, също спряха да работят.
Служителите на xAI, използващи Claude чрез Cursor, загубиха достъп. Отделно, служители на OpenAI бяха блокирани още през август 2025 г., предполагаемо заради бенчмаркове на GPT-5 срещу Claude.
Потребителите на OpenClaw и NanoClaw, които маршрутизираха чрез абонаментен OAuth (вместо API ключове), също бяха засегнати, въпреки че Anthropic по-късно уточни, че „нищо не се променя в начина, по който клиентите са използвали акаунта си, и Anthropic няма да отменя акаунти.”
Какво не беше засегнато: потребителите на стандартни API ключове, интеграциите с OpenRouter, всеки, който плащаше на токен. Блокирането бе насочено към абонаментни OAuth токени, използвани извън собствените приложения на Anthropic.
Икономиката зад решението
Мотивацията е проста аритметика.
| Метод | Месечна цена (интензивна употреба) |
|---|---|
| Max абонамент чрез Claude Code | ~200 $ фиксирано |
| Еквивалентна употреба на API | 1 000 $+ |
Абонаментът Claude Max за 200 $/месец става дълбоко нерентабилен, когато потребителите маршрутизират агентни натоварвания чрез инструменти на трети страни, които заобикалят вградените ограничения на скоростта. Claude Opus чрез API струва 15 $ за милион входни токени и 75 $ за милион изходни токени. Активен AI агент, работещ с Opus, може да изразходва милиони токени на ден.
Проблемът се ускори, когато техниката „Ralph Wiggum” стана вирусна в края на 2025 г.: разработчици, затварящи Claude в автономни самовъзстановяващи се цикли, които работят през нощта и подават грешките обратно в контекстния прозорец, докато тестовете преминат. Anthropic дори пусна официален плъгин Ralph Wiggum за Claude Code, защото в рамките на собствения си инструмент контролират ограниченията на скоростта и събират телеметрия. Проблемът бяха инструментите на трети страни, изпълняващи същите цикли без тези предпазни мерки, изгаряйки токени с темпо, което правеше абонаментите с фиксирана цена дълбоко нерентабилни.
Един коментатор в Hacker News обобщи директно: „За един месец Claude Code е лесно да се използват толкова LLM токени, че това щеше да ви струва повече от 1 000 $, ако бяхте плащали чрез API.”
Водещи модели плюс агентни цикли плюс фиксирано ценообразуване не могат да съществуват заедно. Нещо трябваше да отстъпи.
От техническо блокиране до официална политика
Блокирането през януари беше хаотично. Thariq Shihipar от Anthropic призна, че някои акаунти бяха „автоматично блокирани, защото задействаха филтри срещу злоупотреба”, грешка, която компанията коригира. Компанията представи прилагането като насочено срещу инструменти, които „фалшифицираха официалния клиент”, но нямаше документация в подкрепа на това. Само сървърен превключвател и лаконично съобщение за грешка.
Реакцията беше остра. David Heinemeier Hansson (DHH), създателят на Ruby on Rails, нарече това „много враждебно към клиентите”. George Hotz (geohot) публикува „Anthropic is making a huge mistake”, аргументирайки, че ограниченията „няма да обърнат хората обратно към Claude Code, ще ги обърнат към други доставчици на модели.” Gergely Orosz, автор на The Pragmatic Engineer, заключи, че Anthropic „е доволна, че няма почти никаква екосистема около Claude.”
В рамките на часове се натрупаха над 147 реакции по GitHub issues и над 245 точки в Hacker News. AWS Hero AJ Stuyvenberg коментира: „Те правят спийдрън на пътешествието от простим стартъп до ненавиждана корпорация, преди да има какъвто и да е exit!”
Не всички бяха несъгласни. Разработчикът Artem K отбеляза, че мярката е била „най-меката възможна”, посочвайки, че е била „само учтиво съобщение вместо изтриване на акаунта ви или ретроактивно таксуване на API цени.” Други аргументираха, че OpenCode нарушаваше условията за ползване от самото начало, като фалшифицираше клиентски идентичности.
Сега, шест седмици по-късно, Anthropic публикува официалната документация, която кодифицира това, което сървърното блокиране вече прилагаше. Страницата прекарва твърда линия: OAuth удостоверяването е „предназначено изключително за Claude Code и Claude.ai.” Всичко друго изисква API ключове чрез Claude Console, таксувани на токен. Anthropic също запазва правото да прилага „без предварително уведомление.”
Днешната реакция в Hacker News предполага, че раната не е зараснала. Разработчиците четат документацията не като изясняване, а като потвърждение: оградената градина е постоянна.
Това се подготвяше от известно време
Блокирането през януари не беше първата стъпка.
През юни 2025 г. Anthropic отряза почти целия директен достъп на Windsurf до моделите Claude с по-малко от седмица предизвестие, след като се появиха слухове, че OpenAI придобива Windsurf. Съосновател на Anthropic Jared Kaplan обясни, че би било „странно за нас да продаваме Claude на OpenAI.” Windsurf беше принуден да премине към BYOK (Bring Your Own Key) и да рекламира Google Gemini като алтернатива.
Google премина през подобен цикъл. Разработчиците бяха извличали OAuth токени от IDE Antigravity на Google и ги инжектираха в инструменти на трети страни за безплатен достъп до моделите Gemini. Google характеризира това като нарушение на условията за ползване под „заобикаляне на мерките за сигурност” и наложи забрани на акаунти.
Моделът е ясен: AI компаниите следват наръчника на Apple. Ранната ера (2022 до 2024 г.) предлагаше отворени API и насърчаваше интеграции на трети страни. Настоящата ера приоритизира заключването на екосистемата и официалните инструменти.
Инструментите се отделят от доставчиците
Всяко ограничение ускорява обратна тенденция. В този случай: независимост от доставчика.
Все още можете да донесете собствения си Anthropic API ключ в повечето инструменти. Но това не е същественото. API ключът не Ви защитава, ако Anthropic промени цените, ограничи достъпа или реши, че Вашият случай на употреба повече не отговаря на техните условия. Истинската промяна е, че инструментите стават наистина агностични спрямо доставчика, така че можете да смените основния модел, без да променяте нищо друго.
Това вече се случва в цялата индустрия. OpenCode се преориентира в рамките на часове след януарското блокиране, за да поддържа всички основни доставчици. Cline и RooCode Ви позволяват да сменяте модели за всяка задача. Шлюзове като OpenRouter и LiteLLM правят модела конфигурационна опция, а не архитектурна зависимост.
Моделът е навсякъде еднакъв: моделът се превръща в заменяем входен ресурс. Инструментите, които процъфтяват, са тези, които го третират като такъв. OpenClaw беше изграден на този принцип от самото начало. Работи с всеки OpenAI-съвместим endpoint, което означава, че работи с почти всеки модел в този списък и всеки доставчик, който ги предоставя.
Моделите с отворен код затварят разликата
Ограниченията на Anthropic идват в най-лошия възможен момент за проприетарното заключване.
DeepSeek R1, пуснат през януари 2025 г., доказа, че моделите с отворени тегла могат да предоставят разсъждения на водещо ниво. Изравни се с GPT-4 на бенчмаркове, като струваше 73% по-малко. „Моментът DeepSeek” беше първият път, когато много разработчици осъзнаха, че могат да получат върхова производителност, без да минават през OpenAI, Anthropic или Google.
Точно този месец пейзажът с отворен код се промени отново:
- GLM-5 от Z AI оглавява класациите с отворен код за февруари 2026 г., като предшественикът GLM-4.7 достига 73,8% на SWE-bench Verified. Цени на API: 1,00 $/3,20 $ за милион входни/изходни токени.
- Qwen 3.5 (Alibaba) стартира преди няколко дни с вградени агентни възможности, поддръжка на 201 езика и 60% по-ниски оперативни разходи от предшественика. Цени на API: 0,40 $/2,40 $ за милион токени.
- DeepSeek V3.2 вече се предлага във вариант „Speciale” с 88,7% на LiveCodeBench, пуснат под лиценз MIT. Цени на API: 0,28 $/0,42 $ за милион токени.
- Kimi K2.5 (Moonshot AI) достига 96% на AIME 2025, надминавайки повечето проприетарни модели по математика. Цени на API: 0,45 $/2,25 $ за милион токени чрез DeepInfra.
- Grok 3 е потвърден за издание с отворен код от Elon Musk
За сравнение, Claude Sonnet струва 3 $/15 $ за милион токени, а Claude Opus струва 5 $/25 $. Най-евтините варианти с отворен код са 10 до 50 пъти по-евтини.
Разликата между моделите с отворен код и проприетарните модели се свива от 17,5 до 0,3 точки MMLU за една единствена година. Моделите с отворен код вече адресират двете най-големи корпоративни притеснения относно приемането на AI: поверителността на данните и непредвидимостта на разходите. А тъй като OpenClaw поддържа всеки OpenAI-съвместим endpoint, можете да насочите агента си към всеки от тези модели още днес.
Какво означава това за OpenClaw
Нека бъдем директни: OpenClaw.rocks не е засегнат от тази забрана.
Нито един план не използва абонаментни OAuth токени. В плана Light донасяте собствените си API ключове и се свързвате директно с доставчика по Ваш избор. В плана Pro предоставяме предварително конфигуриран AI достъп с включени токени, маршрутизирани през нашия шлюз Bifrost. И в двата случая Вашият агент работи на собствена специализирана инстанция, която Вие контролирате.
Смяната на доставчик е промяна на конфигурацията. Днес използвате DeepSeek V3.2 за 0,28 $ за милион входни токени. Утре Qwen пуска по-добър модел и Вие го сменяте. Следващата седмица Anthropic намалява цените и Вие добавяте Claude обратно. Вашият агент, данните Ви, историята на разговорите Ви: нищо от това не се променя. Променя се само моделът зад всичко.
Когато доставчик може да ограничи достъпа Ви за една нощ „без предварително уведомление”, инструментите и платформите, които оцеляват, са тези, които не зависят от добрата воля на един доставчик. Както един HN коментатор го формулира: изграждането върху един-единствен доставчик на затворен код може да е „AI еквивалентът на избирането на Oracle вместо Postgres.”
Забраната на Anthropic потвърждава основен принцип, около който сме изградили решението си: Вие трябва да контролирате Вашата AI настройка. Това означава, че агентът Ви работи на Вашата инстанция, API ключовете Ви се свързват с доставчика, който предлага най-доброто съотношение производителност за долар, и нито един отделен доставчик не може да спре работните Ви процеси.
Какво ще се случи след това
Три прогнози:
1. Мулти-доставчикът става стандарт. Разработчиците вече третират AI моделите като взаимозаменяеми компоненти. OpenAI-съвместимото API стана де факто стандарт, който повечето доставчици вече поддържат, а шлюзове като OpenRouter и LiteLLM правят превключването между модели едноредова промяна на конфигурацията. Когато инструментът Ви работи с всеки доставчик, нито един продавач няма лост върху Вас.
2. Моделите с отворен код стават безопасният залог. Когато проприетарен доставчик може да отнеме достъпа Ви за една нощ, моделите с отворени тегла като DeepSeek, Qwen и GLM изглеждат по-малко като компромис и повече като стратегическо предимство. Можете да ги стартирате на собствен хардуер, да ги хоствате чрез всеки доставчик на извод или свободно да превключвате между тях. Нито един доставчик не може да изключи модел с лиценз MIT.
3. Управлението на собствен агент става нормата. Когато изборът е между доверие на доставчик, който може да промени условията за една нощ, и управление на собствен AI агент на инстанция, която контролирате, все повече екипи ще изберат второто. Особено когато моделите с отворен код продължават да затварят разликата във възможностите и платформи като OpenClaw.rocks превръщат това в настройка с едно кликване вместо DevOps проект.
Ерата на изграждане върху добрата воля на един AI доставчик свършва. Това, което я заменя, е по-устойчиво: софтуер с отворен код, архитектура, агностична спрямо доставчика, и инфраструктура, която нито един продавач не може да отнеме.
Три извода за запомняне
-
Ако използвате абонаментни OAuth токени на Claude в инструменти на трети страни, спрете. Сега изрично нарушава условията за ползване на Anthropic и акаунтът Ви може да бъде маркиран. Преминете към API ключове (очаквайте 5 пъти и повече по-високи разходи при интензивна употреба) или към напълно различен доставчик.
-
Диверсифицирайте AI зависимостите си. Всеки инструмент, който работи само с един доставчик на модели, е риск. Изграждайте върху рамки, които Ви позволяват да сменяте модели, без да пренаписвате работни процеси.
-
Изберете модели с отворен код и инструменти, агностични спрямо доставчика. Моделите с отворени тегла като DeepSeek и Qwen не могат да бъдат отнети във вторник в 2 часа сутринта. Съчетайте ги с инструмент, който Ви позволява свободно да сменяте доставчици. OpenClaw.rocks беше създаден точно за това.
Anthropic взе бизнес решение. Можете да се съгласите или да не се съгласите с обосновката. Но урокът за всички, които изграждат с AI, е един и същ: не изграждайте върху проприетарна земя, която не притежавате.