Anthropic щойно зробив це офіційним. Нещодавно опублікована сторінка Legal and compliance в документації Claude Code каже це прямо:

“Using OAuth tokens obtained through Claude Free, Pro, or Max accounts in any other product, tool, or service — including the Agent SDK — is not permitted and constitutes a violation of the Consumer Terms of Service.”

Навіть власний Agent SDK Anthropic заборонений з токенами підписки. Якщо навіть їхній власний SDK не є винятком, то нічого не є.

Ця документація формалізує те, через що розробники проходять з січня. Але побачити це записаним чорним по білому, на спеціальній юридичній сторінці з чітким правозастосовчим формулюванням, сприймається інакше. Тема на Hacker News, яка сьогодні винесла цю сторінку на світло, вже повна розчарованих розробників, які знову піднімають ті самі аргументи шеститижневої давності.

Ось повна історія того, як ми тут опинились.

Технічне блокування: 9 січня

Письмова політика нова. Правозастосування ні.

9 січня 2026 року Anthropic впровадив серверні захисні механізми, які заблокували OAuth-токени підписки від роботи поза їхнім офіційним Claude Code CLI. Сторонні інструменти отримали єдине повідомлення про помилку: “This credential is only authorized for use with Claude Code and cannot be used for other API requests.”

Без попереднього повідомлення. Без публічного оголошення. Розробники, які використовували OpenCode, Roo Code, Cline та інші інструменти, прокинулись зі зламаними робочими процесами та почали повідомляти про проблеми.

OpenCode (тепер з понад 107 тисячами зірок на GitHub), найпопулярніша альтернатива Claude Code, був основною жертвою. Він підробляв ідентичність клієнта Claude Code через HTTP-заголовки, змушуючи сервери Anthropic вірити, що запити надходять від офіційного CLI.

Cline, RooCode та інші розширення IDE, які покладались на облікові дані підписки Claude, також перестали працювати.

Співробітники xAI, які використовували Claude через Cursor, втратили доступ. Окремо, співробітники OpenAI вже були заблоковані в серпні 2025 року, ймовірно, за порівняння GPT-5 з Claude.

Користувачі OpenClaw та NanoClaw, які маршрутизували через OAuth підписки (а не через API-ключі), також постраждали, хоча Anthropic пізніше уточнив, що “нічого не змінюється щодо того, як клієнти використовували свої акаунти, і Anthropic не скасовуватиме акаунти.”

Що не було зачеплено: стандартні користувачі API-ключів, інтеграції OpenRouter, усі, хто платить за токен. Блокування було спрямоване на OAuth-токени підписки, що використовувались поза власними додатками Anthropic.

Економіка за цим

Мотивація полягає у простій математиці.

МетодЩомісячна вартість (інтенсивне використання)
Підписка Max через Claude Code~200 $ фіксовано
Еквівалентне використання API1 000+ $

Підписка Claude Max за 200 $/місяць стає глибоко збитковою, коли користувачі маршрутизують агентні робочі процеси через сторонні інструменти, які знімають вбудовані обмеження. Ціна Claude Opus API становить 15 $ за мільйон вхідних токенів та 75 $ за мільйон вихідних токенів. Активний AI-агент, що працює на Opus, може спалювати мільйони токенів на день.

Проблема прискорилась, коли техніка “Ralph Wiggum” стала вірусною наприкінці 2025 року: розробники замикали Claude в автономних самовідновлювальних циклах, що працюють вночі, повертаючи невдачі назад у контекстне вікно, доки тести не пройдуть. Anthropic навіть випустив офіційний плагін Ralph Wiggum для Claude Code, бо всередині власного інструменту вони контролюють обмеження та збирають телеметрію. Проблемою були сторонні інструменти, що запускали ті самі цикли без цих захисних механізмів, спалюючи токени з такою швидкістю, яка робила фіксовані підписки глибоко збитковими.

Один коментатор на Hacker News підсумував це прямо: “За місяць використання Claude Code легко використати стільки LLM-токенів, що це коштувало б вам більше 1 000 $, якби ви платили через API.”

Передові моделі плюс агентні цикли плюс фіксоване ціноутворення не можуть співіснувати. Щось мало поступитись.

Від технічного блокування до офіційної політики

Січневе блокування було хаотичним. Thariq Shihipar з Anthropic визнав, що деякі акаунти були “автоматично заблоковані за спрацювання фільтрів зловживань,” помилку, яку компанія виправила. Компанія представила правозастосування як спрямоване проти інструментів, які “підробляли офіційний клієнт,” але не було документації, яка б це підтверджувала. Лише серверний перемикач та коротке повідомлення про помилку.

Реакція була гострою. David Heinemeier Hansson (DHH), творець Ruby on Rails, назвав це “дуже ворожим до клієнтів”. George Hotz (geohot) опублікував “Anthropic робить величезну помилку”, стверджуючи, що обмеження “не переведуть людей назад на Claude Code, а переведуть їх на інших постачальників моделей.” Gergely Orosz, автор The Pragmatic Engineer, зробив висновок, що Anthropic “задоволений тим, що навколо Claude практично немає екосистеми.”

Протягом кількох годин накопичилось 147+ реакцій на GitHub-тікетах та 245+ балів на Hacker News. AWS Hero AJ Stuyvenberg дотепно зауважив: “Вони швидко пробігають шлях від стартапу, якому можна пробачити, до огидної корпорації ще до будь-якого exit!”

Не всі були незгодні. Розробник Artem K зауважив, що блокування було “найм’якшим з можливих,” вказуючи, що це було “лише ввічливе повідомлення замість знищення вашого акаунту або ретроактивного виставлення рахунків за API-цінами.” Інші стверджували, що OpenCode від самого початку порушував умови використання підробкою ідентичності клієнта.

Тепер, шість тижнів потому, Anthropic опублікував офіційну документацію, яка кодифікує те, що серверне блокування вже впроваджувало. Сторінка проводить чітку лінію: OAuth-автентифікація “призначена виключно для Claude Code та Claude.ai.” Все інше вимагає API-ключів через Claude Console з оплатою за токен. Anthropic також залишає за собою право на правозастосування “без попереднього повідомлення.”

Сьогоднішня реакція на Hacker News свідчить про те, що рана не загоїлась. Розробники читають документацію не як роз’яснення, а як підтвердження: закритий сад є постійним.

Це готувалось давно

Січневе блокування не було першим кроком.

У червні 2025 року Anthropic обмежив майже весь прямий доступ Windsurf до моделей Claude з менш ніж тижневим попередженням, після того як з’явились чутки, що OpenAI купує Windsurf. Співзасновник Anthropic Jared Kaplan пояснив, що було б “дивно для нас продавати Claude OpenAI.” Windsurf був змушений перейти на BYOK (Bring Your Own Key) та просувати Google Gemini як альтернативу.

Google пройшов через подібний цикл. Розробники витягували OAuth-токени з Antigravity IDE Google та вводили їх у сторонні інструменти для безкоштовного доступу до моделей Gemini. Google охарактеризував це як порушення умов використання за “обхід заходів безпеки” та видав блокування акаунтів.

Патерн є чітким: AI-компанії дотримуються підручника Apple. Рання ера (2022 до 2024) включала відкриті API та заохочення інтеграцій третіх сторін. Поточна ера надає пріоритет замиканню в екосистемі та офіційним інструментам.

Інструменти відокремлюються від постачальників

Кожне обмеження прискорює зворотний тренд. У цьому випадку: незалежність від постачальника.

Ви все ще можете принести свій власний API-ключ Anthropic до більшості інструментів. Але це не вловлює суть. API-ключ не захищає вас, якщо Anthropic змінить ціни, обмежить доступ або вирішить, що ваш варіант використання більше не відповідає їхнім умовам. Справжня зміна полягає в тому, що інструменти стають справді незалежними від постачальника, щоб ви могли замінити базову модель, не змінюючи нічого іншого.

Це вже відбувається по всій індустрії. OpenCode розвернувся протягом кількох годин після січневого блокування на підтримку кожного великого постачальника. Cline та RooCode дозволяють перемикати моделі для кожного завдання. Шлюзи, такі як OpenRouter та LiteLLM, роблять модель опцією конфігурації, а не архітектурною залежністю.

Патерн скрізь однаковий: модель стає товаром. Інструменти, які процвітають, це ті, що ставляться до неї саме так. OpenClaw був побудований на цьому принципі від самого початку. Він працює з будь-якою OpenAI-сумісною кінцевою точкою, що означає, що він працює практично з кожною моделлю в цьому списку та кожним постачальником, який їх обслуговує.

Моделі з відкритим кодом скорочують розрив

Обмеження Anthropic з’являються у найгірший можливий час для пропрієтарного замикання.

DeepSeek R1, випущений у січні 2025 року, довів, що моделі з відкритими вагами можуть забезпечити міркування на рівні найпередовіших моделей. Він зрівнявся з GPT-4 на бенчмарках, коштуючи на 73% менше. “Момент DeepSeek” був першим разом, коли багато розробників усвідомили, що можуть отримати найвищу продуктивність без OpenAI, Anthropic чи Google.

Саме цього місяця ландшафт відкритого коду знову змінився:

  • GLM-5 від Z AI очолює рейтинг відкритого коду за лютий 2026, з попередником GLM-4.7, який набирає 73,8% на SWE-bench Verified. Ціна API: 1,00 $/3,20 $ за мільйон вхідних/вихідних токенів.
  • Qwen 3.5 (Alibaba) запущений кілька днів тому з вбудованими агентними можливостями, підтримкою 201 мови та на 60% нижчими операційними витратами порівняно з попередником. Ціна API: 0,40 $/2,40 $ за мільйон токенів.
  • DeepSeek V3.2 тепер доступний у варіанті “Speciale” з результатом 88,7% на LiveCodeBench, випущений під ліцензією MIT. Ціна API: 0,28 $/0,42 $ за мільйон токенів.
  • Kimi K2.5 (Moonshot AI) набирає 96% на AIME 2025, перевершуючи більшість пропрієтарних моделей у математиці. Ціна API: 0,45 $/2,25 $ за мільйон токенів через DeepInfra.
  • Grok 3 підтверджений для випуску з відкритим кодом Ілоном Маском

Для порівняння, Claude Sonnet коштує 3 $/15 $ за мільйон токенів, а Claude Opus 5 $/25 $. Найдешевші варіанти з відкритим кодом у 10-50 разів дешевші.

Розрив між моделями з відкритим кодом та пропрієтарними скоротився з 17,5 до 0,3 балів MMLU за один рік. Моделі з відкритим кодом тепер відповідають на дві найбільші занепокоєння підприємств щодо впровадження AI: конфіденційність даних та непередбачуваність витрат. І оскільки OpenClaw підтримує будь-яку OpenAI-сумісну кінцеву точку, ви можете спрямувати свого агента на будь-яку з цих моделей вже сьогодні.

Що це означає для OpenClaw

Будемо прямими: OpenClaw.rocks не зачеплений цією забороною.

Жоден план не використовує OAuth-токени підписки. На плані Light ви приносите свої API-ключі та підключаєтесь безпосередньо до обраного постачальника. На плані Pro ми надаємо попередньо налаштований AI-доступ з включеними токенами, маршрутизований через наш шлюз Bifrost. В обох випадках ваш агент працює на власному виділеному екземплярі, яким ви керуєте.

Зміна постачальника це зміна конфігурації. Сьогодні ви використовуєте DeepSeek V3.2 за 0,28 $ за мільйон вхідних токенів. Завтра Qwen випускає кращу модель, і ви її замінюєте. Наступного тижня Anthropic знижує ціни, і ви повертаєте Claude. Ваш агент, ваші дані, ваша історія розмов: нічого з цього не змінюється. Тільки модель позаду.

Коли постачальник може обмежити ваш доступ за одну ніч “без попереднього повідомлення,” інструменти та платформи, які виживають, це ті, що не залежать від доброї волі одного постачальника. Як один коментатор на HN сказав: будувати на одному постачальнику закритого коду може бути “AI-еквівалентом вибору Oracle замість Postgres.”

Заборона Anthropic підтверджує основний принцип, навколо якого ми будували: ви повинні контролювати свою AI-інфраструктуру. Це означає, що ваш агент працює на вашому екземплярі, ваші API-ключі підключаються до постачальника, який дає вам найкращу продуктивність за долар, і жоден окремий постачальник не може перервати ваші робочі процеси.

Що буде далі

Три прогнози:

1. Використання кількох постачальників стає стандартом. Розробники вже ставляться до AI-моделей як до замінних компонентів. OpenAI-сумісний API став де-факто стандартом, який більшість постачальників тепер підтримує, а шлюзи, такі як OpenRouter та LiteLLM, роблять перемикання між моделями зміною одного рядка конфігурації. Коли ваш інструмент працює з будь-яким постачальником, жоден окремий постачальник не має важелів впливу на вас.

2. Моделі з відкритим кодом стають безпечним вибором. Коли пропрієтарний постачальник може скасувати ваш доступ за одну ніч, моделі з відкритими вагами, такі як DeepSeek, Qwen та GLM, починають виглядати менше як компроміс і більше як стратегічна перевага. Ви можете запускати їх на власному обладнанні, розміщувати через будь-якого постачальника інференсу або вільно перемикатись між ними. Жоден постачальник не може висмикнути штепсель з моделі з ліцензією MIT.

3. Запуск власного агента стає нормою. Коли вибір стоїть між довірою до постачальника, який може змінити умови за одну ніч, та запуском власного AI-агента на екземплярі, яким ви керуєте, все більше команд обиратимуть останнє. Особливо коли моделі з відкритим кодом продовжують скорочувати розрив у можливостях, а платформи, такі як OpenClaw.rocks, роблять це налаштуванням в один клік замість DevOps-проєкту.

Ера побудови на доброму ставленні одного AI-постачальника завершується. Те, що її замінює, є більш стійким: програмне забезпечення з відкритим кодом, архітектура, незалежна від постачальника, та інфраструктура, яку жоден постачальник не може скасувати.

Три головні висновки

  1. Якщо ви використовуєте OAuth-токени підписки Claude в сторонніх інструментах, припиніть. Це тепер прямо порушує Умови обслуговування Anthropic, і ваш акаунт може бути позначений. Перейдіть на API-ключі (очікуйте 5x+ вищі витрати для інтенсивного використання) або на повністю іншого постачальника.

  2. Диверсифікуйте свої AI-залежності. Будь-який інструмент, який працює лише з одним постачальником моделей, є ризиком. Будуйте на фреймворках, які дозволяють міняти моделі без переписування робочих процесів.

  3. Обирайте моделі з відкритим кодом та інструменти, незалежні від постачальника. Моделі з відкритими вагами, такі як DeepSeek та Qwen, не можуть бути скасовані у вівторок о 2-й ночі. Поєднуйте їх з інструментом, який дозволяє вільно міняти постачальників. OpenClaw.rocks був створений саме для цього.

Anthropic прийняв бізнес-рішення. Ви можете погоджуватись або не погоджуватись з аргументацією. Але урок для всіх, хто будує з AI, однаковий: не будуйте на закритому ґрунті, який вам не належить.