Anthropic hat es jetzt offiziell gemacht. Eine neu veröffentlichte Seite zu Recht und Compliance in der Claude Code Dokumentation formuliert es unmissverständlich:

“Using OAuth tokens obtained through Claude Free, Pro, or Max accounts in any other product, tool, or service — including the Agent SDK — is not permitted and constitutes a violation of the Consumer Terms of Service.”

Sogar Anthropics eigenes Agent SDK ist mit Abonnement-Tokens tabu. Wenn nicht einmal ihr eigenes SDK eine Ausnahme bekommt, dann gilt das für niemanden.

Diese Dokumentation formalisiert, was Entwickler seit Januar erleben. Aber es schwarz auf weiß zu sehen, auf einer eigenen Rechtsseite mit ausdrücklicher Durchsetzungssprache, trifft anders. Der Hacker News Thread, der die Seite heute ans Licht gebracht hat, ist bereits voller frustrierter Entwickler, die dieselben Argumente wie vor sechs Wochen erneut aufwärmen.

Hier ist die vollständige Geschichte, wie es dazu kam.

Die technische Blockade: 9. Januar

Die schriftliche Richtlinie ist neu. Die Durchsetzung nicht.

Am 9. Januar 2026 implementierte Anthropic serverseitige Schutzmaßnahmen, die OAuth-Tokens aus Abonnements außerhalb ihres offiziellen Claude Code CLI blockierten. Drittanbieter-Tools erhielten eine einzige Fehlermeldung: “This credential is only authorized for use with Claude Code and cannot be used for other API requests.”

Keine Vorankündigung. Keine öffentliche Mitteilung. Entwickler bei OpenCode, Roo Code, Cline und anderen Tools wachten mit defekten Workflows auf und begannen, Issues zu erstellen.

OpenCode (mittlerweile über 107.000 GitHub Stars), die beliebteste Alternative zu Claude Code, war das Hauptopfer. Es hatte die Client-Identität von Claude Code über HTTP-Header gefälscht, sodass Anthropics Server glaubten, die Anfragen kämen vom offiziellen CLI.

Cline, RooCode und andere IDE-Erweiterungen, die auf Claude-Abonnement-Anmeldedaten aufsetzten, fielen ebenfalls aus.

xAI-Mitarbeiter, die Claude über Cursor nutzten, verloren den Zugang. Separat davon waren OpenAI-Mitarbeiter bereits im August 2025 blockiert worden, Berichten zufolge wegen Benchmarking von GPT-5 gegen Claude.

OpenClaw- und NanoClaw-Nutzer, die über Abonnement-OAuth (statt API-Schlüssel) routeten, waren ebenfalls betroffen, obwohl Anthropic später klarstellte, dass „nichts sich daran ändert, wie Kunden ihr Konto genutzt haben, und Anthropic keine Konten kündigen wird.”

Was nicht betroffen war: reguläre API-Schlüssel-Nutzer, OpenRouter-Integrationen, alle, die pro Token bezahlen. Die Blockade zielte auf OAuth-Tokens aus Abonnements, die außerhalb von Anthropics eigenen Apps verwendet wurden.

Die wirtschaftlichen Hintergründe

Die Motivation ist schlichte Mathematik.

MethodeMonatliche Kosten (Intensivnutzung)
Max-Abonnement über Claude Code~200 $ pauschal
Äquivalente API-Nutzung1.000 $+

Ein Claude Max Abonnement für 200 $/Monat wird zutiefst unprofitabel, wenn Nutzer agentische Workloads über Drittanbieter-Tools routen, die die eingebauten Ratenlimits umgehen. Claude Opus kostet über die API 15 $ pro Million Eingabe-Tokens und 75 $ pro Million Ausgabe-Tokens. Ein aktiver KI-Agent mit Opus kann Millionen von Tokens pro Tag verbrauchen.

Das Problem beschleunigte sich, als die “Ralph Wiggum”-Technik Ende 2025 viral ging: Entwickler fingen Claude in autonomen, selbstheilenden Schleifen ein, die über Nacht laufen und Fehler zurück in das Kontextfenster einspeisen, bis die Tests bestehen. Anthropic hat sogar ein offizielles Ralph Wiggum Plugin für Claude Code ausgeliefert, weil sie innerhalb ihres eigenen Tools die Ratenlimits kontrollieren und Telemetrie sammeln. Das Problem waren Drittanbieter-Tools, die dieselben Schleifen ohne diese Leitplanken liefen ließen und Tokens in einem Tempo verbrauchten, das Pauschalabonnements zutiefst unprofitabel machte.

Ein Hacker News Kommentator brachte es auf den Punkt: „In einem Monat Claude Code kann man leicht so viele LLM-Tokens verbrauchen, dass es einen über 1.000 $ gekostet hätte, wenn man über die API bezahlt hätte.”

Frontier-Modelle plus agentische Schleifen plus Pauschalpreise können nicht koexistieren. Irgendwo musste es nachgeben.

Von technischer Blockade zur offiziellen Richtlinie

Die Blockade im Januar war chaotisch. Anthropics Thariq Shihipar räumte ein, dass einige Konten „automatisch gesperrt wurden, weil sie Missbrauchsfilter ausgelöst hatten”, ein Fehler, den das Unternehmen rückgängig machte. Das Unternehmen stellte die Durchsetzung als Maßnahme gegen Tools dar, die „den offiziellen Client fälschten”, aber es gab keine Dokumentation, die das stützte. Nur ein serverseitiger Schalter und eine knappe Fehlermeldung.

Die Gegenreaktion war heftig. David Heinemeier Hansson (DHH), der Erfinder von Ruby on Rails, nannte es „sehr kundenfeindlich”. George Hotz (geohot) veröffentlichte „Anthropic is making a huge mistake” und argumentierte, die Einschränkungen „werden die Leute nicht zurück zu Claude Code konvertieren, sondern zu anderen Modellanbietern.” Gergely Orosz, Autor von The Pragmatic Engineer, folgerte, dass Anthropic „zufrieden damit ist, praktisch kein Ökosystem rund um Claude zu haben.”

Innerhalb von Stunden sammelten sich über 147 Reaktionen auf GitHub Issues und über 245 Punkte auf Hacker News. AWS Hero AJ Stuyvenberg kommentierte: „Sie speedrunnen die Reise vom verzeihlichen Startup zum verhassten Konzern, bevor es überhaupt einen Exit gibt!”

Nicht alle waren anderer Meinung. Der Entwickler Artem K bemerkte, das Vorgehen sei „so sanft wie möglich gewesen” und wies darauf hin, es sei „nur eine höfliche Nachricht, anstatt Ihr Konto zu löschen oder rückwirkend API-Preise zu berechnen.” Andere argumentierten, dass OpenCode von Anfang an gegen die Nutzungsbedingungen verstoßen habe, indem es Client-Identitäten fälschte.

Nun, sechs Wochen später, hat Anthropic die offizielle Dokumentation veröffentlicht, die kodifiziert, was die serverseitige Blockade bereits durchgesetzt hatte. Die Seite zieht eine klare Linie: OAuth-Authentifizierung ist „ausschließlich für Claude Code und Claude.ai vorgesehen.” Alles andere erfordert API-Schlüssel über die Claude Console, abgerechnet pro Token. Anthropic behält sich außerdem das Recht vor, „ohne Vorankündigung” durchzusetzen.

Die heutige Reaktion auf Hacker News zeigt, dass die Wunde nicht verheilt ist. Entwickler lesen die Dokumentation nicht als Klarstellung, sondern als Bestätigung: Der geschlossene Garten ist dauerhaft.

Das hat sich schon länger abgezeichnet

Die Blockade im Januar war nicht der erste Schritt.

Im Juni 2025 kappte Anthropic fast den gesamten Direktzugang von Windsurf zu Claude-Modellen mit weniger als einer Woche Vorlaufzeit, nachdem Gerüchte aufkamen, dass OpenAI Windsurf übernehmen wolle. Anthropic-Mitgründer Jared Kaplan erklärte, es wäre „merkwürdig für uns, Claude an OpenAI zu verkaufen.” Windsurf war gezwungen, auf BYOK (Bring Your Own Key) umzuschwenken und Google Gemini als Alternative zu bewerben.

Google durchlief einen ähnlichen Zyklus. Entwickler hatten OAuth-Tokens aus Googles Antigravity IDE extrahiert und in Drittanbieter-Tools injiziert, um kostenlosen Zugang zu Gemini-Modellen zu erhalten. Google stufte dies als Verstoß gegen die Nutzungsbedingungen unter „Umgehung von Sicherheitsmaßnahmen” ein und verhängte Kontosperren.

Das Muster ist klar: KI-Unternehmen folgen dem Apple-Spielbuch. Die frühe Ära (2022 bis 2024) bot offene APIs und förderte Integrationen von Drittanbietern. Die aktuelle Ära priorisiert Ökosystem-Lock-in und offizielle Tools.

Tools entkoppeln sich von Anbietern

Jede Einschränkung beschleunigt einen Gegentrend. In diesem Fall: Anbieterunabhängigkeit.

Sie können weiterhin Ihren eigenen Anthropic API-Schlüssel in den meisten Tools verwenden. Aber das verfehlt den Punkt. Ein API-Schlüssel schützt Sie nicht, wenn Anthropic die Preise ändert, den Zugang einschränkt oder entscheidet, dass Ihr Anwendungsfall nicht mehr in ihre Bedingungen passt. Die eigentliche Verschiebung besteht darin, dass Tools wirklich anbieteragnostisch werden, sodass Sie das zugrunde liegende Modell wechseln können, ohne irgendetwas anderes zu ändern.

Das passiert bereits in der gesamten Branche. OpenCode schwenkte innerhalb von Stunden nach der Januar-Blockade auf die Unterstützung aller großen Anbieter um. Cline und RooCode lassen Sie Modelle pro Aufgabe wechseln. Gateways wie OpenRouter und LiteLLM machen das Modell zu einer Konfigurationsoption statt einer architekturellen Abhängigkeit.

Das Muster ist überall dasselbe: Das Modell wird zu einem austauschbaren Input. Die Tools, die florieren, sind die, die es als solchen behandeln. OpenClaw wurde von Anfang an nach diesem Prinzip gebaut. Es funktioniert mit jedem OpenAI-kompatiblen Endpunkt, was bedeutet, dass es mit nahezu jedem Modell auf dieser Liste und jedem Anbieter, der sie bereitstellt, funktioniert.

Open-Source-Modelle holen auf

Anthropics Einschränkungen kommen zum denkbar schlechtesten Zeitpunkt für proprietäres Lock-in.

DeepSeek R1, veröffentlicht im Januar 2025, bewies, dass Open-Weight-Modelle Frontier-Level-Reasoning liefern können. Es erreichte GPT-4 in Benchmarks und kostete dabei 73 % weniger. Der „DeepSeek-Moment” war das erste Mal, dass viele Entwickler realisierten, dass sie Top-Leistung erhalten können, ohne über OpenAI, Anthropic oder Google zu gehen.

Erst diesen Monat hat sich die Open-Source-Landschaft erneut verschoben:

  • GLM-5 von Z AI führt die Open-Source-Rankings im Februar 2026 an, wobei der Vorgänger GLM-4.7 73,8 % auf SWE-bench Verified erreichte. API-Preise: 1,00 $/3,20 $ pro Million Eingabe-/Ausgabe-Tokens.
  • Qwen 3.5 (Alibaba) wurde vor wenigen Tagen mit nativen agentischen Fähigkeiten, Unterstützung für 201 Sprachen und 60 % niedrigeren Betriebskosten als der Vorgänger veröffentlicht. API-Preise: 0,40 $/2,40 $ pro Million Tokens.
  • DeepSeek V3.2 gibt es jetzt in einer „Speciale”-Variante mit 88,7 % auf LiveCodeBench, veröffentlicht unter MIT-Lizenz. API-Preise: 0,28 $/0,42 $ pro Million Tokens.
  • Kimi K2.5 (Moonshot AI) erreicht 96 % auf AIME 2025 und übertrifft damit die meisten proprietären Modelle in Mathematik. API-Preise: 0,45 $/2,25 $ pro Million Tokens über DeepInfra.
  • Grok 3 wurde von Elon Musk für eine Open-Source-Veröffentlichung bestätigt

Zum Vergleich: Claude Sonnet kostet 3 $/15 $ pro Million Tokens und Claude Opus kostet 5 $/25 $. Die günstigsten Open-Source-Optionen sind 10- bis 50-mal preiswerter.

Der Abstand zwischen Open-Source- und proprietären Modellen hat sich in einem einzigen Jahr von 17,5 auf 0,3 MMLU-Punkte verringert. Open-Source-Modelle adressieren jetzt die beiden größten Unternehmensbedenken bei der KI-Einführung: Datenschutz und Kostenunberechenbarkeit. Und da OpenClaw jeden OpenAI-kompatiblen Endpunkt unterstützt, können Sie Ihren Agenten heute auf jedes dieser Modelle ausrichten.

Was das für OpenClaw bedeutet

Lassen Sie uns direkt sein: OpenClaw.rocks ist von diesem Verbot nicht betroffen.

Kein Plan verwendet OAuth-Tokens aus Abonnements. Beim Light-Plan bringen Sie Ihre eigenen API-Schlüssel mit und verbinden sich direkt mit dem Anbieter Ihrer Wahl. Beim Pro-Plan bieten wir vorkonfigurierten KI-Zugang mit inkludierten Tokens, geroutet über unser Bifrost-Gateway. In beiden Fällen läuft Ihr Agent auf einer eigenen dedizierten Instanz, die Sie kontrollieren.

Den Anbieter zu wechseln ist eine Konfigurationsänderung. Heute nutzen Sie DeepSeek V3.2 für 0,28 $ pro Million Eingabe-Tokens. Morgen liefert Qwen ein besseres Modell und Sie tauschen es ein. Nächste Woche senkt Anthropic die Preise und Sie fügen Claude wieder hinzu. Ihr Agent, Ihre Daten, Ihr Gesprächsverlauf: Nichts davon ändert sich. Nur das Modell dahinter.

Wenn ein Anbieter Ihren Zugang über Nacht „ohne Vorankündigung” einschränken kann, sind die Tools und Plattformen, die bestehen, jene, die nicht vom Wohlwollen eines einzelnen Anbieters abhängen. Wie ein HN-Kommentator es formulierte: Auf einen einzelnen Closed-Source-Anbieter zu bauen, könnte „das KI-Äquivalent sein, Oracle statt Postgres zu wählen.”

Das Anthropic-Verbot bestätigt ein Kernprinzip, auf dem wir aufgebaut haben: Sie sollten Ihr KI-Setup kontrollieren. Das bedeutet, Ihr Agent läuft auf Ihrer Instanz, Ihre API-Schlüssel verbinden sich mit dem Anbieter, der Ihnen die beste Leistung pro Dollar bietet, und kein einzelner Anbieter kann Ihre Workflows abschalten.

Was als Nächstes passiert

Drei Vorhersagen:

1. Multi-Provider wird zum Standard. Entwickler behandeln KI-Modelle bereits als austauschbare Komponenten. Die OpenAI-kompatible API ist zum De-facto-Standard geworden, den die meisten Anbieter mittlerweile unterstützen, und Gateways wie OpenRouter und LiteLLM machen den Wechsel zwischen Modellen zu einer einzeiligen Konfigurationsänderung. Wenn Ihr Tool mit jedem Anbieter funktioniert, hat kein einzelner Anbieter Hebel gegen Sie.

2. Open-Source-Modelle werden zur sicheren Wahl. Wenn ein proprietärer Anbieter Ihren Zugang über Nacht widerrufen kann, sehen Open-Weight-Modelle wie DeepSeek, Qwen und GLM weniger wie ein Kompromiss und mehr wie ein strategischer Vorteil aus. Sie können sie auf eigener Hardware betreiben, über jeden Inferenzanbieter hosten oder frei zwischen ihnen wechseln. Kein Anbieter kann einem MIT-lizenzierten Modell den Stecker ziehen.

3. Eigene Agenten zu betreiben wird zur Norm. Wenn die Wahl zwischen dem Vertrauen in einen Anbieter, der Bedingungen über Nacht ändern kann, und dem Betrieb eines eigenen KI-Agenten auf einer selbst kontrollierten Instanz besteht, werden immer mehr Teams Letzteres wählen. Insbesondere da Open-Source-Modelle die Fähigkeitslücke weiter schließen und Plattformen wie OpenClaw.rocks es zu einem Ein-Klick-Setup machen statt zu einem DevOps-Projekt.

Die Ära, in der man auf die Gunst eines einzelnen KI-Anbieters baut, geht zu Ende. Was sie ersetzt, ist widerstandsfähiger: Open-Source-Software, anbieteragnostische Architektur und Infrastruktur, die kein Anbieter widerrufen kann.

Drei Erkenntnisse zum Mitnehmen

  1. Wenn Sie Claude-Abonnement-OAuth-Tokens in Drittanbieter-Tools verwenden, hören Sie auf. Es verstößt jetzt ausdrücklich gegen Anthropics Nutzungsbedingungen und Ihr Konto könnte markiert werden. Wechseln Sie zu API-Schlüsseln (rechnen Sie mit 5x+ höheren Kosten bei Intensivnutzung) oder zu einem anderen Anbieter.

  2. Diversifizieren Sie Ihre KI-Abhängigkeiten. Jedes Tool, das nur mit einem Modellanbieter funktioniert, ist ein Risiko. Bauen Sie auf Frameworks, die Ihnen den Modellwechsel ermöglichen, ohne Workflows neu schreiben zu müssen.

  3. Wählen Sie Open-Source-Modelle und anbieteragnostische Tools. Open-Weight-Modelle wie DeepSeek und Qwen können nicht an einem Dienstag um 2 Uhr morgens widerrufen werden. Kombinieren Sie sie mit einem Tool, das Ihnen den freien Anbieterwechsel ermöglicht. OpenClaw.rocks wurde genau dafür gebaut.

Anthropic hat eine geschäftliche Entscheidung getroffen. Sie können der Begründung zustimmen oder widersprechen. Aber die Lektion für alle, die mit KI bauen, bleibt dieselbe: Bauen Sie nicht auf geschlossenem Boden, den Sie nicht besitzen.