Anthropic vient de rendre les choses officielles. Une page nouvellement publiée sur les aspects juridiques et la conformité dans la documentation de Claude Code l’énonce noir sur blanc :

“Using OAuth tokens obtained through Claude Free, Pro, or Max accounts in any other product, tool, or service — including the Agent SDK — is not permitted and constitutes a violation of the Consumer Terms of Service.”

Même le propre Agent SDK d’Anthropic est interdit avec les tokens d’abonnement. Si leur propre SDK n’est pas exempté, rien ne l’est.

Cette documentation formalise ce que les développeurs vivent depuis janvier. Mais le voir écrit, sur une page juridique dédiée avec un langage d’application explicite, frappe différemment. Le fil Hacker News qui a révélé la page aujourd’hui est déjà rempli de développeurs frustrés qui relancent les mêmes arguments qu’il y a six semaines.

Voici l’histoire complète de comment nous en sommes arrivés là.

Le blocage technique : 9 janvier

La politique écrite est nouvelle. L’application ne l’est pas.

Le 9 janvier 2026, Anthropic a déployé des protections côté serveur qui bloquaient les tokens OAuth d’abonnement en dehors de leur CLI officiel Claude Code. Les outils tiers recevaient un seul message d’erreur : “This credential is only authorized for use with Claude Code and cannot be used for other API requests.”

Aucun préavis. Aucune annonce publique. Des développeurs utilisant OpenCode, Roo Code, Cline et d’autres outils se sont réveillés avec des workflows cassés et ont commencé à ouvrir des tickets.

OpenCode (désormais plus de 107 000 étoiles GitHub), l’alternative la plus populaire à Claude Code, a été la principale victime. L’outil avait usurpé l’identité client de Claude Code via les en-têtes HTTP, faisant croire aux serveurs d’Anthropic que les requêtes provenaient du CLI officiel.

Cline, RooCode et d’autres extensions IDE qui se greffaient sur les identifiants d’abonnement Claude ont également cessé de fonctionner.

Des employés de xAI utilisant Claude via Cursor ont perdu l’accès. Séparément, des employés d’OpenAI avaient déjà été bloqués en août 2025, apparemment pour avoir réalisé des benchmarks de GPT-5 contre Claude.

Les utilisateurs d’OpenClaw et NanoClaw qui routaient via OAuth d’abonnement (plutôt que des clés API) ont également été affectés, bien qu’Anthropic ait ensuite précisé que « rien ne change dans la façon dont les clients utilisent leur compte et qu’Anthropic ne résiliera pas de comptes. »

Ce qui n’a pas été affecté : les utilisateurs de clés API standard, les intégrations OpenRouter, toute personne payant au token. Le blocage ciblait les tokens OAuth d’abonnement utilisés en dehors des propres applications d’Anthropic.

Les raisons économiques

La motivation relève d’un calcul simple.

MéthodeCoût mensuel (utilisation intensive)
Abonnement Max via Claude Code~200 $ forfaitaire
Utilisation API équivalente1 000 $+

Un abonnement Claude Max à 200 $/mois devient profondément non rentable lorsque les utilisateurs acheminent des charges de travail agentiques via des outils tiers qui contournent les limites de débit intégrées. Claude Opus coûte 15 $ par million de tokens d’entrée et 75 $ par million de tokens de sortie via l’API. Un agent IA actif utilisant Opus peut consommer des millions de tokens par jour.

Le problème s’est accéléré lorsque la technique « Ralph Wiggum » est devenue virale fin 2025 : des développeurs piégeant Claude dans des boucles autonomes auto-réparatrices qui tournent toute la nuit, réinjectant les erreurs dans la fenêtre de contexte jusqu’à ce que les tests passent. Anthropic a même livré un plugin officiel Ralph Wiggum pour Claude Code, car au sein de leur propre outil ils contrôlent les limites de débit et collectent la télémétrie. Le problème venait des outils tiers exécutant les mêmes boucles sans ces garde-fous, consommant des tokens à un rythme qui rendait les abonnements forfaitaires profondément non rentables.

Un commentateur sur Hacker News a résumé sans détour : « En un mois de Claude Code, il est facile d’utiliser tellement de tokens LLM que cela vous aurait coûté plus de 1 000 $ si vous aviez payé via l’API. »

Modèles de pointe plus boucles agentiques plus tarification forfaitaire ne peuvent pas coexister. Quelque chose devait céder.

Du blocage technique à la politique officielle

Le blocage de janvier était chaotique. Thariq Shihipar d’Anthropic a reconnu que certains comptes avaient été « automatiquement bannis pour avoir déclenché des filtres anti-abus », une erreur que l’entreprise a corrigée. L’entreprise a présenté l’application comme ciblant les outils qui « usurpaient l’identité du client officiel », mais aucune documentation ne l’étayait. Juste un commutateur côté serveur et un message d’erreur laconique.

La réaction a été violente. David Heinemeier Hansson (DHH), créateur de Ruby on Rails, a qualifié cela de « très hostile envers les clients ». George Hotz (geohot) a publié « Anthropic is making a huge mistake », arguant que les restrictions « ne convertiront pas les gens en retour vers Claude Code, mais les convertiront vers d’autres fournisseurs de modèles. » Gergely Orosz, auteur de The Pragmatic Engineer, a conclu qu’Anthropic est « satisfait de n’avoir pratiquement aucun écosystème autour de Claude. »

En quelques heures, plus de 147 réactions se sont accumulées sur les issues GitHub et plus de 245 points sur Hacker News. L’AWS Hero AJ Stuyvenberg a plaisanté : « Ils speedrunnent le voyage du startup pardonnable à la corporation détestable avant même un exit ! »

Tout le monde n’était pas en désaccord. Le développeur Artem K a noté que le durcissement était « le plus doux possible », soulignant que c’était « juste un message poli au lieu de supprimer votre compte ou de vous facturer rétroactivement aux tarifs API. » D’autres ont argumenté qu’OpenCode violait les conditions d’utilisation depuis le début en usurpant les identités client.

Maintenant, six semaines plus tard, Anthropic a publié la documentation officielle qui codifie ce que le blocage côté serveur appliquait déjà. La page trace une ligne claire : l’authentification OAuth est « exclusivement destinée à Claude Code et Claude.ai. » Tout le reste nécessite des clés API via la Claude Console, facturées au token. Anthropic se réserve également le droit d’appliquer « sans préavis. »

La réaction d’aujourd’hui sur Hacker News suggère que la blessure n’est pas guérie. Les développeurs lisent la documentation non pas comme une clarification, mais comme une confirmation : le jardin clos est permanent.

Ce n’est pas nouveau

Le blocage de janvier n’était pas le premier mouvement.

En juin 2025, Anthropic a coupé la quasi-totalité de l’accès direct de Windsurf aux modèles Claude avec moins d’une semaine de préavis, après que des rumeurs de rachat de Windsurf par OpenAI ont circulé. Le cofondateur d’Anthropic, Jared Kaplan, a expliqué qu’il serait « étrange pour nous de vendre Claude à OpenAI. » Windsurf a été contraint de pivoter vers le BYOK (Bring Your Own Key) et de promouvoir Google Gemini comme alternative.

Google a traversé un cycle similaire. Des développeurs avaient extrait des tokens OAuth de l’IDE Antigravity de Google et les injectaient dans des outils tiers pour un accès gratuit aux modèles Gemini. Google a qualifié cela de violation des conditions d’utilisation au titre du « contournement des mesures de sécurité » et a prononcé des bannissements de comptes.

Le schéma est clair : les entreprises d’IA suivent le modèle Apple. L’ère initiale (2022 à 2024) offrait des API ouvertes et encourageait les intégrations tierces. L’ère actuelle privilégie le verrouillage de l’écosystème et les outils officiels.

Les outils se découplent des fournisseurs

Chaque restriction accélère une contre-tendance. Dans ce cas : l’indépendance vis-à-vis des fournisseurs.

Vous pouvez toujours utiliser votre propre clé API Anthropic dans la plupart des outils. Mais ce n’est pas le sujet. Une clé API ne vous protège pas si Anthropic change ses tarifs, restreint l’accès ou décide que votre cas d’usage ne correspond plus à ses conditions. Le véritable changement, c’est que les outils deviennent véritablement agnostiques vis-à-vis des fournisseurs, vous permettant de changer le modèle sous-jacent sans modifier quoi que ce soit d’autre.

C’est déjà en cours dans toute l’industrie. OpenCode a pivoté en quelques heures après le blocage de janvier pour prendre en charge tous les grands fournisseurs. Cline et RooCode vous permettent de changer de modèle par tâche. Les passerelles comme OpenRouter et LiteLLM font du modèle une option de configuration plutôt qu’une dépendance architecturale.

Le schéma est le même partout : le modèle devient un intrant interchangeable. Les outils qui prospèrent sont ceux qui le traitent comme tel. OpenClaw a été construit sur ce principe dès le départ. Il fonctionne avec tout point de terminaison compatible OpenAI, ce qui signifie qu’il fonctionne avec pratiquement tous les modèles de cette liste et tous les fournisseurs qui les servent.

Les modèles open source comblent l’écart

Les restrictions d’Anthropic arrivent au pire moment possible pour le verrouillage propriétaire.

DeepSeek R1, sorti en janvier 2025, a prouvé que les modèles open-weight peuvent offrir un raisonnement de niveau frontier. Il a égalé GPT-4 sur les benchmarks tout en coûtant 73 % de moins. Le « moment DeepSeek » a été la première fois que de nombreux développeurs ont réalisé qu’ils pouvaient obtenir des performances de premier plan sans passer par OpenAI, Anthropic ou Google.

Ce mois-ci même, le paysage open source a encore évolué :

  • GLM-5 de Z AI est en tête des classements open source de février 2026, avec son prédécesseur GLM-4.7 atteignant 73,8 % sur SWE-bench Verified. Tarifs API : 1,00 $/3,20 $ par million de tokens d’entrée/sortie.
  • Qwen 3.5 (Alibaba) a été lancé il y a quelques jours avec des capacités agentiques natives, la prise en charge de 201 langues et des coûts d’exploitation 60 % inférieurs à son prédécesseur. Tarifs API : 0,40 $/2,40 $ par million de tokens.
  • DeepSeek V3.2 est désormais disponible dans une variante « Speciale » avec 88,7 % sur LiveCodeBench, publiée sous licence MIT. Tarifs API : 0,28 $/0,42 $ par million de tokens.
  • Kimi K2.5 (Moonshot AI) atteint 96 % sur AIME 2025, surpassant la plupart des modèles propriétaires en mathématiques. Tarifs API : 0,45 $/2,25 $ par million de tokens via DeepInfra.
  • Grok 3 est confirmé pour une publication en open source par Elon Musk

À titre de comparaison, Claude Sonnet coûte 3 $/15 $ par million de tokens et Claude Opus coûte 5 $/25 $. Les options open source les moins chères sont 10 à 50 fois moins coûteuses.

L’écart entre les modèles open source et propriétaires s’est réduit de 17,5 à 0,3 points MMLU en une seule année. Les modèles open source répondent désormais aux deux principales préoccupations des entreprises concernant l’adoption de l’IA : la confidentialité des données et l’imprévisibilité des coûts. Et comme OpenClaw prend en charge tout point de terminaison compatible OpenAI, vous pouvez diriger votre agent vers n’importe lequel de ces modèles dès aujourd’hui.

Ce que cela signifie pour OpenClaw

Soyons directs : OpenClaw.rocks n’est pas affecté par cette interdiction.

Aucun plan n’utilise de tokens OAuth d’abonnement. Avec le plan Light, vous apportez vos propres clés API et vous vous connectez directement au fournisseur de votre choix. Avec le plan Pro, nous fournissons un accès IA préconfiguré avec des tokens inclus, acheminés via notre passerelle Bifrost. Dans les deux cas, votre agent fonctionne sur sa propre instance dédiée que vous contrôlez.

Changer de fournisseur est un changement de configuration. Aujourd’hui vous utilisez DeepSeek V3.2 à 0,28 $ par million de tokens d’entrée. Demain Qwen sort un meilleur modèle et vous le remplacez. La semaine prochaine Anthropic baisse ses prix et vous réintégrez Claude. Votre agent, vos données, votre historique de conversation : rien ne change. Seul le modèle sous-jacent change.

Quand un fournisseur peut restreindre votre accès du jour au lendemain « sans préavis », les outils et plateformes qui survivent sont ceux qui ne dépendent pas de la bonne volonté d’un seul fournisseur. Comme un commentateur HN l’a formulé : construire sur un seul fournisseur closed-source pourrait être « l’équivalent IA de choisir Oracle plutôt que Postgres. »

L’interdiction d’Anthropic valide un principe fondamental autour duquel nous avons construit notre solution : vous devriez contrôler votre configuration IA. Cela signifie que votre agent tourne sur votre instance, vos clés API se connectent au fournisseur qui vous offre les meilleures performances par dollar, et aucun fournisseur unique ne peut couper vos workflows.

Ce qui va se passer ensuite

Trois prédictions :

1. Le multi-fournisseur devient la norme. Les développeurs traitent déjà les modèles IA comme des composants interchangeables. L’API compatible OpenAI est devenue un standard de fait que la plupart des fournisseurs supportent désormais, et les passerelles comme OpenRouter et LiteLLM font du changement de modèle une modification de configuration d’une seule ligne. Quand votre outil fonctionne avec n’importe quel fournisseur, aucun vendeur n’a de levier sur vous.

2. Les modèles open source deviennent le choix sûr. Quand un fournisseur propriétaire peut révoquer votre accès du jour au lendemain, les modèles open-weight comme DeepSeek, Qwen et GLM ressemblent moins à un compromis et plus à un avantage stratégique. Vous pouvez les exécuter sur votre propre matériel, les héberger via n’importe quel fournisseur d’inférence ou basculer librement entre eux. Aucun fournisseur ne peut débrancher un modèle sous licence MIT.

3. Faire tourner son propre agent devient la norme. Quand le choix est entre faire confiance à un fournisseur qui peut changer les conditions du jour au lendemain et faire tourner votre propre agent IA sur une instance que vous contrôlez, de plus en plus d’équipes choisiront la seconde option. D’autant plus que les modèles open source continuent de combler l’écart de capacités et que des plateformes comme OpenClaw.rocks transforment cela en un setup en un clic plutôt qu’un projet DevOps.

L’ère où l’on construisait sur la bonne volonté d’un seul fournisseur d’IA touche à sa fin. Ce qui la remplace est plus résilient : logiciel open source, architecture agnostique vis-à-vis des fournisseurs et infrastructure qu’aucun vendeur ne peut révoquer.

Trois points à retenir

  1. Si vous utilisez des tokens OAuth d’abonnement Claude dans des outils tiers, arrêtez. Cela viole désormais explicitement les conditions d’utilisation d’Anthropic et votre compte pourrait être signalé. Passez aux clés API (attendez-vous à des coûts 5x+ supérieurs pour une utilisation intensive) ou changez complètement de fournisseur.

  2. Diversifiez vos dépendances IA. Tout outil qui ne fonctionne qu’avec un seul fournisseur de modèles est un risque. Construisez sur des frameworks qui vous permettent de changer de modèle sans réécrire vos workflows.

  3. Choisissez des modèles open source et des outils agnostiques vis-à-vis des fournisseurs. Les modèles open-weight comme DeepSeek et Qwen ne peuvent pas être révoqués un mardi à 2 heures du matin. Associez-les à un outil qui vous permet de changer librement de fournisseur. OpenClaw.rocks a été conçu exactement pour cela.

Anthropic a pris une décision commerciale. Vous pouvez être d’accord ou non avec le raisonnement. Mais la leçon pour tous ceux qui construisent avec l’IA est la même : ne construisez pas sur un terrain propriétaire que vous ne possédez pas.