Anthropic prohibió las herramientas de terceros. Esto es lo que significa.
Anthropic acaba de hacerlo oficial. Una página recién publicada sobre aspectos legales y cumplimiento en la documentación de Claude Code lo expresa sin ambigüedades:
“Using OAuth tokens obtained through Claude Free, Pro, or Max accounts in any other product, tool, or service — including the Agent SDK — is not permitted and constitutes a violation of the Consumer Terms of Service.”
Incluso el propio Agent SDK de Anthropic está prohibido con tokens de suscripción. Si ni siquiera su propio SDK está exento, nada lo está.
Esta documentación formaliza lo que los desarrolladores han estado viviendo desde enero. Pero verlo por escrito, en una página legal dedicada con lenguaje explícito de aplicación, impacta de manera diferente. El hilo de Hacker News que sacó a la luz la página hoy ya está lleno de desarrolladores frustrados repitiendo los mismos argumentos de hace seis semanas.
Aquí está la historia completa de cómo llegamos hasta aquí.
El bloqueo técnico: 9 de enero
La política escrita es nueva. La aplicación no lo es.
El 9 de enero de 2026, Anthropic desplegó protecciones del lado del servidor que bloqueaban los tokens OAuth de suscripción fuera de su CLI oficial Claude Code. Las herramientas de terceros recibían un único mensaje de error: “This credential is only authorized for use with Claude Code and cannot be used for other API requests.”
Sin aviso previo. Sin anuncio público. Desarrolladores de OpenCode, Roo Code, Cline y otras herramientas amanecieron con flujos de trabajo rotos y empezaron a crear issues.
OpenCode (ahora con más de 107.000 estrellas en GitHub), la alternativa más popular a Claude Code, fue la principal víctima. Había estado suplantando la identidad de cliente de Claude Code mediante cabeceras HTTP, haciendo que los servidores de Anthropic creyeran que las peticiones provenían del CLI oficial.
Cline, RooCode y otras extensiones de IDE que se apoyaban en credenciales de suscripción de Claude también dejaron de funcionar.
Empleados de xAI que usaban Claude a través de Cursor perdieron el acceso. Por separado, empleados de OpenAI ya habían sido bloqueados en agosto de 2025, supuestamente por hacer benchmarks de GPT-5 contra Claude.
Usuarios de OpenClaw y NanoClaw que enrutaban a través de OAuth de suscripción (en lugar de claves API) también se vieron afectados, aunque Anthropic posteriormente aclaró que «nada cambia en la forma en que los clientes han estado usando su cuenta y Anthropic no cancelará cuentas.»
Lo que no se vio afectado: usuarios de claves API estándar, integraciones de OpenRouter, cualquiera que pagara por token. El bloqueo apuntaba a tokens OAuth de suscripción utilizados fuera de las propias aplicaciones de Anthropic.
La lógica económica
La motivación es simple aritmética.
| Método | Coste mensual (uso intensivo) |
|---|---|
| Suscripción Max vía Claude Code | ~200 $ tarifa plana |
| Uso equivalente por API | 1.000 $+ |
Una suscripción Claude Max a 200 $/mes se vuelve profundamente no rentable cuando los usuarios enrutan cargas de trabajo agénticas a través de herramientas de terceros que eliminan los límites de velocidad integrados. El precio de Claude Opus por API es de 15 $ por millón de tokens de entrada y 75 $ por millón de tokens de salida. Un agente IA activo ejecutando Opus puede consumir millones de tokens por día.
El problema se aceleró cuando la técnica “Ralph Wiggum” se hizo viral a finales de 2025: desarrolladores atrapando a Claude en bucles autónomos auto-reparadores que se ejecutan durante la noche, retroalimentando los errores en la ventana de contexto hasta que los tests pasan. Anthropic incluso lanzó un plugin oficial Ralph Wiggum para Claude Code, porque dentro de su propia herramienta controlan los límites de velocidad y recopilan telemetría. El problema eran las herramientas de terceros ejecutando los mismos bucles sin esas protecciones, quemando tokens a un ritmo que hacía las suscripciones de tarifa plana profundamente no rentables.
Un comentarista de Hacker News lo resumió sin rodeos: «En un mes de Claude Code, es fácil usar tantos tokens LLM que le habría costado más de 1.000 $ si hubiera pagado por la API.»
Modelos de frontera más bucles agénticos más precios de tarifa plana no pueden coexistir. Algo tenía que ceder.
Del bloqueo técnico a la política oficial
El bloqueo de enero fue caótico. Thariq Shihipar de Anthropic reconoció que algunas cuentas fueron «automáticamente baneadas por activar filtros de abuso», un error que la empresa revirtió. La empresa enmarcó la aplicación como dirigida a herramientas que estaban «suplantando al cliente oficial», pero no había documentación que lo respaldara. Solo un interruptor del lado del servidor y un escueto mensaje de error.
La reacción fue severa. David Heinemeier Hansson (DHH), creador de Ruby on Rails, lo calificó de «muy hostil hacia el cliente». George Hotz (geohot) publicó «Anthropic is making a huge mistake», argumentando que las restricciones «no convertirán a la gente de vuelta a Claude Code, los convertirán a otros proveedores de modelos.» Gergely Orosz, autor de The Pragmatic Engineer, concluyó que Anthropic está «contento de no tener prácticamente ningún ecosistema alrededor de Claude.»
En cuestión de horas, se acumularon más de 147 reacciones en issues de GitHub y más de 245 puntos en Hacker News. El AWS Hero AJ Stuyvenberg comentó: «¡Están speedrunneando el viaje de startup perdonable a corporación detestable antes de cualquier exit!»
No todos estaban en desacuerdo. El desarrollador Artem K señaló que la medida fue «lo más suave que podía haber sido», señalando que fue «solo un mensaje educado en lugar de eliminar tu cuenta o cobrarte retroactivamente a precios de API.» Otros argumentaron que OpenCode había estado violando los términos de servicio desde el principio al suplantar identidades de cliente.
Ahora, seis semanas después, Anthropic ha publicado la documentación oficial que codifica lo que el bloqueo del lado del servidor ya aplicaba. La página traza una línea clara: la autenticación OAuth está «destinada exclusivamente a Claude Code y Claude.ai.» Todo lo demás requiere claves API a través de la Claude Console, facturadas por token. Anthropic también se reserva el derecho de aplicar «sin previo aviso.»
La reacción de hoy en Hacker News sugiere que la herida no ha sanado. Los desarrolladores leen la documentación no como una aclaración, sino como una confirmación: el jardín amurallado es permanente.
Esto venía gestándose desde hace tiempo
El bloqueo de enero no fue el primer movimiento.
En junio de 2025, Anthropic cortó casi todo el acceso directo de Windsurf a los modelos Claude con menos de una semana de aviso, después de que surgieran rumores de que OpenAI estaba adquiriendo Windsurf. El cofundador de Anthropic, Jared Kaplan, explicó que sería «extraño que vendiéramos Claude a OpenAI.» Windsurf se vio obligado a pivotar hacia BYOK (Bring Your Own Key) y promover Google Gemini como alternativa.
Google pasó por un ciclo similar. Los desarrolladores habían estado extrayendo tokens OAuth del IDE Antigravity de Google e inyectándolos en herramientas de terceros para acceder gratuitamente a los modelos Gemini. Google calificó esto como una violación de los términos de servicio bajo «elusión de medidas de seguridad» y emitió baneos de cuentas.
El patrón es claro: las empresas de IA siguen el manual de Apple. La era temprana (2022 a 2024) presentó APIs abiertas y fomentó integraciones de terceros. La era actual prioriza el bloqueo del ecosistema y las herramientas oficiales.
Las herramientas se desacoplan de los proveedores
Cada restricción acelera una contratendencia. En este caso: la independencia del proveedor.
Usted todavía puede llevar su propia clave API de Anthropic a la mayoría de las herramientas. Pero eso no es lo importante. Una clave API no le protege si Anthropic cambia los precios, restringe el acceso o decide que su caso de uso ya no encaja en sus términos. El verdadero cambio es que las herramientas se vuelven genuinamente agnósticas respecto al proveedor, para que pueda cambiar el modelo subyacente sin modificar nada más.
Eso ya está sucediendo en toda la industria. OpenCode pivotó en cuestión de horas tras el bloqueo de enero para soportar todos los proveedores principales. Cline y RooCode le permiten cambiar de modelo por tarea. Pasarelas como OpenRouter y LiteLLM convierten el modelo en una opción de configuración en lugar de una dependencia arquitectónica.
El patrón es el mismo en todas partes: el modelo se está convirtiendo en un insumo intercambiable. Las herramientas que prosperan son las que lo tratan como tal. OpenClaw fue construido sobre este principio desde el inicio. Funciona con cualquier endpoint compatible con OpenAI, lo que significa que funciona con prácticamente todos los modelos de esta lista y todos los proveedores que los sirven.
Los modelos de código abierto acortan la brecha
Las restricciones de Anthropic llegan en el peor momento posible para el bloqueo propietario.
DeepSeek R1, lanzado en enero de 2025, demostró que los modelos open-weight pueden ofrecer razonamiento de nivel frontera. Igualó a GPT-4 en benchmarks costando un 73 % menos. El «momento DeepSeek» fue la primera vez que muchos desarrolladores se dieron cuenta de que podían obtener rendimiento de primer nivel sin pasar por OpenAI, Anthropic o Google.
Justo este mes, el panorama de código abierto cambió de nuevo:
- GLM-5 de Z AI lidera los rankings de código abierto de febrero de 2026, con su predecesor GLM-4.7 alcanzando el 73,8 % en SWE-bench Verified. Precios API: 1,00 $/3,20 $ por millón de tokens de entrada/salida.
- Qwen 3.5 (Alibaba) se lanzó hace días con capacidades agénticas nativas, soporte para 201 idiomas y costes operativos un 60 % inferiores a su predecesor. Precios API: 0,40 $/2,40 $ por millón de tokens.
- DeepSeek V3.2 ahora viene en una variante «Speciale» con un 88,7 % en LiveCodeBench, publicada bajo licencia MIT. Precios API: 0,28 $/0,42 $ por millón de tokens.
- Kimi K2.5 (Moonshot AI) alcanza el 96 % en AIME 2025, superando a la mayoría de los modelos propietarios en matemáticas. Precios API: 0,45 $/2,25 $ por millón de tokens vía DeepInfra.
- Grok 3 está confirmado para publicación en código abierto por Elon Musk
Para comparar, Claude Sonnet cuesta 3 $/15 $ por millón de tokens y Claude Opus cuesta 5 $/25 $. Las opciones de código abierto más baratas son de 10 a 50 veces menos costosas.
La brecha entre modelos de código abierto y propietarios se ha reducido de 17,5 a 0,3 puntos MMLU en un solo año. Los modelos de código abierto ahora abordan las dos mayores preocupaciones empresariales en torno a la adopción de la IA: la privacidad de datos y la imprevisibilidad de costes. Y como OpenClaw soporta cualquier endpoint compatible con OpenAI, puede apuntar su agente a cualquiera de estos modelos hoy mismo.
Qué significa esto para OpenClaw
Seamos directos: OpenClaw.rocks no se ve afectado por esta prohibición.
Ningún plan utiliza tokens OAuth de suscripción. En el plan Light, usted trae sus propias claves API y se conecta directamente al proveedor que elija. En el plan Pro, proporcionamos acceso IA preconfigurado con tokens incluidos, enrutados a través de nuestra pasarela Bifrost. En ambos casos, su agente se ejecuta en su propia instancia dedicada que usted controla.
Cambiar de proveedor es un cambio de configuración. Hoy usa DeepSeek V3.2 a 0,28 $ por millón de tokens de entrada. Mañana Qwen lanza un modelo mejor y lo intercambia. La próxima semana Anthropic baja sus precios y vuelve a añadir Claude. Su agente, sus datos, su historial de conversación: nada de eso cambia. Solo cambia el modelo detrás.
Cuando un proveedor puede restringir su acceso de la noche a la mañana «sin previo aviso», las herramientas y plataformas que sobreviven son las que no dependen de la buena voluntad de un único proveedor. Como un comentarista de HN lo expresó: construir sobre un único proveedor de código cerrado podría ser «el equivalente en IA de elegir Oracle en lugar de Postgres.»
La prohibición de Anthropic valida un principio fundamental sobre el que hemos construido: usted debería controlar su configuración de IA. Eso significa que su agente se ejecuta en su instancia, sus claves API se conectan al proveedor que le ofrece el mejor rendimiento por dólar, y ningún proveedor único puede cortar sus flujos de trabajo.
Qué sucederá a continuación
Tres predicciones:
1. El multi-proveedor se convierte en el estándar. Los desarrolladores ya tratan los modelos de IA como componentes intercambiables. La API compatible con OpenAI se ha convertido en un estándar de facto que la mayoría de los proveedores ahora soportan, y pasarelas como OpenRouter y LiteLLM hacen que cambiar entre modelos sea un cambio de configuración de una línea. Cuando su herramienta funciona con cualquier proveedor, ningún vendedor tiene palanca sobre usted.
2. Los modelos de código abierto se convierten en la apuesta segura. Cuando un proveedor propietario puede revocar su acceso de la noche a la mañana, los modelos open-weight como DeepSeek, Qwen y GLM empiezan a parecer menos un compromiso y más una ventaja estratégica. Puede ejecutarlos en su propio hardware, alojarlos a través de cualquier proveedor de inferencia o alternar entre ellos libremente. Ningún proveedor puede desconectar un modelo con licencia MIT.
3. Ejecutar su propio agente se convierte en la norma. Cuando la elección está entre confiar en un proveedor que puede cambiar los términos de la noche a la mañana y ejecutar su propio agente IA en una instancia que usted controla, más equipos elegirán lo segundo. Especialmente a medida que los modelos de código abierto siguen cerrando la brecha de capacidades y plataformas como OpenClaw.rocks lo convierten en una configuración de un clic en lugar de un proyecto DevOps.
La era de construir sobre la buena voluntad de un único proveedor de IA está terminando. Lo que la reemplaza es más resiliente: software de código abierto, arquitectura agnóstica respecto al proveedor e infraestructura que ningún vendedor puede revocar.
Tres conclusiones clave
-
Si está usando tokens OAuth de suscripción de Claude en herramientas de terceros, deténgase. Ahora viola explícitamente los términos de servicio de Anthropic y su cuenta podría ser marcada. Cambie a claves API (espere costes 5x+ mayores para uso intensivo) o a un proveedor diferente por completo.
-
Diversifique sus dependencias de IA. Cualquier herramienta que solo funcione con un proveedor de modelos es un riesgo. Construya sobre frameworks que le permitan cambiar de modelo sin reescribir flujos de trabajo.
-
Elija modelos de código abierto y herramientas agnósticas respecto al proveedor. Los modelos open-weight como DeepSeek y Qwen no pueden ser revocados un martes a las 2 de la madrugada. Combínelos con una herramienta que le permita cambiar de proveedor libremente. OpenClaw.rocks fue construido exactamente para esto.
Anthropic tomó una decisión de negocio. Puede estar de acuerdo o en desacuerdo con el razonamiento. Pero la lección para todos los que construyen con IA es la misma: no construya sobre terreno propietario que no posee.