Anthropic ha vietato gli strumenti di terze parti. Ecco cosa significa.
Anthropic ha reso tutto ufficiale. Una pagina appena pubblicata su aspetti legali e conformità nella documentazione di Claude Code lo afferma senza mezzi termini:
“Using OAuth tokens obtained through Claude Free, Pro, or Max accounts in any other product, tool, or service — including the Agent SDK — is not permitted and constitutes a violation of the Consumer Terms of Service.”
Persino il proprio Agent SDK di Anthropic è vietato con i token di abbonamento. Se il loro stesso SDK non è esente, nulla lo è.
Questa documentazione formalizza ciò che gli sviluppatori vivono da gennaio. Ma vederlo scritto, in una pagina legale dedicata con un linguaggio esplicito di applicazione, colpisce diversamente. Il thread su Hacker News che ha portato alla luce la pagina oggi è già pieno di sviluppatori frustrati che riaprono gli stessi dibattiti di sei settimane fa.
Ecco la storia completa di come siamo arrivati qui.
Il blocco tecnico: 9 gennaio
La policy scritta è nuova. L’applicazione no.
Il 9 gennaio 2026, Anthropic ha implementato protezioni lato server che bloccavano i token OAuth degli abbonamenti al di fuori della loro CLI ufficiale Claude Code. Gli strumenti di terze parti ricevevano un unico messaggio di errore: “This credential is only authorized for use with Claude Code and cannot be used for other API requests.”
Nessun preavviso. Nessun annuncio pubblico. Sviluppatori di OpenCode, Roo Code, Cline e altri strumenti si sono svegliati con i flussi di lavoro non funzionanti e hanno iniziato ad aprire issue.
OpenCode (ora con oltre 107.000 stelle su GitHub), l’alternativa più popolare a Claude Code, è stata la vittima principale. Aveva falsificato l’identità client di Claude Code tramite header HTTP, facendo credere ai server di Anthropic che le richieste provenissero dalla CLI ufficiale.
Cline, RooCode e altre estensioni IDE che si appoggiavano alle credenziali di abbonamento Claude hanno smesso di funzionare.
Dipendenti di xAI che usavano Claude tramite Cursor hanno perso l’accesso. Separatamente, dipendenti di OpenAI erano già stati bloccati nell’agosto 2025, a quanto pare per aver fatto benchmark di GPT-5 contro Claude.
Utenti di OpenClaw e NanoClaw che instradavano tramite OAuth di abbonamento (anziché chiavi API) sono stati colpiti, anche se Anthropic ha successivamente chiarito che «nulla cambia nel modo in cui i clienti hanno usato il loro account e Anthropic non cancellerà account.»
Cosa non è stato colpito: utenti con chiavi API standard, integrazioni OpenRouter, chiunque pagasse per token. Il blocco mirava ai token OAuth di abbonamento utilizzati al di fuori delle app di Anthropic.
L’economia dietro la decisione
La motivazione è semplice aritmetica.
| Metodo | Costo mensile (uso intensivo) |
|---|---|
| Abbonamento Max tramite Claude Code | ~200 $ forfettario |
| Utilizzo equivalente via API | 1.000 $+ |
Un abbonamento Claude Max a 200 $/mese diventa profondamente non redditizio quando gli utenti instradano carichi di lavoro agentici attraverso strumenti di terze parti che aggirano i limiti di velocità integrati. Claude Opus via API costa 15 $ per milione di token di input e 75 $ per milione di token di output. Un agente IA attivo che usa Opus può bruciare milioni di token al giorno.
Il problema si è accelerato quando la tecnica “Ralph Wiggum” è diventata virale alla fine del 2025: sviluppatori che intrappolano Claude in loop autonomi auto-riparanti che girano tutta la notte, reinserendo gli errori nella finestra di contesto fino a quando i test non passano. Anthropic ha persino rilasciato un plugin ufficiale Ralph Wiggum per Claude Code, perché all’interno del loro strumento controllano i limiti di velocità e raccolgono telemetria. Il problema erano gli strumenti di terze parti che eseguivano gli stessi loop senza queste protezioni, bruciando token a un ritmo che rendeva gli abbonamenti a tariffa fissa profondamente non redditizi.
Un commentatore su Hacker News ha riassunto senza giri di parole: «In un mese di Claude Code, è facile usare così tanti token LLM che vi sarebbe costato più di 1.000 $ se aveste pagato tramite API.»
Modelli di frontiera più loop agentici più prezzi forfettari non possono coesistere. Qualcosa doveva cedere.
Dal blocco tecnico alla policy ufficiale
Il blocco di gennaio è stato caotico. Thariq Shihipar di Anthropic ha riconosciuto che alcuni account sono stati «automaticamente bannati per aver attivato filtri anti-abuso», un errore che l’azienda ha corretto. L’azienda ha presentato l’azione come mirata a strumenti che «falsificavano il client ufficiale», ma non c’era documentazione a supporto. Solo un interruttore lato server e un messaggio di errore stringato.
La reazione è stata severa. David Heinemeier Hansson (DHH), creatore di Ruby on Rails, l’ha definita «molto ostile verso i clienti». George Hotz (geohot) ha pubblicato «Anthropic is making a huge mistake», sostenendo che le restrizioni «non convertiranno le persone di nuovo a Claude Code, le convertiranno ad altri fornitori di modelli.» Gergely Orosz, autore di The Pragmatic Engineer, ha concluso che Anthropic è «soddisfatta di non avere praticamente alcun ecosistema intorno a Claude.»
Nel giro di ore, si sono accumulate oltre 147 reazioni sulle issue GitHub e oltre 245 punti su Hacker News. L’AWS Hero AJ Stuyvenberg ha commentato: «Stanno speedrunnando il viaggio da startup perdonabile a corporazione detestabile prima ancora di un exit!»
Non tutti erano in disaccordo. Lo sviluppatore Artem K ha osservato che la stretta è stata «la più gentile possibile», sottolineando che si trattava di «solo un messaggio educato invece di eliminare il vostro account o addebitarvi retroattivamente i prezzi API.» Altri hanno argomentato che OpenCode violava i termini di servizio fin dall’inizio falsificando le identità client.
Ora, sei settimane dopo, Anthropic ha pubblicato la documentazione ufficiale che codifica ciò che il blocco lato server già applicava. La pagina traccia una linea netta: l’autenticazione OAuth è «destinata esclusivamente a Claude Code e Claude.ai.» Tutto il resto richiede chiavi API tramite la Claude Console, fatturate per token. Anthropic si riserva inoltre il diritto di applicare «senza preavviso.»
La reazione odierna su Hacker News suggerisce che la ferita non si è rimarginata. Gli sviluppatori leggono la documentazione non come un chiarimento, ma come una conferma: il giardino recintato è permanente.
La situazione si preparava da tempo
Il blocco di gennaio non è stato il primo passo.
Nel giugno 2025, Anthropic ha tagliato quasi tutto l’accesso diretto di Windsurf ai modelli Claude con meno di una settimana di preavviso, dopo che erano circolate voci secondo cui OpenAI stesse acquisendo Windsurf. Il cofondatore di Anthropic Jared Kaplan ha spiegato che sarebbe stato «strano per noi vendere Claude a OpenAI.» Windsurf è stata costretta a passare al BYOK (Bring Your Own Key) e a promuovere Google Gemini come alternativa.
Google ha attraversato un ciclo simile. Gli sviluppatori avevano estratto token OAuth dall’IDE Antigravity di Google e li iniettavano in strumenti di terze parti per accedere gratuitamente ai modelli Gemini. Google ha classificato questo come violazione dei termini di servizio sotto «aggiramento delle misure di sicurezza» e ha emesso ban degli account.
Lo schema è chiaro: le aziende di IA seguono il playbook di Apple. L’era iniziale (2022 al 2024) offriva API aperte e incoraggiava le integrazioni di terze parti. L’era attuale dà priorità al lock-in dell’ecosistema e agli strumenti ufficiali.
Gli strumenti si disaccoppiano dai fornitori
Ogni restrizione accelera una controtendenza. In questo caso: l’indipendenza dal fornitore.
È ancora possibile portare la propria chiave API Anthropic nella maggior parte degli strumenti. Ma non è questo il punto. Una chiave API non vi protegge se Anthropic cambia i prezzi, limita l’accesso o decide che il vostro caso d’uso non rientra più nei loro termini. Il vero cambiamento è che gli strumenti stanno diventando genuinamente agnostici rispetto al fornitore, così da poter sostituire il modello sottostante senza cambiare nient’altro.
Questo sta già accadendo in tutta l’industria. OpenCode ha pivotato entro ore dal blocco di gennaio per supportare tutti i principali fornitori. Cline e RooCode permettono di cambiare modello per ogni attività. Gateway come OpenRouter e LiteLLM rendono il modello un’opzione di configurazione piuttosto che una dipendenza architetturale.
Lo schema è lo stesso ovunque: il modello sta diventando un input intercambiabile. Gli strumenti che prosperano sono quelli che lo trattano come tale. OpenClaw è stato costruito su questo principio fin dall’inizio. Funziona con qualsiasi endpoint compatibile con OpenAI, il che significa che funziona con praticamente tutti i modelli in questa lista e tutti i fornitori che li servono.
I modelli open source colmano il divario
Le restrizioni di Anthropic arrivano nel peggior momento possibile per il lock-in proprietario.
DeepSeek R1, rilasciato nel gennaio 2025, ha dimostrato che i modelli open-weight possono offrire ragionamento a livello di frontiera. Ha eguagliato GPT-4 nei benchmark costando il 73% in meno. Il «momento DeepSeek» è stata la prima volta che molti sviluppatori hanno realizzato di poter ottenere prestazioni di primo livello senza passare per OpenAI, Anthropic o Google.
Proprio questo mese, il panorama open source è cambiato di nuovo:
- GLM-5 di Z AI guida le classifiche open source di febbraio 2026, con il suo predecessore GLM-4.7 che ha raggiunto il 73,8% su SWE-bench Verified. Prezzi API: 1,00 $/3,20 $ per milione di token di input/output.
- Qwen 3.5 (Alibaba) è stato lanciato pochi giorni fa con capacità agentiche native, supporto per 201 lingue e costi operativi inferiori del 60% rispetto al predecessore. Prezzi API: 0,40 $/2,40 $ per milione di token.
- DeepSeek V3.2 è ora disponibile in una variante «Speciale» con l’88,7% su LiveCodeBench, rilasciata sotto licenza MIT. Prezzi API: 0,28 $/0,42 $ per milione di token.
- Kimi K2.5 (Moonshot AI) raggiunge il 96% su AIME 2025, superando la maggior parte dei modelli proprietari in matematica. Prezzi API: 0,45 $/2,25 $ per milione di token tramite DeepInfra.
- Grok 3 è confermato per il rilascio open source da Elon Musk
Per confronto, Claude Sonnet costa 3 $/15 $ per milione di token e Claude Opus costa 5 $/25 $. Le opzioni open source più economiche sono da 10 a 50 volte meno costose.
Il divario tra modelli open source e proprietari si è ridotto da 17,5 a 0,3 punti MMLU in un solo anno. I modelli open source ora rispondono alle due maggiori preoccupazioni aziendali sull’adozione dell’IA: la privacy dei dati e l’imprevedibilità dei costi. E poiché OpenClaw supporta qualsiasi endpoint compatibile con OpenAI, potete indirizzare il vostro agente verso qualsiasi di questi modelli oggi stesso.
Cosa significa per OpenClaw
Diciamolo chiaramente: OpenClaw.rocks non è interessato da questo divieto.
Nessun piano utilizza token OAuth di abbonamento. Con il piano Light, portate le vostre chiavi API e vi connettete direttamente al fornitore che preferite. Con il piano Pro, forniamo accesso IA preconfigurato con token inclusi, instradato attraverso il nostro gateway Bifrost. In entrambi i casi, il vostro agente gira sulla propria istanza dedicata che controllate voi.
Cambiare fornitore è una modifica di configurazione. Oggi usate DeepSeek V3.2 a 0,28 $ per milione di token di input. Domani Qwen rilascia un modello migliore e lo sostituite. La prossima settimana Anthropic abbassa i prezzi e riaggiungete Claude. Il vostro agente, i vostri dati, la vostra cronologia delle conversazioni: nulla di tutto ciò cambia. Cambia solo il modello dietro.
Quando un fornitore può restringere il vostro accesso dall’oggi al domani «senza preavviso», gli strumenti e le piattaforme che sopravvivono sono quelli che non dipendono dalla buona volontà di un singolo fornitore. Come un commentatore su HN ha sintetizzato: costruire su un singolo fornitore closed-source potrebbe essere «l’equivalente IA di scegliere Oracle al posto di Postgres.»
Il divieto di Anthropic valida un principio fondamentale su cui abbiamo costruito: dovreste controllare la vostra configurazione IA. Questo significa che il vostro agente gira sulla vostra istanza, le vostre chiavi API si connettono al fornitore che vi offre le migliori prestazioni per dollaro, e nessun singolo fornitore può staccare la spina ai vostri flussi di lavoro.
Cosa succederà dopo
Tre previsioni:
1. Il multi-provider diventa lo standard. Gli sviluppatori trattano già i modelli IA come componenti intercambiabili. L’API compatibile con OpenAI è diventata uno standard de facto che la maggior parte dei fornitori ora supporta, e gateway come OpenRouter e LiteLLM rendono il cambio di modello una modifica di configurazione di una riga. Quando il vostro strumento funziona con qualsiasi fornitore, nessun singolo venditore ha leva su di voi.
2. I modelli open source diventano la scommessa sicura. Quando un fornitore proprietario può revocare il vostro accesso dall’oggi al domani, i modelli open-weight come DeepSeek, Qwen e GLM sembrano meno un compromesso e più un vantaggio strategico. Potete eseguirli sul vostro hardware, ospitarli tramite qualsiasi provider di inferenza o alternarli liberamente. Nessun fornitore può staccare la spina a un modello con licenza MIT.
3. Gestire il proprio agente diventa la norma. Quando la scelta è tra fidarsi di un fornitore che può cambiare i termini dall’oggi al domani e gestire il proprio agente IA su un’istanza che controllate, sempre più team sceglieranno la seconda opzione. Soprattutto perché i modelli open source continuano a colmare il divario di capacità e piattaforme come OpenClaw.rocks lo rendono un setup in un clic piuttosto che un progetto DevOps.
L’era di costruire sulla buona volontà di un singolo fornitore di IA sta finendo. Ciò che la sostituisce è più resiliente: software open source, architettura agnostica rispetto al fornitore e infrastruttura che nessun venditore può revocare.
Tre punti da ricordare
-
Se state usando token OAuth di abbonamento Claude in strumenti di terze parti, fermatevi. Ora viola esplicitamente i termini di servizio di Anthropic e il vostro account potrebbe essere segnalato. Passate a chiavi API (aspettatevi costi 5x+ superiori per uso intensivo) o a un fornitore completamente diverso.
-
Diversificate le vostre dipendenze IA. Qualsiasi strumento che funziona solo con un fornitore di modelli è un rischio. Costruite su framework che vi permettano di cambiare modello senza riscrivere i flussi di lavoro.
-
Scegliete modelli open source e strumenti agnostici rispetto al fornitore. I modelli open-weight come DeepSeek e Qwen non possono essere revocati un martedì alle 2 di notte. Abbinateli a uno strumento che vi permetta di cambiare fornitore liberamente. OpenClaw.rocks è stato costruito esattamente per questo.
Anthropic ha preso una decisione commerciale. Potete essere d’accordo o in disaccordo con il ragionamento. Ma la lezione per tutti coloro che costruiscono con l’IA è la stessa: non costruite su terreno proprietario che non possedete.