Η Anthropic απαγόρευσε εργαλεία τρίτων. Να τι σημαίνει αυτό.
Η Anthropic μόλις το έκανε επίσημο. Μια πρόσφατα δημοσιευμένη σελίδα Legal and compliance στην τεκμηρίωση του Claude Code το δηλώνει ξεκάθαρα:
“Using OAuth tokens obtained through Claude Free, Pro, or Max accounts in any other product, tool, or service — including the Agent SDK — is not permitted and constitutes a violation of the Consumer Terms of Service.”
Ακόμα και το ίδιο το Agent SDK της Anthropic απαγορεύεται με tokens συνδρομής. Αν ούτε το δικό τους SDK δεν εξαιρείται, τότε τίποτα δεν εξαιρείται.
Αυτή η τεκμηρίωση επισημοποιεί αυτό που οι προγραμματιστές βιώνουν από τον Ιανουάριο. Αλλά το να το βλέπεις γραμμένο ασπρόμαυρα, σε μια ειδική νομική σελίδα με ρητή γλώσσα επιβολής, χτυπά διαφορετικά. Το νήμα στο Hacker News που ανέδειξε τη σελίδα σήμερα είναι ήδη γεμάτο από απογοητευμένους προγραμματιστές που επαναφέρουν τα ίδια επιχειρήματα από πριν έξι εβδομάδες.
Ιδού η πλήρης ιστορία του πώς φτάσαμε εδώ.
Το τεχνικό μπλόκο: 9 Ιανουαρίου
Η γραπτή πολιτική είναι νέα. Η επιβολή όχι.
Στις 9 Ιανουαρίου 2026, η Anthropic ανέπτυξε προστατευτικά μέτρα στην πλευρά του διακομιστή που μπλόκαραν τα OAuth tokens συνδρομής από το να λειτουργούν εκτός του επίσημου Claude Code CLI τους. Τα εργαλεία τρίτων έλαβαν ένα μόνο μήνυμα σφάλματος: “This credential is only authorized for use with Claude Code and cannot be used for other API requests.”
Χωρίς προειδοποίηση. Χωρίς δημόσια ανακοίνωση. Προγραμματιστές σε OpenCode, Roo Code, Cline και άλλα εργαλεία ξύπνησαν με χαλασμένες ροές εργασίας και άρχισαν να αναφέρουν προβλήματα.
Το OpenCode (τώρα με πάνω από 107 χιλιάδες αστέρια στο GitHub), η πιο δημοφιλής εναλλακτική του Claude Code, ήταν το κύριο θύμα. Πλαστογραφούσε την ταυτότητα πελάτη του Claude Code μέσω HTTP headers, κάνοντας τους διακομιστές της Anthropic να πιστεύουν ότι τα αιτήματα προέρχονταν από το επίσημο CLI.
Τα Cline, RooCode και άλλες επεκτάσεις IDE που βασίζονταν στα διαπιστευτήρια συνδρομής Claude σταμάτησαν επίσης να λειτουργούν.
Υπάλληλοι της xAI που χρησιμοποιούσαν Claude μέσω Cursor έχασαν την πρόσβαση. Ξεχωριστά, υπάλληλοι της OpenAI είχαν ήδη μπλοκαριστεί τον Αύγουστο 2025, φέρεται για σύγκριση του GPT-5 με τον Claude.
Χρήστες OpenClaw και NanoClaw που δρομολογούσαν μέσω OAuth συνδρομής (αντί για API keys) επηρεάστηκαν επίσης, αν και η Anthropic αργότερα διευκρίνισε ότι “τίποτα δεν αλλάζει σχετικά με τον τρόπο που οι πελάτες χρησιμοποιούσαν τους λογαριασμούς τους και η Anthropic δεν θα ακυρώσει λογαριασμούς.”
Τι δεν επηρεάστηκε: οι κανονικοί χρήστες API keys, οι ενσωματώσεις OpenRouter, όποιος πληρώνει ανά token. Το μπλόκο στόχευε tokens OAuth συνδρομής που χρησιμοποιούνταν εκτός των εφαρμογών της Anthropic.
Τα οικονομικά πίσω από αυτό
Το κίνητρο είναι απλά μαθηματικά.
| Μέθοδος | Μηνιαίο κόστος (εντατική χρήση) |
|---|---|
| Συνδρομή Max μέσω Claude Code | ~200 $ σταθερό |
| Ισοδύναμη χρήση API | 1.000+ $ |
Μια συνδρομή Claude Max στα 200 $/μήνα γίνεται βαθιά ζημιογόνα όταν οι χρήστες δρομολογούν φόρτους εργασίας agents μέσω εργαλείων τρίτων που αφαιρούν τα ενσωματωμένα όρια. Η τιμολόγηση του Claude Opus API είναι 15 $ ανά εκατομμύριο tokens εισόδου και 75 $ ανά εκατομμύριο tokens εξόδου. Ένας ενεργός AI agent που τρέχει Opus μπορεί να καίει εκατομμύρια tokens την ημέρα.
Το πρόβλημα επιταχύνθηκε όταν η τεχνική “Ralph Wiggum” έγινε viral στα τέλη του 2025: προγραμματιστές παγίδευαν τον Claude σε αυτόνομους βρόχους αυτοδιόρθωσης που τρέχουν όλη τη νύχτα, τροφοδοτώντας αποτυχίες πίσω στο παράθυρο πλαισίου μέχρι να περάσουν τα τεστ. Η Anthropic μάλιστα κυκλοφόρησε ένα επίσημο plugin Ralph Wiggum για το Claude Code, επειδή μέσα στο δικό τους εργαλείο ελέγχουν τα όρια και συλλέγουν τηλεμετρία. Το πρόβλημα ήταν τα εργαλεία τρίτων που εκτελούσαν τους ίδιους βρόχους χωρίς αυτά τα μέτρα προστασίας, καίγοντας tokens με ρυθμό που έκανε τις σταθερές συνδρομές βαθιά ζημιογόνες.
Ένας σχολιαστής στο Hacker News το συνόψισε ευθέως: “Σε ένα μήνα Claude Code, είναι εύκολο να χρησιμοποιήσεις τόσα πολλά LLM tokens που θα σου κόστιζε πάνω από 1.000 $ αν πλήρωνες μέσω API.”
Κορυφαία μοντέλα συν βρόχοι agents συν σταθερή τιμολόγηση δεν μπορούν να συνυπάρξουν. Κάτι έπρεπε να υποχωρήσει.
Από τεχνικό μπλόκο σε επίσημη πολιτική
Το μπλόκο του Ιανουαρίου ήταν χαοτικό. Ο Thariq Shihipar της Anthropic αναγνώρισε ότι ορισμένοι λογαριασμοί “απαγορεύτηκαν αυτόματα επειδή ενεργοποίησαν φίλτρα κατάχρησης,” ένα σφάλμα που η εταιρεία διόρθωσε. Η εταιρεία πλαισίωσε την επιβολή ως στόχευση εργαλείων που “πλαστογραφούσαν τον επίσημο πελάτη,” αλλά δεν υπήρχε τεκμηρίωση που να το υποστηρίζει. Μόνο ένας διακόπτης στην πλευρά του διακομιστή και ένα σύντομο μήνυμα σφάλματος.
Η αντίδραση ήταν σφοδρή. Ο David Heinemeier Hansson (DHH), δημιουργός του Ruby on Rails, το χαρακτήρισε “πολύ εχθρικό προς τους πελάτες”. Ο George Hotz (geohot) δημοσίευσε “Η Anthropic κάνει ένα τεράστιο λάθος”, υποστηρίζοντας ότι οι περιορισμοί “δεν θα μετατρέψουν τους ανθρώπους πίσω σε χρήστες του Claude Code, αλλά θα τους μετατρέψουν σε χρήστες άλλων παρόχων μοντέλων.” Ο Gergely Orosz, συγγραφέας του The Pragmatic Engineer, κατέληξε ότι η Anthropic είναι “ικανοποιημένη που πρακτικά δεν έχει οικοσύστημα γύρω από τον Claude.”
Μέσα σε λίγες ώρες, 147+ αντιδράσεις συγκεντρώθηκαν σε GitHub issues και 245+ πόντοι στο Hacker News. Ο AWS Hero AJ Stuyvenberg σχολίασε πνευματωδώς: “Κάνουν speedrun τη διαδρομή από συγχωρήσιμο startup σε απεχθή εταιρεία πριν καν από κάποιο exit!”
Δεν διαφωνούσαν όλοι. Ο προγραμματιστής Artem K σημείωσε ότι το μπλόκο ήταν “το πιο ήπιο που θα μπορούσε να ήταν,” επισημαίνοντας ότι ήταν “απλά ένα ευγενικό μήνυμα αντί να καταστρέψουν τον λογαριασμό σας ή να σας χρεώσουν αναδρομικά τιμές API.” Άλλοι υποστήριξαν ότι το OpenCode παραβίαζε τους όρους χρήσης από την αρχή πλαστογραφώντας ταυτότητες πελατών.
Τώρα, έξι εβδομάδες αργότερα, η Anthropic δημοσίευσε την επίσημη τεκμηρίωση που κωδικοποιεί αυτό που το μπλόκο στην πλευρά του διακομιστή ήδη επέβαλλε. Η σελίδα θέτει μια σαφή γραμμή: η ταυτοποίηση OAuth είναι “προορίζεται αποκλειστικά για το Claude Code και το Claude.ai.” Οτιδήποτε άλλο απαιτεί API keys μέσω του Claude Console, με χρέωση ανά token. Η Anthropic επίσης διατηρεί το δικαίωμα επιβολής “χωρίς προηγούμενη ειδοποίηση.”
Η σημερινή αντίδραση στο Hacker News υποδηλώνει ότι η πληγή δεν έχει επουλωθεί. Οι προγραμματιστές διαβάζουν την τεκμηρίωση όχι ως διευκρίνιση, αλλά ως επιβεβαίωση: ο κλειστός κήπος είναι μόνιμος.
Αυτό χτίζεται εδώ και καιρό
Το μπλόκο του Ιανουαρίου δεν ήταν η πρώτη κίνηση.
Τον Ιούνιο 2025, η Anthropic έκοψε σχεδόν όλη την άμεση πρόσβαση του Windsurf στα μοντέλα Claude με λιγότερο από μία εβδομάδα προειδοποίηση, μετά από φήμες ότι η OpenAI εξαγόραζε τη Windsurf. Ο συνιδρυτής της Anthropic, Jared Kaplan, εξήγησε ότι θα ήταν “παράξενο για εμάς να πουλήσουμε τον Claude στην OpenAI.” Η Windsurf αναγκάστηκε να στραφεί στο BYOK (Bring Your Own Key) και να προωθήσει το Google Gemini ως εναλλακτική.
Η Google πέρασε από παρόμοιο κύκλο. Προγραμματιστές εξήγαγαν OAuth tokens από το Antigravity IDE της Google και τα εισήγαγαν σε εργαλεία τρίτων για δωρεάν πρόσβαση στα μοντέλα Gemini. Η Google χαρακτήρισε αυτό ως παραβίαση των όρων χρήσης υπό “παράκαμψη μέτρων ασφαλείας” και εξέδωσε αποκλεισμούς λογαριασμών.
Το μοτίβο είναι σαφές: οι εταιρείες AI ακολουθούν το playbook της Apple. Η πρώιμη εποχή (2022 ως 2024) περιλάμβανε ανοιχτά API και ενθάρρυνε ενσωματώσεις τρίτων. Η τρέχουσα εποχή δίνει προτεραιότητα στο κλείδωμα οικοσυστήματος και τα επίσημα εργαλεία.
Τα εργαλεία αποσυνδέονται από τους παρόχους
Κάθε περιορισμός επιταχύνει μια αντίθετη τάση. Σε αυτή την περίπτωση: ανεξαρτησία από τον πάροχο.
Μπορείτε ακόμα να φέρετε το δικό σας Anthropic API key στα περισσότερα εργαλεία. Αλλά αυτό χάνει την ουσία. Ένα API key δεν σας προστατεύει αν η Anthropic αλλάξει τιμολόγηση, περιορίσει την πρόσβαση ή αποφασίσει ότι η περίπτωση χρήσης σας δεν ταιριάζει πλέον στους όρους τους. Η πραγματική αλλαγή είναι ότι τα εργαλεία γίνονται πραγματικά ανεξάρτητα από τον πάροχο, ώστε να μπορείτε να αλλάξετε το υποκείμενο μοντέλο χωρίς να αλλάξετε τίποτε άλλο.
Αυτό ήδη συμβαίνει σε όλη τη βιομηχανία. Το OpenCode στράφηκε μέσα σε λίγες ώρες από το μπλόκο του Ιανουαρίου στην υποστήριξη κάθε μεγάλου παρόχου. Τα Cline και RooCode σας αφήνουν να αλλάζετε μοντέλα ανά εργασία. Gateways όπως OpenRouter και LiteLLM κάνουν το μοντέλο επιλογή διαμόρφωσης αντί για αρχιτεκτονική εξάρτηση.
Το μοτίβο είναι παντού το ίδιο: το μοντέλο γίνεται εμπόρευμα. Τα εργαλεία που ευδοκιμούν είναι αυτά που το αντιμετωπίζουν έτσι. Το OpenClaw χτίστηκε πάνω σε αυτήν την αρχή από την αρχή. Λειτουργεί με οποιοδήποτε OpenAI-συμβατό endpoint, πράγμα που σημαίνει ότι λειτουργεί με σχεδόν κάθε μοντέλο σε αυτήν τη λίστα και κάθε πάροχο που τα εξυπηρετεί.
Τα μοντέλα ανοιχτού κώδικα κλείνουν το κενό
Οι περιορισμοί της Anthropic φτάνουν στη χειρότερη δυνατή στιγμή για ιδιοκτησιακό κλείδωμα.
Το DeepSeek R1, που κυκλοφόρησε τον Ιανουάριο 2025, απέδειξε ότι τα μοντέλα ανοιχτών βαρών μπορούν να παρέχουν συλλογιστική κορυφαίου επιπέδου. Ισοφάρισε το GPT-4 σε benchmarks κοστίζοντας 73% λιγότερο. Η “στιγμή DeepSeek” ήταν η πρώτη φορά που πολλοί προγραμματιστές συνειδητοποίησαν ότι μπορούσαν να έχουν κορυφαία απόδοση χωρίς να περνούν μέσα από OpenAI, Anthropic ή Google.
Αυτόν τον μήνα, το τοπίο ανοιχτού κώδικα άλλαξε ξανά:
- GLM-5 από Z AI ηγείται της κατάταξης ανοιχτού κώδικα Φεβρουαρίου 2026, με τον προκάτοχο GLM-4.7 να πετυχαίνει 73,8% στο SWE-bench Verified. Τιμή API: 1,00 $/3,20 $ ανά εκατομμύριο tokens εισόδου/εξόδου.
- Qwen 3.5 (Alibaba) κυκλοφόρησε πριν λίγες μέρες με εγγενείς δυνατότητες agent, υποστήριξη 201 γλωσσών και 60% χαμηλότερο λειτουργικό κόστος από τον προκάτοχο. Τιμή API: 0,40 $/2,40 $ ανά εκατομμύριο tokens.
- DeepSeek V3.2 διαθέσιμο τώρα σε παραλλαγή “Speciale” με βαθμολογία 88,7% στο LiveCodeBench, κυκλοφόρησε υπό άδεια MIT. Τιμή API: 0,28 $/0,42 $ ανά εκατομμύριο tokens.
- Kimi K2.5 (Moonshot AI) πετυχαίνει 96% στο AIME 2025, ξεπερνώντας τα περισσότερα ιδιοκτησιακά μοντέλα στα μαθηματικά. Τιμή API: 0,45 $/2,25 $ ανά εκατομμύριο tokens μέσω DeepInfra.
- Grok 3 επιβεβαιώθηκε για κυκλοφορία ανοιχτού κώδικα από τον Elon Musk
Για σύγκριση, ο Claude Sonnet κοστίζει 3 $/15 $ ανά εκατομμύριο tokens και ο Claude Opus 5 $/25 $. Οι πιο οικονομικές επιλογές ανοιχτού κώδικα είναι 10 έως 50 φορές φθηνότερες.
Το κενό μεταξύ ανοιχτού κώδικα και ιδιοκτησιακών μοντέλων μειώθηκε από 17,5 σε 0,3 πόντους MMLU σε ένα μόνο χρόνο. Τα μοντέλα ανοιχτού κώδικα αντιμετωπίζουν τώρα τις δύο μεγαλύτερες ανησυχίες των επιχειρήσεων σχετικά με την υιοθέτηση AI: ιδιωτικότητα δεδομένων και απρόβλεπτο κόστος. Και επειδή το OpenClaw υποστηρίζει οποιοδήποτε OpenAI-συμβατό endpoint, μπορείτε να στρέψετε τον agent σας σε οποιοδήποτε από αυτά τα μοντέλα σήμερα.
Τι σημαίνει αυτό για το OpenClaw
Ας είμαστε ευθείς: Το OpenClaw.rocks δεν επηρεάζεται από αυτή την απαγόρευση.
Κανένα πλάνο δεν χρησιμοποιεί OAuth tokens συνδρομής. Στο Light πλάνο, φέρνετε τα δικά σας API keys και συνδέεστε απευθείας με τον πάροχο της επιλογής σας. Στο Pro πλάνο, παρέχουμε προδιαμορφωμένη πρόσβαση AI με συμπεριλαμβανόμενα tokens, δρομολογημένα μέσω του gateway Bifrost μας. Και στις δύο περιπτώσεις, ο agent σας τρέχει στη δική του αποκλειστική instance που εσείς ελέγχετε.
Η αλλαγή παρόχου είναι αλλαγή διαμόρφωσης. Σήμερα τρέχετε DeepSeek V3.2 στα 0,28 $ ανά εκατομμύριο tokens εισόδου. Αύριο η Qwen κυκλοφορεί ένα καλύτερο μοντέλο και το αλλάζετε. Την επόμενη εβδομάδα η Anthropic μειώνει τις τιμές της και προσθέτετε τον Claude πίσω. Ο agent σας, τα δεδομένα σας, το ιστορικό συνομιλιών σας: τίποτα από αυτά δεν αλλάζει. Μόνο το μοντέλο πίσω από αυτά.
Όταν ένας προμηθευτής μπορεί να περιορίσει την πρόσβασή σας μέσα στη νύχτα “χωρίς προηγούμενη ειδοποίηση,” τα εργαλεία και οι πλατφόρμες που επιβιώνουν είναι αυτά που δεν εξαρτώνται από την καλή θέληση ενός μόνο παρόχου. Όπως ένας σχολιαστής στο HN το έθεσε: το να χτίζεις πάνω σε έναν μόνο πάροχο κλειστού κώδικα θα μπορούσε να είναι “το AI ισοδύναμο της επιλογής Oracle αντί Postgres.”
Η απαγόρευση της Anthropic επικυρώνει μια βασική αρχή γύρω από την οποία έχουμε χτίσει: πρέπει να ελέγχετε τη ρύθμιση AI σας. Αυτό σημαίνει ότι ο agent σας τρέχει στη δική σας instance, τα API keys σας συνδέονται με τον πάροχο που σας δίνει την καλύτερη απόδοση ανά δολάριο, και κανένας μεμονωμένος προμηθευτής δεν μπορεί να κόψει τις ροές εργασίας σας.
Τι ακολουθεί
Τρεις προβλέψεις:
1. Η χρήση πολλαπλών παρόχων γίνεται το προεπιλεγμένο. Οι προγραμματιστές ήδη αντιμετωπίζουν τα μοντέλα AI ως εναλλάξιμα εξαρτήματα. Το OpenAI-συμβατό API έχει γίνει de facto πρότυπο που οι περισσότεροι πάροχοι υποστηρίζουν πλέον, και gateways όπως OpenRouter και LiteLLM κάνουν την εναλλαγή μεταξύ μοντέλων αλλαγή μίας γραμμής στη διαμόρφωση. Όταν το εργαλείο σας λειτουργεί με οποιονδήποτε πάροχο, κανένας μεμονωμένος προμηθευτής δεν έχει μόχλευση πάνω σας.
2. Τα μοντέλα ανοιχτού κώδικα γίνονται η ασφαλής επιλογή. Όταν ένας ιδιοκτησιακός πάροχος μπορεί να ανακαλέσει την πρόσβασή σας μέσα στη νύχτα, τα μοντέλα ανοιχτών βαρών όπως DeepSeek, Qwen και GLM αρχίζουν να μοιάζουν λιγότερο με συμβιβασμό και περισσότερο με στρατηγικό πλεονέκτημα. Μπορείτε να τα τρέξετε στο δικό σας hardware, να τα φιλοξενήσετε μέσω οποιουδήποτε παρόχου inference ή να εναλλάσσεστε ελεύθερα μεταξύ τους. Κανένας προμηθευτής δεν μπορεί να τραβήξει το φις από ένα μοντέλο με άδεια MIT.
3. Η εκτέλεση του δικού σας agent γίνεται ο κανόνας. Όταν η επιλογή είναι μεταξύ εμπιστοσύνης σε έναν προμηθευτή που μπορεί να αλλάξει όρους μέσα στη νύχτα και εκτέλεσης του δικού σας AI agent σε μια instance που εσείς ελέγχετε, περισσότερες ομάδες θα επιλέξουν το δεύτερο. Ειδικά καθώς τα μοντέλα ανοιχτού κώδικα συνεχίζουν να κλείνουν το κενό δυνατοτήτων και πλατφόρμες όπως το OpenClaw.rocks το κάνουν εγκατάσταση με ένα κλικ αντί για DevOps project.
Η εποχή του να χτίζεις πάνω στην καλή θέληση ενός μόνο παρόχου AI τελειώνει. Αυτό που την αντικαθιστά είναι πιο ανθεκτικό: λογισμικό ανοιχτού κώδικα, αρχιτεκτονική ανεξάρτητη από πάροχο και υποδομή που κανένας προμηθευτής δεν μπορεί να ανακαλέσει.
Τρία πράγματα να θυμάστε
-
Αν χρησιμοποιείτε Claude OAuth tokens συνδρομής σε εργαλεία τρίτων, σταματήστε. Παραβιάζει πλέον ρητά τους όρους χρήσης της Anthropic και ο λογαριασμός σας μπορεί να επισημανθεί. Μεταβείτε σε API keys (αναμένετε 5x+ υψηλότερο κόστος για εντατική χρήση) ή σε εντελώς διαφορετικό πάροχο.
-
Διαφοροποιήστε τις εξαρτήσεις σας από AI. Κάθε εργαλείο που λειτουργεί μόνο με έναν πάροχο μοντέλων είναι κίνδυνος. Χτίστε πάνω σε frameworks που σας αφήνουν να αλλάζετε μοντέλα χωρίς να ξαναγράφετε ροές εργασίας.
-
Επιλέξτε μοντέλα ανοιχτού κώδικα και εργαλεία ανεξάρτητα από πάροχο. Μοντέλα ανοιχτών βαρών όπως DeepSeek και Qwen δεν μπορούν να ανακληθούν μια Τρίτη στις 2 τα ξημερώματα. Συνδυάστε τα με ένα εργαλείο που σας αφήνει να αλλάζετε παρόχους ελεύθερα. Το OpenClaw.rocks χτίστηκε ακριβώς για αυτό.
Η Anthropic πήρε μια επιχειρηματική απόφαση. Μπορείτε να συμφωνείτε ή να διαφωνείτε με το σκεπτικό. Αλλά το μάθημα για όλους όσους χτίζουν με AI είναι το ίδιο: μη χτίζετε σε κλειστό έδαφος που δεν κατέχετε.