Was ist Kontextkomprimierung?
Wenn Ihr KI-Assistent plötzlich etwas vergessen hat, das Sie ihm zuvor gesagt haben, oder sich mitten im Gespräch anders verhielt, haben Sie möglicherweise Kontextkomprimierung erlebt. Dieser Artikel erklärt, was das bedeutet, warum es passiert und was Sie dagegen tun können.
Zuerst: Was ist ein Kontextfenster?
Jedes KI-Modell hat ein begrenztes Gedächtnis für jede Konversation. Dieses Gedächtnis wird Kontextfenster genannt. Es enthält alles, was das Modell gleichzeitig „sehen” kann: Ihre Nachrichten, die Antworten des Assistenten, alle genutzten Dateien oder Tools und die Instruktionen, die ihm zu Beginn gegeben wurden.
Stellen Sie es sich wie einen Schreibtisch vor. Das Modell kann nur mit den Papieren arbeiten, die gerade auf dem Schreibtisch liegen. Sobald der Schreibtisch voll ist, muss etwas weggeräumt werden, um Platz für neue Papiere zu schaffen.
Die Größe dieses Schreibtischs ist in den letzten Jahren dramatisch gewachsen:
| Jahr | Modell | Kontextfenster |
|---|---|---|
| 2022 | GPT-3.5 (OpenAI) | ~4.000 Tokens |
| 2023 | GPT-4 (OpenAI) | 8.000 Tokens |
| 2023 | Claude 1 (Anthropic) | 100.000 Tokens |
| 2024 | GPT-4o (OpenAI) | 128.000 Tokens |
| 2024 | Claude 3.5 Sonnet (Anthropic) | 200.000 Tokens |
| 2025 | Gemini 2.0 (Google) | 2.000.000 Tokens |
Ein Token entspricht ungefähr drei Vierteln eines Wortes. 200.000 Tokens sind also etwa 150.000 Wörter, oder ungefähr der Umfang von zwei kompletten Romanen. Das klingt nach viel, und das ist es auch. Aber in einer lang laufenden KI-Assistenten-Sitzung mit Tool-Aufrufen, Dateiinhalten und Hin-und-Her-Konversation füllt es sich schneller, als man erwarten würde.
Was passiert, wenn das Kontextfenster voll ist
Wenn der Gesprächsverlauf sich dem Limit des Kontextfensters nähert, hat der Assistent zwei Optionen: aufhören zu arbeiten oder Platz schaffen.
Kontextkomprimierung ist die „Platz schaffen”-Option. Der Assistent fasst alles Bisherige in eine kürzere Version zusammen, entfernt die Originalnachrichten und führt die Konversation auf Basis der Zusammenfassung weiter. Sie sprechen weiter mit demselben Assistenten in derselben Sitzung. Er hat nur sein Gedächtnis komprimiert.
Die Zusammenfassung wird vom selben KI-Modell erstellt, das Ihre Konversation bearbeitet. Es versucht, das Wesentliche festzuhalten: die aktuelle Aufgabe, den jüngsten Fortschritt, wichtige Entscheidungen. Aber Zusammenfassung ist von Natur aus verlustbehaftet. Nicht jedes Detail schafft es in die Zusammenfassung.
Warum Ihr Assistent Instruktionen „vergessen” kann
Das ist der wichtigste Punkt zum Thema Komprimierung. Wenn das Modell eine lange Konversation zusammenfasst, neigt es dazu, kürzliche Aktivitäten gegenüber älteren Instruktionen zu priorisieren. Regeln, die Sie zu Beginn einer Sitzung gesetzt haben, wie „frage immer, bevor du handelst” oder „lösche nie etwas ohne Bestätigung”, können in der Zusammenfassung herabgestuft oder komplett weggelassen werden.
Der Assistent ignoriert Ihre Instruktionen nicht absichtlich. Nach der Komprimierung hat er sie schlicht nicht mehr. Aus seiner Perspektive haben diese Instruktionen nie existiert.
Das ist ein bekanntes Problem bei allen KI-Assistenten und Coding-Agenten, nicht nur bei OpenClaw. In einem bekannten Beispiel wurde ein OpenClaw-Assistent angewiesen, nur E-Mail-Löschungen vorzuschlagen und auf Freigabe zu warten. Als die Komprimierung während einer großen Aufgabe lief, ging diese Instruktion verloren. Der Assistent arbeitete weiter am Ziel, an das er sich erinnerte (Inbox aufräumen), aber ohne die Einschränkung, die er vergessen hatte (auf Freigabe warten).
Wie OpenClaw mit Komprimierung umgeht
OpenClaw hat ein eingebautes Komprimierungssystem, das automatisch auslöst, wenn das Kontextfenster voll wird. Sie können es auch manuell mit dem /compact-Befehl auslösen und dabei angeben, was erhalten bleiben soll.
OpenClaw unterstützt zudem persistentes Gedächtnis über Dateien wie SOUL.md im Arbeitsbereich des Assistenten. Inhalte in diesen Dateien werden nach jeder Komprimierung erneut in den Kontext geladen, sodass kritische Instruktionen den Zusammenfassungsprozess überleben. Das ist eine der wirksamsten Maßnahmen gegen Instruktionsverlust.
Mit Komprimierung arbeiten, nicht dagegen
Komprimierung ist kein Bug. Sie ist ein notwendiger Mechanismus, der Ihren Assistenten in langen Sitzungen am Laufen hält. Hier sind praktische Ansätze:
- Nutzen Sie persistente Instruktionsdateien. Legen Sie wichtige Regeln in
SOUL.mdoder ähnlichen Workspace-Dateien ab, statt sich auf Konversationsnachrichten zu verlassen. Diese überleben die Komprimierung. - Komprimieren Sie manuell, bevor es automatisch passiert.
/compactproaktiv auszuführen und dabei anzugeben, was erhalten bleiben soll, gibt Ihnen mehr Kontrolle. - Starten Sie neue Sitzungen für neue Aufgaben. Wechseln Sie das Thema? Starten Sie eine neue Sitzung, statt in einer überladenen weiterzumachen.
- Halten Sie Sitzungen fokussiert. Kürzere, aufgabenspezifische Sitzungen erreichen seltener Komprimierungslimits als Marathon-Sitzungen, die viele verschiedene Themen abdecken.
Kontextfenster werden größer und Komprimierung wird intelligenter
Kontextmanagement ist eines der aktivsten Entwicklungsfelder in der KI. In nur vier Jahren sind Kontextfenster von 4.000 Tokens auf über 2.000.000 gewachsen. Dieses Wachstum verlangsamt sich nicht.
Gleichzeitig bauen Modellanbieter intelligentere Komprimierungssysteme mit Optionen zur Erhaltung bestimmter Instruktionen. OpenClaw fügt Funktionen wie Memory Flush und Bootstrap-Dateien hinzu, die kritischen Kontext nach der Komprimierung automatisch erneut einspeisen. Und die Zusammenfassung selbst verbessert sich mit jeder neuen Modellgeneration.
Die aktuellen Einschränkungen sind real, aber vorübergehend. Wenn Sie heute auf ein Komprimierungsproblem stoßen, lohnt es sich zu verstehen, was passiert ist, um es umgehen zu können. Aber die Entwicklung geht eindeutig in Richtung KI-Assistenten, die lange Sitzungen deutlich eleganter bewältigen.
Mehr erfahren
- Erfahren Sie, was OpenClaw ist und was es kann
- Prüfen Sie, ob OpenClaw sicher ist und wie Sie es absichern
- Lesen Sie die OpenClaw-Komprimierungsdokumentation
- Lesen Sie Anthropics Leitfaden zu effektivem Context Engineering für KI-Agenten
Bereit, OpenClaw auszuprobieren?
Starten Sie Ihren persönlichen Assistenten in 60 Sekunden. EU-gehostet, jederzeit kündbar.