Als uw AI-assistent plotseling iets vergat dat u eerder had gezegd, of halverwege een gesprek anders begon te reageren, heeft u mogelijk contextcompactie ervaren. Dit artikel legt uit wat het betekent, waarom het gebeurt en wat u eraan kunt doen.

Eerst: wat is een contextvenster?

Elk AI-model heeft een beperkt geheugen per gesprek. Dit geheugen heet het contextvenster. Het bevat alles wat het model tegelijkertijd kan “zien”: uw berichten, de antwoorden van de assistent, gebruikte bestanden of tools en de instructies die het aan het begin ontving.

Vergelijk het met een bureau. Het model kan alleen werken met de papieren die momenteel op het bureau liggen. Zodra het bureau vol is, moet er iets worden verwijderd om ruimte te maken voor nieuwe papieren.

De grootte van dit bureau is de afgelopen jaren enorm gegroeid:

JaarModelContextvenster
2022GPT-3.5 (OpenAI)~4.000 tokens
2023GPT-4 (OpenAI)8.000 tokens
2023Claude 1 (Anthropic)100.000 tokens
2024GPT-4o (OpenAI)128.000 tokens
2024Claude 3.5 Sonnet (Anthropic)200.000 tokens
2025Gemini 2.0 (Google)2.000.000 tokens

Een token is ongeveer driekwart van een woord. 200.000 tokens zijn dus ongeveer 150.000 woorden, of ruwweg de lengte van twee complete romans. Dat klinkt als veel, en dat is het ook. Maar in een langlopende AI-assistentsessie met toolaanroepen, bestandsinhoud en heen-en-weergesprekken raakt het sneller vol dan u zou verwachten.

Wat er gebeurt als het contextvenster vol raakt

Wanneer de gespreksgeschiedenis de limiet van het contextvenster nadert, heeft de assistent twee opties: stoppen met werken of ruimte maken.

Contextcompactie is de optie “ruimte maken”. De assistent vat alles wat tot dan toe is gebeurd samen in een kortere versie, verwijdert de oorspronkelijke berichten en gaat verder vanuit de samenvatting. U blijft praten met dezelfde assistent in dezelfde sessie. Het geheugen is alleen gecomprimeerd.

De samenvatting wordt gegenereerd door hetzelfde AI-model dat uw gesprek beheert. Het probeert vast te leggen wat belangrijk is: de huidige taak, recente voortgang, belangrijke beslissingen. Maar samenvatten gaat inherent gepaard met verlies. Niet elk detail haalt de samenvatting.

Waarom uw assistent instructies kan “vergeten”

Dit is het belangrijkste om te begrijpen over compactie. Wanneer het model een lang gesprek samenvat, geeft het de neiging recente activiteit voorrang te geven boven oudere instructies. Regels die u aan het begin van een sessie instelde, zoals “vraag altijd voordat je actie onderneemt” of “verwijder nooit iets zonder bevestiging”, kunnen worden gedeprioriteerd of volledig uit de samenvatting worden weggelaten.

De assistent negeert uw instructies niet opzettelijk. Na compactie heeft hij ze simpelweg niet meer. Vanuit zijn perspectief hebben die instructies nooit bestaan.

Dit is een bekend probleem bij alle AI-assistenten en codeeragenten, niet alleen bij OpenClaw. In een bekend voorbeeld kreeg een OpenClaw-assistent de instructie om alleen e-mailverwijderingen voor te stellen en op goedkeuring te wachten. Toen compactie plaatsvond tijdens een grote taak, ging die instructie verloren. De assistent bleef werken aan het doel dat hij onthield (de inbox opschonen) maar zonder de beperking die hij was vergeten (wachten op goedkeuring).

Hoe OpenClaw compactie afhandelt

OpenClaw heeft een ingebouwd compactiesysteem dat automatisch wordt geactiveerd wanneer het contextvenster vol raakt. U kunt het ook handmatig activeren met het /compact-commando, waarbij u optioneel kunt aangeven wat bewaard moet blijven.

OpenClaw ondersteunt ook persistent geheugen via bestanden zoals SOUL.md in de werkruimte van de assistent. De inhoud van deze bestanden wordt na compactie opnieuw geladen in elke nieuwe context, zodat kritieke instructies het samenvattingsproces overleven. Dit is een van de meest effectieve verdedigingen tegen instructieverlies.

Hoe u met compactie kunt werken, niet ertegen

Compactie is geen bug. Het is een noodzakelijk mechanisme dat uw assistent operationeel houdt tijdens lange sessies. Hier zijn praktische manieren om ermee om te gaan:

  • Gebruik persistente instructiebestanden. Plaats belangrijke regels in SOUL.md of vergelijkbare werkruimtebestanden in plaats van te vertrouwen op gespreksberichten. Deze overleven compactie.
  • Compacteer handmatig voordat het automatisch gebeurt. Door /compact proactief uit te voeren met specifieke instructies over wat bewaard moet blijven, heeft u meer controle.
  • Start nieuwe sessies voor nieuwe taken. Schakelt u over naar een ander onderwerp? Start een nieuwe sessie in plaats van door te gaan in een overbelaste.
  • Houd sessies gefocust. Kortere, taakgerichte sessies bereiken minder snel compactielimieten dan marathonsessies die veel verschillende onderwerpen behandelen.

Contextvensters worden groter en compactie wordt slimmer

Contextbeheer is momenteel een van de meest actieve ontwikkelingsgebieden in AI. In slechts vier jaar zijn contextvensters gegroeid van 4.000 tokens tot meer dan 2.000.000. Die groei vertraagt niet.

Tegelijkertijd bouwen modelaanbieders slimmere compactiesystemen met opties om specifieke instructies te bewaren. OpenClaw voegt functies toe zoals geheugen-flush en bootstrapbestanden die automatisch kritieke context opnieuw injecteren na compactie. En de samenvatting zelf verbetert met elke nieuwe modelgeneratie.

De huidige beperkingen zijn reeel, maar tijdelijk. Als u vandaag een compactieprobleem tegenkomt, is het de moeite waard om te begrijpen wat er is gebeurd zodat u eromheen kunt werken. Maar de trend wijst duidelijk naar AI-assistenten die lange sessies veel eleganter afhandelen.

Meer informatie