Hvis Deres AI-assistent pludselig glemte noget, De fortalte den tidligere, eller begyndte at opføre sig anderledes midt i en samtale, har De muligvis oplevet kontekstkomprimering. Denne artikel forklarer, hvad det betyder, hvorfor det sker, og hvad De kan gøre ved det.

Først: hvad er et kontekstvindue?

Enhver AI-model har en begrænset hukommelse for hver samtale. Denne hukommelse kaldes kontekstvinduet. Det indeholder alt, modellen kan “se” på én gang: Deres beskeder, assistentens svar, alle filer eller værktøjer den brugte, og de instruktioner den fik i starten.

Tænk på det som et skrivebord. Modellen kan kun arbejde med de papirer, der aktuelt ligger på skrivebordet. Når skrivebordet er fyldt, skal noget fjernes for at gøre plads til nye papirer.

Størrelsen på dette skrivebord er vokset dramatisk de seneste år:

ÅrModelKontekstvindue
2022GPT-3.5 (OpenAI)~4.000 tokens
2023GPT-4 (OpenAI)8.000 tokens
2023Claude 1 (Anthropic)100.000 tokens
2024GPT-4o (OpenAI)128.000 tokens
2024Claude 3.5 Sonnet (Anthropic)200.000 tokens
2025Gemini 2.0 (Google)2.000.000 tokens

En token svarer til omtrent tre fjerdedele af et ord. Så 200.000 tokens er cirka 150.000 ord, eller omtrent to hele romaner. Det lyder som meget, og det er det. Men i en lang AI-assistentsession med værktøjskald, filindhold og frem-og-tilbage-samtale fyldes det hurtigere, end De måske forventer.

Hvad der sker, når kontekstvinduet fyldes

Når samtalehistorikken nærmer sig kontekstvinduets grænse, har assistenten to muligheder: stoppe med at arbejde eller skabe plads.

Kontekstkomprimering er “skab plads”-muligheden. Assistenten opsummerer alt, der er sket indtil nu, i en kortere version, fjerner de originale beskeder og fortsætter samtalen fra opsummeringen. De taler fortsat med den samme assistent i den samme session. Den har blot komprimeret sin hukommelse.

Opsummeringen genereres af den samme AI-model, der håndterer Deres samtale. Den forsøger at fange det vigtige: den aktuelle opgave, nylig fremgang, nøglebeslutninger. Men opsummering er i sin natur tabsgivende. Ikke alle detaljer kommer med i opsummeringen.

Hvorfor Deres assistent kan “glemme” instruktioner

Dette er det vigtigste at forstå om komprimering. Når modellen opsummerer en lang samtale, har den tendens til at prioritere nylig aktivitet over ældre instruktioner. Regler, De satte i begyndelsen af en session, som “spørg altid før du handler” eller “slet aldrig noget uden bekræftelse”, kan nedprioriteres eller helt udelades fra opsummeringen.

Assistenten ignorerer ikke bevidst Deres instruktioner. Efter komprimering har den dem simpelthen ikke længere. Fra dens perspektiv eksisterede disse instruktioner aldrig.

Dette er et kendt problem på tværs af alle AI-assistenter og kodningsagenter, ikke kun OpenClaw. I et velkendt eksempel var en OpenClaw-assistent instrueret til kun at foreslå sletning af e-mails og vente på godkendelse. Da komprimering kørte under en stor opgave, gik den instruktion tabt. Assistenten fortsatte med at arbejde mod det mål, den huskede (ryd op i indbakken), men uden den begrænsning, den glemte (vent på godkendelse).

Sådan håndterer OpenClaw komprimering

OpenClaw har et indbygget komprimeringssystem, der aktiveres automatisk, når kontekstvinduet fyldes. De kan også aktivere det manuelt med /compact-kommandoen, eventuelt med angivelse af, hvad der skal bevares.

OpenClaw understøtter også vedvarende hukommelse gennem filer som SOUL.md i assistentens arbejdsmappe. Indhold i disse filer genindlæses i hver ny kontekst efter komprimering, så kritiske instruktioner overlever opsummeringsprocessen. Dette er et af de mest effektive forsvar mod instruktionstab.

Sådan arbejder De med komprimering, ikke imod den

Komprimering er ikke en fejl. Det er en nødvendig mekanisme, der holder Deres assistent kørende under lange sessioner. Her er praktiske måder at håndtere det på:

  • Brug vedvarende instruktionsfiler. Placer vigtige regler i SOUL.md eller lignende filer i arbejdsmappen i stedet for at stole på samtalebeskeder. Disse overlever komprimering.
  • Komprimér manuelt, før det sker automatisk. Proaktiv kørsel af /compact med specifikke instruktioner om, hvad der skal bevares, giver Dem mere kontrol.
  • Start nye sessioner til nye opgaver. Skifter De emne? Start en ny session i stedet for at fortsætte i en overbelastet.
  • Hold sessioner fokuserede. Kortere, opgavespecifikke sessioner rammer sjældnere komprimeringsgrænsen end maratonsessioner, der dækker mange forskellige emner.

Kontekstvinduer bliver større, og komprimering bliver smartere

Kontekststyring er et af de mest aktive udviklingsområder inden for AI lige nu. På kun fire år er kontekstvinduer vokset fra 4.000 tokens til over 2.000.000. Den vækst aftager ikke.

Samtidig bygger modeludbydere smartere komprimeringssystemer med muligheder for at bevare specifikke instruktioner. OpenClaw tilføjer funktioner som hukommelsesflush og bootstrap-filer, der automatisk geninjicerer kritisk kontekst efter komprimering. Og selve opsummeringen forbedres med hver ny modelgeneration.

De nuværende begrænsninger er reelle, men midlertidige. Hvis De oplever et komprimeringsproblem i dag, er det værd at forstå, hvad der skete, så De kan omgå det. Men kursen peger klart mod AI-assistenter, der håndterer lange sessioner langt mere elegant.

Læs mere