Hvis AI-assistenten plutselig glemte noe De fortalte den tidligere, eller begynte aa oppfore seg annerledes midt i en samtale, kan De ha opplevd kontekstkomprimering. Denne artikkelen forklarer hva det betyr, hvorfor det skjer, og hva De kan gjore med det.

Forst: hva er et kontekstvindu?

Hver AI-modell har et begrenset minne for hver samtale. Dette minnet kalles kontekstvinduet. Det inneholder alt modellen kan “se” samtidig: Deres meldinger, assistentens svar, filer eller verktoy som ble brukt, og instruksjonene den fikk i begynnelsen.

Tenk paa det som et skrivebord. Modellen kan bare jobbe med papirene som ligger paa skrivebordet akkurat naa. Naar skrivebordet er fullt, maa noe fjernes for aa gjore plass til nye papirer.

Storrelsen paa dette skrivebordet har vokst dramatisk de siste aarene:

AarModellKontekstvindu
2022GPT-3.5 (OpenAI)~4 000 tokens
2023GPT-4 (OpenAI)8 000 tokens
2023Claude 1 (Anthropic)100 000 tokens
2024GPT-4o (OpenAI)128 000 tokens
2024Claude 3.5 Sonnet (Anthropic)200 000 tokens
2025Gemini 2.0 (Google)2 000 000 tokens

Et token tilsvarer omtrent tre fjerdedeler av et ord. 200 000 tokens er altsaa rundt 150 000 ord, eller omtrent lengden av to komplette romaner. Det hoeres mye ut, og det er det. Men i en langvarig AI-assistentoskt med verktoyskall, filinnhold og dialog frem og tilbake, fylles det opp raskere enn De kanskje tror.

Hva som skjer naar kontekstvinduet fylles opp

Naar samtalehistorikken naermer seg grensen for kontekstvinduet, har assistenten to alternativer: slutte aa jobbe, eller gjore plass.

Kontekstkomprimering er alternativet “gjor plass”. Assistenten oppsummerer alt som har skjedd saa langt til en kortere versjon, fjerner de opprinnelige meldingene og fortsetter samtalen fra oppsummeringen. De snakker fortsatt med den samme assistenten i den samme okten. Den har bare komprimert minnet sitt.

Oppsummeringen genereres av den samme AI-modellen som haandterer samtalen. Den forsoker aa fange det som betyr noe: gjeldende oppgave, nylig fremgang, viktige beslutninger. Men oppsummering er iboende tapsbringende. Ikke alle detaljer kommer med i oppsummeringen.

Hvorfor assistenten kan “glemme” instruksjoner

Dette er det viktigste aa forstaa om komprimering. Naar modellen oppsummerer en lang samtale, har den en tendens til aa prioritere nylig aktivitet over eldre instruksjoner. Regler De satte i begynnelsen av en okt, som “spor alltid for du handler” eller “slett aldri noe uten bekreftelse”, kan bli nedprioritert eller fullstendig fjernet fra oppsummeringen.

Assistenten ignorerer ikke bevisst instruksjonene Deres. Etter komprimering har den dem rett og slett ikke lenger. Fra dens perspektiv har disse instruksjonene aldri eksistert.

Dette er et kjent problem paa tvers av alle AI-assistenter og kodeagenter, ikke bare OpenClaw. I et velkjent eksempel ble en OpenClaw-assistent instruert om bare aa foresla e-postslettinger og vente paa godkjenning. Da komprimering kjorte under en stor oppgave, gikk den instruksjonen tapt. Assistenten fortsatte aa jobbe mot maalet den husket (rydde innboksen) men uten begrensningen den hadde glemt (vente paa godkjenning).

Hvordan OpenClaw haandterer komprimering

OpenClaw har et innebygd komprimeringssystem som utloses automatisk naar kontekstvinduet fylles opp. De kan ogsaa utlose det manuelt med /compact-kommandoen, og eventuelt angi hva som skal bevares.

OpenClaw stotter ogsaa vedvarende minne gjennom filer som SOUL.md i assistentens arbeidsomraade. Innholdet i disse filene lastes paa nytt i hver ny kontekst etter komprimering, slik at kritiske instruksjoner overlever oppsummeringsprosessen. Dette er et av de mest effektive forsvarene mot instruksjonstap.

Hvordan jobbe med komprimering, ikke mot den

Komprimering er ikke en feil. Det er en nodvendig mekanisme som holder assistenten i gang under lange okter. Her er praktiske maater aa haandtere det paa:

  • Bruk vedvarende instruksjonsfiler. Legg viktige regler i SOUL.md eller lignende filer i arbeidsomraadet i stedet for aa stole paa samtalemeldinger. Disse overlever komprimering.
  • Komprimer manuelt for det skjer automatisk. Aa kjore /compact proaktivt med spesifikke instruksjoner om hva som skal bevares, gir mer kontroll.
  • Start nye okter for nye oppgaver. Bytter De emne? Start en ny okt i stedet for aa fortsette i en overbelastet.
  • Hold oktene fokuserte. Kortere, oppgavespesifikke okter har mindre sannsynlighet for aa naa komprimeringsgrenser enn maratonokter som dekker mange forskjellige emner.

Kontekstvinduer vokser, og komprimering blir smartere

Konteksthaandtering er et av de mest aktive utviklingsomraadene innen AI akkurat naa. Paa bare fire aar har kontekstvinduer vokst fra 4 000 tokens til over 2 000 000. Den veksten bremser ikke.

Samtidig bygger modelltilbydere smartere komprimeringssystemer med muligheter for aa bevare spesifikke instruksjoner. OpenClaw legger til funksjoner som minneflush og oppstartsfiler som automatisk re-injiserer kritisk kontekst etter komprimering. Og selve oppsummeringen forbedres med hver ny modellgenerasjon.

De naaende begrensningene er reelle, men midlertidige. Hvis De stotter paa et komprimeringsproblem i dag, er det verdt aa forstaa hva som skjedde slik at De kan jobbe rundt det. Men retningen peker tydelig mot AI-assistenter som haandterer lange okter langt mer elegant.

Laer mer