Om Er AI-assistent plotsligt glomde nagot Ni berattade for den tidigare, eller borjade bete sig annorlunda mitt i en konversation, kan Ni ha upplevt kontextkomprimering. Den har artikeln forklarar vad det innebar, varfor det hander och vad Ni kan gora at det.

Forst: vad ar ett kontextfonster?

Varje AI-modell har ett begransat minne for varje konversation. Detta minne kallas kontextfonstret. Det rymmer allt som modellen kan “se” samtidigt: Era meddelanden, assistentens svar, filer eller verktyg som anvants och instruktionerna den fick i borjan.

Tank pa det som ett skrivbord. Modellen kan bara arbeta med pappren som for narvarande ligger pa skrivbordet. Nar skrivbordet ar fullt maste nagot tas bort for att gora plats for nya papper.

Storleken pa detta skrivbord har vuxits dramatiskt under de senaste aren:

ArModellKontextfonster
2022GPT-3.5 (OpenAI)~4 000 tokens
2023GPT-4 (OpenAI)8 000 tokens
2023Claude 1 (Anthropic)100 000 tokens
2024GPT-4o (OpenAI)128 000 tokens
2024Claude 3.5 Sonnet (Anthropic)200 000 tokens
2025Gemini 2.0 (Google)2 000 000 tokens

En token motsvarar ungefar tre fjardedelar av ett ord. Sa 200 000 tokens ar ungefar 150 000 ord, eller ungefar langden av tva hela romaner. Det later som mycket, och det ar det. Men i en langtgaende AI-assistentsession med verktygsanrop, filinnehall och konversation fram och tillbaka fylls det snabbare an Ni kanske tror.

Vad som hander nar kontextfonstret fylls

Nar konversationshistoriken narmar sig kontextfonstrets grans har assistenten tva alternativ: sluta arbeta eller gora plats.

Kontextkomprimering ar alternativet “gor plats”. Assistenten sammanfattar allt som har hant hittills till en kortare version, tar bort de ursprungliga meddelandena och fortsatter konversationen fran sammanfattningen. Ni fortsatter prata med samma assistent i samma session. Den har bara komprimerat sitt minne.

Sammanfattningen genereras av samma AI-modell som hanterar Er konversation. Den forsoker fanga det som spelar roll: den aktuella uppgiften, senaste framsteg, nyckelbeslut. Men sammanfattning innebar per definition forlust. Inte varje detalj kommer med i sammanfattningen.

Varfor Er assistent kan “glomma” instruktioner

Det har ar det viktigaste att forsta om komprimering. Nar modellen sammanfattar en lang konversation tenderar den att prioritera ny aktivitet framfor aldre instruktioner. Regler Ni satte i borjan av en session, som “fraga alltid innan du agerar” eller “radera aldrig nagot utan bekraftelse”, kan nedprioriteras eller helt uteslutas fran sammanfattningen.

Assistenten ignorerar inte medvetet Era instruktioner. Efter komprimering har den dem helt enkelt inte langre. Fran dess perspektiv har dessa instruktioner aldrig funnits.

Detta ar ett kant problem bland alla AI-assistenter och kodagenter, inte bara OpenClaw. I ett valkant exempel instruerades en OpenClaw-assistent att bara foresla borttagning av e-post och vanta pa godkannande. Nar komprimering kordes under en stor uppgift gick den instruktionen forlorad. Assistenten fortsatte arbeta mot malet den kom ihag (rensa inkorgen) men utan begransningen den glomt (vanta pa godkannande).

Hur OpenClaw hanterar komprimering

OpenClaw har ett inbyggt komprimeringssystem som utloses automatiskt nar kontextfonstret fylls. Ni kan ocksa utlosa det manuellt med kommandot /compact och valfritt ange vad som ska bevaras.

OpenClaw stodjer ocksa bestaende minne genom filer som SOUL.md i assistentens arbetsyta. Innehallet i dessa filer laddas om i varje ny kontext efter komprimering, sa att kritiska instruktioner overlever sammanfattningsprocessen. Detta ar ett av de mest effektiva forsvaren mot instruktionsforlust.

Hur Ni arbetar med komprimering, inte mot den

Komprimering ar inte en bugg. Det ar en nodvandig mekanism som haller Er assistent iggang under langa sessioner. Har ar praktiska satt att hantera det:

  • Anvand bestaende instruktionsfiler. Lagg viktiga regler i SOUL.md eller liknande filer i arbetsytan istallet for att forlita Er pa konversationsmeddelanden. Dessa overlever komprimering.
  • Komprimera manuellt innan det sker automatiskt. Att kora /compact proaktivt med specifika instruktioner om vad som ska bevaras ger mer kontroll.
  • Starta nya sessioner for nya uppgifter. Byter Ni amne? Starta en ny session istallet for att fortsatta i en overbelastad.
  • Hall sessionerna fokuserade. Kortare, uppgiftsspecifika sessioner nar komprimeringsgransen mer sallan an maratonsessioner som tacker manga olika amnen.

Kontextfonster vaxer och komprimering blir smartare

Kontexthantering ar just nu ett av de mest aktiva utvecklingsomradena inom AI. Pa bara fyra ar har kontextfonster vaxt fran 4 000 tokens till over 2 000 000. Den tillvaxten saktar inte ner.

Samtidigt bygger modellleverantorer smartare komprimeringssystem med alternativ for att bevara specifika instruktioner. OpenClaw lagger till funktioner som minnesspolning och startfiler som automatiskt aterinfor kritisk kontext efter komprimering. Och sjalva sammanfattningen forbattras med varje ny modellgeneration.

De nuvarande begransningarna ar verkliga, men tillfalliga. Om Ni stoter pa ett komprimeringsproblem idag ar det vart att forsta vad som hande sa att Ni kan kringgaa det. Men riktningen pekar tydligt mot AI-assistenter som hanterar langa sessioner mycket mer elegant.

Las mer