Se il Suo assistente IA ha improvvisamente dimenticato qualcosa che gli aveva detto prima, o ha iniziato a comportarsi diversamente a metà conversazione, potrebbe aver sperimentato la compattazione del contesto. Questo articolo spiega cosa significa, perché accade e cosa può fare al riguardo.

Prima di tutto: cos’è una finestra di contesto?

Ogni modello IA ha una memoria limitata per ogni conversazione. Questa memoria si chiama finestra di contesto. Contiene tutto ciò che il modello può “vedere” contemporaneamente: i Suoi messaggi, le risposte dell’assistente, i file o gli strumenti utilizzati e le istruzioni ricevute all’inizio.

Pensi a un tavolo da lavoro. Il modello può lavorare solo con i fogli attualmente sul tavolo. Quando il tavolo è pieno, qualcosa deve essere rimosso per fare spazio a nuovi fogli.

Le dimensioni di questo tavolo sono cresciute enormemente negli ultimi anni:

AnnoModelloFinestra di contesto
2022GPT-3.5 (OpenAI)~4.000 token
2023GPT-4 (OpenAI)8.000 token
2023Claude 1 (Anthropic)100.000 token
2024GPT-4o (OpenAI)128.000 token
2024Claude 3.5 Sonnet (Anthropic)200.000 token
2025Gemini 2.0 (Google)2.000.000 token

Un token corrisponde a circa tre quarti di una parola. Quindi 200.000 token equivalgono a circa 150.000 parole, grosso modo la lunghezza di due romanzi completi. Sembra molto, e lo è. Ma in una sessione prolungata con un assistente IA, tra chiamate a strumenti, contenuto di file e scambi di messaggi, lo spazio si esaurisce più rapidamente di quanto ci si aspetti.

Cosa succede quando la finestra di contesto si riempie

Quando la cronologia della conversazione si avvicina al limite della finestra di contesto, l’assistente ha due opzioni: smettere di lavorare o fare spazio.

La compattazione del contesto è l’opzione “fare spazio”. L’assistente riassume tutto ciò che è accaduto fino a quel momento in una versione più breve, rimuove i messaggi originali e continua la conversazione dal riassunto. Si continua a parlare con lo stesso assistente nella stessa sessione. Ha semplicemente compresso la propria memoria.

Il riassunto viene generato dallo stesso modello IA che gestisce la conversazione. Cerca di catturare ciò che conta: il compito attuale, i progressi recenti, le decisioni chiave. Ma la sintesi comporta inevitabilmente una perdita di informazioni. Non ogni dettaglio riesce a entrare nel riassunto.

Perché il Suo assistente potrebbe “dimenticare” le istruzioni

Questo è l’aspetto più importante da comprendere sulla compattazione. Quando il modello riassume una lunga conversazione, tende a dare priorità all’attività recente rispetto alle istruzioni più vecchie. Regole impostate all’inizio di una sessione, come “chiedi sempre prima di agire” o “non eliminare mai nulla senza conferma”, possono essere declassate o completamente escluse dal riassunto.

L’assistente non ignora intenzionalmente le Sue istruzioni. Dopo la compattazione, semplicemente non le possiede più. Dal suo punto di vista, quelle istruzioni non sono mai esistite.

Si tratta di un problema noto in tutti gli assistenti IA e agenti di programmazione, non solo in OpenClaw. In un esempio ben documentato, un assistente OpenClaw aveva ricevuto l’istruzione di limitarsi a suggerire eliminazioni di email e attendere l’approvazione. Quando la compattazione si è attivata durante un compito complesso, quell’istruzione è andata persa. L’assistente ha continuato a lavorare verso l’obiettivo che ricordava (pulire la casella di posta) ma senza il vincolo che aveva dimenticato (attendere l’approvazione).

Come OpenClaw gestisce la compattazione

OpenClaw dispone di un sistema di compattazione integrato che si attiva automaticamente quando la finestra di contesto si riempie. È anche possibile attivarlo manualmente con il comando /compact, specificando opzionalmente cosa preservare.

OpenClaw supporta inoltre la memoria persistente attraverso file come SOUL.md nello spazio di lavoro dell’assistente. Il contenuto di questi file viene ricaricato in ogni nuovo contesto dopo la compattazione, in modo che le istruzioni critiche sopravvivano al processo di sintesi. Questa è una delle difese più efficaci contro la perdita di istruzioni.

Come lavorare con la compattazione, non contro di essa

La compattazione non è un bug. È un meccanismo necessario che mantiene il Suo assistente operativo durante sessioni prolungate. Ecco alcune strategie pratiche per gestirla:

  • Utilizzi file di istruzioni persistenti. Inserisca le regole importanti in SOUL.md o file simili nello spazio di lavoro, invece di affidarsi ai messaggi della conversazione. Questi sopravvivono alla compattazione.
  • Compatti manualmente prima che accada automaticamente. Eseguire /compact in modo proattivo, con istruzioni specifiche su cosa preservare, offre maggiore controllo.
  • Avvii nuove sessioni per nuovi compiti. Sta cambiando argomento? Avvii una nuova sessione invece di continuare in una sovraccarica.
  • Mantenga le sessioni focalizzate. Sessioni brevi e specifiche per un compito hanno meno probabilità di raggiungere i limiti di compattazione rispetto a sessioni maratona che coprono molti argomenti diversi.

Le finestre di contesto crescono e la compattazione diventa più intelligente

La gestione del contesto è attualmente una delle aree di sviluppo più attive nell’IA. In soli quattro anni, le finestre di contesto sono passate da 4.000 a oltre 2.000.000 di token. Questa crescita non sta rallentando.

Allo stesso tempo, i fornitori di modelli stanno costruendo sistemi di compattazione più intelligenti con opzioni per preservare istruzioni specifiche. OpenClaw sta aggiungendo funzionalità come il flush della memoria e i file di bootstrap che reinseriscono automaticamente il contesto critico dopo la compattazione. E la sintesi stessa migliora con ogni nuova generazione di modello.

Le limitazioni attuali sono reali, ma temporanee. Se riscontra un problema di compattazione oggi, vale la pena capire cosa è successo per poterlo aggirare. Ma la traiettoria punta chiaramente verso assistenti IA che gestiscono sessioni prolungate con molta più eleganza.

Per saperne di più