Si votre assistant IA a soudainement oublie quelque chose que vous lui aviez dit plus tot, ou s’est mis a se comporter differemment en pleine conversation, vous avez peut-etre vecu une compaction de contexte. Cet article explique ce que cela signifie, pourquoi cela se produit et ce que vous pouvez faire.

D’abord : qu’est-ce qu’une fenetre de contexte ?

Chaque modele IA dispose d’une memoire limitee pour chaque conversation. Cette memoire s’appelle la fenetre de contexte. Elle contient tout ce que le modele peut « voir » en meme temps : vos messages, les reponses de l’assistant, les fichiers ou outils utilises, et les instructions donnees au depart.

Pensez-y comme un bureau. Le modele ne peut travailler qu’avec les documents actuellement sur le bureau. Une fois le bureau plein, il faut en retirer certains pour faire de la place aux nouveaux.

La taille de ce bureau a enormement augmente ces dernieres annees :

AnneeModeleFenetre de contexte
2022GPT-3.5 (OpenAI)~4 000 tokens
2023GPT-4 (OpenAI)8 000 tokens
2023Claude 1 (Anthropic)100 000 tokens
2024GPT-4o (OpenAI)128 000 tokens
2024Claude 3.5 Sonnet (Anthropic)200 000 tokens
2025Gemini 2.0 (Google)2 000 000 tokens

Un token correspond a environ trois quarts d’un mot. Ainsi, 200 000 tokens representent environ 150 000 mots, soit a peu pres la longueur de deux romans complets. Cela semble beaucoup, et c’est le cas. Mais dans une longue session d’assistant IA avec des appels d’outils, du contenu de fichiers et des echanges, cela se remplit plus vite qu’on ne pourrait le penser.

Que se passe-t-il quand la fenetre de contexte est pleine

Quand l’historique de conversation approche la limite de la fenetre de contexte, l’assistant a deux options : arreter de travailler, ou faire de la place.

La compaction de contexte, c’est l’option « faire de la place ». L’assistant resume tout ce qui s’est passe en une version plus courte, supprime les messages originaux et continue la conversation a partir du resume. Vous continuez a parler au meme assistant dans la meme session. Il a simplement compresse sa memoire.

Le resume est genere par le meme modele IA qui gere votre conversation. Il essaie de capturer l’essentiel : la tache en cours, les progres recents, les decisions cles. Mais la synthese est intrinsequement a perte. Chaque detail ne passe pas dans le resume.

Pourquoi votre assistant peut « oublier » des instructions

C’est le point le plus important a comprendre sur la compaction. Quand le modele resume une longue conversation, il a tendance a privilegier l’activite recente par rapport aux instructions plus anciennes. Les regles definies au debut d’une session, comme « demande toujours avant d’agir » ou « ne supprime jamais rien sans confirmation », peuvent etre restreintes ou completement exclues du resume.

L’assistant n’ignore pas deliberement vos instructions. Apres la compaction, il ne les a simplement plus. De son point de vue, ces instructions n’ont jamais existe.

C’est un probleme connu de tous les assistants IA et agents de programmation, pas seulement d’OpenClaw. Dans un exemple celebre, un assistant OpenClaw avait recu l’instruction de seulement suggerer des suppressions d’e-mails et d’attendre l’approbation. Quand la compaction s’est declenchee pendant une tache volumineuse, cette instruction a ete perdue. L’assistant a continue a travailler vers l’objectif dont il se souvenait (nettoyer la boite mail) mais sans la contrainte qu’il avait oubliee (attendre l’approbation).

Comment OpenClaw gere la compaction

OpenClaw dispose d’un systeme de compaction integre qui se declenche automatiquement quand la fenetre de contexte se remplit. Vous pouvez aussi le declencher manuellement avec la commande /compact, en specifiant optionnellement ce qu’il faut preserver.

OpenClaw supporte aussi la memoire persistante via des fichiers comme SOUL.md dans l’espace de travail de l’assistant. Le contenu de ces fichiers est recharge dans chaque nouveau contexte apres la compaction, de sorte que les instructions critiques survivent au processus de synthese. C’est l’une des defenses les plus efficaces contre la perte d’instructions.

Comment travailler avec la compaction, pas contre elle

La compaction n’est pas un bug. C’est un mecanisme necessaire qui maintient votre assistant en fonctionnement pendant les longues sessions. Voici des methodes pratiques pour la gerer :

  • Utilisez des fichiers d’instructions persistants. Placez les regles importantes dans SOUL.md ou des fichiers similaires plutot que de vous fier aux messages de conversation. Ils survivent a la compaction.
  • Compactez manuellement avant que cela se fasse automatiquement. Executer /compact de maniere proactive avec des instructions specifiques sur ce qu’il faut preserver vous donne plus de controle.
  • Demarrez de nouvelles sessions pour les nouvelles taches. Vous changez de sujet ? Demarrez une nouvelle session plutot que de continuer dans une session surchargee.
  • Gardez les sessions concentrees. Des sessions courtes et specifiques a une tache risquent moins d’atteindre les limites de compaction que des sessions marathon couvrant de nombreux sujets differents.

Les fenetres de contexte grandissent, et la compaction s’ameliore

La gestion du contexte est l’un des domaines de developpement les plus actifs en IA aujourd’hui. En seulement quatre ans, les fenetres de contexte sont passees de 4 000 tokens a plus de 2 000 000. Cette croissance ne ralentit pas.

Parallelement, les fournisseurs de modeles construisent des systemes de compaction plus intelligents avec des options pour preserver des instructions specifiques. OpenClaw ajoute des fonctionnalites comme le vidage de memoire et les fichiers d’amorcage qui reinjectent automatiquement le contexte critique apres la compaction. Et la synthese elle-meme s’ameliore avec chaque nouvelle generation de modele.

Les limitations actuelles sont reelles, mais temporaires. Si vous rencontrez un probleme de compaction aujourd’hui, il vaut la peine de comprendre ce qui s’est passe pour pouvoir le contourner. Mais la trajectoire va clairement vers des assistants IA qui gerent les longues sessions beaucoup plus elegamment.

En savoir plus