Co je kompakce kontextu?
Pokud Váš AI asistent náhle zapomněl něco, co jste mu řekli dříve, nebo se začal chovat odlišně uprostřed konverzace, pravděpodobně jste zažili kompakci kontextu. Tento článek vysvětluje, co to znamená, proč k tomu dochází a co s tím můžete dělat.
Nejdříve: co je kontextové okno?
Každý AI model má pro každou konverzaci omezenou paměť. Tato paměť se nazývá kontextové okno. Obsahuje vše, co model může „vidět” najednou: Vaše zprávy, odpovědi asistenta, všechny soubory nebo nástroje, které použil, a instrukce zadané na začátku.
Představte si to jako pracovní stůl. Model může pracovat pouze s papíry, které jsou právě na stole. Jakmile se stůl zaplní, něco musí být odstraněno, aby se uvolnilo místo pro nové papíry.
Velikost tohoto stolu dramaticky vzrostla za posledních několik let:
| Rok | Model | Kontextové okno |
|---|---|---|
| 2022 | GPT-3.5 (OpenAI) | ~4 000 tokenů |
| 2023 | GPT-4 (OpenAI) | 8 000 tokenů |
| 2023 | Claude 1 (Anthropic) | 100 000 tokenů |
| 2024 | GPT-4o (OpenAI) | 128 000 tokenů |
| 2024 | Claude 3.5 Sonnet (Anthropic) | 200 000 tokenů |
| 2025 | Gemini 2.0 (Google) | 2 000 000 tokenů |
Jeden token odpovídá přibližně třem čtvrtinám slova. Takže 200 000 tokenů je asi 150 000 slov, tedy přibližně dva celé romány. Zní to hodně, a je to tak. Ale v dlouhé relaci s AI asistentem s voláním nástrojů, obsahem souborů a výměnou zpráv se to zaplní rychleji, než byste čekali.
Co se stane, když se kontextové okno zaplní
Když se historie konverzace přiblíží limitu kontextového okna, asistent má dvě možnosti: přestat pracovat, nebo uvolnit místo.
Kompakce kontextu je volba „uvolnit místo”. Asistent shrne vše, co se dosud stalo, do kratší verze, odstraní původní zprávy a pokračuje v konverzaci od shrnutí. Nadále mluvíte se stejným asistentem ve stejné relaci. Jen komprimoval svou paměť.
Shrnutí generuje stejný AI model, který zpracovává Vaši konverzaci. Snaží se zachytit to podstatné: aktuální úkol, nedávný pokrok, klíčová rozhodnutí. Ale sumarizace je ze své podstaty ztrátová. Ne každý detail se do shrnutí dostane.
Proč Váš asistent může „zapomenout” instrukce
Toto je nejdůležitější věc, kterou je třeba o kompakci pochopit. Když model shrnuje dlouhou konverzaci, má tendenci upřednostňovat nedávnou aktivitu před staršími instrukcemi. Pravidla, která jste nastavili na začátku relace, jako „vždy se zeptej před akcí” nebo „nikdy nic nemaž bez potvrzení”, mohou být v shrnutí snížena na prioritě nebo zcela vynechána.
Asistent Vaše instrukce úmyslně neignoruje. Po kompakci je jednoduše už nemá. Z jeho pohledu tyto instrukce nikdy neexistovaly.
Jedná se o známý problém u všech AI asistentů a kódovacích agentů, nejen u OpenClaw. V jednom dobře známém případě byl OpenClaw asistent instruován, aby pouze navrhoval mazání e-mailů a čekal na schválení. Když se kompakce spustila během velkého úkolu, tato instrukce se ztratila. Asistent pokračoval v práci na cíli, který si pamatoval (vyčistit poštu), ale bez omezení, které zapomněl (čekat na schválení).
Jak OpenClaw zvládá kompakci
OpenClaw má vestavěný systém kompakce, který se automaticky spustí, když se kontextové okno zaplní. Můžete ho také spustit ručně příkazem /compact, volitelně s uvedením toho, co chcete zachovat.
OpenClaw také podporuje trvalou paměť prostřednictvím souborů jako SOUL.md v pracovním prostoru asistenta. Obsah těchto souborů se po kompakci znovu načte do každého nového kontextu, takže kritické instrukce proces sumarizace přežijí. To je jedna z nejúčinnějších obran proti ztrátě instrukcí.
Jak pracovat s kompakcí, ne proti ní
Kompakce není chyba. Je to nutný mechanismus, který udržuje Vašeho asistenta v chodu během dlouhých relací. Zde jsou praktické způsoby, jak s ní zacházet:
- Používejte soubory s trvalými instrukcemi. Důležitá pravidla umístěte do
SOUL.mdnebo podobných souborů v pracovním prostoru místo spoléhání na zprávy v konverzaci. Ty kompakci přežijí. - Kompaktujte ručně, než se to stane automaticky. Proaktivní spuštění
/compacts konkrétními instrukcemi, co zachovat, Vám dává větší kontrolu. - Začínejte nové relace pro nové úkoly. Přecházíte na jiné téma? Začněte novou relaci místo pokračování v přetížené.
- Udržujte relace zaměřené. Kratší relace zaměřené na konkrétní úkol s menší pravděpodobností dosáhnou limitu kompakce než maratonské relace pokrývající mnoho různých témat.
Kontextová okna se zvětšují a kompakce je chytřejší
Správa kontextu je jednou z nejaktivnějších oblastí vývoje v AI v současnosti. Za pouhé čtyři roky vzrostla kontextová okna ze 4 000 tokenů na více než 2 000 000. Tento růst nezpomaluje.
Současně poskytovatelé modelů budují chytřejší systémy kompakce s možnostmi zachování konkrétních instrukcí. OpenClaw přidává funkce jako flush paměti a bootstrap soubory, které automaticky znovu injektují kritický kontext po kompakci. A samotná sumarizace se zlepšuje s každou novou generací modelů.
Současná omezení jsou reálná, ale dočasná. Pokud dnes narazíte na problém s kompakcí, stojí za to pochopit, co se stalo, abyste to mohli obejít. Ale trajektorie jasně směřuje k AI asistentům, kteří zvládají dlouhé relace mnohem elegantněji.
Zjistěte více
- Zjistěte, co je OpenClaw a co umí
- Ověřte, zda je OpenClaw bezpečný a jak ho zabezpečit
- Přečtěte si dokumentaci kompakce OpenClaw
- Přečtěte si průvodce od Anthropic o efektivním kontextovém inženýrství pro AI agenty
Připraveni vyzkoušet OpenClaw?
Spusťte vlastního osobního asistenta za 60 sekund. Hostováno v EU, zrušit můžete kdykoliv.