Czym jest kompakcja kontekstu?
Jeśli asystent AI nagle zapomniał coś, co wcześniej Pan/Pani mu powiedział/powiedziała, lub zaczął zachowywać się inaczej w trakcie rozmowy, mógł Pan/mogła Pani doświadczyć kompakcji kontekstu. Ten artykuł wyjaśnia, co to oznacza, dlaczego się zdarza i co można z tym zrobić.
Najpierw: czym jest okno kontekstu?
Każdy model AI ma ograniczoną pamięć na każdą rozmowę. Ta pamięć nazywa się oknem kontekstu. Zawiera wszystko, co model może “widzieć” naraz: wiadomości użytkownika, odpowiedzi asystenta, użyte pliki lub narzędzia oraz instrukcje otrzymane na początku.
Można to porównać do biurka. Model może pracować tylko z dokumentami aktualnie leżącymi na biurku. Gdy biurko jest pełne, coś musi zostać usunięte, aby zrobić miejsce na nowe dokumenty.
Wielkość tego biurka dramatycznie rosła w ostatnich latach:
| Rok | Model | Okno kontekstu |
|---|---|---|
| 2022 | GPT-3.5 (OpenAI) | ~4 000 tokenów |
| 2023 | GPT-4 (OpenAI) | 8 000 tokenów |
| 2023 | Claude 1 (Anthropic) | 100 000 tokenów |
| 2024 | GPT-4o (OpenAI) | 128 000 tokenów |
| 2024 | Claude 3.5 Sonnet (Anthropic) | 200 000 tokenów |
| 2025 | Gemini 2.0 (Google) | 2 000 000 tokenów |
Token to mniej więcej trzy czwarte słowa. 200 000 tokenów to zatem około 150 000 słów, czyli mniej więcej długość dwóch pełnych powieści. Brzmi to jak dużo i rzeczywiście tak jest. Ale w długotrwałej sesji asystenta AI z wywołaniami narzędzi, zawartością plików i wymianą wiadomości zapełnia się to szybciej, niż można by się spodziewać.
Co dzieje się, gdy okno kontekstu się zapełnia
Gdy historia rozmowy zbliża się do limitu okna kontekstu, asystent ma dwie opcje: przestać pracować lub zrobić miejsce.
Kompakcja kontekstu to opcja “zrób miejsce”. Asystent podsumowuje wszystko, co wydarzyło się do tej pory, w krótszą wersję, usuwa oryginalne wiadomości i kontynuuje rozmowę od streszczenia. Rozmowa toczy się nadal z tym samym asystentem w tej samej sesji. Po prostu skompresował swoją pamięć.
Streszczenie generuje ten sam model AI, który obsługuje rozmowę. Stara się uchwycić to, co ważne: bieżące zadanie, ostatnie postępy, kluczowe decyzje. Ale streszczanie jest z natury stratne. Nie każdy szczegół trafia do streszczenia.
Dlaczego asystent może “zapomnieć” instrukcje
To najważniejsza rzecz do zrozumienia w kontekście kompakcji. Gdy model streszcza długą rozmowę, ma tendencję do priorytetyzowania niedawnej aktywności kosztem starszych instrukcji. Reguły ustawione na początku sesji, takie jak “zawsze pytaj przed podjęciem działania” lub “nigdy nie usuwaj niczego bez potwierdzenia”, mogą zostać zdepriorytetyzowane lub całkowicie pominięte w streszczeniu.
Asystent nie ignoruje celowo instrukcji. Po kompakcji po prostu ich już nie posiada. Z jego perspektywy te instrukcje nigdy nie istniały.
Jest to znany problem we wszystkich asystentach AI i agentach kodowania, nie tylko w OpenClaw. W jednym dobrze znanym przykładzie asystent OpenClaw otrzymał instrukcję, aby jedynie sugerować usuwanie e-maili i czekać na zatwierdzenie. Gdy kompakcja uruchomiła się podczas dużego zadania, ta instrukcja została utracona. Asystent kontynuował pracę nad celem, który pamiętał (wyczyścić skrzynkę odbiorczą), ale bez ograniczenia, które zapomniał (czekać na zatwierdzenie).
Jak OpenClaw obsługuje kompakcję
OpenClaw ma wbudowany system kompakcji, który uruchamia się automatycznie, gdy okno kontekstu się zapełnia. Można go również uruchomić ręcznie poleceniem /compact, opcjonalnie wskazując, co ma zostać zachowane.
OpenClaw obsługuje również trwałą pamięć za pomocą plików takich jak SOUL.md w przestrzeni roboczej asystenta. Zawartość tych plików jest ponownie ładowana do każdego nowego kontekstu po kompakcji, dzięki czemu krytyczne instrukcje przetrwają proces streszczania. To jedno z najskuteczniejszych zabezpieczeń przed utratą instrukcji.
Jak pracować z kompakcją, a nie przeciwko niej
Kompakcja to nie błąd. To niezbędny mechanizm utrzymujący asystenta w działaniu podczas długich sesji. Oto praktyczne sposoby radzenia sobie z nią:
- Korzystaj z trwałych plików instrukcji. Umieszczaj ważne reguły w
SOUL.mdlub podobnych plikach w przestrzeni roboczej zamiast polegać na wiadomościach rozmowy. Przetrwają one kompakcję. - Kompaktuj ręcznie, zanim stanie się to automatycznie. Uruchomienie
/compactproaktywnie ze specyficznymi instrukcjami dotyczącymi tego, co zachować, daje większą kontrolę. - Rozpoczynaj nowe sesje dla nowych zadań. Zmienia Pan/Pani temat? Lepiej rozpocząć nową sesję zamiast kontynuować w przeciążonej.
- Sesje powinny być skoncentrowane. Krótsze, ukierunkowane na zadanie sesje mają mniejsze prawdopodobieństwo osiągnięcia limitów kompakcji niż maratonowe sesje obejmujące wiele różnych tematów.
Okna kontekstu rosną, a kompakcja staje się mądrzejsza
Zarządzanie kontekstem to obecnie jeden z najbardziej aktywnych obszarów rozwoju w AI. W zaledwie cztery lata okna kontekstu wyrosły z 4 000 tokenów do ponad 2 000 000. Ten wzrost nie zwalnia.
Jednocześnie dostawcy modeli budują inteligentniejsze systemy kompakcji z opcjami zachowywania określonych instrukcji. OpenClaw dodaje funkcje takie jak opróżnianie pamięci i pliki startowe, które automatycznie ponownie wstrzykują krytyczny kontekst po kompakcji. A samo streszczanie poprawia się z każdą nową generacją modeli.
Obecne ograniczenia są realne, ale tymczasowe. Jeśli napotka Pan/Pani dziś problem z kompakcją, warto zrozumieć, co się stało, aby móc to obejść. Ale kierunek jest wyraźnie ku asystentom AI, którzy radzą sobie z długimi sesjami znacznie bardziej elegancko.
Dowiedz się więcej
- Dowiedz się, czym jest OpenClaw i co potrafi
- Sprawdź, czy OpenClaw jest bezpieczny i jak go zabezpieczyć
- Przeczytaj dokumentację kompakcji OpenClaw
- Przeczytaj poradnik Anthropic na temat efektywnej inżynierii kontekstu dla agentów AI
Gotowy na OpenClaw?
Uruchom osobistego asystenta w 60 sekund. Hosting w UE, rezygnacja w dowolnym momencie.