Jeśli asystent AI nagle zapomniał coś, co wcześniej Pan/Pani mu powiedział/powiedziała, lub zaczął zachowywać się inaczej w trakcie rozmowy, mógł Pan/mogła Pani doświadczyć kompakcji kontekstu. Ten artykuł wyjaśnia, co to oznacza, dlaczego się zdarza i co można z tym zrobić.

Najpierw: czym jest okno kontekstu?

Każdy model AI ma ograniczoną pamięć na każdą rozmowę. Ta pamięć nazywa się oknem kontekstu. Zawiera wszystko, co model może “widzieć” naraz: wiadomości użytkownika, odpowiedzi asystenta, użyte pliki lub narzędzia oraz instrukcje otrzymane na początku.

Można to porównać do biurka. Model może pracować tylko z dokumentami aktualnie leżącymi na biurku. Gdy biurko jest pełne, coś musi zostać usunięte, aby zrobić miejsce na nowe dokumenty.

Wielkość tego biurka dramatycznie rosła w ostatnich latach:

RokModelOkno kontekstu
2022GPT-3.5 (OpenAI)~4 000 tokenów
2023GPT-4 (OpenAI)8 000 tokenów
2023Claude 1 (Anthropic)100 000 tokenów
2024GPT-4o (OpenAI)128 000 tokenów
2024Claude 3.5 Sonnet (Anthropic)200 000 tokenów
2025Gemini 2.0 (Google)2 000 000 tokenów

Token to mniej więcej trzy czwarte słowa. 200 000 tokenów to zatem około 150 000 słów, czyli mniej więcej długość dwóch pełnych powieści. Brzmi to jak dużo i rzeczywiście tak jest. Ale w długotrwałej sesji asystenta AI z wywołaniami narzędzi, zawartością plików i wymianą wiadomości zapełnia się to szybciej, niż można by się spodziewać.

Co dzieje się, gdy okno kontekstu się zapełnia

Gdy historia rozmowy zbliża się do limitu okna kontekstu, asystent ma dwie opcje: przestać pracować lub zrobić miejsce.

Kompakcja kontekstu to opcja “zrób miejsce”. Asystent podsumowuje wszystko, co wydarzyło się do tej pory, w krótszą wersję, usuwa oryginalne wiadomości i kontynuuje rozmowę od streszczenia. Rozmowa toczy się nadal z tym samym asystentem w tej samej sesji. Po prostu skompresował swoją pamięć.

Streszczenie generuje ten sam model AI, który obsługuje rozmowę. Stara się uchwycić to, co ważne: bieżące zadanie, ostatnie postępy, kluczowe decyzje. Ale streszczanie jest z natury stratne. Nie każdy szczegół trafia do streszczenia.

Dlaczego asystent może “zapomnieć” instrukcje

To najważniejsza rzecz do zrozumienia w kontekście kompakcji. Gdy model streszcza długą rozmowę, ma tendencję do priorytetyzowania niedawnej aktywności kosztem starszych instrukcji. Reguły ustawione na początku sesji, takie jak “zawsze pytaj przed podjęciem działania” lub “nigdy nie usuwaj niczego bez potwierdzenia”, mogą zostać zdepriorytetyzowane lub całkowicie pominięte w streszczeniu.

Asystent nie ignoruje celowo instrukcji. Po kompakcji po prostu ich już nie posiada. Z jego perspektywy te instrukcje nigdy nie istniały.

Jest to znany problem we wszystkich asystentach AI i agentach kodowania, nie tylko w OpenClaw. W jednym dobrze znanym przykładzie asystent OpenClaw otrzymał instrukcję, aby jedynie sugerować usuwanie e-maili i czekać na zatwierdzenie. Gdy kompakcja uruchomiła się podczas dużego zadania, ta instrukcja została utracona. Asystent kontynuował pracę nad celem, który pamiętał (wyczyścić skrzynkę odbiorczą), ale bez ograniczenia, które zapomniał (czekać na zatwierdzenie).

Jak OpenClaw obsługuje kompakcję

OpenClaw ma wbudowany system kompakcji, który uruchamia się automatycznie, gdy okno kontekstu się zapełnia. Można go również uruchomić ręcznie poleceniem /compact, opcjonalnie wskazując, co ma zostać zachowane.

OpenClaw obsługuje również trwałą pamięć za pomocą plików takich jak SOUL.md w przestrzeni roboczej asystenta. Zawartość tych plików jest ponownie ładowana do każdego nowego kontekstu po kompakcji, dzięki czemu krytyczne instrukcje przetrwają proces streszczania. To jedno z najskuteczniejszych zabezpieczeń przed utratą instrukcji.

Jak pracować z kompakcją, a nie przeciwko niej

Kompakcja to nie błąd. To niezbędny mechanizm utrzymujący asystenta w działaniu podczas długich sesji. Oto praktyczne sposoby radzenia sobie z nią:

  • Korzystaj z trwałych plików instrukcji. Umieszczaj ważne reguły w SOUL.md lub podobnych plikach w przestrzeni roboczej zamiast polegać na wiadomościach rozmowy. Przetrwają one kompakcję.
  • Kompaktuj ręcznie, zanim stanie się to automatycznie. Uruchomienie /compact proaktywnie ze specyficznymi instrukcjami dotyczącymi tego, co zachować, daje większą kontrolę.
  • Rozpoczynaj nowe sesje dla nowych zadań. Zmienia Pan/Pani temat? Lepiej rozpocząć nową sesję zamiast kontynuować w przeciążonej.
  • Sesje powinny być skoncentrowane. Krótsze, ukierunkowane na zadanie sesje mają mniejsze prawdopodobieństwo osiągnięcia limitów kompakcji niż maratonowe sesje obejmujące wiele różnych tematów.

Okna kontekstu rosną, a kompakcja staje się mądrzejsza

Zarządzanie kontekstem to obecnie jeden z najbardziej aktywnych obszarów rozwoju w AI. W zaledwie cztery lata okna kontekstu wyrosły z 4 000 tokenów do ponad 2 000 000. Ten wzrost nie zwalnia.

Jednocześnie dostawcy modeli budują inteligentniejsze systemy kompakcji z opcjami zachowywania określonych instrukcji. OpenClaw dodaje funkcje takie jak opróżnianie pamięci i pliki startowe, które automatycznie ponownie wstrzykują krytyczny kontekst po kompakcji. A samo streszczanie poprawia się z każdą nową generacją modeli.

Obecne ograniczenia są realne, ale tymczasowe. Jeśli napotka Pan/Pani dziś problem z kompakcją, warto zrozumieć, co się stało, aby móc to obejść. Ale kierunek jest wyraźnie ku asystentom AI, którzy radzą sobie z długimi sesjami znacznie bardziej elegancko.

Dowiedz się więcej