Se o seu assistente de IA esqueceu subitamente algo que lhe tinha dito antes, ou comecou a comportar-se de forma diferente a meio de uma conversa, pode ter experimentado compactacao de contexto. Este artigo explica o que significa, porque acontece e o que pode fazer a respeito.

Primeiro: o que e uma janela de contexto?

Cada modelo de IA tem uma memoria limitada para cada conversa. Esta memoria chama-se janela de contexto. Contem tudo o que o modelo pode “ver” de uma so vez: as suas mensagens, as respostas do assistente, ficheiros ou ferramentas utilizados e as instrucoes recebidas no inicio.

Pense nisso como uma secretaria. O modelo so pode trabalhar com os papeis que estao atualmente na secretaria. Quando a secretaria esta cheia, algo tem de ser retirado para dar lugar a novos papeis.

A dimensao desta secretaria tem crescido drasticamente nos ultimos anos:

AnoModeloJanela de contexto
2022GPT-3.5 (OpenAI)~4.000 tokens
2023GPT-4 (OpenAI)8.000 tokens
2023Claude 1 (Anthropic)100.000 tokens
2024GPT-4o (OpenAI)128.000 tokens
2024Claude 3.5 Sonnet (Anthropic)200.000 tokens
2025Gemini 2.0 (Google)2.000.000 tokens

Um token corresponde a aproximadamente tres quartos de uma palavra. Assim, 200.000 tokens sao cerca de 150.000 palavras, ou aproximadamente o comprimento de dois romances completos. Parece muito, e e. Mas numa sessao prolongada de assistente de IA com chamadas a ferramentas, conteudo de ficheiros e troca de mensagens, enche-se mais depressa do que se poderia esperar.

O que acontece quando a janela de contexto se enche

Quando o historico da conversa se aproxima do limite da janela de contexto, o assistente tem duas opcoes: parar de trabalhar ou fazer espaco.

A compactacao de contexto e a opcao “fazer espaco”. O assistente resume tudo o que aconteceu ate ao momento numa versao mais curta, remove as mensagens originais e continua a conversa a partir do resumo. Continua a falar com o mesmo assistente na mesma sessao. Apenas comprimiu a sua memoria.

O resumo e gerado pelo mesmo modelo de IA que gere a conversa. Tenta capturar o que importa: a tarefa atual, progressos recentes, decisoes-chave. Mas resumir e inerentemente com perdas. Nem todos os detalhes entram no resumo.

Porque e que o seu assistente pode “esquecer” instrucoes

Este e o ponto mais importante a compreender sobre compactacao. Quando o modelo resume uma conversa longa, tende a priorizar a atividade recente em detrimento de instrucoes mais antigas. Regras definidas no inicio de uma sessao, como “pergunta sempre antes de agir” ou “nunca apagues nada sem confirmacao”, podem ser desvalorizadas ou eliminadas do resumo por completo.

O assistente nao ignora intencionalmente as suas instrucoes. Apos a compactacao, simplesmente ja nao as tem. Do seu ponto de vista, essas instrucoes nunca existiram.

Este e um problema conhecido em todos os assistentes de IA e agentes de programacao, nao apenas no OpenClaw. Num exemplo bem conhecido, um assistente OpenClaw recebeu instrucoes para apenas sugerir eliminacoes de emails e aguardar aprovacao. Quando a compactacao ocorreu durante uma tarefa complexa, essa instrucao perdeu-se. O assistente continuou a trabalhar no objetivo que recordava (limpar a caixa de entrada) mas sem a restricao que esqueceu (aguardar aprovacao).

Como o OpenClaw gere a compactacao

O OpenClaw tem um sistema de compactacao integrado que se ativa automaticamente quando a janela de contexto se enche. Tambem pode ativa-lo manualmente com o comando /compact, indicando opcionalmente o que preservar.

O OpenClaw tambem suporta memoria persistente atraves de ficheiros como SOUL.md no espaco de trabalho do assistente. O conteudo destes ficheiros e recarregado em cada novo contexto apos a compactacao, de modo que as instrucoes criticas sobrevivem ao processo de resumo. Esta e uma das defesas mais eficazes contra a perda de instrucoes.

Como trabalhar com a compactacao, nao contra ela

A compactacao nao e um defeito. E um mecanismo necessario que mantem o seu assistente em funcionamento durante sessoes longas. Eis formas praticas de lidar com ela:

  • Utilize ficheiros de instrucoes persistentes. Coloque regras importantes em SOUL.md ou ficheiros semelhantes no espaco de trabalho em vez de depender de mensagens de conversa. Estes sobrevivem a compactacao.
  • Compacte manualmente antes que aconteca automaticamente. Executar /compact proativamente com instrucoes especificas sobre o que preservar da-lhe mais controlo.
  • Inicie novas sessoes para novas tarefas. Vai mudar de assunto? Inicie uma nova sessao em vez de continuar numa sobrecarregada.
  • Mantenha as sessoes focadas. Sessoes mais curtas e especificas para uma tarefa tem menos probabilidade de atingir limites de compactacao do que sessoes maratona que cobrem muitos temas diferentes.

As janelas de contexto estao a crescer e a compactacao esta a ficar mais inteligente

A gestao de contexto e atualmente uma das areas de desenvolvimento mais ativas em IA. Em apenas quatro anos, as janelas de contexto cresceram de 4.000 tokens para mais de 2.000.000. Este crescimento nao esta a abrandar.

Ao mesmo tempo, os fornecedores de modelos estao a construir sistemas de compactacao mais inteligentes com opcoes para preservar instrucoes especificas. O OpenClaw esta a adicionar funcionalidades como descarga de memoria e ficheiros de arranque que reinjetam automaticamente contexto critico apos a compactacao. E o proprio resumo melhora com cada nova geracao de modelo.

As limitacoes atuais sao reais, mas temporarias. Se encontrar um problema de compactacao hoje, vale a pena compreender o que aconteceu para poder contorna-lo. Mas a trajetoria aponta claramente para assistentes de IA que gerem sessoes longas com muito mais elegancia.

Saiba mais