🧪 A pesquisa da Chroma
Em 2025, a Chroma Research publicou um estudo formal: "Context Rot: How Increasing Input Tokens Impacts LLM Performance". Testaram 18 LLMs frontier — incluindo Claude Opus 4 — e descobriram degradação mensurável e consistente conforme o contexto cresce.
📊O que a Chroma mediu
testados
diferentes
degradação
Resultado central: nenhum modelo mantém qualidade uniforme ao longo da janela. Performance cai progressivamente muito antes do limite máximo, mesmo em modelos com 1M de contexto.
Fonte: trychroma.com/research/context-rot (2025)
📝Crédito onde é devido
O termo "context rot" é da Chroma, não da Anthropic. A Anthropic descreve o mesmo fenômeno com outras palavras ("instructions from early in the conversation can get lost"), mas não usa esse termo na documentação oficial. O fenômeno é real; o rótulo é da comunidade.
🚨 Os 5 sintomas clássicos
Como você sabe que a sessão está apodrecendo? Estes são os sinais em ordem de gravidade. Se reconhecer um ou mais, pare — não empurre.
1. Repetição
O modelo refaz um passo que já foi concluído, ou repete uma sugestão que já deu.
Exemplo: "Vou criar o arquivo config.js..." quando o arquivo já foi criado há 5 turnos.
2. Esquecimento
Ignora uma decisão ou restrição que você deu mais cedo na conversa.
Exemplo: Você disse "não use TypeScript" no turno 3; no turno 15 o modelo adiciona types.
3. Contradição
Afirma algo que contradiz direta e explicitamente o que disse antes — sem admitir o conflito.
Exemplo: "Este método é thread-safe" quando turnos antes disse o oposto sobre o mesmo método.
4. Decisões ruins
Começa a escolher as opções piores entre alternativas claras. Perde o "gosto" técnico.
Exemplo: Sugere copy-paste onde antes recomendaria refactor.
5. Tom quebrado
Muda de estilo sem aviso. Fica vago, excessivamente longo, ou defensivo.
Exemplo: Começa a explicar básico quando antes ia direto ao ponto.
⚠️Regra única
Se ver qualquer um destes sintomas: pare imediatamente. Não tente "consertar" o output com mais instruções. O problema não é o último prompt — é o contexto inteiro.
📉 Por que cai antes do limite
Entender o mecanismo ajuda a explicar por que o problema é estrutural — não "Claude preguiçoso" — e justifica as defesas que o curso ensina.
Atenção diluída
Transformers distribuem atenção por todos os tokens. Mais tokens = cada um recebe menos peso relativo.
Viés de posição
Tokens próximos do fim recebem atenção desproporcional. Instruções iniciais "afundam" no meio.
Ruído acumulado
Cada tentativa errada, cada desvio, cada correção — tudo vira contexto competindo pela atenção.
🧠Analogia
Imagine pedir algo a alguém lendo um livro em voz alta. Nas primeiras páginas é fácil se lembrar. Na página 300, com mais 299 páginas para manter em mente, o leitor confunde detalhes, esquece nomes, mistura capítulos.
O transformer não "cansa" — mas funciona com restrições similares de atenção distribuída.
💡Por isso o CLAUDE.md funciona
A Anthropic recomenda colocar regras persistentes no CLAUDE.md (não na conversa) exatamente por isso: o CLAUDE.md é re-injetado após compaction e fica em posição estável. Instruções soltas na conversa somem na poeira.
🛠️ Detectar em tempo real
Prevenção > remediação. Estes são 3 rituais curtos que te avisam antes do colapso.
Check de 10 em 10 turnos
A cada ~10 mensagens, peça:
Se a resposta divergir do que você lembra, é sinal de rot — reset cedo.
Use /context regularmente
O comando oficial mostra:
- • Mapa visual em grade colorida do consumo
- • Sugestões de otimização para tools com muito uso
- • Alertas de "memory bloat"
- • Avisos de capacidade
Use quando perceber qualquer lentidão ou acima de 50% da janela.
Observe o seu próprio desconforto
Se você se pegar:
- • Re-explicando algo pela terceira vez
- • Frustrado com a resposta
- • Corrigindo "detalhezinhos" a cada turno
→ Não é o Claude. É o contexto. Reset.
🔄 O que fazer quando acontece
Três ferramentas oficiais, em ordem crescente de intervenção. Use a menos drástica que resolva.
Quando usar cada ferramenta
/compact
Mais leve — resume mantendo sessão
Condensa histórico em resumo, libera espaço, preserva contexto. Ideal quando o trabalho está bom mas está ficando longo.
/rewind
Médio — voltar no tempo
Retorna a conversa E os arquivos a um ponto anterior. Ideal quando uma tentativa deu ruim e quer recomeçar daquele ponto.
Alias: /checkpoint, /undo
/clear
Mais drástico — reset total
Começa sessão nova e vazia. Sessão anterior fica acessível via /resume. Use com handoff estruturado.
Alias: /reset, /new
🎯Decisão rápida
- /compact → sessão boa, só grande demais
- /rewind → erro pontual, quer voltar
- /clear → contexto "infectado", precisa recomeçar
📚Trilha 2 destrincha cada um
Na próxima trilha, cada comando ganha um tópico com exemplos, variações e quando evitar. Por ora, basta saber que eles existem — e escolher o menos drástico que resolva.
🏆 A melhor defesa — ciclos curtos
A melhor forma de lidar com context rot é não deixar acontecer. Isso se faz com uma rotina: ciclos curtos de trabalho, resumos frequentes, reset preventivo.
❌ Abordagem reativa
- •Empurra a sessão até dar problema
- •Luta com o modelo quando ele confunde
- •Só limpa quando a qualidade despenca
- •Resultado: retrabalho e custo alto
✓ Abordagem proativa
- •Trabalha em blocos de 20–30 turnos
- •Resume antes do problema aparecer
- •Reseta com handoff estruturado
- •Resultado: qualidade constante, custo baixo
Contexto não é memória — é carga.
Você não perde ao limpar. Você ganha performance.
🚀O que vem a seguir (Trilha 2)
Na Trilha 2 — Rotina Prática, você vai aprender:
- → Como abrir toda sessão com um bom plano (plan mode)
- → Trabalhar em blocos: um passo por vez, checkpoint entre
- → Usar
/clear,/rewind,/compactcom confiança
📋Resumo do Módulo
/context, desconforto/compact → /rewind → /clearPróxima trilha:
T2 — ⚙️ Rotina Prática
A teoria acabou. Agora é sobre o hábito diário que corta custos pela metade.