๐ฆ Contexto como artefato โ markdown e arquivos
Em vez de "lembrar" no chat, salve plano em PLAN.md, decisoes em DECISIONS.md. Cada modelo le do mesmo lugar.
๐ Pasta /context/ tipica
context/ โโโ PLAN.md # plano da feature atual โโโ DECISIONS.md # ADRs - decisoes arquiteturais โโโ COPY.md # copy refinado pelo Opus โโโ SCHEMA.md # schema do DB โโโ CHANGELOG.md # historico de mudancas
Cada modelo recebe os arquivos relevantes como input. Memoria externa, durable, auditavel.
๐ CLAUDE.md / .cursorrules / AGENTS.md
Arquivos que cada tool le automaticamente: stack, padroes, comandos. Garante que qualquer modelo segue as mesmas regras.
๐ Conteudo tipico do CLAUDE.md
# Projeto X ## Stack - Next.js 15 (app router) - Postgres com Drizzle ORM - Tailwind v4 - Biome para lint/format ## Convencoes - Componentes em PascalCase, hooks em camelCase - Server actions em /actions/ - Tipos compartilhados em /types/ ## Comandos - npm run dev - npm run test - npm run check (lint+types) ## Notas - Nao instalar novas dependencias sem perguntar - Sempre incluir testes para business logic
๐งฑ Resumo executivo entre etapas
Antes de passar para o proximo modelo, peca ao atual: "resuma em 200 palavras o que decidimos e por que". Esse resumo vira o input do proximo.
โ๏ธ Compressao de contexto
Reduz tokens de input no proximo modelo. Lossy mas eficiente.
- Decisoes-chave tomadas
- Pendencias para o proximo passo
- Riscos identificados"
๐ช Janela de contexto: limites de cada modelo
Saber o limite evita "input too long" no meio do fluxo โ voce planeja a divisao antes.
| Modelo | Janela | Implicacao |
|---|---|---|
| DeepSeek V4 | 128k | Bom para feature media. Repos grandes precisam filtragem. |
| GPT-5.5 | 256k | Cabe contexto extenso. Prefiro para refatoracoes longas. |
| Opus 4.7 | 1M | Le repos inteiros. Ideal para auditoria/diagnostico. |
๐งน Limpando contexto sujo
Conversa longa acumula erros e "achismos". A cada nova feature, /clear e comece com contexto limpo + arquivos relevantes.
โ ๏ธ Sintomas de contexto sujo
- โข Modelo refere a algo que nao foi pedido
- โข Repete erros ja corrigidos
- โข "Eu entendo, mas..." seguido do mesmo erro
- โข Sugere refactor de codigo que voce ja apagou
- โข Inventa que o codigo "antigo" tinha algo que nao tinha
Solucao: /clear, recarregue arquivos atuais, recomece com prompt focado.
๐พ Cache de prompts em prompts longos
Anthropic e OpenRouter cacheiam prefixo do prompt. Mande primeiro o contexto grande, depois pergunte. Ate 90% off em input repetido.
๐ฐ Estrutura de prompt cacheavel
[CONTEXTO ESTAVEL โ vai pro cache]
{ Prompt do papel (5k tokens) }
{ CLAUDE.md (2k tokens) }
{ Plan.md (3k tokens) }
[CONTEXTO VARIAVEL โ nao entra no cache]
{ Pergunta especifica do turno }Em 10 turnos da mesma conversa, voce paga full price 1x e cache 9x. Economia de ~80%.
๐ Resumo do Modulo
Proximo Modulo:
2.5 โ โ Workflow de revisao cruzada