MODULO 2.4

๐Ÿ”— Passando contexto entre modelos

Como manter coerencia quando voce troca de modelo no meio de uma tarefa. Arquivos de convencao, resumos, janelas de contexto.

6
Topicos
30
Minutos
Pratico
Nivel
Tecnico
Tipo
1

๐Ÿ“ฆ Contexto como artefato โ€” markdown e arquivos

Em vez de "lembrar" no chat, salve plano em PLAN.md, decisoes em DECISIONS.md. Cada modelo le do mesmo lugar.

๐Ÿ“‚ Pasta /context/ tipica

context/
โ”œโ”€โ”€ PLAN.md           # plano da feature atual
โ”œโ”€โ”€ DECISIONS.md      # ADRs - decisoes arquiteturais
โ”œโ”€โ”€ COPY.md           # copy refinado pelo Opus
โ”œโ”€โ”€ SCHEMA.md         # schema do DB
โ””โ”€โ”€ CHANGELOG.md      # historico de mudancas

Cada modelo recebe os arquivos relevantes como input. Memoria externa, durable, auditavel.

2

๐Ÿ“„ CLAUDE.md / .cursorrules / AGENTS.md

Arquivos que cada tool le automaticamente: stack, padroes, comandos. Garante que qualquer modelo segue as mesmas regras.

๐Ÿ“‹ Conteudo tipico do CLAUDE.md

# Projeto X

## Stack
- Next.js 15 (app router)
- Postgres com Drizzle ORM
- Tailwind v4
- Biome para lint/format

## Convencoes
- Componentes em PascalCase, hooks em camelCase
- Server actions em /actions/
- Tipos compartilhados em /types/

## Comandos
- npm run dev
- npm run test
- npm run check (lint+types)

## Notas
- Nao instalar novas dependencias sem perguntar
- Sempre incluir testes para business logic
3

๐Ÿงฑ Resumo executivo entre etapas

Antes de passar para o proximo modelo, peca ao atual: "resuma em 200 palavras o que decidimos e por que". Esse resumo vira o input do proximo.

โœ‚๏ธ Compressao de contexto

Reduz tokens de input no proximo modelo. Lossy mas eficiente.

Prompt: "Resuma em 200 palavras max:
- Decisoes-chave tomadas
- Pendencias para o proximo passo
- Riscos identificados"
4

๐ŸชŸ Janela de contexto: limites de cada modelo

Saber o limite evita "input too long" no meio do fluxo โ€” voce planeja a divisao antes.

ModeloJanelaImplicacao
DeepSeek V4128kBom para feature media. Repos grandes precisam filtragem.
GPT-5.5256kCabe contexto extenso. Prefiro para refatoracoes longas.
Opus 4.71MLe repos inteiros. Ideal para auditoria/diagnostico.
5

๐Ÿงน Limpando contexto sujo

Conversa longa acumula erros e "achismos". A cada nova feature, /clear e comece com contexto limpo + arquivos relevantes.

โš ๏ธ Sintomas de contexto sujo

  • โ€ข Modelo refere a algo que nao foi pedido
  • โ€ข Repete erros ja corrigidos
  • โ€ข "Eu entendo, mas..." seguido do mesmo erro
  • โ€ข Sugere refactor de codigo que voce ja apagou
  • โ€ข Inventa que o codigo "antigo" tinha algo que nao tinha

Solucao: /clear, recarregue arquivos atuais, recomece com prompt focado.

6

๐Ÿ’พ Cache de prompts em prompts longos

Anthropic e OpenRouter cacheiam prefixo do prompt. Mande primeiro o contexto grande, depois pergunte. Ate 90% off em input repetido.

๐Ÿ’ฐ Estrutura de prompt cacheavel

[CONTEXTO ESTAVEL โ€” vai pro cache]
{ Prompt do papel (5k tokens) }
{ CLAUDE.md (2k tokens) }
{ Plan.md (3k tokens) }

[CONTEXTO VARIAVEL โ€” nao entra no cache]
{ Pergunta especifica do turno }

Em 10 turnos da mesma conversa, voce paga full price 1x e cache 9x. Economia de ~80%.

๐Ÿ“Œ Resumo do Modulo

โœ“
Contexto em arquivo: PLAN.md, DECISIONS.md sao memoria durable
โœ“
CLAUDE.md/AGENTS.md: convencoes lidas automaticamente por cada tool
โœ“
Resumo entre etapas: 200 palavras compactam contexto sem perder essencial
โœ“
Janelas: DeepSeek 128k, GPT-5.5 256k, Opus 1M
โœ“
/clear preventivo: contexto sujo gera codigo sujo
โœ“
Cache em prefixo: contexto estavel primeiro = 80% economia

Proximo Modulo:

2.5 โ€” โœ… Workflow de revisao cruzada