📖Como ler este módulo
Cada repo segue o mesmo formato de 5 passos:
🦀 RTK — Rust Token Killer
↗ github.com/rtk-ai/rtkPré-requisito
macOS ou Linux com Homebrew. Se não tiver brew, baixe o binário direto da página de releases.
Setup
brew install rtk
# opcional: alias permanente no shell
echo "alias cargo='rtk cargo'" >> ~/.zshrc
echo "alias pytest='rtk pytest'" >> ~/.zshrc
Sem alias, você precisa prefixar rtk a cada comando. Com alias, vira transparente.
Primeiro uso
# dentro do Claude Code, peça:
"Rode os testes do projeto e me mostre só os que falharam"
# Claude executa:
rtk npm test
Como saber que funcionou
Saída do terminal vira compacta: só testes falhados + resumo. Se você ver 200 linhas de "✓ test passed", não funcionou — verifique se o alias está ativo.
Pegadinha comum
RTK filtra stdout mas não stderr. Se seu comando loga erro em stderr, ele passa direto. Use rtk comando 2>&1 para capturar os dois.
📦 Context Mode
↗ github.com/mksglu/context-modePré-requisito
Claude Code com suporte a marketplace de plugins (versão recente). Teste com claude --version.
Setup
# dentro de uma sessão Claude Code
/plugin marketplace add mksglu/context-mode
/plugin install context-mode@context-mode
# verifique que está ativo
/plugin list
Primeiro uso
Você: "Research https://github.com/modelcontextprotocol/servers —
arquitetura, stack tech, contribuidores, issues abertas."
[Claude usa MCPs pesados; Context Mode intercepta]
Você: /context-mode:ctx-stats
Como saber que funcionou
O comando ctx-stats mostra quantos tokens foram interceptados vs. entregues. Redução > 80% é o esperado.
Pegadinha comum
Se o MCP original não foi configurado direito, Context Mode não tem o que sandboxar. Confirme que MCPs alvo (Playwright, GitHub...) respondem via claude mcp list.
🌳 code-review-graph
↗ github.com/tirth8205/code-review-graphPré-requisito
Python 3.9+. Repositório em estado estável (idealmente pós-commit). Linguagens suportadas via Tree-sitter: JS/TS, Python, Go, Rust, Java, C/C++.
Setup
pip install code-review-graph
# registra como MCP
code-review-graph install
# indexa o repo (rode na raiz)
code-review-graph build
O build leva 1–3 min em repos médios. Re-rode após mudanças estruturais grandes.
Primeiro uso
Você: "Build the code review graph for this project"
Claude: [carrega o grafo]
Você: "Quais arquivos são afetados se eu mudar
a assinatura de UserService.updateProfile?"
Claude: [lê apenas os 4 arquivos que chamam updateProfile]
Como saber que funcionou
Claude menciona arquivos específicos antes de lê-los, e lê só alguns — não tenta explorar o repo inteiro via Glob.
Pegadinha comum
O grafo é estático — não atualiza automaticamente. Depois de refatoração grande, rode code-review-graph build de novo ou o Claude vai apontar para arquivos que não existem mais.
💾 Token Savior
↗ github.com/Mibayy/token-saviorPré-requisito
uv instalado — instalador Python ultrarrápido da Astral.
curl -LsSf https://astral.sh/uv/install.sh | sh
Setup
Adicione ao ~/.claude.json:
{
"mcpServers": {
"token-savior": {
"command": "uvx",
"args": ["token-savior-recall"]
}
}
}
Primeiro uso
Você: "Find the definition of processPayment function"
Claude: [usa symbol search do Token Savior —
não lê o arquivo inteiro]
# sessão seguinte (após /clear ou reinicialização)
Você: "Lembra do processPayment que analisamos?"
Claude: [recupera da memória persistente]
Como saber que funcionou
Claude devolve recortes cirúrgicos (só a função, não o arquivo). Em claude mcp list o servidor aparece com status ativo.
Pegadinha comum
As 69 tools entram no contexto por definição — custando ~2–3k tokens só de schema. Vale se você usa bastante; não vale se só queria uma dessas features.
🪨 Caveman Claude
↗ github.com/JuliusBrussee/cavemanPré-requisito
Claude Code com suporte a plugins marketplace. Nada de Python/Node — é uma skill pura.
Setup
claude plugin marketplace add JuliusBrussee/caveman
claude plugin install caveman@caveman
Primeiro uso
Ative a skill (comando do plugin) e peça qualquer coisa técnica:
Você: "Por que meu componente React re-renderiza?"
Claude normal: "A razão pela qual seu componente está
sofrendo re-renderizações é provavelmente porque você
está criando uma nova referência de objeto a cada
render. Quando você passa um objeto inline como prop,
o React interpreta isso como uma mudança..."
Claude caveman: "Novo ref cada render. Inline obj prop
= novo ref = re-render. Wrap em useMemo."
Como saber que funcionou
Zero adjetivos. Zero "Claro! Vou te explicar...". Zero preâmbulo. Se a primeira palavra for "Claro" ou "Certamente", não ativou.
Pegadinha comum
Em tutoriais didáticos o caveman fica seco demais. Quando estiver explicando conceito novo para um time, desative temporariamente.
📝 claude-token-efficient
↗ github.com/drona23/claude-token-efficientPré-requisito
Se você já tem uma CLAUDE.md no projeto, faça backup antes. O comando abaixo sobrescreve.
Setup
# backup primeiro (se tiver algo)
cp CLAUDE.md CLAUDE.md.bak 2>/dev/null
# baixa o template
curl -o CLAUDE.md \
https://raw.githubusercontent.com/drona23/claude-token-efficient/main/CLAUDE.md
# opcional: mescle com o antigo
cat CLAUDE.md.bak >> CLAUDE.md
Primeiro uso
# dentro do Claude Code
/clear # recomeça a sessão para carregar nova CLAUDE.md
# pede algo com resposta tipicamente longa
"Revise este componente e aponte problemas"
Como saber que funcionou
Resposta de revisão vem em ~30 palavras em vez de 120. Sem preâmbulo "aqui está o que encontrei...".
Pegadinha comum
Sobrescrever a CLAUDE.md existente apaga contexto específico do projeto (convenções, arquitetura). Sempre mescle.
⚡ token-optimizer-mcp
↗ github.com/ooples/token-optimizer-mcpPré-requisito
Node 18+ e npm. Espaço em disco para cache (~100MB para sessões longas).
Setup
git clone https://github.com/ooples/token-optimizer-mcp
cd token-optimizer-mcp
npm install
npm run build
# registra como MCP
claude mcp add token-optimizer -- node /caminho/completo/dist/server.js
Primeiro uso
Você: "Busque issues abertas no repo X com label 'bug'"
Claude: [chama tool GitHub — resultado grande]
Você: "Mesma busca, mas com label 'enhancement'"
Claude: [chama tool GitHub; segunda chamada
com argumentos similares vem do cache]
Como saber que funcionou
Segunda chamada de tool idêntica ou similar volta em < 100ms. Logs do MCP mostram "cache hit".
Pegadinha comum
Cache pode servir resposta desatualizada (ex: issue já foi fechada). Configure TTL curto em tools voláteis.
🎯 claude-token-optimizer
↗ github.com/nadimtuhin/claude-token-optimizerPré-requisito
Projeto com documentação inflada: CLAUDE.md > 200 linhas, múltiplos READMEs, pasta /docs grande.
Setup
# na raiz do projeto
curl -fsSL https://raw.githubusercontent.com/nadimtuhin/claude-token-optimizer/main/init.sh | bash
O script reorganiza: 4 arquivos essenciais (~800 tokens) sempre carregam; o resto vira "carregável sob demanda".
Primeiro uso
# antes
/context
# "CLAUDE.md: 11.200 tokens"
# rodar init.sh, depois /clear
# depois
/context
# "CLAUDE.md: 1.300 tokens"
Como saber que funcionou
Comparação do /context antes/depois mostra queda grande em "project memory". Docs antigas continuam disponíveis (Claude pede quando precisar).
Pegadinha comum
Rode git diff depois para ver o que o script mudou. Algumas reorganizações podem quebrar links internos nas docs.
👻 token-optimizer (ghost tokens)
↗ github.com/alexgreensh/token-optimizerPré-requisito
Sessão com histórico significativo — idealmente pós-/compact. Ghost tokens aparecem só em contexto maduro.
Setup
/plugin marketplace add alexgreensh/token-optimizer
/plugin install token-optimizer@alexgreensh-token-optimizer
Alternativa via bash: git clone + bash install.sh.
Primeiro uso
# auditoria completa (6 agentes em paralelo)
/token-optimizer
# ou check rápido via Python
python3 measure.py quick
# dashboard live
open http://localhost:24842
Como saber que funcionou
Dashboard mostra ghost tokens identificados com recomendações específicas (ex: "skill X está carregada mas não foi usada em 30 turnos — desabilite").
Pegadinha comum
Rodar em sessão curta (< 10 turnos) dá falso positivo. Use depois que o contexto estiver "denso" (~40% da janela).
🔍 claude-context (Zilliz)
↗ github.com/zilliztech/claude-contextPré-requisito
- • Node.js 20 ou 22 (23 não funciona no momento)
- • Conta Zilliz Cloud (free tier suporta ~1M vetores)
- • Chave OpenAI (para gerar embeddings — custo baixo)
Setup
claude mcp add claude-context \
-e OPENAI_API_KEY=sk-proj-... \
-e MILVUS_TOKEN=... \
-- npx @zilliz/claude-context-mcp@latest
# confirme
claude mcp list
Primeiro uso
Você: "Index this codebase"
Claude: [indexa — pode levar 5–20 min em repo grande]
Você: "Find functions that handle user authentication"
Claude: [retorna 5 arquivos relevantes por similaridade
semântica, não por grep literal]
Você: "Find code related to rate limiting"
Claude: [encontra middleware mesmo que nunca use
exatamente a palavra 'rate limit']
Como saber que funcionou
Claude encontra código relevante mesmo sem a palavra exata — é o sinal de que a busca semântica está ativa (e não só keyword matching).
Pegadinha comum
Custo de embeddings OpenAI não é zero. Indexar 1M linhas = ~US$ 2–5. Para repos enormes, considere modelos locais (config avançada no README).
✅Checklist antes de sair do módulo
- □Rodei
/contextem uma sessão fresca e anotei o baseline - □Identifiquei meu gargalo principal (terminal? MCPs? output? docs?)
- □Escolhi 2 repos que atacam esse gargalo (não 10)
- □Instalei o primeiro seguindo os 5 passos
- □Confirmei que funcionou (passo 4 de cada tutorial)
- □Medi o ganho com novo
/contexte comparei