🎛️ xhigh é o novo default
O xhigh é um nível novo de effort criado especificamente para o 4.7. Fica entre high e max e é o ponto ideal para a maioria do trabalho agêntico — forte autonomia sem o consumo descontrolado de tokens que max produz em runs longos.
🧭 Guia de decisão
- •xhigh — 80% dos casos (design de API, refactor, code review, migração legada)
- •high — sessões concorrentes, economia sem queda visível
- •max — só para problemas que testam o teto do modelo
💡 Upgrade automático
Se você é usuário existente do Claude Code e nunca setou effort manualmente, foi upgradeado para xhigh automaticamente. Ainda pode ajustar.
🧠 Adaptive Thinking
Extended thinking com budget_tokens fixo não é mais suportado no 4.7. Agora o modelo usa adaptive thinking — decide a cada passo se pensar ou responder direto, baseado em effort e complexidade da query.
✗ Antes (deprecated)
client.messages.create(
model="claude-sonnet-4-5",
thinking={
"type": "enabled",
"budget_tokens": 32000
},
...
)
✓ Agora (4.7)
client.messages.create(
model="claude-opus-4-7",
thinking={"type": "adaptive"},
output_config={"effort": "xhigh"},
...
)
🔧 Menos tools, menos subagents
O 4.7 raciocina mais e chama menos. Na maioria dos casos isso produz melhor resultado. Mas se seu workflow dependia de busca agressiva ou leitura extensiva, agora parece "preguiçoso".
📊 Como forçar mais uso
Se precisa de busca mais agressiva, seja explícito:
Do not spawn a subagent for work you can complete directly in a single
response (e.g., refactoring a function you can already see).
Spawn multiple subagents in the same turn when fanning out across items
or reading multiple files.
📜 Instruction Following Literal
O 4.7 não generaliza silenciosamente uma instrução de um item para outro, e não infere pedidos que você não fez. O upside é precisão. O downside: se quer amplitude, declare escopo explicitamente.
✗ Pode ficar literal demais
"Aplica essa formatação na primeira seção" → aplica só na primeira, mesmo que você quisesse em todas.
✓ Seja explícito
"Apply this formatting to every section, not just the first one."
💰 Mais tokens por design
No anúncio, a Anthropic destacou duas mudanças que impactam consumo: tokenizer atualizado e tendência a pensar mais em níveis de effort altos, especialmente em turnos posteriores de sessões longas.
💡 A unidade correta
Olhar tokens por resposta engana. Olhe tokens por tarefa concluída. Na maioria dos casos, o 4.7 precisa de menos turnos para entregar o mesmo — e o custo total cai.
📈 O que ficou melhor
🎯 Ambiguidade
Lida melhor com prompts ambíguos que o 4.6. Consegue raciocinar por tarefas com menos direção.
🐛 Bug finding
+11pp de recall em um dos evals mais difíceis baseados em PRs reais da Anthropic.
🧵 Coerência multi-sessão
Carrega contexto entre sessões com mais confiabilidade — bom para tarefas de dias.
✅ Quick-check: reconhecendo o 4.7 em 30s
3 sinais no output confirmam 4.7:
- 1. Tamanho de resposta calibrado à complexidade — curta em lookup, longa em análise
- 2. Menos tool calls que você esperaria — ele infere mais
- 3. Seguimento literal — não aplica em escopo maior do que você pediu
📋 Resumo do Módulo
Próximo Módulo:
1.3 — Tokenizer e Custo Real