MÓDULO 1.2

⚡ Os 5 Fatos Não-Negociáveis

xhigh default, adaptive thinking, menos tools/subagents, instruction following literal, mais tokens por design. Os 5 pilares que exigem repensar prompts.

7
Tópicos
30
Minutos
Básico
Nível
Teoria
Tipo
xh xhigh default entre high e max Adaptive thinking fim do budget_tokens Menos tools raciocina mais Literal $ Mais tokens por design
1

🎛️ xhigh é o novo default

O xhigh é um nível novo de effort criado especificamente para o 4.7. Fica entre high e max e é o ponto ideal para a maioria do trabalho agêntico — forte autonomia sem o consumo descontrolado de tokens que max produz em runs longos.

🧭 Guia de decisão

  • xhigh — 80% dos casos (design de API, refactor, code review, migração legada)
  • high — sessões concorrentes, economia sem queda visível
  • max — só para problemas que testam o teto do modelo

💡 Upgrade automático

Se você é usuário existente do Claude Code e nunca setou effort manualmente, foi upgradeado para xhigh automaticamente. Ainda pode ajustar.

2

🧠 Adaptive Thinking

Extended thinking com budget_tokens fixo não é mais suportado no 4.7. Agora o modelo usa adaptive thinking — decide a cada passo se pensar ou responder direto, baseado em effort e complexidade da query.

✗ Antes (deprecated)

client.messages.create(
  model="claude-sonnet-4-5",
  thinking={
    "type": "enabled",
    "budget_tokens": 32000
  },
  ...
)

✓ Agora (4.7)

client.messages.create(
  model="claude-opus-4-7",
  thinking={"type": "adaptive"},
  output_config={"effort": "xhigh"},
  ...
)
3

🔧 Menos tools, menos subagents

O 4.7 raciocina mais e chama menos. Na maioria dos casos isso produz melhor resultado. Mas se seu workflow dependia de busca agressiva ou leitura extensiva, agora parece "preguiçoso".

📊 Como forçar mais uso

Se precisa de busca mais agressiva, seja explícito:

Do not spawn a subagent for work you can complete directly in a single
response (e.g., refactoring a function you can already see).

Spawn multiple subagents in the same turn when fanning out across items
or reading multiple files.
4

📜 Instruction Following Literal

O 4.7 não generaliza silenciosamente uma instrução de um item para outro, e não infere pedidos que você não fez. O upside é precisão. O downside: se quer amplitude, declare escopo explicitamente.

✗ Pode ficar literal demais

"Aplica essa formatação na primeira seção" → aplica na primeira, mesmo que você quisesse em todas.

✓ Seja explícito

"Apply this formatting to every section, not just the first one."

5

💰 Mais tokens por design

No anúncio, a Anthropic destacou duas mudanças que impactam consumo: tokenizer atualizado e tendência a pensar mais em níveis de effort altos, especialmente em turnos posteriores de sessões longas.

💡 A unidade correta

Olhar tokens por resposta engana. Olhe tokens por tarefa concluída. Na maioria dos casos, o 4.7 precisa de menos turnos para entregar o mesmo — e o custo total cai.

6

📈 O que ficou melhor

🎯 Ambiguidade

Lida melhor com prompts ambíguos que o 4.6. Consegue raciocinar por tarefas com menos direção.

🐛 Bug finding

+11pp de recall em um dos evals mais difíceis baseados em PRs reais da Anthropic.

🧵 Coerência multi-sessão

Carrega contexto entre sessões com mais confiabilidade — bom para tarefas de dias.

7

✅ Quick-check: reconhecendo o 4.7 em 30s

3 sinais no output confirmam 4.7:

  1. 1. Tamanho de resposta calibrado à complexidade — curta em lookup, longa em análise
  2. 2. Menos tool calls que você esperaria — ele infere mais
  3. 3. Seguimento literal — não aplica em escopo maior do que você pediu

📋 Resumo do Módulo

xhigh default — entre high e max, para 80% dos casos
Adaptive thinking — sem budget_tokens, usa effort + linguagem
Menos tools/subagents — peça explicitamente quando precisar
Literal — declare escopo se quer amplitude
Mais tokens — mas menos turnos por tarefa

Próximo Módulo:

1.3 — Tokenizer e Custo Real