🔗 Chain of Thought (CoT)
A tecnica favorita antes dos reasoning models - faca o modelo mostrar seu raciocinio passo a passo.
Tecnica onde voce pede ao modelo para produzir seu processo de raciocinio passo a passo, em vez de apenas dar a resposta final.
Aumenta drasticamente a precisao em problemas complexos. E a base dos reasoning models modernos.
Show your work | Step by step | Input-output chaining | Prediction refinement.
O output de um prompt vira input do proximo. Cada iteracao refina o resultado com mais contexto e derivacoes.
Permite refinar respostas progressivamente, especialmente util quando context windows eram pequenos.
Output1 -> Input2 | Duas derivadas de informacao | Predicao mais informada.
Reasoning models como O1, O3 e DeepSeek fazem CoT automaticamente durante o processamento interno.
O que antes era manual agora e nativo. Mas entender CoT ajuda a usar melhor os reasoning models.
O3 Mini = Zero-shot CoT instantaneo | O1 Pro = CoT longo (10-15 min) | Self-reflection integrada.
CoT brilha em: problemas matematicos multi-step, puzzles logicos, lead qualification workflows, enriquecimento de dados.
Saber quando aplicar CoT economiza tempo e melhora resultados em tarefas complexas.
Complex reasoning | Multi-step math | Workflow automation | Word count precision.
Encadear muitos agentes com prompts diferentes cria "superficie de falha" crescente. Nao confunda CoT com agent chaining mal feito.
Em producao, agentes ADHD (cada um focado em algo diferente sem continuidade) sao pesadelo de manutencao.
CoT = aditivo e continuo | Agent chaining = risco de divergencia | Producao != experimentacao.
Exercicio pratico: pedir "100 palavras exatas" para GPT-4o vs O1. Reasoning models usam Python interno para contar.
Demonstra concretamente a diferenca entre modelo tradicional (aproxima) vs reasoning (preciso).
GPT-4o = ~95-105 palavras | O1 = 100 exatas | Reasoning interno com codigo.
🎯 Few-Shot vs Zero-Shot CoT
Quando dar exemplos de raciocinio e quando apenas pedir para pensar passo a passo.
Incluir exemplos completos mostrando pergunta, passos de raciocinio e resposta final no seu prompt.
O modelo aprende o FORMATO de raciocinio que voce espera, nao apenas o tipo de resposta.
Exemplo: Q + Steps + A | Pattern matching de raciocinio | Consistencia de formato.
Simplesmente adicionar "Think step by step" ou "Let's work through this" ao prompt, sem exemplos.
Mais rapido de implementar, funciona bem para tarefas comuns onde o modelo ja conhece o padrao.
Magic phrase | Prompt minimo | O3 Mini = Zero-shot nativo | Rapido mas menos controlado.
Few-shot: quando precisa de formato especifico ou dominio especializado. Zero-shot: tarefas genericas ou com reasoning models.
Escolher errado despertica tokens (few-shot desnecessario) ou perde qualidade (zero-shot insuficiente).
Dominio especializado = Few-shot | Task generica = Zero-shot | Reasoning model = Zero-shot otimo.
Few-shot: "Q: John has 5 apples, eats 2. A: John starts with 5, eats 2, 5-2=3. Answer: 3"
Ver o formato concreto ajuda a criar seus proprios exemplos para dominios especificos.
Mostrar calculo explicito | Formato consistente | Pattern para o modelo seguir.
Riddle: "Farmer has 17 cows, all but 9 die. How many left?" GPT-4o pode errar. Reasoning model acerta explicando a logica.
Demonstra que CoT nao e sobre matematica simples - e sobre raciocinio linguistico e interpretacao.
"All but 9" = 9 restam | Interpretacao linguistica | Reasoning explicito evita erros.
Teste o mesmo problema com Few-shot e Zero-shot. Compare qualidade e consistencia das respostas.
Experiencia pratica mostra quando cada abordagem funciona melhor no seu caso de uso.
Testar ambos | Documentar resultados | Escolher baseado em dados, nao intuicao.
🏗️ Scaffolding
Quebre tarefas complexas em passos gerenciaveis - a tecnica de construcao para prompts.
Design de prompt onde voce quebra uma tarefa complexa em passos menores e gerenciaveis, guiando o modelo atraves de cada etapa.
Permite criar outputs longos e complexos (como livros) mesmo com limites de token.
Analogia de construcao | Passos sequenciais | Contexto preservado entre etapas.
Historia real: autor famoso contratou para escrever livro com GPT-4 (8K tokens). Scaffolding foi a unica solucao viavel.
Demonstra uso real de scaffolding: outline -> capitulo intro -> middle -> next chapter, preservando contexto.
Outline primeiro | Intro vira contexto | Capitulo por capitulo | Segue entre capitulos.
Prompt 1: outline. Prompt 2: escreva secao A. Prompt 3: escreva secao B. Cada prompt e independente mas conectado.
Mais controle sobre cada etapa, permite correcoes intermediarias, util para workflows de automacao.
Prompts independentes | Output -> Input | N8N/Make.com workflows | Controle granular.
"First, list key points. Then, for each point, provide explanation. Finally, conclude with recommendations."
Ideal para reasoning models modernos com grande output. O1/O3 executam todo o scaffolding internamente.
First/Then/Finally | Blob estruturado | Reasoning models | Dados de referencia no final.
Use quando: tarefa complexa demais para one-shot, long-form content, analise multi-parte, outputs estruturados.
Scaffolding reduz "wandering" e alucinacao dividindo o trabalho em tarefas miopicas alcancaveis.
Tarefas miopicas | Atencao focada | Menos alucinacao | Output estruturado.
1: List strengths. 2: List weaknesses. 3: List opportunities. 4: List threats. 5: Combine into SWOT report.
Exemplo perfeito de scaffolding convergente - cada parte alimenta o output final combinado.
Ordem importa | Strengths -> Weaknesses -> Opportunities -> Threats | Convergencia final.
🛠️ Scaffolding na Pratica
Exemplos detalhados de multi-turn scaffolding e como preservar contexto entre etapas.
🌳 Tree of Thought (ToT)
Explore multiplas solucoes ramificadas - a tecnica mais criativa e menos linear.
🔄 Self-Reflection e Critique
Faca o modelo revisar e melhorar sua propria resposta antes de finalizar.
🎲 Self-Consistency
Gere multiplas respostas e veja se convergem - validacao por consenso.
📊 Comparando Tecnicas
Quando usar CoT, Scaffolding, ToT ou Self-Reflection - guia de decisao.