TRILHA 2

🔗 Tecnicas Intermediarias

Domine Chain of Thought, Scaffolding, Tree of Thought e tecnicas de Self-Reflection. O proximo nivel para prompts realmente eficazes.

8
Modulos
48
Topicos
~3h
Duracao
Medio
Nivel

Navegacao Rapida

2.1

Chain of Thought

2.2

Few vs Zero Shot

2.3

Scaffolding

2.4

Scaffolding Pratico

2.5

Tree of Thought

2.6

Self-Reflection

2.7

Self-Consistency

2.8

Comparando Tecnicas

Conteudo Detalhado

2.1 ~25 min

🔗 Chain of Thought (CoT)

A tecnica favorita antes dos reasoning models - faca o modelo mostrar seu raciocinio passo a passo.

O que e:

Tecnica onde voce pede ao modelo para produzir seu processo de raciocinio passo a passo, em vez de apenas dar a resposta final.

Por que aprender:

Aumenta drasticamente a precisao em problemas complexos. E a base dos reasoning models modernos.

Conceitos-chave:

Show your work | Step by step | Input-output chaining | Prediction refinement.

O que e:

O output de um prompt vira input do proximo. Cada iteracao refina o resultado com mais contexto e derivacoes.

Por que aprender:

Permite refinar respostas progressivamente, especialmente util quando context windows eram pequenos.

Conceitos-chave:

Output1 -> Input2 | Duas derivadas de informacao | Predicao mais informada.

O que e:

Reasoning models como O1, O3 e DeepSeek fazem CoT automaticamente durante o processamento interno.

Por que aprender:

O que antes era manual agora e nativo. Mas entender CoT ajuda a usar melhor os reasoning models.

Conceitos-chave:

O3 Mini = Zero-shot CoT instantaneo | O1 Pro = CoT longo (10-15 min) | Self-reflection integrada.

O que e:

CoT brilha em: problemas matematicos multi-step, puzzles logicos, lead qualification workflows, enriquecimento de dados.

Por que aprender:

Saber quando aplicar CoT economiza tempo e melhora resultados em tarefas complexas.

Conceitos-chave:

Complex reasoning | Multi-step math | Workflow automation | Word count precision.

O que e:

Encadear muitos agentes com prompts diferentes cria "superficie de falha" crescente. Nao confunda CoT com agent chaining mal feito.

Por que aprender:

Em producao, agentes ADHD (cada um focado em algo diferente sem continuidade) sao pesadelo de manutencao.

Conceitos-chave:

CoT = aditivo e continuo | Agent chaining = risco de divergencia | Producao != experimentacao.

O que e:

Exercicio pratico: pedir "100 palavras exatas" para GPT-4o vs O1. Reasoning models usam Python interno para contar.

Por que aprender:

Demonstra concretamente a diferenca entre modelo tradicional (aproxima) vs reasoning (preciso).

Conceitos-chave:

GPT-4o = ~95-105 palavras | O1 = 100 exatas | Reasoning interno com codigo.

Ver Completo
2.2 ~20 min

🎯 Few-Shot vs Zero-Shot CoT

Quando dar exemplos de raciocinio e quando apenas pedir para pensar passo a passo.

O que e:

Incluir exemplos completos mostrando pergunta, passos de raciocinio e resposta final no seu prompt.

Por que aprender:

O modelo aprende o FORMATO de raciocinio que voce espera, nao apenas o tipo de resposta.

Conceitos-chave:

Exemplo: Q + Steps + A | Pattern matching de raciocinio | Consistencia de formato.

O que e:

Simplesmente adicionar "Think step by step" ou "Let's work through this" ao prompt, sem exemplos.

Por que aprender:

Mais rapido de implementar, funciona bem para tarefas comuns onde o modelo ja conhece o padrao.

Conceitos-chave:

Magic phrase | Prompt minimo | O3 Mini = Zero-shot nativo | Rapido mas menos controlado.

O que e:

Few-shot: quando precisa de formato especifico ou dominio especializado. Zero-shot: tarefas genericas ou com reasoning models.

Por que aprender:

Escolher errado despertica tokens (few-shot desnecessario) ou perde qualidade (zero-shot insuficiente).

Conceitos-chave:

Dominio especializado = Few-shot | Task generica = Zero-shot | Reasoning model = Zero-shot otimo.

O que e:

Few-shot: "Q: John has 5 apples, eats 2. A: John starts with 5, eats 2, 5-2=3. Answer: 3"

Por que aprender:

Ver o formato concreto ajuda a criar seus proprios exemplos para dominios especificos.

Conceitos-chave:

Mostrar calculo explicito | Formato consistente | Pattern para o modelo seguir.

O que e:

Riddle: "Farmer has 17 cows, all but 9 die. How many left?" GPT-4o pode errar. Reasoning model acerta explicando a logica.

Por que aprender:

Demonstra que CoT nao e sobre matematica simples - e sobre raciocinio linguistico e interpretacao.

Conceitos-chave:

"All but 9" = 9 restam | Interpretacao linguistica | Reasoning explicito evita erros.

O que e:

Teste o mesmo problema com Few-shot e Zero-shot. Compare qualidade e consistencia das respostas.

Por que aprender:

Experiencia pratica mostra quando cada abordagem funciona melhor no seu caso de uso.

Conceitos-chave:

Testar ambos | Documentar resultados | Escolher baseado em dados, nao intuicao.

Ver Completo
2.3 ~25 min

🏗️ Scaffolding

Quebre tarefas complexas em passos gerenciaveis - a tecnica de construcao para prompts.

O que e:

Design de prompt onde voce quebra uma tarefa complexa em passos menores e gerenciaveis, guiando o modelo atraves de cada etapa.

Por que aprender:

Permite criar outputs longos e complexos (como livros) mesmo com limites de token.

Conceitos-chave:

Analogia de construcao | Passos sequenciais | Contexto preservado entre etapas.

O que e:

Historia real: autor famoso contratou para escrever livro com GPT-4 (8K tokens). Scaffolding foi a unica solucao viavel.

Por que aprender:

Demonstra uso real de scaffolding: outline -> capitulo intro -> middle -> next chapter, preservando contexto.

Conceitos-chave:

Outline primeiro | Intro vira contexto | Capitulo por capitulo | Segue entre capitulos.

O que e:

Prompt 1: outline. Prompt 2: escreva secao A. Prompt 3: escreva secao B. Cada prompt e independente mas conectado.

Por que aprender:

Mais controle sobre cada etapa, permite correcoes intermediarias, util para workflows de automacao.

Conceitos-chave:

Prompts independentes | Output -> Input | N8N/Make.com workflows | Controle granular.

O que e:

"First, list key points. Then, for each point, provide explanation. Finally, conclude with recommendations."

Por que aprender:

Ideal para reasoning models modernos com grande output. O1/O3 executam todo o scaffolding internamente.

Conceitos-chave:

First/Then/Finally | Blob estruturado | Reasoning models | Dados de referencia no final.

O que e:

Use quando: tarefa complexa demais para one-shot, long-form content, analise multi-parte, outputs estruturados.

Por que aprender:

Scaffolding reduz "wandering" e alucinacao dividindo o trabalho em tarefas miopicas alcancaveis.

Conceitos-chave:

Tarefas miopicas | Atencao focada | Menos alucinacao | Output estruturado.

O que e:

1: List strengths. 2: List weaknesses. 3: List opportunities. 4: List threats. 5: Combine into SWOT report.

Por que aprender:

Exemplo perfeito de scaffolding convergente - cada parte alimenta o output final combinado.

Conceitos-chave:

Ordem importa | Strengths -> Weaknesses -> Opportunities -> Threats | Convergencia final.

Ver Completo
2.4 ~20 min

🛠️ Scaffolding na Pratica

Exemplos detalhados de multi-turn scaffolding e como preservar contexto entre etapas.

Ver Completo
2.5 ~25 min

🌳 Tree of Thought (ToT)

Explore multiplas solucoes ramificadas - a tecnica mais criativa e menos linear.

Ver Completo
2.6 ~20 min

🔄 Self-Reflection e Critique

Faca o modelo revisar e melhorar sua propria resposta antes de finalizar.

Ver Completo
2.7 ~15 min

🎲 Self-Consistency

Gere multiplas respostas e veja se convergem - validacao por consenso.

Ver Completo
2.8 ~20 min

📊 Comparando Tecnicas

Quando usar CoT, Scaffolding, ToT ou Self-Reflection - guia de decisao.

Ver Completo
← Trilha Anterior: Fundamentos Proxima Trilha: Avancado →