MODULO 2.2

🎯 Few-Shot vs Zero-Shot CoT

Quando dar exemplos de raciocinio e quando simplesmente pedir "pense passo a passo". Duas abordagens, diferentes resultados.

6
Topicos
20
Minutos
Medio
Nivel
Tecnica
Tipo
1

📚 Few-Shot CoT Explicado

Few-Shot Chain of Thought significa incluir exemplos completos com passos de raciocinio no seu prompt. O modelo aprende o formato esperado pelos exemplos.

💡 Estrutura Few-Shot CoT

Question: John has 5 apples and eats 2. How many left?

Answer: John starts with 5 apples.

He eats 2 apples.

5 - 2 = 3

Therefore: 3 apples remaining.

🎯 Quando Usar

  • • Dominio especializado que o modelo pode nao conhecer bem
  • • Formato de output muito especifico necessario
  • • Consistencia critica entre multiplas execucoes
2

⚡ Zero-Shot CoT Explicado

Zero-Shot CoT e simplesmente adicionar uma "magic phrase" pedindo raciocinio, sem dar exemplos. Surpreendentemente eficaz.

🪄 Magic Phrases

"Let's think step by step"

"Let's work through this"

"Show your reasoning"

"Think about this carefully"

💡 Vantagem

Zero-Shot e muito mais rapido de implementar e consome menos tokens. Com reasoning models como O3 Mini, e basicamente o modo padrao de operacao.

3

⚖️ Comparacao Direta

Aspecto Few-Shot CoT Zero-Shot CoT
TokensMais (exemplos ocupam espaco)Menos (so a phrase)
ControleAlto (formato definido)Medio (modelo decide formato)
Setup TimeMaior (criar exemplos)Minimo
Uso IdealDominio especificoTasks genericas
Reasoning ModelsMenos necessarioModo nativo

🎯 Regra Pratica

Comece com Zero-Shot. Se os resultados nao forem consistentes ou o formato estiver errado, adicione exemplos (Few-Shot). Nao complique antes de precisar.

4

🧮 Exemplo: Problema Matematico

Few-Shot

Q: Mary has 7 books, gives away 3. How many?

A: Mary starts with 7.

She gives away 3.

7 - 3 = 4

Answer: 4 books.

Q: John has 5 apples, eats 2. How many?

Zero-Shot

John has 5 apples and eats 2. How many are left?

Let's think step by step.

Ambos chegam na resposta correta (3), mas Few-Shot garante que o formato da resposta seja identico ao exemplo. Zero-Shot deixa o modelo escolher como estruturar.

5

🧩 Exemplo: Riddle Logico

Este e um teste classico que mostra onde CoT realmente brilha - problemas que requerem interpretacao linguistica, nao apenas matematica.

🧩 O Riddle

"A farmer has 17 cows. All but 9 die. How many cows are left?"

GPT-4o (sem CoT)

Pode responder "8" (17-9)

Erro de interpretacao

Reasoning Model (CoT)

Responde "9"

"All but 9" = 9 sobrevivem

O Raciocinio Correto

"The farmer starts with 17 cows. 'All but 9 die' means all cows EXCEPT 9 die. Therefore, 9 cows survive. The answer is 9."

6

🔧 Exercicio Pratico

📝 Compare os Approaches

Tarefa: Escolha um problema do seu dominio e teste ambos os approaches.

  1. Execute com Zero-Shot ("Think step by step")
  2. Execute com Few-Shot (crie 1-2 exemplos com raciocinio)
  3. Compare: precisao, formato, consistencia
  4. Documente qual funcionou melhor e por que

💡 Dica

Nao assuma qual vai funcionar melhor. Teste empiricamente. O resultado pode surpreender dependendo do tipo de problema e do modelo usado.

📋 Resumo do Modulo

Few-Shot CoT - Exemplos com raciocinio, mais controle, mais tokens
Zero-Shot CoT - Magic phrase, rapido, modo nativo dos reasoning models
Comece simples - Zero-Shot primeiro, Few-Shot se precisar
Teste empiricamente - Nao assuma, compare resultados