TRILHA 1

🌿 Fundamentos de Contexto

Domine os conceitos essenciais de context windows, sensibilidade de prompts, temperatura e comparacao de modelos. A base solida que todo prompt engineer precisa.

8
Modulos
48
Topicos
~2h30
Duracao
Basico
Nivel

Navegacao Rapida

1.1

Context Windows

1.2

Lost in the Middle

1.3

Chunking

1.4

Estruturacao

1.5

Temperature

1.6

Sensibilidade

1.7

Comparacao

1.8

Casos de Uso

Conteudo Detalhado

1.1 ~20 min

πŸ“Š Entendendo Context Windows

Aprenda os limites de contexto dos LLMs e como a analogia do credito ajuda a otimizar sua utilizacao.

O que e:

O context window e a quantidade maxima de tokens (palavras/caracteres) que um LLM pode processar em uma unica interacao. Varia de 8K a 2M+ tokens dependendo do modelo.

Por que aprender:

Entender os limites evita truncamento de respostas, perda de contexto importante e custos desnecessarios com tokens.

Conceitos-chave:

Input tokens vs Output tokens | Context window != qualidade de atencao | Modelos pagos vs open source.

O que e:

Assim como no credito financeiro, ter 1 milhao de tokens disponiveis nao significa que voce deve usar todos. Alta utilizacao = maior risco de problemas.

Por que aprender:

A analogia torna intuitivo entender por que prompts mais enxutos frequentemente produzem melhores resultados.

Conceitos-chave:

Utilizacao baixa = maior precisao | Denominador grande, numerador pequeno | Qualidade > Quantidade.

O que e:

Estrategias praticas para maximizar a efetividade do contexto disponivel sem sobrecarregar o modelo.

Por que aprender:

Usar bem o contexto e a diferenca entre respostas mediocres e excelentes - especialmente em tarefas complexas.

Conceitos-chave:

Foco nos trechos relevantes | Evitar "data dumps" | Contexto direcionado por tarefa.

O que e:

Os erros mais frequentes ao lidar com context windows: dumpar PDFs inteiros, ignorar limites de output, confundir tamanho com qualidade.

Por que aprender:

Evitar esses erros economiza tempo, dinheiro e frustracao - especialmente em projetos corporativos.

Conceitos-chave:

"Dumping" de documentos | Output token limits | Context != memoria persistente.

O que e:

Tabela comparativa: GPT-4o (128K), Claude 3.7 (200K), Gemini 2.5 Pro (1M+). Cada modelo tem suas forcas.

Por que aprender:

Escolher o modelo certo para cada tarefa otimiza resultados e custos.

Conceitos-chave:

Gemini = maior context | Claude = melhor escrita | GPT = equilibrado | O3 = maior output.

O que e:

Exercicio hands-on: otimizar um prompt de 5000 palavras para 500 sem perder informacao essencial.

Por que aprender:

Pratica consolida o aprendizado. Voce vai aplicar a analogia do credito em um caso real.

Conceitos-chave:

Identificar informacao critica | Remover redundancias | Testar antes/depois.

Ver Completo
1.2 ~20 min

πŸ” Lost in the Middle

Entenda por que informacoes no meio do prompt sao frequentemente ignoradas e como contornar isso.

O que e:

LLMs tem dificuldade em manter atencao uniforme em textos longos. Comeco e fim recebem mais "peso" que o meio.

Por que aprender:

Saber disso muda como voce estrutura prompts - colocando informacao critica nas posicoes certas.

Conceitos-chave:

Primacy bias | Recency bias | Attention distribution | Posicionamento estrategico.

O que e:

Teste que avalia a capacidade de um LLM encontrar uma informacao especifica escondida em um texto longo.

Por que aprender:

Gemini lidera nesse teste. Saber disso ajuda a escolher o modelo certo para tarefas de busca em documentos.

Conceitos-chave:

Gemini = melhor | Claude = mediano | GPT = pior em docs longos | Benchmark de retrieval.

O que e:

O modelo da mais peso ao que ve por ultimo. Colocar instrucoes importantes no final aumenta a chance de serem seguidas.

Por que aprender:

Tecnica simples mas poderosa: repetir instrucoes criticas no final do prompt melhora drasticamente a aderencia.

Conceitos-chave:

Repetir nao e redundancia | Disclaimers no final | "Note:" como trigger.

O que e:

Pedir ao modelo para verificar se usou informacao de todo o contexto, nao apenas do inicio/fim.

Por que aprender:

Tecnica avancada que forca o modelo a "voltar" e reconsiderar partes que pode ter ignorado.

Conceitos-chave:

"Did you use the entire context?" | Verificacao explicita | Segunda passada mental.

O que e:

Dar pistas explicitas: "olhe na secao sobre X", "a informacao esta por volta da pagina 20", "busque o header Y".

Por que aprender:

Quando voce sabe onde esta a informacao, guiar o modelo e mais eficiente que deixa-lo procurar sozinho.

Conceitos-chave:

Headers como ancora | Referencias de pagina | Citacao direta quando possivel.

O que e:

Toolkit completo: chunking, sumarizacao, repeticao estrategica, posicionamento de instrucoes.

Por que aprender:

Nao existe solucao unica - voce precisa de um arsenal de tecnicas para diferentes situacoes.

Conceitos-chave:

Chunking + Summarization | Key points extraction | Informacao critica no inicio E fim.

Ver Completo
1.3 ~20 min

🧩 Chunking e Summarização

Tecnicas para quebrar documentos longos em pedacos gerenciaveis e criar sumarios efetivos.

[6 topicos expandiveis - aguardando validacao]
Ver Completo
1.4 ~15 min

πŸ“ Estruturacao de Prompts

Headings, XML tags e formatting strategies para organizar informacao de forma clara.

[6 topicos expandiveis - aguardando validacao]
Ver Completo
1.5 ~20 min

🌑️ Temperature e Top P

Entenda os parametros de criatividade vs rigidez e quando usar cada configuracao.

[6 topicos expandiveis - aguardando validacao]
Ver Completo
1.6 ~15 min

⚑ Sensibilidade de Prompts

Como pequenas mudancas de palavras causam grandes diferencas nos resultados.

[6 topicos expandiveis - aguardando validacao]
Ver Completo
1.7 ~25 min

πŸ€– Comparacao de Modelos

GPT 4.5 vs Claude 3.7 vs Gemini 2.5 Pro - forcas, fraquezas e quando usar cada um.

[6 topicos expandiveis - aguardando validacao]
Ver Completo
1.8 ~25 min

🎯 Casos de Uso por Modelo

Coding, copy, multimodal, function calling - qual modelo para cada tarefa.

[6 topicos expandiveis - aguardando validacao]
Ver Completo
← Voltar ao Inicio Proxima Trilha: Intermediario β†’