π§ O Problema da Atencao
LLMs tem dificuldade em manter atencao uniforme em textos longos. Assim como humanos lendo um documento extenso, o modelo tende a prestar mais atencao no comeco e no fim, negligenciando o conteudo do meio.
π‘ Os Tres Vieses de Atencao
- β’ Primacy Bias: O modelo presta mais atencao ao que ve primeiro
- β’ Recency Bias: O modelo presta mais atencao ao que ve por ultimo
- β’ Middle Neglect: Informacoes no meio sao frequentemente ignoradas ou subestimadas
π Analogia Pratica
Imagine um pai com 5 filhos tentando dar atencao igual a todos. Na pratica, o primogenito e o cacula geralmente recebem mais atencao. Os do meio ficam "perdidos". O mesmo acontece com tokens em um prompt longo.
πͺ‘ Needle in Haystack
O teste "Needle in a Haystack" avalia a capacidade de um LLM encontrar uma informacao especifica escondida em um texto muito longo - como encontrar uma agulha em um palheiro.
π Ranking por Modelo
π‘ Implicacao Pratica
Se voce precisa buscar informacao especifica em documentos muito longos, Gemini e a melhor escolha. Para tarefas de busca em docs extensos, a escolha do modelo importa mais que a tecnica de prompting.
β° Vies de Recencia
O modelo da mais peso ao que ve por ultimo. Isso pode ser usado estrategicamente a seu favor para garantir que instrucoes criticas sejam seguidas.
π― Tecnica: Repeticao Estrategica
Coloque instrucoes importantes tanto no inicio quanto no final do prompt. A repeticao nao e redundancia - e uma tecnica de reforco.
# Exemplo de estrutura:
IMPORTANTE: Responda em portugues.
[... contexto e instrucoes ...]
Note: Lembre-se de responder em portugues.
β Palavras-Gatilho Efetivas
- β "Note:" - Chama atencao imediata
- β "Important:" - Sinaliza prioridade
- β "Remember:" - Reforco de memoria
π Posicoes de Alto Impacto
- 1ΒΊ Lugar: Final do prompt
- 2ΒΊ Lugar: Inicio do prompt
- 3ΒΊ Lugar: Apos cada secao importante
π Self-Reflection para Contexto
Uma tecnica avancada e pedir ao modelo para verificar se usou informacao de todo o contexto, forcando-o a "voltar" e reconsiderar partes que pode ter ignorado.
π Prompt de Verificacao
"Did you use information from the entire context?
Consider if something in the middle of the document was relevant to your answer.
If you missed anything important, please revise your response."
π¬ Quando Usar
- β’ Analise de documentos longos (politicas, contratos)
- β’ Perguntas que dependem de detalhes especificos
- β’ Quando a primeira resposta parece incompleta
- β’ Tarefas de Q&A sobre conteudo extenso
π Dicas de Localizacao
Quando voce sabe onde a informacao esta, guie o modelo explicitamente. E mais eficiente do que deixa-lo procurar sozinho em um documento longo.
Referencia por Secao
"Olhe na secao sobre Politica de Privacidade"
Referencia por Posicao
"A informacao esta aproximadamente na pagina 20-21"
Referencia por Header
"Busque o header 'Termos de Uso' e leia o paragrafo seguinte"
Citacao Direta
"Baseie sua resposta especificamente neste trecho: [colar trecho]"
βοΈ Estrategias de Mitigacao
Nao existe solucao unica para o problema do "lost in the middle". Voce precisa de um arsenal de tecnicas para diferentes situacoes.
π§© Chunking
Quebre documentos longos em pedacos menores que cabem confortavelmente no context window.
Ideal para: RAG apps, analise de documentos
π Summarization
Extraia pontos-chave de cada secao e alimente o modelo com os sumarios.
Ideal para: Relatorios, artigos longos
π Repeticao Estrategica
Coloque informacao critica tanto no inicio quanto no final do prompt.
Ideal para: Instrucoes importantes, restricoes
π Posicionamento
Organize o prompt para que informacoes criticas estejam nas posicoes de maior atencao.
Ideal para: Prompts complexos, multi-step
β οΈ Alerta
Nenhuma tecnica e 100% eficaz. Sempre teste suas solucoes com casos reais e esteja preparado para combinar multiplas estrategias para tarefas criticas.
π Resumo do Modulo
Proximo Modulo:
1.3 - Chunking e Summarizacao: tecnicas praticas para quebrar documentos longos