Módulos desta Trilha
Conteúdo Detalhado
💾 Configurando o Vault no Obsidian
Setup inicial: instalação, estrutura de pastas, CLAUDE.md operacional e inicialização dos arquivos de schema.
Obsidian é um editor de Markdown local que armazena tudo em arquivos .md na sua máquina — sem cloud obrigatória. Um vault é simplesmente uma pasta com seus arquivos.
A instalação correta inclui os plugins essenciais: Templater (automação de templates), Dataview (queries SQL-like) e Graph Analysis (análise do grafo).
Vault, .obsidian/, plugins da comunidade, Templater, Dataview, Graph Analysis.
A estrutura mínima: raw/ para fontes brutas, wiki/ para conhecimento compilado, e os 3 arquivos de schema na raiz: CLAUDE.md, index.md e log.md.
A separação física entre raw/ e wiki/ reforça a imutabilidade das fontes e torna a estrutura imediatamente compreensível para o LLM em qualquer sessão.
Separação de responsabilidades, raw/ imutável, wiki/ mutável, schema na raiz.
Três plugins transformam o Obsidian básico em sistema de conhecimento inteligente: Dataview (queries SQL nas notas), Templater (templates com JS), Obsidian Git (backup automático) e Graph Analysis (métricas de links).
Os plugins são o que diferenciam o Obsidian de um editor simples — sem eles, o sistema não tem as capacidades necessárias para integrar com o Claude Code e fazer queries no vault.
Dataview, Templater, Obsidian Git, Graph Analysis, ecossistema de plugins da comunidade.
O CLAUDE.md define o propósito do vault, estrutura de pastas, as três operações disponíveis (INGERIR, CONSULTAR, AUDITAR), categorias do wiki e regras críticas. É o contrato que governa todo o sistema.
Sem o CLAUDE.md, o LLM toma decisões inconsistentes a cada sessão. Com ele, qualquer nova sessão começa com o contexto completo das regras do sistema — comportamento determinístico.
CLAUDE.md, operações (INGERIR/CONSULTAR/AUDITAR), regras críticas, categorias wiki, comportamento determinístico.
O Claude Code acessa o vault como qualquer diretório local. Abrir o terminal na raiz e rodar `claude` carrega CLAUDE.md automaticamente — a integração é simples: `claude "ingira raw/arquivo.md"`.
Entender a integração permite usar o Claude Code para ingerir raw/, fazer consultas e auditar o vault sem nenhuma configuração adicional além do CLAUDE.md.
Claude Code CLI, `claude` no terminal, leitura automática do CLAUDE.md, filesystem integration, prompts diretos.
Lista de verificação completa: estrutura de pastas criada, plugins instalados, CLAUDE.md escrito, index.md e log.md inicializados, Claude Code testado com ingestão de exemplo.
Um setup incompleto causa erros sutis que aparecem apenas depois de semanas de uso — verificar agora evita retrabalho e garante que o sistema funciona corretamente desde o início.
Checklist de validação, pré-requisitos, teste de ingestão, vault pronto para uso, configuração confirmada.
📥 Ingerindo Conhecimento
O processo completo de ingestão: prompts, atomização, linkagem e atualização do catálogo.
Ingerir é o processo de transformar captura bruta em conhecimento estruturado. O LLM lê um arquivo de raw/, extrai os conceitos e cria ou atualiza notas no wiki/ com links, frontmatter e estrutura organizada.
Entender o pipeline de ingestão permite identificar onde há falhas quando o LLM não processa corretamente — e como ajustar o processo para diferentes tipos de fonte.
Pipeline de ingestão, raw/ → wiki/, identificação de conceitos, geração de notas, atualização do catálogo.
O prompt padrão especifica o arquivo a processar e referencia o CLAUDE.md: "Processe raw/arquivo.md — identifique conceitos, crie/atualize notas wiki/, adicione [[links]], atualize index.md e registre em log.md."
Prompts vagos geram resultados inconsistentes. Um prompt estruturado com sequência explícita garante que o LLM siga o processo definido no CLAUDE.md sem desvios.
Prompt template, sequência de instruções, referência ao CLAUDE.md, boas e más práticas, processamento por arquivo.
Uma boa nota wiki tem cinco seções padrão: 1.Frontmatter YAML, 2.Resumo em 2-3 frases, 3.Conceitos-chave (bullets), 4.Relacionado ([[links]] para notas conectadas), 5.Fonte (rastreabilidade ao raw/).
Entender a anatomia da nota permite revisar o resultado da ingestão — saber o que deve estar em cada seção e identificar quando o LLM gerou algo incompleto ou incorreto.
Frontmatter, resumo, conceitos-chave, [[links]] relacionados, rastreabilidade à fonte, estrutura padrão.
Uma anotação bagunçada de standup ("alpha atrasado, João vai resolver, discutimos FastAPI...") se transforma em 3 notas wiki atômicas: projeto-alpha.md, fastapi.md, multi-tenant.md — com links cruzados.
Ver o processo de ponta a ponta deixa claro o que o LLM faz automaticamente — identificar múltiplos conceitos, criar notas separadas e linkar tudo sem intervenção manual.
Antes vs. depois, atomização automática, links cruzados gerados, identificação de entidades, exemplo real.
A ingestão funciona melhor com ciclos regulares e curtos — ingerir no mesmo dia ou no dia seguinte à captura. Revisão semanal para auditar o vault e conectar notas órfãs.
Acumular semanas de raw/ antes de processar destrói o contexto temporal. Ciclos curtos mantêm o wiki atualizado e as conexões entre notas mais ricas.
Ciclos de ingestão, ritmo diário vs. semanal, captura → ingestão → revisão, review semanal, consistência da rotina.
Sempre revise o resultado da ingestão: notas criadas são precisas? Links fazem sentido? raw/ não foi modificado? log.md registrou? index.md atualizado? A revisão leva 2-3 minutos por ingestão.
O LLM é bom em estruturar, mas você é responsável pela veracidade. Identificar sinais de problema (informação inventada, links para notas inexistentes) cedo evita degradação do wiki.
Checklist de revisão, sinais de problema, validação humana, qualidade da ingestão, 2-3 minutos por arquivo.
🤖 Criando o Agente de Atualização
Implemente um agente que monitora, ingere, atualiza e audita o wiki automaticamente com Claude Code.
Um agente é um processo que roda periodicamente, detecta arquivos novos em raw/, os ingere automaticamente, e executa auditorias de saúde do wiki sem intervenção humana.
Sem automação, o wiki depende de você lembrar de ingerir cada fonte. Com o agente, basta jogar arquivos em raw/ — o sistema faz o resto enquanto você dorme.
Agente, loop de monitoramento, trigger automático, processamento em background, hands-free PKM.
O agente verifica periodicamente (ex: a cada 30 min) se há novos arquivos em raw/ que ainda não foram registrados no log.md. Se encontrar, inicia o processo de ingestão.
O loop é o coração do agente — entender como ele funciona permite ajustar a frequência, os critérios de detecção e o comportamento em caso de falha.
Polling vs. inotify, detecção de arquivos novos, lista de processados, frequência do loop.
Quando detecta um arquivo novo, o agente dispara automaticamente o prompt de ingestão para o Claude Code — que lê CLAUDE.md, processa raw/ e atualiza wiki/, index.md e log.md.
A ingestão automática é o que transforma o sistema de "ferramenta" para "segundo cérebro real" — funciona mesmo quando você não está ativo.
Claude Code CLI, subprocess, prompt automático, error handling, retry logic.
O agente roda lint periódico: verifica páginas órfãs (sem links), links quebrados, contradições entre páginas, informações desatualizadas e lacunas no grafo de conhecimento.
Sem lint, o wiki degrada com o tempo — acumula inconsistências, links mortos e informações contradictórias que corrompem a qualidade das consultas.
Páginas órfãs, links quebrados, contradições, gap detection, health score, lint report.
Métricas geradas pelo agente: número de páginas, densidade média de links, páginas não visitadas em 30 dias, proporção raw/wiki, e tempo médio de ingestão.
As métricas revelam tendências antes que se tornem problemas — um aumento de páginas órfãs sinaliza que o processo de linkagem está falhando.
Health score, métricas de grafo, dashboard de estado, alertas automáticos, tendências.
Script Python/Bash que usa `claude` CLI para disparar ingestões automáticas. Roda em cron job (diário/horário), detecta novos raw/, chama Claude Code e registra resultados.
O código real é simples — menos de 100 linhas. Entender a implementação permite customizar para seus casos de uso específicos.
Claude Code CLI, cron job, subprocess.run(), error handling, logging de agente.
🔍 Consultando e Auditando o Sistema
Como fazer perguntas eficientes, navegar pelo index, auditar contradições e manter o wiki saudável.
Sequência: 1. LLM lê index.md → 2. Identifica páginas relevantes → 3. Lê apenas essas páginas → 4. Sintetiza resposta. Usa apenas ~5% dos tokens que um RAG usaria no mesmo processo.
Entender o fluxo permite formular perguntas que o sistema responde bem — e identificar quando uma lacuna no wiki precisa de ingestão prévia de mais fontes antes da consulta.
Fluxo de consulta, leitura do index.md primeiro, leitura seletiva de páginas, síntese, eficiência de tokens.
Perguntas diretas ("o que sei sobre X?"), sínteses ("como X se relaciona com Y?"), comparações ("qual a diferença entre A e B?") e histórico ("o que decidimos sobre X em março?").
Formular a pergunta certa é uma habilidade — perguntas vagas retornam sínteses genéricas, enquanto perguntas específicas extraem o valor máximo do conhecimento compilado.
Tipos de consulta, perguntas diretas vs. síntese, consultas temporais, cross-domínio, limitações do sistema.
O plugin Dataview permite queries SQL-like nas notas: listar todas as notas com status "active", ordenar por data de atualização, filtrar por tag ou domínio — resultados dinâmicos no próprio Obsidian.
Dataview transforma o vault em um banco de dados consultável — sem sair do Obsidian, você obtém visões agregadas do seu conhecimento que o LLM não precisa processar.
Dataview, TABLE/LIST queries, YAML filtering, FROM domínio, WHERE status, SORT updated DESC.
Prompt de lint: "Leia index.md e as páginas wiki/. Identifique contradições, informações desatualizadas, páginas órfãs (sem links) e lacunas de conhecimento. Gere relatório de saúde."
O lint periódico é a manutenção preventiva do sistema — detecta degradações antes que se tornem problemas sérios e mantém a qualidade do wiki ao longo do tempo.
Lint report, contradições, desatualização, páginas órfãs, lacunas, prompt de auditoria, manutenção preventiva.
KPIs do vault: total de páginas, média de links por página, proporção de páginas com +3 links (bem conectadas), páginas sem atualização há 30+ dias, taxa de crescimento mensal.
Métricas transformam o wiki de "sistema subjetivo" em "sistema gerenciável" — você sabe exatamente quando e onde o sistema precisa de atenção sem precisar revisar cada arquivo manualmente.
Health score, densidade do grafo, páginas bem conectadas, pages stale, taxa de crescimento, dashboard de saúde.
Use LLM para perguntas semânticas complexas, Dataview para queries estruturadas (listar por data, filtrar por tag), e lint para manutenção periódica. Cada modo tem seu custo e benefício ideal.
Usar o modo errado é ineficiente: Dataview para uma pergunta semântica não funciona, LLM para uma simples listagem desperdiça tokens. O modo certo é a competência central do usuário avançado.
LLM consulta semântica, Dataview query estruturada, lint de auditoria, decisão de modo, otimização de tokens e tempo.