TRILHA 2

⚙️ Implementação do Sistema

Configure o Obsidian, implemente a ingestão de conhecimento, crie o agente de atualização automática e domine todas as operações do sistema.

4
Módulos
24
Tópicos
~3h
Duração
Prático
Nível
🔍 Detectar 📥 Ingerir 📝 Atualizar 🔎 Auditar 🤖 Agente

Módulos desta Trilha

Conteúdo Detalhado

2.1~45 min

💾 Configurando o Vault no Obsidian

Setup inicial: instalação, estrutura de pastas, CLAUDE.md operacional e inicialização dos arquivos de schema.

O que é:

Obsidian é um editor de Markdown local que armazena tudo em arquivos .md na sua máquina — sem cloud obrigatória. Um vault é simplesmente uma pasta com seus arquivos.

Por que aprender:

A instalação correta inclui os plugins essenciais: Templater (automação de templates), Dataview (queries SQL-like) e Graph Analysis (análise do grafo).

Conceitos-chave:

Vault, .obsidian/, plugins da comunidade, Templater, Dataview, Graph Analysis.

O que é:

A estrutura mínima: raw/ para fontes brutas, wiki/ para conhecimento compilado, e os 3 arquivos de schema na raiz: CLAUDE.md, index.md e log.md.

Por que aprender:

A separação física entre raw/ e wiki/ reforça a imutabilidade das fontes e torna a estrutura imediatamente compreensível para o LLM em qualquer sessão.

Conceitos-chave:

Separação de responsabilidades, raw/ imutável, wiki/ mutável, schema na raiz.

O que é:

Três plugins transformam o Obsidian básico em sistema de conhecimento inteligente: Dataview (queries SQL nas notas), Templater (templates com JS), Obsidian Git (backup automático) e Graph Analysis (métricas de links).

Por que aprender:

Os plugins são o que diferenciam o Obsidian de um editor simples — sem eles, o sistema não tem as capacidades necessárias para integrar com o Claude Code e fazer queries no vault.

Conceitos-chave:

Dataview, Templater, Obsidian Git, Graph Analysis, ecossistema de plugins da comunidade.

O que é:

O CLAUDE.md define o propósito do vault, estrutura de pastas, as três operações disponíveis (INGERIR, CONSULTAR, AUDITAR), categorias do wiki e regras críticas. É o contrato que governa todo o sistema.

Por que aprender:

Sem o CLAUDE.md, o LLM toma decisões inconsistentes a cada sessão. Com ele, qualquer nova sessão começa com o contexto completo das regras do sistema — comportamento determinístico.

Conceitos-chave:

CLAUDE.md, operações (INGERIR/CONSULTAR/AUDITAR), regras críticas, categorias wiki, comportamento determinístico.

O que é:

O Claude Code acessa o vault como qualquer diretório local. Abrir o terminal na raiz e rodar `claude` carrega CLAUDE.md automaticamente — a integração é simples: `claude "ingira raw/arquivo.md"`.

Por que aprender:

Entender a integração permite usar o Claude Code para ingerir raw/, fazer consultas e auditar o vault sem nenhuma configuração adicional além do CLAUDE.md.

Conceitos-chave:

Claude Code CLI, `claude` no terminal, leitura automática do CLAUDE.md, filesystem integration, prompts diretos.

O que é:

Lista de verificação completa: estrutura de pastas criada, plugins instalados, CLAUDE.md escrito, index.md e log.md inicializados, Claude Code testado com ingestão de exemplo.

Por que aprender:

Um setup incompleto causa erros sutis que aparecem apenas depois de semanas de uso — verificar agora evita retrabalho e garante que o sistema funciona corretamente desde o início.

Conceitos-chave:

Checklist de validação, pré-requisitos, teste de ingestão, vault pronto para uso, configuração confirmada.

Ver Completo
2.2~45 min

📥 Ingerindo Conhecimento

O processo completo de ingestão: prompts, atomização, linkagem e atualização do catálogo.

O que é:

Ingerir é o processo de transformar captura bruta em conhecimento estruturado. O LLM lê um arquivo de raw/, extrai os conceitos e cria ou atualiza notas no wiki/ com links, frontmatter e estrutura organizada.

Por que aprender:

Entender o pipeline de ingestão permite identificar onde há falhas quando o LLM não processa corretamente — e como ajustar o processo para diferentes tipos de fonte.

Conceitos-chave:

Pipeline de ingestão, raw/ → wiki/, identificação de conceitos, geração de notas, atualização do catálogo.

O que é:

O prompt padrão especifica o arquivo a processar e referencia o CLAUDE.md: "Processe raw/arquivo.md — identifique conceitos, crie/atualize notas wiki/, adicione [[links]], atualize index.md e registre em log.md."

Por que aprender:

Prompts vagos geram resultados inconsistentes. Um prompt estruturado com sequência explícita garante que o LLM siga o processo definido no CLAUDE.md sem desvios.

Conceitos-chave:

Prompt template, sequência de instruções, referência ao CLAUDE.md, boas e más práticas, processamento por arquivo.

O que é:

Uma boa nota wiki tem cinco seções padrão: 1.Frontmatter YAML, 2.Resumo em 2-3 frases, 3.Conceitos-chave (bullets), 4.Relacionado ([[links]] para notas conectadas), 5.Fonte (rastreabilidade ao raw/).

Por que aprender:

Entender a anatomia da nota permite revisar o resultado da ingestão — saber o que deve estar em cada seção e identificar quando o LLM gerou algo incompleto ou incorreto.

Conceitos-chave:

Frontmatter, resumo, conceitos-chave, [[links]] relacionados, rastreabilidade à fonte, estrutura padrão.

O que é:

Uma anotação bagunçada de standup ("alpha atrasado, João vai resolver, discutimos FastAPI...") se transforma em 3 notas wiki atômicas: projeto-alpha.md, fastapi.md, multi-tenant.md — com links cruzados.

Por que aprender:

Ver o processo de ponta a ponta deixa claro o que o LLM faz automaticamente — identificar múltiplos conceitos, criar notas separadas e linkar tudo sem intervenção manual.

Conceitos-chave:

Antes vs. depois, atomização automática, links cruzados gerados, identificação de entidades, exemplo real.

O que é:

A ingestão funciona melhor com ciclos regulares e curtos — ingerir no mesmo dia ou no dia seguinte à captura. Revisão semanal para auditar o vault e conectar notas órfãs.

Por que aprender:

Acumular semanas de raw/ antes de processar destrói o contexto temporal. Ciclos curtos mantêm o wiki atualizado e as conexões entre notas mais ricas.

Conceitos-chave:

Ciclos de ingestão, ritmo diário vs. semanal, captura → ingestão → revisão, review semanal, consistência da rotina.

O que é:

Sempre revise o resultado da ingestão: notas criadas são precisas? Links fazem sentido? raw/ não foi modificado? log.md registrou? index.md atualizado? A revisão leva 2-3 minutos por ingestão.

Por que aprender:

O LLM é bom em estruturar, mas você é responsável pela veracidade. Identificar sinais de problema (informação inventada, links para notas inexistentes) cedo evita degradação do wiki.

Conceitos-chave:

Checklist de revisão, sinais de problema, validação humana, qualidade da ingestão, 2-3 minutos por arquivo.

Ver Completo
2.3~45 min

🤖 Criando o Agente de Atualização

Implemente um agente que monitora, ingere, atualiza e audita o wiki automaticamente com Claude Code.

O que é:

Um agente é um processo que roda periodicamente, detecta arquivos novos em raw/, os ingere automaticamente, e executa auditorias de saúde do wiki sem intervenção humana.

Por que aprender:

Sem automação, o wiki depende de você lembrar de ingerir cada fonte. Com o agente, basta jogar arquivos em raw/ — o sistema faz o resto enquanto você dorme.

Conceitos-chave:

Agente, loop de monitoramento, trigger automático, processamento em background, hands-free PKM.

O que é:

O agente verifica periodicamente (ex: a cada 30 min) se há novos arquivos em raw/ que ainda não foram registrados no log.md. Se encontrar, inicia o processo de ingestão.

Por que aprender:

O loop é o coração do agente — entender como ele funciona permite ajustar a frequência, os critérios de detecção e o comportamento em caso de falha.

Conceitos-chave:

Polling vs. inotify, detecção de arquivos novos, lista de processados, frequência do loop.

O que é:

Quando detecta um arquivo novo, o agente dispara automaticamente o prompt de ingestão para o Claude Code — que lê CLAUDE.md, processa raw/ e atualiza wiki/, index.md e log.md.

Por que aprender:

A ingestão automática é o que transforma o sistema de "ferramenta" para "segundo cérebro real" — funciona mesmo quando você não está ativo.

Conceitos-chave:

Claude Code CLI, subprocess, prompt automático, error handling, retry logic.

O que é:

O agente roda lint periódico: verifica páginas órfãs (sem links), links quebrados, contradições entre páginas, informações desatualizadas e lacunas no grafo de conhecimento.

Por que aprender:

Sem lint, o wiki degrada com o tempo — acumula inconsistências, links mortos e informações contradictórias que corrompem a qualidade das consultas.

Conceitos-chave:

Páginas órfãs, links quebrados, contradições, gap detection, health score, lint report.

O que é:

Métricas geradas pelo agente: número de páginas, densidade média de links, páginas não visitadas em 30 dias, proporção raw/wiki, e tempo médio de ingestão.

Por que aprender:

As métricas revelam tendências antes que se tornem problemas — um aumento de páginas órfãs sinaliza que o processo de linkagem está falhando.

Conceitos-chave:

Health score, métricas de grafo, dashboard de estado, alertas automáticos, tendências.

O que é:

Script Python/Bash que usa `claude` CLI para disparar ingestões automáticas. Roda em cron job (diário/horário), detecta novos raw/, chama Claude Code e registra resultados.

Por que aprender:

O código real é simples — menos de 100 linhas. Entender a implementação permite customizar para seus casos de uso específicos.

Conceitos-chave:

Claude Code CLI, cron job, subprocess.run(), error handling, logging de agente.

Ver Completo
2.4~45 min

🔍 Consultando e Auditando o Sistema

Como fazer perguntas eficientes, navegar pelo index, auditar contradições e manter o wiki saudável.

O que é:

Sequência: 1. LLM lê index.md → 2. Identifica páginas relevantes → 3. Lê apenas essas páginas → 4. Sintetiza resposta. Usa apenas ~5% dos tokens que um RAG usaria no mesmo processo.

Por que aprender:

Entender o fluxo permite formular perguntas que o sistema responde bem — e identificar quando uma lacuna no wiki precisa de ingestão prévia de mais fontes antes da consulta.

Conceitos-chave:

Fluxo de consulta, leitura do index.md primeiro, leitura seletiva de páginas, síntese, eficiência de tokens.

O que é:

Perguntas diretas ("o que sei sobre X?"), sínteses ("como X se relaciona com Y?"), comparações ("qual a diferença entre A e B?") e histórico ("o que decidimos sobre X em março?").

Por que aprender:

Formular a pergunta certa é uma habilidade — perguntas vagas retornam sínteses genéricas, enquanto perguntas específicas extraem o valor máximo do conhecimento compilado.

Conceitos-chave:

Tipos de consulta, perguntas diretas vs. síntese, consultas temporais, cross-domínio, limitações do sistema.

O que é:

O plugin Dataview permite queries SQL-like nas notas: listar todas as notas com status "active", ordenar por data de atualização, filtrar por tag ou domínio — resultados dinâmicos no próprio Obsidian.

Por que aprender:

Dataview transforma o vault em um banco de dados consultável — sem sair do Obsidian, você obtém visões agregadas do seu conhecimento que o LLM não precisa processar.

Conceitos-chave:

Dataview, TABLE/LIST queries, YAML filtering, FROM domínio, WHERE status, SORT updated DESC.

O que é:

Prompt de lint: "Leia index.md e as páginas wiki/. Identifique contradições, informações desatualizadas, páginas órfãs (sem links) e lacunas de conhecimento. Gere relatório de saúde."

Por que aprender:

O lint periódico é a manutenção preventiva do sistema — detecta degradações antes que se tornem problemas sérios e mantém a qualidade do wiki ao longo do tempo.

Conceitos-chave:

Lint report, contradições, desatualização, páginas órfãs, lacunas, prompt de auditoria, manutenção preventiva.

O que é:

KPIs do vault: total de páginas, média de links por página, proporção de páginas com +3 links (bem conectadas), páginas sem atualização há 30+ dias, taxa de crescimento mensal.

Por que aprender:

Métricas transformam o wiki de "sistema subjetivo" em "sistema gerenciável" — você sabe exatamente quando e onde o sistema precisa de atenção sem precisar revisar cada arquivo manualmente.

Conceitos-chave:

Health score, densidade do grafo, páginas bem conectadas, pages stale, taxa de crescimento, dashboard de saúde.

O que é:

Use LLM para perguntas semânticas complexas, Dataview para queries estruturadas (listar por data, filtrar por tag), e lint para manutenção periódica. Cada modo tem seu custo e benefício ideal.

Por que aprender:

Usar o modo errado é ineficiente: Dataview para uma pergunta semântica não funciona, LLM para uma simples listagem desperdiça tokens. O modo certo é a competência central do usuário avançado.

Conceitos-chave:

LLM consulta semântica, Dataview query estruturada, lint de auditoria, decisão de modo, otimização de tokens e tempo.

Ver Completo
← Trilha 1: Fundamentos Trilha 3: Avançado →