TRILHA 3

🚀 Técnicas Avançadas

Grafos complexos, otimização de escala, integrações com APIs e Web Clipper, multi-agentes e o futuro dos sistemas de conhecimento distribuído.

4
Módulos
24
Tópicos
~3h
Duração
Expert
Nível
🎯 Orquestrador Master Agent 📥 Ingestão Agent 🔍 Auditoria Agent 🧩 Síntese Agent 🌐 Integração Agent 📖 Shared Wiki

Módulos desta Trilha

Conteúdo Detalhado

3.1~45 min

🕸️ Grafos de Conhecimento Complexos

Relações avançadas, taxonomias dinâmicas, análise de densidade e síntese criativa cross-domínio.

O que é:

Taxonomias organizam em hierarquias (Animal > Mamífero > Cão). Ontologias definem relações ricas e tipadas (cão PERTENCE-A mamífero, cão É-USADO-PARA caça). Wikis avançados usam ambas.

Por que aprender:

Entender a diferença permite projetar grafos que capturam semântica real — não apenas categorias, mas as relações que tornam o conhecimento acionável e navegável.

Conceitos-chave:

Taxonomia, ontologia, relações tipadas, hierarquia vs. rede, knowledge graph semântico.

O que é:

Implementação prática de relações tipadas: YAML com campos semânticos (precede:, contradiz:, instância-de:) e seções nomeadas na nota. Dataview consulta essas relações como um banco de dados.

Por que aprender:

Relações tipadas transformam o wiki de grafo simples em knowledge graph semântico — capaz de responder "quais conceitos contradizem X?" com uma query Dataview.

Conceitos-chave:

YAML tipado, campos semânticos, seções nomeadas, Dataview como query engine, triplas no Obsidian.

O que é:

Um wiki avançado tem 4 camadas sobrepostas: conceptual (o que é), operacional (como fazer), temporal (quando aconteceu) e relacional (quem está envolvido). Cada camada responde a um tipo de pergunta diferente.

Por que aprender:

Grafos multi-camada capturam a complexidade real do conhecimento — uma decisão pode ser entendida como conceito, operação, evento histórico e relação entre pessoas simultaneamente.

Conceitos-chave:

Camadas conceitual, operacional, temporal, relacional, grafo multi-layer, navegação por camada.

O que é:

O LLM traversa caminhos no grafo para raciocinar: A → B → C → D. "Dado que X precede Y e Y causou Z, quais são as implicações de mudar X?" — inferências impossíveis com busca direta.

Por que aprender:

O raciocínio por caminho é o que transforma o wiki de repositório em motor de inferência — produz insights que não estão explicitamente armazenados em nenhuma nota.

Conceitos-chave:

Graph traversal, raciocínio inferencial, caminhos multi-hop, propagação de restrições, insight por caminho.

O que é:

Grafos que evoluem: notas são atualizadas, relações mudam, nós obsoletos são arquivados. O LLM detecta evolução temporal — "o que mudou neste conceito desde janeiro?" — a partir do histórico de notas.

Por que aprender:

Conhecimento não é estático. Um grafo que captura evolução permite rastrear como sua compreensão de um domínio mudou ao longo do tempo — insight metacognitivo valioso.

Conceitos-chave:

Evolução temporal, versioning de notas, grafos dinâmicos, detecção de mudança, timeline de conhecimento.

O que é:

Métricas avançadas com networkx: centralidade (nós mais conectados), betweenness (pontes críticas), clustering coefficient (densidade local), e identificação de comunidades temáticas emergentes.

Por que aprender:

As métricas revelam a arquitetura real do seu conhecimento — quais conceitos são hubs, quais são pontes entre domínios, onde há gaps e onde há redundâncias.

Conceitos-chave:

Centralidade, betweenness centrality, clustering coefficient, networkx, community detection, gap analysis.

Ver Completo
3.2~45 min

📏 Otimização e Escalabilidade

Como manter o sistema eficiente com centenas de páginas: hierarquias de índice, compressão e token budgeting.

O que é:

Com 100+ notas, o index.md começa a consumir tokens demais. Com 500+, o vault inteiro excede a context window. O problema de escala é real e previsível — e tem soluções.

Por que aprender:

Sistemas que escalam mal são abandonados. Entender quando e como o problema aparece permite planejar a migração para arquiteturas escaláveis antes que o sistema se torne inutilizável.

Conceitos-chave:

Context window limit, tokens por nota, index crescimento linear, ponto de ruptura, estratégias de escala.

O que é:

index.md aponta para ml-index.md, finance-index.md, philosophy-index.md — cada sub-índice contém apenas as páginas do seu domínio. O LLM carrega somente o(s) sub-índice(s) relevante(s) por consulta.

Por que aprender:

A indexação hierárquica mantém o custo de tokens constante independente do tamanho do wiki — é o que permite wikis de anos de ingestão continuarem eficientes.

Conceitos-chave:

Index hierárquico, sub-índices por domínio, lazy loading de contexto, custo constante de tokens, hierarchical navigation.

O que é:

O padrão abstract: cada nota tem uma seção "## Abstract" de 2-3 frases — o LLM lê os abstracts primeiro e só expande as notas completas quando necessário. Reduz tokens em 80%.

Por que aprender:

Compressão de contexto é a diferença entre consultar 50 notas viável e impossível. Abstracts bem escritos capturam o essencial para decisão de relevância sem o custo da nota completa.

Conceitos-chave:

Abstract pattern, leitura em dois estágios, redução de 80% de tokens, relevance filtering, lazy loading de notas.

O que é:

Quando um único vault fica grande demais, divide-se em vaults separados por domínio (trabalho/, pessoal/, projetos/) com CLAUDE.md e índices próprios — interligados por referências externas.

Por que aprender:

Sharding é a solução definitiva para escala — cada vault permanece pequeno e ágil, enquanto os links externos preservam a conectividade cross-domínio quando necessário.

Conceitos-chave:

Sharding por domínio, múltiplos vaults, referências externas, vaults independentes, cross-vault queries.

O que é:

Salvar respostas de consultas frequentes como notas wiki próprias (cache/status-projeto-alpha.md) — atualizadas periodicamente. O LLM lê o cache em vez de reprocessar o wiki completo.

Por que aprender:

Para perguntas que você faz toda semana ("qual o status de X?"), o cache reduz tokens de 5.000 para 200 por consulta — ROI imediato em uso intenso.

Conceitos-chave:

Cache de respostas, notas cache/, invalidação periódica, consultas recorrentes, custo marginal mínimo.

O que é:

Metas concretas: consulta típica abaixo de 2.000 tokens, ingestão de nota simples abaixo de 1.500 tokens, index.md abaixo de 500 linhas. Scripts de benchmark automatizados para monitorar regressões.

Por que aprender:

Sem benchmarks, a degradação de performance é invisível até virar um problema grave. Metas numéricas transformam otimização em disciplina mensurável, não em sensação subjetiva.

Conceitos-chave:

Token benchmarks, metas de performance, scripts de medição, detecção de regressão, otimização contínua.

Ver Completo
3.3~45 min

🔌 Integrações Avançadas

Web Clipper, APIs, sincronização multi-dispositivo, n8n automations e ingestão por múltiplos canais.

O que é:

A arquitetura tem três camadas: coletores (scripts que puxam dados de cada fonte), processadores (convertem para Markdown em raw/) e o orquestrador (agenda e coordena os coletores).

Por que aprender:

Entender a arquitetura modular permite adicionar novas fontes sem reescrever o sistema — cada coletor é independente e conectado ao pipeline via interface comum.

Conceitos-chave:

Coletores, processadores, orquestrador, arquitetura modular, interface de integração, raw/ como buffer.

O que é:

github_collector.py usa a GitHub API para coletar PRs, issues e commits relevantes — salva como Markdown em raw/github/ para ingestão automática pelo agente do vault.

Por que aprender:

PRs e issues contêm decisões técnicas críticas que geralmente se perdem. Com a integração GitHub, o vault captura automaticamente o histórico técnico do projeto.

Conceitos-chave:

GitHub API, github_collector.py, raw/github/, filtros por label/milestone, ingestão de decisões técnicas.

O que é:

slack_collector.py monitora canais configurados e exporta threads com reações ⭐ ou palavras-chave como decisão/aprovado/definido — capturando o conhecimento tácito das conversas.

Por que aprender:

A maior parte das decisões de equipe acontece no Slack e desaparece no histórico. A integração Slack salva o conhecimento crítico antes que seja esquecido.

Conceitos-chave:

Slack API, slack_collector.py, filtros por reação/keyword, raw/slack/, captura de decisões tácitas.

O que é:

calendar_collector.py usa a Google Calendar API para criar automaticamente templates de reunião em raw/meetings/ antes de cada evento — prontos para anotação e ingestão pós-reunião.

Por que aprender:

Templates pré-gerados eliminam a fricção de captura — você encontra a nota pronta antes da reunião começar e só precisa preencher o que aconteceu.

Conceitos-chave:

Google Calendar API, calendar_collector.py, templates de reunião, raw/meetings/, ingestão pós-reunião.

O que é:

Estratégias de segurança: PII anonymizer antes de ingerir dados de usuários, cofre separado para credenciais (nunca em raw/), filtros de conteúdo confidencial, .gitignore para dados sensíveis.

Por que aprender:

Integrar com sistemas externos aumenta o risco de vazar dados sensíveis acidentalmente. Definir as proteções antes de conectar os coletores previne incidentes de segurança.

Conceitos-chave:

PII anonymization, credenciais em .env, .gitignore, vault seguro, filtros de conteúdo confidencial.

O que é:

orchestrator.py agenda todos os coletores (GitHub hourly, Slack daily, Calendar pre-meeting) e coordena as ingestões — um único processo que mantém o vault sempre atualizado de todas as fontes.

Por que aprender:

Sem orquestração, você gerencia N processos manualmente. O hub centraliza o agendamento, logging e tratamento de erros de todas as integrações em um único ponto de controle.

Conceitos-chave:

orchestrator.py, schedule(), múltiplos coletores, logging centralizado, single point of control.

Ver Completo
3.4~45 min

🌐 Multi-Agentes e Sistemas Distribuídos

Arquitetura com múltiplos agentes especializados, wikis distribuídos e o futuro dos sistemas de conhecimento.

O que é:

Um único agente que faz tudo (ingestão + síntese + auditoria + consulta) fica sobrecarregado e inconsistente. Arquitetura multi-agente divide responsabilidades para máxima especialização.

Por que aprender:

Entender os limites do agente único motiva a transição para multi-agentes — cada agente tem prompts otimizados, context window calibrada e lógica de erro dedicada.

Conceitos-chave:

Limitações do agente único, especialização, divisão de responsabilidades, Agentic AI, sistema multi-agente.

O que é:

Cada agente tem seu próprio arquivo de instruções: CLAUDE-ingester.md (regras de ingestão e atomização), CLAUDE-auditor.md (critérios de qualidade e lint). Prompts hiper-focados na tarefa específica.

Por que aprender:

Agentes com responsabilidades claras produzem resultados consistentemente melhores que agentes genéricos — a especialização é o mesmo princípio que torna equipes humanas mais produtivas.

Conceitos-chave:

CLAUDE-ingester.md, CLAUDE-auditor.md, responsabilidade única, prompts especializados, agentes independentes.

O que é:

orchestrator.py usa threads para rodar agentes em paralelo: o ingester processa raw/ enquanto o auditor verifica o wiki existente. Fila de trabalho, timeout handling e relatório de resultados.

Por que aprender:

O orquestrador é o coração do sistema — sem ele, os agentes especializados são apenas scripts independentes. Com ele, formam um pipeline coordenado e resiliente.

Conceitos-chave:

orchestrator.py, threading, fila de trabalho, paralelismo, timeout, relatório centralizado.

O que é:

A solução mais simples: cada agente opera em domínios exclusivos e não sobrepostos. O ingester só escreve em wiki/new/, o auditor só lê wiki/. Arquivos de lock para operações críticas.

Por que aprender:

Conflitos de escrita corrompem silenciosamente o wiki. A separação de domínios é a prevenção mais elegante — evita o problema em vez de resolver depois que acontece.

Conceitos-chave:

Domínios exclusivos, separação de responsabilidades, lock files, prevenção de conflitos, write isolation.

O que é:

Agentes comunicam-se via fila de mensagens (arquivos JSON em queue/) e estado compartilhado (status.json). O ingester publica "nova nota criada" e o auditor consome para verificar imediatamente.

Por que aprender:

Comunicação estruturada entre agentes permite sistemas reativos — o auditor age imediatamente em cada nova ingestão, sem polling periódico desnecessário.

Conceitos-chave:

Message queue, event-driven, queue/ JSON files, status.json, pub/sub pattern, sistema reativo.

O que é:

Tendências emergentes: memória de longo prazo nativa nos LLMs, grafos de conhecimento compartilhados entre equipes globalmente, e sistemas que aprendem sobre seus próprios padrões de uso.

Por que aprender:

Entender a direção da tecnologia permite arquitetar seu sistema hoje de forma evolutiva — o que você constrói agora deve ser fácil de migrar para as capacidades emergentes.

Conceitos-chave:

LLM native memory, shared knowledge graphs, meta-learning, AGI-ready PKM, arquitetura evolutiva.

Ver Completo
← Trilha 2: Implementação 🏠 Início