MÓDULO 1.4

🏗️ A Arquitetura de 3 Camadas

raw/, wiki/ e CLAUDE.md: como o sistema organiza o fluxo de conhecimento do caos para a estrutura inteligível pelo LLM.

6
Tópicos
40
Minutos
Intermediário
Nível
Prática
Tipo
1

📐 Visão Geral da Arquitetura

O sistema do Segundo Cérebro funciona em três camadas distintas: entrada bruta de dados, compilação pelo LLM e wiki estruturada. Cada camada tem uma responsabilidade clara e separada.

🏗️ As 3 Camadas do Sistema

📥 CAMADA 1 raw/ — Entrada Bruta 📄 2024-01-meeting.md 📄 research-notes.txt 🔗 article-link.md 💭 shower-thought.md 📋 book-highlights.md Sem estrutura, sem links, só captura rápida 🤖 LLM Compiler CLAUDE.md 📚 CAMADA 2 wiki/ — Conhecimento Estruturado wiki/ ├── 📁 fundamentos/ │ ├── python-llm.md │ └── machine-learning.md ├── 📁 projetos/ │ ├── projeto-alpha.md ├── 📁 pessoas/ ├── CLAUDE.md ⚙ Schema do sistema ├── index.md └── log.md 🔍 CAMADA 3 Consulta / Output ❓ "Como funciona o mecanismo de atenção?" ✅ Lê wiki/fundamentos/ transformers.md + links 📤 Resposta com contexto preciso, sem tokens desperdiçados
2

📥 Camada 1: raw/ — Captura Bruta

O diretório raw/ é a caixa de entrada sem julgamento. Capture tudo sem se preocupar com estrutura, links ou formatação. A regra é simples: se pensou, capture.

O que vai em raw/

📅 Reuniões e calls
2024-03-15-reuniao-produto.md

Anotações brutas, ação items sem formatar

📰 Artigos e links
article-attention-mechanism.md

URL + destaque copiado + comentário seu

💭 Pensamentos aleatórios
shower-thought-2024-03.md

Ideas, hipóteses, conexões espontâneas

📚 Highlights de livros
building-pkm-highlights.md

Trechos copiados + suas anotações

💡 Princípio Fundamental

O raw/ nunca é editado pelo LLM — é só lido. É a fonte da verdade imutável. O LLM compila a partir dele, mas nunca modifica os originais.

3

📚 Camada 2: wiki/ — Conhecimento Compilado

O diretório wiki/ contém o conhecimento processado, estruturado e interligado. São as notas que o LLM vai ler para responder perguntas — precisas, com links e metadata.

📁 Estrutura do wiki/

wiki/ 📁 fundamentos/ python-llm.md machine-learning.md 📁 projetos/ projeto-alpha.md 📁 pessoas/ ⚙ CLAUDE.md 📋 index.md 📝 log.md python-llm.md (exemplo) --- title: Python para LLMs tags: [python, llm, tools] updated: 2024-03-20 status: active related: - [[machine-learning]] - [[agentes-ia]] --- ## Resumo Python é a linguagem dominante para trabalhar com LLMs. Bibliotecas principais: openai, anthropic, langchain, transformers. ## Conceitos-chave
4

⚙️ CLAUDE.md — O Schema do Sistema

O CLAUDE.md é o arquivo mais importante do sistema. É o contrato entre você e o LLM: define como o sistema funciona, quais são as regras e como o LLM deve se comportar.

Estrutura do CLAUDE.md

# CLAUDE.md — Instruções do Sistema

## Propósito
Este vault é o segundo cérebro de [seu-nome].
O LLM deve ler wiki/ para responder perguntas
e raw/ para compilar novo conhecimento.

## Estrutura
- raw/       → capturas brutas (não edite)
- wiki/      → conhecimento processado
- wiki/index.md → mapa do vault
- wiki/log.md   → log de atualizações

## Regras de Compilação
Ao processar raw/:
1. Identifique o conceito central
2. Crie ou atualize a nota wiki/
3. Adicione [[links]] para notas relacionadas
4. Registre no log.md

## Categorias
fundamentos/ | projetos/ | pessoas/ | referências/
⚙ Para o LLM

Define como processar raw/, que links criar, quais categorias existem.

📋 Para o Humano

Documenta o sistema para que você entenda o que o LLM está fazendo.

🔄 Para o Agente

O agente de atualização lê CLAUDE.md para saber como executar cada ciclo.

5

📋 index.md e log.md — Navegação e Auditoria

Dois arquivos especiais controlam a saúde do sistema: index.md é o mapa de navegação e log.md registra todas as compilações.

📋 index.md
# Índice do Vault

## Fundamentos
- [[python-llm]] — Python para LLMs
- [[machine-learning]] — ML básico
- [[transformers]] — Atenção e BERT

## Projetos Ativos
- [[projeto-alpha]] — Status: 70%
- [[agente-update]] — Prod ✅

## Pessoas
- [[equipe-ia]] — time interno
📝 log.md
# Log de Atualizações

## 2024-03-20
- Compilou: meeting-notes.md
  → Atualizou [[projeto-alpha]]
  → Criou [[decisao-arquitetura]]
  → Links: [[python-llm]], [[aws]]

## 2024-03-15
- Compilou: article-transformers.md
  → Criou [[transformers]]
  → Atualizou [[machine-learning]]
💡 Por que o log.md é crítico?

Sem auditoria, você não sabe o que o LLM fez. O log.md permite revisar cada compilação, desfazer erros e entender como o grafo evoluiu ao longo do tempo.

6

🔄 Fluxo Completo: do Raw ao Insight

O ciclo completo do sistema: você captura → o LLM compila → o grafo cresce → você consulta com contexto preciso. Um sistema que aprende e melhora com o tempo.

🔄 Ciclo Completo do Segundo Cérebro

💭 Você Pensa Ideia, reunião, artigo lido → raw/ 🤖 LLM Compila Extrai conceitos, cria/atualiza notas CLAUDE.md 🕸️ Grafo Cresce Nota adicionada, links criados wiki/ + log.md 🔍 Você Consulta LLM lê wiki/, responde com contexto Resposta precisa Insight Conexões que você não teria visto Serendipidade Ciclo contínuo de aprendizado
✅ Conceitos-chave do módulo
raw/ = captura bruta, nunca editada pelo LLM
wiki/ = conhecimento estruturado e interligado
CLAUDE.md = contrato LLM ↔ sistema
index.md = mapa de navegação do vault
log.md = auditoria de cada compilação
Ciclo: captura → compila → cresce → consulta
1.3 — LLM Wiki vs RAG vs DB Trilha 2 — Implementação