TRILHA 5

🧬 Intelecto: Segundo Cérebro via Telegram

Integre o vault Obsidian com o Intelecto — assistente pessoal de IA via Telegram. Combine a memória SQLite do Intelecto com o poder do LLM wiki para um sistema de conhecimento completo.

4
Módulos
24
Tópicos
~3h
Duração
Prático
Nível
📱 Telegram 🧬 Intelecto Python + SQLite 📖 Wiki 🗄️ SQLite FTS5 📄 SOUL.md Identidade ☁️ LLM OpenRouter

Módulos desta Trilha

Conteúdo Detalhado

5.1~40 min

🧬 O que é o Intelecto

Arquitetura Python leve (~3000 linhas, 7 dependências), memória BM25, identidade em Markdown e modelos via OpenRouter/Ollama.

O que é:

O Intelecto é um assistente pessoal de IA criado por @inematds, escrito em Python (~3000 linhas) com apenas 7 dependências pip. Roda localmente, conecta ao Telegram como interface e usa SQLite para armazenar memórias com busca FTS5 e ranking BM25.

Por que aprender:

Entender a arquitetura permite customizar o Intelecto para integrar com o vault Obsidian. O design minimalista (sem frameworks pesados) facilita modificações e extensões específicas para o segundo cérebro.

Conceitos-chave:

Python, SQLite FTS5, Telegram Bot API, OpenRouter, Ollama, arquitetura minimalista, 7 dependências pip.

O que é:

O Intelecto define identidade via três arquivos Markdown: SOUL.md (personalidade e valores), AGENTS.md (capacidades e comportamentos dos agentes) e USER.md (contexto do usuário). Esses arquivos são injetados como system prompt em cada conversa.

Por que aprender:

Customizar esses arquivos é a principal forma de adaptar o Intelecto para o segundo cérebro. O USER.md pode incluir referências ao vault Obsidian, permitindo que o assistente conheça o contexto do seu conhecimento compilado.

Conceitos-chave:

SOUL.md, AGENTS.md, USER.md, system prompt, identidade declarativa, personalidade em Markdown, injeção de contexto.

O que é:

O Intelecto usa SQLite com extensão FTS5 (Full-Text Search) e algoritmo BM25 para ranquear memórias por relevância. Cada conversa é sumarizada automaticamente e armazenada. Deduplication remove memórias semelhantes para evitar redundância.

Por que aprender:

BM25 é o mesmo algoritmo do Elasticsearch — eficiente, comprovado e sem necessidade de embeddings vetoriais. Entender como ele funciona permite otimizar as memórias armazenadas e a forma como o Intelecto recupera contexto relevante.

Conceitos-chave:

BM25, FTS5, TF-IDF, ranking por relevância, sumarização automática, deduplication, memória episódica.

O que é:

Setup do Intelecto em 5 passos: clone do repositório, pip install das 7 dependências (python-telegram-bot, openai, anthropic, tiktoken, sqlite-utils, python-dotenv, httpx), configuração do .env com tokens e execução do script principal.

Por que aprender:

A instalação simples é uma das maiores vantagens do Intelecto frente a soluções mais pesadas. Em minutos você tem um assistente pessoal funcional rodando no Telegram, pronto para ser integrado ao vault.

Conceitos-chave:

python-telegram-bot, .env, TELEGRAM_TOKEN, OPENROUTER_API_KEY, SQLite automático, configuração declarativa.

O que é:

O Intelecto suporta dois backends de modelos: OpenRouter (acesso a Claude, GPT-4, Gemini, DeepSeek via API) e Ollama (modelos locais como Llama, Mistral, Qwen). A troca é feita via variável de ambiente sem alterar código.

Por que aprender:

A flexibilidade de backend permite usar modelos potentes na nuvem para tarefas complexas e modelos locais para operações repetitivas de ingestão, balanceando custo e qualidade no segundo cérebro.

Conceitos-chave:

OpenRouter, Ollama, backend agnóstico, variável MODEL no .env, troca de modelo sem code change, custo vs. qualidade.

O que é:

Comparação entre Intelecto (SQLite + Telegram, ~3000 linhas, 7 deps) e alternativas mais complexas. O Intelecto prioriza simplicidade e hackabilidade — ideal para integração com vault wiki. Alternativas como MemGPT ou custom RAG têm mais features mas são mais difíceis de customizar.

Por que aprender:

Entender os trade-offs justifica a escolha do Intelecto para o segundo cérebro. Simplicidade significa menor surface de bugs, fácil auditoria do código e integração direta com o vault sem wrappers complexos.

Conceitos-chave:

Trade-offs de complexidade, hackabilidade, linhas de código como métrica, dependências mínimas, filosofia Unix de ferramentas simples.

Ver Completo
5.2~45 min

🗄️ Memória SQLite vs Wiki Markdown

Como as duas memórias se complementam: SQLite para curto prazo e conversas, Wiki Markdown para conhecimento permanente e auditável.

O que é:

O Intelecto cria automaticamente uma tabela SQLite com FTS5 para cada memória. Ao receber uma query, usa BM25 para ranquear as memórias mais relevantes e injeta as top-N no contexto. Deduplication compara similaridade e remove memórias redundantes periodicamente.

Por que aprender:

Entender o mecanismo de recuperação SQLite permite otimizar como as memórias são gravadas — palavras-chave estratégicas melhoram o recall do BM25 tanto para memórias de conversa quanto para conhecimento do vault.

Conceitos-chave:

FTS5 virtual table, BM25 score, top-N retrieval, deduplication threshold, memória episódica, sumarização de conversa.

O que é:

A memória SQLite do Intelecto tem limitações críticas para conhecimento de longo prazo: não é versionada com Git, não é legível diretamente por humanos, não tem links entre conceitos, e memórias degradam com sumarizações sucessivas perdendo detalhes originais.

Por que aprender:

Reconhecer as limitações justifica a arquitetura híbrida. SQLite é excelente para memória de curto prazo e contexto de conversa — mas não substitui um wiki Markdown versionado para conhecimento estruturado permanente.

Conceitos-chave:

Memória de curto prazo, degradação por sumarização, ausência de versionamento, não auditável, sem hiperlinks, formato binário.

O que é:

O wiki Markdown tem vantagens fundamentais: versionado com Git (histórico completo), legível por humanos sem ferramentas especiais, links bidirecionais entre conceitos, auditável via diff, e compilável pelo LLM em respostas estruturadas de alta qualidade.

Por que aprender:

As vantagens do wiki justificam o investimento em compilação manual ou assistida por LLM. Conhecimento no wiki não degrada, pode ser revisado, corrigido e evoluído — propriedades essenciais para um segundo cérebro confiável.

Conceitos-chave:

Git, diff, legibilidade humana, links bidirecionais, auditabilidade, permanência, compilação LLM, estrutura explícita.

O que é:

A arquitetura híbrida ideal usa as duas memórias em camadas: SQLite como cache de contexto recente (últimas conversas, notas rápidas, itens temporários) e Wiki Markdown como repositório permanente de conhecimento estruturado. A transição entre as duas é gerida por regras explícitas.

Por que aprender:

A arquitetura híbrida resolve os trade-offs de cada sistema: SQLite dá velocidade e contexto imediato; wiki dá permanência e estrutura. Juntos, cobrem desde o pensamento efêmero até o conhecimento consolidado.

Conceitos-chave:

Memória em camadas, cache vs. persistência, critérios de promoção, short-term vs. long-term memory, regras de transição.

O que é:

Um script bridge Python lê o index.md do vault e injeta páginas relevantes como memórias estruturadas no SQLite do Intelecto. Na direção inversa, memórias SQL marcadas para promoção são exportadas como notas raw/ para ingestão pelo LLM wiki. O fluxo é unidirecional com ponto de controle humano.

Por que aprender:

A sincronização é o componente central da integração. Entendê-la permite implementar o bridge de forma incremental, começando com sincronização manual e evoluindo para automática conforme a confiança no sistema aumenta.

Conceitos-chave:

Bridge script, sincronização unidirecional, ponto de controle, promoção de memória, ingestão via raw/, sincronização incremental.

O que é:

Regras práticas: use SQLite para contexto de conversa, tarefas em andamento, lembretes efêmeros e notas rápidas. Use o wiki para conceitos definidos, projetos com múltiplas entidades, comparações, decisões com justificativa e qualquer coisa que você queira consultar em 6 meses.

Por que aprender:

O modelo mental correto evita o erro de colocar tudo em um lugar só — sobrecarregar o wiki com efêmeros ou confiar o importante apenas ao SQLite. A separação clara torna o sistema mais sustentável e confiável.

Conceitos-chave:

Regras de roteamento, efêmero vs. permanente, critérios de valor, life expectancy da informação, custo de compilação vs. benefício.

Ver Completo
5.3~50 min

🔗 Integrando Vault Obsidian com Intelecto

Scripts de bridge, ingestão pelo Telegram, consulta híbrida e sincronização automática entre o vault e a memória do Intelecto.

O que é:

O USER.md é injetado em toda conversa do Intelecto como contexto fixo sobre o usuário. Ao incluir o catálogo do vault (domínios, projetos ativos, conceitos principais) no USER.md, o Intelecto sabe que existe um segundo cérebro e pode referenciar e sugerir páginas do wiki nas respostas.

Por que aprender:

Esta é a integração mais simples e imediata: sem código, apenas editando um arquivo Markdown. O Intelecto passa a ter consciência do vault, mencionando páginas relevantes e sugerindo ingestões quando o usuário compartilha novas informações.

Conceitos-chave:

USER.md, contexto persistente, catálogo de domínios, consciência do vault, integração zero-code, injeção estática de contexto.

O que é:

Um script Python (bridge.py) lê o index.md do vault, extrai entradas relevantes e as insere como memórias estruturadas no SQLite do Intelecto. O script é executado manualmente ou via cron e usa palavras-chave do index para maximizar o recall BM25.

Por que aprender:

O bridge permite que o Intelecto recupere conhecimento do wiki durante conversas sem precisar ler arquivos Markdown diretamente. A memória BM25 passa a incluir o conhecimento compilado, tornando as respostas muito mais ricas e contextualizadas.

Conceitos-chave:

bridge.py, parsing de Markdown, insert SQL, cron job, palavras-chave estratégicas, memória estruturada, sincronização incremental.

O que é:

Fluxo de ingestão via Telegram: usuário envia texto/link/arquivo → Intelecto salva como arquivo em raw/ (via Dropbox sync, API ou SSH) → comando /ingere dispara o LLM para compilar a nova página wiki/ → index.md e log.md são atualizados.

Por que aprender:

O Telegram como interface de ingestão transforma qualquer momento (reunião, leitura, insight) em uma entrada para o segundo cérebro. O celular já está sempre na mão — o Intelecto torna a captura tão natural quanto enviar uma mensagem.

Conceitos-chave:

raw/, wiki/, /ingere, Dropbox sync, SSH, Telegram como front-end de ingestão, captura assíncrona, compilação LLM.

O que é:

Na consulta híbrida, o Intelecto primeiro recupera memórias relevantes via BM25 (incluindo entradas do wiki sincronizadas pelo bridge) e, quando a query é identificada como de conhecimento estruturado, também lê diretamente a página wiki correspondente antes de gerar a resposta.

Por que aprender:

A consulta híbrida produz respostas muito mais completas: o contexto de conversa recente (SQLite) é combinado com o conhecimento estruturado e permanente (wiki). O resultado supera qualquer um dos dois sistemas isolados.

Conceitos-chave:

Recuperação em dois estágios, classificação de query, leitura direta de wiki, fusion de contextos, resposta aumentada por wiki.

O que é:

Sincronização automática via watcher Python que monitora mudanças no vault (inotify ou polling) e dispara o bridge.py quando páginas wiki são atualizadas. O Intelecto recebe as novas memórias dentro de minutos, sem intervenção manual.

Por que aprender:

A sincronização automática fecha o loop do segundo cérebro: compilar uma nova página wiki atualiza automaticamente o Intelecto. O conhecimento vive nos dois sistemas simultaneamente sem esforço extra do usuário.

Conceitos-chave:

inotify, polling, watcher, sincronização incremental, debounce, vault como source of truth, latência de sincronização.

O que é:

Demonstração completa: usuário lê um artigo → envia link pelo Telegram → Intelecto salva em raw/ → /ingere compila para wiki/ → bridge sincroniza para SQLite → usuário consulta "o que aprendi sobre X?" → Intelecto retorna síntese com dados da memória SQLite e da página wiki compilada.

Por que aprender:

O exemplo de ponta a ponta torna concreto o valor do sistema integrado. Ver o fluxo completo ajuda a identificar onde customizar, otimizar e onde adicionar automações para o próprio workflow.

Conceitos-chave:

Fluxo end-to-end, captura → compilação → sincronização → consulta, ciclo de vida da informação, ROI do segundo cérebro.

Ver Completo
5.4~45 min

📱 Telegram como Interface do Segundo Cérebro

Design de interface de captura, comandos customizados, envio de arquivos, notificações proativas e segundo cérebro colaborativo em grupos.

O que é:

Princípios de UX para o Intelecto como interface de captura: latência zero (resposta imediata de confirmação), feedback contextual (Intelecto comenta brevemente sobre o que foi capturado), e sugestões inteligentes (sugere tag ou domínio do vault baseado no conteúdo enviado).

Por que aprender:

A qualidade da interface de captura determina se o sistema será usado consistentemente. Uma interface com fricção alta é abandonada em dias. Design correto torna a captura tão fluida quanto pensar em voz alta.

Conceitos-chave:

Latência zero, feedback imediato, sugestão contextual, fricção zero, captura assíncrona, confirmação de recebimento.

O que é:

Comandos Telegram customizados adicionados ao Intelecto: /ingere [texto ou URL] aciona a pipeline de ingestão do wiki, /consulta [query] faz busca híbrida SQLite+wiki, /audit executa o lint do vault e reporta páginas órfãs e contradições, /status mostra estatísticas do vault.

Por que aprender:

Comandos explícitos criam intenções claras — o usuário sabe exatamente o que o sistema vai fazer. Isso é melhor que depender de detecção automática de intenção para operações críticas como ingestão e auditoria.

Conceitos-chave:

/ingere, /consulta, /audit, /status, CommandHandler, BotCommand, menu de comandos Telegram, intenção explícita.

O que é:

Handler para arquivos enviados pelo Telegram: PDFs são convertidos para texto via pypdf, imagens são descritas pelo vision model do LLM, áudios são transcritos via Whisper. Todos os resultados são salvos em raw/ com metadados (origem, data, tipo) para ingestão pelo wiki.

Por que aprender:

O envio de arquivos expande o segundo cérebro para além de texto: artigos em PDF, fotos de whiteboard, gravações de reunião — tudo se torna conhecimento estruturado após passar pelo pipeline de ingestão multi-modal.

Conceitos-chave:

pypdf, vision model, Whisper, multi-modal, MessageHandler, document handler, metadados de origem, raw/ como drop zone.

O que é:

O Intelecto pode enviar mensagens proativas via job queue do python-telegram-bot: lembrete diário de itens pendentes no vault, alerta quando uma página wiki tem mais de 90 dias sem revisão, sugestão de conexões entre novas capturas e páginas existentes.

Por que aprender:

Notificações proativas transformam o segundo cérebro de repositório passivo em parceiro ativo. O sistema lembra de itens que você esqueceu, sugere conexões não óbvias e mantém o vault vivo e em uso contínuo.

Conceitos-chave:

JobQueue, send_message, notificação proativa, spaced repetition, vault health check, conexões sugeridas, assistente ativo.

O que é:

O Intelecto em um grupo Telegram permite que uma equipe contribua para o mesmo vault: cada membro envia capturas que são atribuídas com metadados de autoria, o vault cresce colaborativamente e o Intelecto responde a todos com contexto do conhecimento compartilhado.

Por que aprender:

Um segundo cérebro de equipe é um multiplicador de produtividade. O conhecimento de cada membro enriquece o vault compartilhado, e o Intelecto serve como interface única para consulta e captura — sem email, sem Notion compartilhado, sem fricção.

Conceitos-chave:

Grupo Telegram, multi-user, metadados de autoria, vault compartilhado, permissões, conhecimento coletivo, segundo cérebro de equipe.

O que é:

Roteiro de implementação em 4 semanas: Semana 1 — Intelecto básico funcionando no Telegram. Semana 2 — USER.md configurado com contexto do vault. Semana 3 — bridge.py sincronizando wiki → SQLite. Semana 4 — comandos customizados e automações finais.

Por que aprender:

Um roteiro faseado reduz a sobrecarga de implementar tudo de uma vez. Cada fase entrega valor imediato, e você pode parar em qualquer etapa com um sistema já funcional e útil.

Conceitos-chave:

Implementação faseada, MVP, entrega incremental, 4 semanas, value at each stage, roteiro de adoção, segundo cérebro progressivo.

Ver Completo
← Trilha 4: Automação Início do Curso →