MÓDULO 1.1

🚗 O Carro e o Motor

Entenda a metáfora fundamental do curso: Claude Code é a interface (o carro), o modelo LLM é o motor. Você pode trocar o motor sem mudar o carro — e é exatamente isso que permite usar de graça.

6
Tópicos
30
Minutos
Básico
Nível
Teoria
Tipo
1

🤖 O que é Claude Code

Claude Code é uma ferramenta de linha de comando (CLI) criada pela Anthropic. Diferente de chatbots web como Claude.ai ou ChatGPT, ele roda diretamente no seu terminal e opera dentro do seu projeto real — lendo arquivos, executando comandos e editando código com contexto completo.

🎯 Conceito Principal

Claude Code é uma ferramenta de linha de comando (CLI) criada pela Anthropic que permite programar com IA diretamente no terminal. Diferente de chatbots web, opera no seu projeto real.

  • Roda no terminal — não em uma aba do browser
  • Acessa e edita seus arquivos reais
  • Executa comandos bash, git, npm — qualquer coisa do terminal
  • Funciona com qualquer endpoint compatível com a API da Anthropic

📊 Dados de Performance (SWE-bench 2025)

  • 79% — Claude Opus 4.6 (melhor modelo fechado)
  • 77% — Claude Sonnet 4.6 / 4.5
  • 76% — Qwen3.5-397B (melhor open source)
  • ~70% — Modelos mid-range open source (Llama 3.3, Gemma 3)

SWE-bench mede a capacidade de resolver issues reais de projetos open source no GitHub.

💡 Dica Prática

Claude Code funciona com QUALQUER endpoint compatível com a API da Anthropic. Isso inclui Ollama rodando localmente e OpenRouter na nuvem — ambos podem ser $0/mês.

2

🚗 A Analogia Carro e Motor

A metáfora mais importante do curso. Claude Code é o carro — a carroceria, o painel, os controles, o repositório de ferramentas. O modelo LLM é o motor — o que gera a inteligência. Você pode trocar o motor sem precisar de um carro novo.

🚗 O Carro (Claude Code) vs O Motor (LLM)

🚗 O Carro = Claude Code

  • Interface de terminal (CLI)
  • Repositório de ferramentas (Read, Edit, Bash...)
  • Suporte a MCP (Model Context Protocol)
  • Sistema de planos e memória (CLAUDE.md)
  • Gerenciamento de permissões e segurança

⚡ O Motor = Modelo LLM

  • Claude Opus/Sonnet (pago — Anthropic)
  • OpenRouter free tier (nuvem — gratuito)
  • Ollama local (offline — gratuito*)
  • vLLM / LM Studio (self-hosted)
  • *Gratuito de API, usa GPU/CPU local

✓ O que FAZER

  • Configurar ANTHROPIC_BASE_URL para trocar o motor
  • Testar modelos open source gratuitos
  • Usar Ollama local para privacidade
  • Usar OpenRouter para modelos na nuvem sem custo

✗ O que NÃO fazer

  • Achar que precisa pagar para usar Claude Code
  • Confundir Claude Code (carro) com Claude (motor)
  • Instalar outro software para trocar de modelo
  • Deixar ANTHROPIC_BASE_URL apontar para lugar errado

Como trocar o motor em 3 passos:

1

Instale o motor alternativo

Ollama (local) ou crie conta no OpenRouter (nuvem)

2

Configure ANTHROPIC_BASE_URL

Aponte para o endpoint do novo motor no settings.json

3

Abra o Claude Code normalmente

O carro é o mesmo. Só o motor mudou. Interface idêntica.

3

🧠 O que é um LLM

LLM significa Large Language Model — Modelo de Linguagem Grande. É um tipo de inteligência artificial treinada em enormes volumes de texto e código para aprender padrões de linguagem e gerar respostas coerentes.

🧠 Como um LLM funciona (simplificado)

1.
Treinamento: O modelo é exposto a bilhões de textos e aprende a prever qual token vem depois de outro.
2.
Inferência: Você envia um prompt. O modelo gera tokens um a um, escolhendo o mais provável dado o contexto.
3.
Fine-tuning: Modelos são refinados com RLHF (feedback humano) para serem mais úteis e seguros.

📊 Open Source vs Fechados em 2025

Modelo Tipo SWE-bench Custo
Claude Opus 4.6 Fechado 79% Pago
Claude Sonnet 4.5/4.6 Fechado 77% Pago
Qwen3.5-397B Open Source 76% Gratuito*
Llama 3.3 70B Open Source ~70% Gratuito*
Gemma 3 27B Open Source ~68% Gratuito*

*Gratuito via Ollama local ou OpenRouter free tier.

4

💰 Por que usar de graça

A API oficial da Anthropic cobra por token — e em projetos grandes, os custos sobem rápido. Mas existem dois caminhos para custo zero: rodar modelos localmente com Ollama ou usar o free tier do OpenRouter.

Comparativo: Ollama vs OpenRouter

Característica Ollama (Local) OpenRouter (Nuvem)
Custo de API $0 (usa hardware local) $0 (free tier)
Necessita internet Não Sim
Privacidade Total (dados locais) Depende do provedor
Requisito de hardware GPU/RAM potente Qualquer máquina
Velocidade Varia (hardware) Rápida (servidores)
Melhor para Projetos privados, offline Início rápido, qualquer PC

💡 Custo real = $0

Com Ollama ou OpenRouter free tier, seu custo de API é literalmente zero. A única "limitação" é que modelos open source têm performance ligeiramente inferior aos melhores modelos fechados — mas ainda são excelentes para 90% das tarefas.

5

🔄 Modelos Open Source vs Fechados

Em 2025, a diferença de performance entre modelos open source e fechados encolheu drasticamente. O Qwen3.5-397B chega a 76% no SWE-bench contra 79% do Claude Opus 4.6. Para a maioria das tarefas de desenvolvimento, modelos open source já são suficientes.

✓ Vantagens Open Source

  • Custo zero (Ollama local ou free tier)
  • Privacidade total (dados não saem da máquina)
  • Sem limites de rate por API
  • Customizável via fine-tuning
  • Comunidade ativa, novos modelos frequentes

⚡ Vantagens Fechados

  • Melhor performance (2-3% acima no SWE-bench)
  • Melhor em raciocínio complexo e multistep
  • Janela de contexto maior (200k+ tokens)
  • Suporte oficial e SLA garantido
  • Melhor seguimento de instruções complexas

⚠️ Limitações a conhecer

  • Modelos grandes (70B+) exigem hardware potente para rodar localmente
  • Free tier do OpenRouter pode ter limites de requisições por dia
  • Alguns modelos open source têm janela de contexto menor (8k-32k tokens)
  • Performance pode variar em tarefas muito específicas de código
6

🎯 Quando usar Claude Code

Claude Code não substitui o chat web — ele complementa. Use o chat para perguntas pontuais e o Claude Code para trabalhar no projeto real. A diferença está no contexto: CC tem acesso ao seu código, o chat não.

🚀 Claude Code brilha quando:

  • Refatorar múltiplos arquivos de uma vez
  • Debugar erro complexo com contexto do projeto
  • Criar feature completa (frontend + backend + testes)
  • Migrar codebase para nova versão de framework
  • Automatizar tarefas repetitivas com scripts
  • Code review automatizado de PRs inteiros

💬 Chat web é melhor para:

  • Perguntas conceituais ("como funciona X?")
  • Gerar snippet pequeno sem contexto de projeto
  • Comparar opções de tecnologia
  • Rascunhar textos, documentação, emails
  • Explorar ideias sem commitar mudanças
  • Quando não tem um projeto aberto

💡 Regra prática

Se a tarefa envolve ler ou modificar arquivos reais do projeto, use Claude Code. Se é uma pergunta geral ou rascunho sem contexto de código, o chat é mais rápido. Nos próximos módulos, você verá exemplos concretos de cada caso.

Resumo do Módulo 1.1

Claude Code é o carro — a interface CLI, ferramentas, CLAUDE.md, permissões
O modelo LLM é o motor — intercambiável via ANTHROPIC_BASE_URL
Custo pode ser $0 — Ollama local ou OpenRouter free tier
Open source chegou perto dos fechados — Qwen3.5: 76% vs Claude Opus: 79% no SWE-bench
CC brilha em tarefas multi-arquivo — chat para perguntas pontuais, CC para o projeto real

Próximo Módulo:

1.2 — ⚙️ Como Claude Code Funciona: o fluxo interno, ferramentas disponíveis, janela de contexto e CLAUDE.md