Claude Code é a melhor interface de programação com IA do mercado — mas não precisa pagar a Anthropic para usá-la. Pense no Claude Code como um carro sofisticado: a carroceria e o painel são a interface. O motor? Você pode trocar.
Aprenda a conectar Claude Code a motores alternativos: Ollama rodando local (completamente grátis), OpenRouter com free tier (grátis até certo uso), ou seu próprio servidor vLLM. Cinco trilhas independentes, do zero ao produção.
Cada trilha é independente — comece pela que faz mais sentido para você agora.
O que é Claude Code, como funciona a arquitetura carro/motor, e por que isso muda tudo sobre custos de IA no desenvolvimento.
Instale e configure Claude Code em Linux, macOS e Windows (WSL). Autenticação, variáveis de ambiente e primeiros passos práticos.
Rode modelos como Qwen, Devstral e LLaMA diretamente na sua máquina. 100% gratuito, sem internet, sem limites de uso.
Use modelos premium via OpenRouter com free tier generoso. GPT-4o, Claude, Mistral e mais — com uma única API Key.
Projetos reais do zero, fluxos de trabalho, CLAUDE.md, hooks, MCP e otimizações para times. Do protótipo ao produção.
Todos os termos técnicos do Claude Code de A a Z. ANTHROPIC_BASE_URL, Ollama, VRAM, WSL, MCP e muito mais explicados.
A analogia do carro: a interface é separada do motor de IA.
A Interface (o Carro)
ANTHROPIC_BASE_URL
Aponte para qualquer motor
Claude / GPT / Gemini
API paga — mais poderoso
OpenRouter
Free tier generoso na nuvem
Ollama / vLLM
Self-host — grátis*
A sacada: Claude Code usa a API da Anthropic por padrão, mas respeita a variável de ambiente ANTHROPIC_BASE_URL. Basta apontar para outro servidor compatível com a API da Anthropic e o Claude Code passa a usar aquele motor — sem nenhuma mudança no código ou fluxo de trabalho.
Um único comando npm, funciona em Linux, Mac e Windows (WSL).
Defina ANTHROPIC_BASE_URL e ANTHROPIC_AUTH_TOKEN apontando para Ollama ou OpenRouter.
Use todos os recursos do Claude Code sem pagar nada à Anthropic.
Ambos funcionam com Claude Code. A diferença está no hardware e no perfil de uso.
| Característica | 🦙 Ollama Local | ☁️ OpenRouter |
|---|---|---|
| Custo | Grátis (eletricidade do PC) | Grátis (free tier) / pay-as-you-go |
| Hardware necessário | GPU ou CPU potente, 8GB+ RAM | Qualquer computador com internet |
| Privacidade | 100% local — nada sai da máquina | Nuvem — dados vão para servidores |
| Qualidade dos modelos | Qwen 2.5, Devstral, LLaMA 3.3 | GPT-4o, Claude 3.5, Mistral Large |
| Velocidade | Depende do hardware local | Rápido (servidores dedicados) |
| Limite de uso | Ilimitado | Sim (free tier tem rate limits) |
| Configuração | Instalar Ollama + baixar modelo | Criar conta + pegar API Key |
| Ideal para | Uso intenso, dados sensíveis, offline | Hardware limitado, modelos premium |
Recomendação: Se você tem uma GPU com 8GB+ de VRAM, comece com Ollama. Se não tem, ou precisa de modelos mais capazes sem custo imediato, use OpenRouter. Este curso ensina os dois.