🤖 CURSO GRATUITO

Claude Code Open —
Use de Graça ou por Quase Nada

Claude Code é a melhor interface de programação com IA do mercado — mas não precisa pagar a Anthropic para usá-la. Pense no Claude Code como um carro sofisticado: a carroceria e o painel são a interface. O motor? Você pode trocar.

Aprenda a conectar Claude Code a motores alternativos: Ollama rodando local (completamente grátis), OpenRouter com free tier (grátis até certo uso), ou seu próprio servidor vLLM. Cinco trilhas independentes, do zero ao produção.

5
Trilhas
19
Módulos
R$0
Custo do curso
Possibilidades

As 5 Trilhas do Curso

Cada trilha é independente — comece pela que faz mais sentido para você agora.

Como Funciona a Arquitetura

A analogia do carro: a interface é separada do motor de IA.

🚗

Claude Code

A Interface (o Carro)

  • Terminal interativo com IA
  • Lê e edita arquivos
  • Executa comandos
  • Slash commands e hooks

ANTHROPIC_BASE_URL

Aponte para qualquer motor

troca o motor
💳

Claude / GPT / Gemini

API paga — mais poderoso

☁️

OpenRouter

Free tier generoso na nuvem

🦙

Ollama / vLLM

Self-host — grátis*

A sacada: Claude Code usa a API da Anthropic por padrão, mas respeita a variável de ambiente ANTHROPIC_BASE_URL. Basta apontar para outro servidor compatível com a API da Anthropic e o Claude Code passa a usar aquele motor — sem nenhuma mudança no código ou fluxo de trabalho.

1

Instale Claude Code

Um único comando npm, funciona em Linux, Mac e Windows (WSL).

2

Configure o motor

Defina ANTHROPIC_BASE_URL e ANTHROPIC_AUTH_TOKEN apontando para Ollama ou OpenRouter.

3

Programe de graça

Use todos os recursos do Claude Code sem pagar nada à Anthropic.

Ollama vs OpenRouter — Qual Escolher?

Ambos funcionam com Claude Code. A diferença está no hardware e no perfil de uso.

Característica 🦙 Ollama Local ☁️ OpenRouter
Custo Grátis (eletricidade do PC) Grátis (free tier) / pay-as-you-go
Hardware necessário GPU ou CPU potente, 8GB+ RAM Qualquer computador com internet
Privacidade 100% local — nada sai da máquina Nuvem — dados vão para servidores
Qualidade dos modelos Qwen 2.5, Devstral, LLaMA 3.3 GPT-4o, Claude 3.5, Mistral Large
Velocidade Depende do hardware local Rápido (servidores dedicados)
Limite de uso Ilimitado Sim (free tier tem rate limits)
Configuração Instalar Ollama + baixar modelo Criar conta + pegar API Key
Ideal para Uso intenso, dados sensíveis, offline Hardware limitado, modelos premium

Recomendação: Se você tem uma GPU com 8GB+ de VRAM, comece com Ollama. Se não tem, ou precisa de modelos mais capazes sem custo imediato, use OpenRouter. Este curso ensina os dois.