TRILHA 3

🦙 Motor Local com Ollama

Rode modelos LLM diretamente na sua máquina com Ollama. Zero custo por token, privacidade total e funcionamento offline. Aprenda a instalar, configurar e conectar ao Claude Code.

4
Módulos
24
Tópicos
~2h
Duração
Inter.
Nível
Conteúdo Detalhado
3.1 ~25 min

🦙 O que é Ollama

Entenda o Ollama: como ele roda modelos LLM localmente e por que é perfeito para usar com Claude Code de graça.

O que é:

Ollama é uma aplicação open-source que funciona como servidor local para rodar modelos de linguagem (LLM) diretamente na sua máquina, sem depender de nenhuma nuvem.

Por que aprender:

Com Ollama você usa Claude Code de graça, com privacidade total dos seus dados e sem depender de internet para cada requisição.

Conceitos-chave:

Roda como daemon em background; expõe API REST local; compatível com OpenAI API; suporta 100+ modelos open-source.

O que é:

Usar modelos locais significa rodar inferência na sua própria máquina — nenhum dado sai do seu ambiente, nenhum custo por token é cobrado.

Por que aprender:

Para projetos confidenciais, desenvolvimento sem internet ou simplesmente para eliminar custos de API ao usar Claude Code no dia a dia.

Conceitos-chave:

Privacidade por design (dados não saem da máquina); custo zero após download do modelo; funciona 100% offline; latência depende do hardware local.

O que é:

Ollama sobe um servidor HTTP na porta 11434 com endpoints compatíveis com a API da OpenAI, o que permite que ferramentas como Claude Code se conectem sem modificações.

Por que aprender:

Entender a arquitetura interna facilita a configuração, o debug e a substituição por outras soluções (vLLM, LM Studio) quando necessário.

Conceitos-chave:

Porta padrão 11434; endpoints /api/generate (nativo) e /v1/chat/completions (compatível OpenAI); modelos carregados sob demanda; descarrega da memória após inatividade.

O que é:

Os requisitos variam pelo tamanho do modelo: modelos 7B precisam de ~8GB RAM, 14B exigem ~16GB, e modelos 30B+ requerem 32GB ou GPU dedicada.

Por que aprender:

Escolher o modelo errado para seu hardware resulta em performance inaceitável ou falha ao carregar. Conhecer os limites poupa tempo e frustração.

Conceitos-chave:

RAM é o gargalo principal; GPU NVIDIA (CUDA) ou AMD (ROCm) acelera muito; Apple Silicon unifica RAM/VRAM permitindo modelos maiores; CPU funciona mas é lento.

O que é:

A instalação do Ollama é simples: no Linux/Mac basta um curl; no Windows há um instalador .exe; no Mac existe opção via Homebrew também.

Por que aprender:

Instalar corretamente garante que o serviço suba automaticamente no boot e seja acessível na porta padrão sem configurações adicionais.

Conceitos-chave:

Linux: curl -fsSL https://ollama.com/install.sh | sh; Windows/Mac: baixar de ollama.com; após instalar, ollama serve inicia o servidor; no Linux fica como systemd service.

O que é:

O CLI do Ollama tem comandos simples para gerenciar modelos: baixar, listar, executar, mostrar informações e remover.

Por que aprender:

Dominar o CLI permite gerenciar o ciclo de vida dos modelos, verificar o que está instalado e fazer testes rápidos antes de conectar ao Claude Code.

Conceitos-chave:

ollama pull [modelo] — baixa; ollama list — lista instalados; ollama run [modelo] — chat interativo; ollama show [modelo] — info; ollama rm [modelo] — remove; ollama serve — inicia servidor.

Ver Completo
3.2 ~30 min

🧮 Escolhendo o Modelo Certo

Escolha o modelo ideal para seu hardware. Tamanhos, requisitos e benchmarks práticos para código.

O que é:

O número (7B, 14B, 30B) representa a quantidade de parâmetros do modelo em bilhões. Mais parâmetros geralmente significa maior qualidade mas exige mais memória.

Por que aprender:

Escolher um modelo maior do que seu hardware suporta resulta em travamentos ou swap excessivo. A escolha certa equilibra qualidade e performance.

Conceitos-chave:

7B ≈ 4-6GB RAM (quantizado); 14B ≈ 8-10GB; 30B ≈ 18-22GB; 70B ≈ 40GB+. Quantização reduz tamanho com pequena perda de qualidade.

O que é:

Guia de referência rápida para mapear sua RAM disponível ao tamanho de modelo suportado, incluindo casos especiais como Apple Silicon com memória unificada.

Por que aprender:

Essa tabela economiza horas de tentativa e erro — você sabe antes de baixar se o modelo vai caber e rodar de forma satisfatória.

Conceitos-chave:

8GB → 7B/8B (q4); 16GB → 14B/20B; 32GB → 30B; Apple Silicon 24GB → 24B; GPU 8GB VRAM → acelera 7B; GPU 24GB VRAM → 30B com velocidade.

O que é:

Lista curada dos melhores modelos open-source para codificação em 2026, com foco em janela de contexto grande e performance em tarefas reais de desenvolvimento.

Por que aprender:

Com centenas de modelos disponíveis, escolher sem orientação é perdido. Essa lista prioriza modelos testados especificamente para uso com Claude Code.

Conceitos-chave:

qwen3-coder:30b (top performance); devstral-2-small:24b (especializado em código); granite3.3:8b (eficiente, bom para hardware limitado); glm-4.7-flash:9b (rápido, contexto longo).

O que é:

A janela de contexto define quantos tokens (palavras/código) o modelo consegue processar de uma vez. Para Claude Code é crítico ter contexto grande para analisar arquivos completos.

Por que aprender:

Modelos com contexto pequeno truncam arquivos grandes, gerando respostas incompletas ou erradas. Contexto mínimo de 64K é requisito prático para uso real.

Conceitos-chave:

Contexto mínimo: 64K tokens; ideal: 128K+; verificar: ollama show qwen3-coder --modelfile; campo context_length no modelfile; contexto maior consome mais RAM durante inferência.

O que é:

O comando ollama pull baixa o modelo da biblioteca oficial do Ollama (ollama.com/library), mostrando progresso em tempo real por camada.

Por que aprender:

Entender o processo de download (que pode demorar horas para modelos grandes) ajuda a planejar e evitar interrupções que corrompem o download parcial.

Conceitos-chave:

ollama pull qwen3-coder (tag padrão = latest); ollama pull qwen3-coder:30b (tag específica); download retomável se interrompido; modelos ficam em ~/.ollama/models/.

O que é:

Antes de conectar ao Claude Code, testar o modelo diretamente pelo CLI garante que está funcionando e permite avaliar qualidade e velocidade de resposta.

Por que aprender:

Isolar o teste do modelo facilita diagnosticar problemas — se falha no CLI, o problema é no Ollama; se falha no CC, o problema é na configuração de conexão.

Conceitos-chave:

ollama run qwen3-coder; testar com "escreva um hello world em Python"; /bye para sair; medir tokens/segundo; verificar se contexto responde corretamente a instruções.

Ver Completo
3.3 ~30 min

⚙️ Configurando Claude Code + Ollama

Conecte Claude Code ao Ollama em 3 opções: comando rápido, variáveis de ambiente ou settings.json permanente.

O que é:

Claude Code usa a variável ANTHROPIC_BASE_URL para saber para onde enviar as requisições. Apontando para o Ollama local, todas as chamadas vão para seu modelo em vez da Anthropic.

Por que aprender:

Entender o mecanismo de redirecionamento permite configurar qualquer backend compatível com OpenAI API, não só Ollama.

Conceitos-chave:

ANTHROPIC_BASE_URL="http://localhost:11434"; Ollama expõe /v1/chat/completions; ANTHROPIC_AUTH_TOKEN="ollama" (pode ser qualquer valor); ANTHROPIC_API_KEY="" (limpar para não conflitar).

O que é:

O comando ollama launch claude configura automaticamente todas as variáveis de ambiente e inicia o Claude Code apontando para o Ollama local.

Por que aprender:

É a forma mais rápida para quem quer usar Ollama sem se preocupar com configurações manuais. Ideal para uso ocasional.

Conceitos-chave:

Comando único; configura todas as vars automaticamente; inicia CC imediatamente; configuração não persiste entre sessões; requer Ollama rodando.

O que é:

Definir as variáveis manualmente via export no terminal antes de executar o claude. Funciona na sessão atual do shell.

Por que aprender:

Controle granular para trocar entre Ollama e Anthropic na mesma sessão sem modificar arquivos de configuração.

Conceitos-chave:

export ANTHROPIC_BASE_URL="http://localhost:11434"; export ANTHROPIC_AUTH_TOKEN="ollama"; export ANTHROPIC_API_KEY=""; válido apenas na sessão atual do terminal.

O que é:

Configurar as variáveis no arquivo ~/.claude/settings.json faz com que Claude Code sempre use Ollama ao ser iniciado, sem precisar de exports manuais.

Por que aprender:

Para quem usa Ollama como backend padrão, essa é a configuração mais conveniente — define uma vez e esquece.

Conceitos-chave:

Arquivo: ~/.claude/settings.json; bloco "env" define variáveis; persiste entre reinicializações; pode ser versionado; para voltar ao Anthropic: remover bloco env do arquivo.

O que é:

Na primeira execução com as vars configuradas, Claude Code apresenta opções de autenticação. Para uso com Ollama, selecione "Anthropic Console account" e forneça qualquer API key válida ou use a que já tem.

Por que aprender:

O processo de login pode confundir iniciantes — entender que a API key é necessária apenas para autenticar o Claude Code, não para as chamadas ao Ollama, evita erros.

Conceitos-chave:

Selecionar "Anthropic Console account" no menu de auth; a API key da Anthropic ainda é usada para autenticar o app CC; chamadas de modelo vão para Ollama; sem custo por token.

O que é:

Reverter para o backend Anthropic é simples: fazer unset das variáveis de ambiente ou remover o bloco env do settings.json.

Por que aprender:

Alternar entre Ollama (tarefas internas/offline) e Anthropic (tarefas que exigem máxima qualidade) é um fluxo comum no dia a dia.

Conceitos-chave:

unset ANTHROPIC_BASE_URL; unset ANTHROPIC_AUTH_TOKEN; unset ANTHROPIC_API_KEY; depois: claude inicia com Anthropic; alternativa permanente: remover bloco "env" do settings.json.

Ver Completo
3.4 ~35 min

🚀 vLLM — Alternativa Avançada

vLLM é uma opção de alta performance para quem tem GPU dedicada. Ideal para VPS com GPU ou workstations.

O que é:

vLLM é um framework de serving de modelos open-source desenvolvido pela UC Berkeley, usando a técnica PagedAttention para maximizar throughput com GPU.

Por que aprender:

Para usuários com GPU dedicada, vLLM entrega 2-10x mais tokens por segundo que Ollama, ideal para uso intensivo ou múltiplos usuários simultâneos.

Conceitos-chave:

PagedAttention gerencia memória KV-cache eficientemente; API compatível com OpenAI; suporta continuous batching; melhor throughput com GPU; requer CUDA para máxima performance.

O que é:

Comparação prática: Ollama é mais fácil de instalar e funciona sem GPU; vLLM é mais complexo mas entrega performance superior em hardware com GPU dedicada.

Por que aprender:

Escolher a ferramenta errada resulta em sub-utilização do hardware (usando Ollama em servidor GPU) ou complexidade desnecessária (vLLM sem GPU).

Conceitos-chave:

Ollama: fácil, sem GPU, uso pessoal; vLLM: GPU obrigatória, multi-usuário, alta performance; ambos têm API OpenAI compatível; vLLM consome mais RAM de sistema; Ollama tem interface web embutida.

O que é:

vLLM é instalado via pip como pacote Python. Requer Python 3.9+, CUDA 11.8+ (para GPU NVIDIA) e PyTorch compatível.

Por que aprender:

A instalação tem dependências específicas de versão — errar na versão do CUDA ou PyTorch causa erros difíceis de diagnosticar.

Conceitos-chave:

pip install vllm; recomendado usar venv ou conda; verificar compatibilidade CUDA com nvidia-smi; instalação demora (compila extensões C++); pip install vllm[flash-attn] para máxima performance.

O que é:

O servidor vLLM é iniciado via Python com o módulo api_server, especificando modelo, porta e parâmetros de GPU.

Por que aprender:

Os parâmetros de inicialização determinam performance e estabilidade — ajustar gpu-memory-utilization e max-model-len evita OOM e maximiza throughput.

Conceitos-chave:

python -m vllm.entrypoints.openai.api_server --model [HF_ID] --port 8000; --gpu-memory-utilization 0.9; --max-model-len para limitar contexto; modelos baixados do HuggingFace automaticamente.

O que é:

O processo de conexão é idêntico ao Ollama: apontar ANTHROPIC_BASE_URL para a porta do vLLM (padrão 8000) e definir o token de autenticação.

Por que aprender:

Por compartilhar o mesmo mecanismo de conexão do Ollama, trocar entre os dois backends é questão de mudar apenas a URL e a porta.

Conceitos-chave:

ANTHROPIC_BASE_URL="http://localhost:8000"; ANTHROPIC_AUTH_TOKEN="vllm-token" (qualquer valor); --model deve usar nome do modelo HuggingFace no CC; vLLM deve estar rodando antes do CC.

O que é:

vLLM oferece vários parâmetros de otimização: quantização AWQ/GPTQ para modelos menores, ajuste de batch size e controle de utilização de VRAM.

Por que aprender:

Sem otimização, vLLM pode não entregar a performance esperada. Cada GPU tem um sweet spot de configuração que precisa ser ajustado.

Conceitos-chave:

--quantization awq (modelos AWQ); --gpu-memory-utilization 0.85-0.95; --max-num-seqs (concurrent requests); Flash Attention 2 para GPUs Ampere+; tensor parallelism (--tensor-parallel-size) para multi-GPU.

Ver Completo
← T2: Instalação T4: OpenRouter →