Termos com A
ANTHROPIC_BASE_URL
Variável de Ambiente
Variável de ambiente que define o endereço base da API que o Claude Code vai usar. Por padrão aponta para https://api.anthropic.com, mas você pode redirecionar para Ollama local (http://localhost:11434/v1) ou qualquer serviço compatível com a API da Anthropic.
Esta variável é o coração da estratégia "motor trocável" — basta mudar seu valor para usar um modelo completamente diferente sem alterar nada no Claude Code.
ANTHROPIC_AUTH_TOKEN
Variável de Ambiente
Token de autenticação enviado no header Authorization: Bearer de cada requisição. Quando você usa Ollama localmente, pode definir como qualquer string não-vazia (ex: ollama) pois o servidor local não valida autenticação.
Para OpenRouter, use a API Key real da sua conta. Para a Anthropic nativa, use sua sk-ant-... key.
autoCompactThreshold
settings.json
Configuração no settings.json que define em que percentual de preenchimento do contexto o Claude Code deve compactar automaticamente o histórico de conversa. Valor entre 0 e 1 (ex: 0.7 = 70%).
Modelos locais têm janelas de contexto menores, então configurar um threshold mais baixo evita erros de contexto excedido durante sessões longas.
API Key
Autenticação
Chave secreta que identifica sua conta em um serviço de API. Para a Anthropic começa com sk-ant-; para OpenRouter começa com sk-or-. Nunca compartilhe sua API Key nem a inclua em código que vai para o GitHub.
No contexto do Claude Code com Ollama local, você não precisa de API Key real — um placeholder qualquer funciona.
Termos com B
Base URL
API / Configuração
O endereço raiz de um servidor de API. Todas as requisições são feitas adicionando caminhos a esta URL base. Ex: se a Base URL é http://localhost:11434, a rota de chat completa seria http://localhost:11434/v1/messages.
Bash Tool
Ferramenta Interna
Uma das ferramentas nativas do Claude Code que permite executar comandos de terminal diretamente. O Claude usa o Bash Tool para rodar npm install, git commit, executar testes e muito mais durante uma sessão.
Você pode restringir quais comandos são permitidos via permissões no settings.json, aumentando a segurança em ambientes sensíveis.
Bearer Token
Protocolo HTTP
Esquema de autenticação HTTP onde o token é enviado no header: Authorization: Bearer SEU_TOKEN. O Claude Code usa este esquema ao se comunicar com APIs de LLM. O valor de ANTHROPIC_AUTH_TOKEN é colocado no lugar de "SEU_TOKEN".
Termos com C
CLAUDE.md
Arquivo de ConfiguraçãoArquivo Markdown especial na raiz do projeto que o Claude Code lê automaticamente no início de cada sessão. Contém instruções permanentes: convenções do projeto, comandos importantes, estilo de código, contexto do negócio. É o equivalente a "o manual que o dev novo precisa ler antes de começar".
Bem escrito, o CLAUDE.md elimina a necessidade de repetir contexto toda vez que você abre uma nova sessão. É um dos recursos mais poderosos do Claude Code.
Claude Code
Interface CLIFerramenta oficial da Anthropic — um agente de programação que opera via linha de comando. Pode ler e editar arquivos, executar comandos de terminal, navegar repositórios e conversar sobre código. Funciona em qualquer terminal padrão.
A genialidade está na separação: a interface (Claude Code) pode ser usada com diferentes motores de LLM via configuração, sem alterar o comportamento da ferramenta.
Compactação de Contexto
Gerenciamento de MemóriaProcesso pelo qual o Claude Code resume o histórico de conversa quando o contexto está ficando cheio. Em vez de parar a sessão, ele comprime o histórico anterior mantendo apenas o essencial, liberando espaço para continuar trabalhando.
Modelos locais via Ollama geralmente têm janela de contexto menor (8K–32K tokens), então a compactação dispara mais frequentemente. Configure autoCompactThreshold para ajustar.
Contexto (Context Window)
LLMA quantidade máxima de texto (medida em tokens) que um modelo LLM consegue processar de uma vez. Claude 3.5 Sonnet tem 200K tokens; modelos locais via Ollama geralmente entre 8K e 128K. Quanto maior o contexto, mais código e histórico o modelo pode "ver" ao responder.
Claude Opus / Sonnet / Haiku
Modelos da AnthropicOs três tamanhos dos modelos Claude da Anthropic. Opus é o mais poderoso e caro; Sonnet é o equilíbrio entre capacidade e custo (o padrão do Claude Code); Haiku é o mais rápido e barato, usado para tarefas de background como sugestões de código.
Ao trocar o motor via ANTHROPIC_BASE_URL, você deixa de usar estes modelos e passa a usar o que estiver rodando no servidor alternativo.
Termos com D
DISABLE_PROMPT_CACHING
Variável de Ambiente
Quando definida como true, desativa o prompt caching do Claude Code. Por padrão o Claude Code tenta usar caching para reduzir custos com a API da Anthropic. Ao usar Ollama ou OpenRouter, definir esta variável pode evitar erros de compatibilidade com servidores que não suportam a feature.
Alguns proxies e servidores alternativos não implementam a API de prompt caching, retornando erros. Nesse caso, desabilitar resolve o problema.
Devstral
Modelo Open-SourceModelo open-source da Mistral AI focado em tarefas de desenvolvimento de software. Excelente para usar com Claude Code via Ollama ou OpenRouter. Performa muito bem em coding benchmarks com tamanho relativamente pequeno (~24B parâmetros), sendo uma opção premium para uso local.
Para rodar localmente: ollama pull devstral. Necessita de GPU com 16GB+ de VRAM para bom desempenho.
Termos com E
Endpoint
API
URL específica de uma API que aceita requisições. O endpoint principal que o Claude Code usa é /v1/messages (API da Anthropic) ou /v1/chat/completions (compatível com OpenAI, usado pelo Ollama). Proxies como LiteLLM traduzem entre os dois formatos.
Variáveis de Ambiente
Environment Variables
Pares chave=valor definidos no sistema operacional, acessíveis por qualquer processo. No Claude Code, são o principal mecanismo de configuração — ANTHROPIC_BASE_URL, ANTHROPIC_AUTH_TOKEN, DISABLE_PROMPT_CACHING e outras.
Podem ser definidas no ~/.bashrc, ~/.zshrc, no próprio settings.json do Claude Code, ou na sessão de terminal com export VAR=valor.
Termos com F
Free Tier
Modelo de NegócioCamada gratuita oferecida por serviços de API com limites de uso (rate limits). O OpenRouter oferece free tier para vários modelos, incluindo opções de alta qualidade como meta-llama/llama-3.3-70b e outros. Ideal para começar sem custos.
Os limites do free tier variam por modelo e podem incluir: número de requisições por minuto, tokens por dia ou por mês. Para uso leve a moderado, o free tier do OpenRouter costuma ser suficiente.
Termos com G
GPU
HardwarePlaca de vídeo (Graphics Processing Unit). Para rodar modelos LLM localmente com boa velocidade, uma GPU dedicada com memória VRAM é essencial. GPUs da NVIDIA (RTX 3060, 4070, 4090) são as mais compatíveis com frameworks como CUDA que o Ollama usa.
Sem GPU, o Ollama cai para CPU — o que funciona mas é significativamente mais lento (20-50x). Para uso com Claude Code em produção, GPU é altamente recomendado.
Termos com H
Haiku (Modelo Background)
Claude Code InternoO Claude Code usa Claude Haiku internamente para tarefas de background como completar código inline, sugestões rápidas e análises simples — enquanto usa Sonnet ou Opus para as conversas principais. Ao trocar o motor, essas tarefas de background também passam a usar o modelo alternativo configurado.
Hooks
Automação
Scripts ou comandos configurados no settings.json que são executados automaticamente em eventos específicos do Claude Code, como antes de uma sessão iniciar (PreSessionStart) ou depois de uma ferramenta ser executada (PostToolUse).
Exemplos de uso: rodar linter automaticamente após edição de código, fazer backup antes de refatorações, notificar via Slack quando uma tarefa longa termina.
Termos com I
iframe
HTML / InterfaceElemento HTML que incorpora uma página dentro de outra. Nos materiais do curso INEMA.CLUB, modais usam iframes para carregar páginas de módulo completas sem duplicar código. No contexto do Claude Code, pode ser relevante ao construir dashboards ou interfaces de preview.
INEMA.CLUB
PlataformaPlataforma de cursos e conteúdo técnico em português onde este curso está hospedado. Focada em automação, inteligência artificial e produtividade para desenvolvedores e profissionais técnicos.
Termos com J
JSON (settings.json)
Formato de Configuração
JavaScript Object Notation — formato leve de dados baseado em pares chave-valor. O settings.json do Claude Code usa JSON para armazenar todas as configurações: permissões, variáveis de ambiente, hooks, comportamentos padrão. Localizado em ~/.claude/settings.json.
Termos com L
LLM
Large Language ModelModelo de linguagem grande — a classe de modelos de IA que compreende e gera texto. GPT-4, Claude, LLaMA, Qwen e Mistral são todos LLMs. O Claude Code é uma interface que se comunica com LLMs via API para executar tarefas de programação.
LM Studio
Aplicação DesktopAplicação desktop com interface gráfica para baixar e rodar modelos LLM localmente no Windows, Mac e Linux. Alternativa ao Ollama para quem prefere interface visual. Também expõe um servidor local compatível com a API OpenAI, podendo ser usado com Claude Code via ANTHROPIC_BASE_URL.
localhost
Rede
Endereço de rede que aponta para a própria máquina (equivalente a 127.0.0.1). Quando o Ollama está rodando localmente, seu servidor fica acessível em http://localhost:11434. É para este endereço que você aponta o ANTHROPIC_BASE_URL.
Termos com M
MCP — Model Context Protocol
Protocolo de ExtensãoProtocolo aberto da Anthropic que permite ao Claude Code se conectar a ferramentas e fontes de dados externas via servidores padronizados. Com MCP você pode integrar banco de dados, APIs, serviços de busca, GitHub, Notion e muito mais diretamente no fluxo de trabalho do Claude Code.
Servidores MCP são configurados no settings.json. A comunidade já publicou centenas de servidores MCP open-source para as ferramentas mais populares.
Modal (vLLM na Nuvem)
Cloud ComputingPlataforma de computação em nuvem que permite rodar código Python (incluindo servidores vLLM) sob demanda, pagando apenas pelo tempo de uso. Ótima opção para hospedar modelos grandes sem manter infraestrutura própria — custo muito baixo para uso esporádico.
Modelo Quantizado
Otimização de ModelosVersão comprimida de um modelo LLM onde os pesos são armazenados com menor precisão numérica (ex: Q4, Q5, Q8 no formato GGUF). Resultado: modelos menores que cabem em menos VRAM, com velocidade maior. Há perda mínima de qualidade nas quantizações mais altas (Q5, Q8).
O Ollama baixa automaticamente versões quantizadas dos modelos. Um modelo de 70B parâmetros em Q4 requer ~40GB VRAM, vs ~140GB em precisão total.
Termos com N
Node.js
Runtime JavaScript
Ambiente de execução JavaScript no servidor/terminal. O Claude Code é uma aplicação Node.js instalada via npm. É obrigatório ter Node.js v18 ou superior instalado para usar o Claude Code. No Linux: instale via nvm para facilitar o gerenciamento de versões.
npm
Gerenciador de Pacotes
Node Package Manager — gerenciador de pacotes do ecossistema Node.js. O Claude Code é instalado com o comando npm install -g @anthropic-ai/claude-code. A flag -g instala globalmente, tornando o comando claude disponível em qualquer diretório.
Termos com O
Ollama
Runtime de Modelos Locais
Ferramenta open-source que simplifica o download e execução de modelos LLM localmente. Com um único comando (ollama pull qwen2.5-coder), você baixa e configura um modelo. O Ollama expõe uma API REST local na porta 11434, compatível com OpenAI — que pode ser usada como motor do Claude Code.
Site oficial: ollama.ai. Disponível para Linux, macOS e Windows. Suporta aceleração via GPU (NVIDIA CUDA e AMD ROCm).
OpenRouter
API Proxy / MarketplaceServiço que agrega centenas de modelos LLM (Claude, GPT, Gemini, Mistral, LLaMA e outros) sob uma única API com interface compatível com OpenAI. Oferece free tier para muitos modelos e tarifas pay-as-you-go para o restante. Ideal para usar Claude Code sem GPU.
Configure Claude Code apontando ANTHROPIC_BASE_URL para https://openrouter.ai/api/v1 e use sua API Key do OpenRouter no token.
Opus
Modelo ClaudeO modelo mais capaz da linha Claude da Anthropic. Claude Opus excele em raciocínio complexo, análises profundas e tarefas de alta precisão. É mais lento e caro que Sonnet/Haiku, sendo ideal para tarefas críticas onde a qualidade supera o custo.
Termos com P
Permissões
Segurança / settings.json
Sistema de controle de acesso do Claude Code que define quais ações o agente pode executar sem confirmação do usuário. Configuradas em settings.json via listas allow e deny. Permite automatizar workflows sem interrupções mantendo controle sobre ações críticas.
Prompt Caching
Otimização de Custo
Feature da API da Anthropic que armazena partes do contexto (como CLAUDE.md e arquivos frequentes) no servidor, evitando reprocessamento e reduzindo custos em até 90%. O Claude Code usa prompt caching automaticamente. Ao usar motores alternativos, desative com DISABLE_PROMPT_CACHING=true se o servidor não suportar.
PowerShell
Terminal WindowsShell de linha de comando do Windows. O Claude Code não suporta PowerShell nativamente — no Windows, use o WSL (Windows Subsystem for Linux) para ter um ambiente Linux completo onde o Claude Code funciona perfeitamente.
Termos com Q
Qwen (Série de Modelos)
Alibaba / Open-SourceFamília de modelos open-source da Alibaba Cloud. O Qwen2.5-Coder é especialmente popular para uso com Claude Code via Ollama — oferece excelente performance em tarefas de programação com tamanhos que vão de 1.5B a 72B parâmetros, cabendo em hardware modesto.
Comando: ollama pull qwen2.5-coder:7b para a versão de 7B (recomendada para GPUs de 8GB).
Termos com R
RAM
HardwareMemória de acesso aleatório do computador. Quando não há GPU, o Ollama carrega os modelos na RAM do sistema. Isso é muito mais lento, mas funciona. Um modelo de 7B requer ~8GB de RAM; um de 13B requer ~16GB. Com GPU, a RAM relevante é a VRAM (memória da placa de vídeo).
Termos com S
settings.json
Arquivo de Configuração Principal
Arquivo JSON de configuração global do Claude Code, localizado em ~/.claude/settings.json. Contém permissões, variáveis de ambiente, configurações de hooks, servers MCP, comportamentos padrão e qualquer outra customização. Existe também um settings.local.json para overrides pessoais.
Slash Commands
Interface Claude Code
Comandos especiais digitados com / dentro do chat do Claude Code. Exemplos nativos: /clear (limpa contexto), /compact (compacta histórico), /doctor (diagnóstico), /help. Você pode criar slash commands customizados salvando arquivos .md em ~/.claude/commands/.
SWE-bench
Benchmark de ProgramaçãoBenchmark da indústria que avalia capacidade de agentes de IA em resolver issues reais do GitHub em repositórios Python populares. O Claude Code, quando lançado, alcançou 72.5% no SWE-bench Verified — o melhor resultado disponível publicamente na época. É a métrica padrão para comparar agentes de programação.
SSH
Acesso Remoto SeguroSecure Shell — protocolo para acesso remoto seguro a servidores via terminal. Relevante para usar Claude Code em VPS (ex: servidor com Ollama), para acessar ambientes de desenvolvimento remotos, ou para configurar servidores vLLM na nuvem que serão usados como motor do Claude Code.
Termos com T
Token
Unidade de Processamento LLMUnidade básica de texto que um LLM processa. Não é exatamente uma palavra — pode ser uma sílaba, palavra completa ou pontuação. Em inglês, 1 token ≈ 4 caracteres; em português, um pouco mais por causa dos acentos. APIs cobram por token de entrada e saída.
Com Ollama ou OpenRouter free tier, tokens são "gratuitos" — o custo é elétrico (local) ou limitado por rate limits (free tier).
tmux
Multiplexador de TerminalFerramenta que permite manter múltiplas sessões de terminal simultâneas e persistentes (sobrevivem a desconexões SSH). Muito útil para usar Claude Code: deixe Ollama rodando em uma janela e Claude Code em outra, sem medo de perder o estado ao fechar o terminal.
Instale com apt install tmux. Comandos básicos: tmux new -s nome, Ctrl+B D para desanexar, tmux attach -t nome para reanexar.
Termos com V
VPS
Virtual Private ServerServidor virtual privado na nuvem. Você pode alugar uma VPS com GPU para rodar Ollama ou vLLM de forma permanente, acessando remotamente via SSH. Provedores como Vast.ai, RunPod e Lambda Labs oferecem VPS com GPU a preços acessíveis — ótima opção para quem não tem GPU local.
VRAM
Video RAM / Memória da GPUMemória dedicada da placa de vídeo (GPU). Para rodar modelos LLM com boa velocidade, o modelo precisa caber na VRAM. Referência: 8GB VRAM → modelos até ~7B parâmetros (Q4); 16GB → até ~13B; 24GB → até ~34B; 80GB → modelos grandes de 70B+.
Com quantização Q4, os modelos cabem em menos VRAM com mínima perda de qualidade. Verifique sua VRAM com nvidia-smi.
vLLM
Servidor de InferênciaFramework Python de alto desempenho para servir modelos LLM, especialmente otimizado para throughput alto em produção. Usa técnicas como PagedAttention para maximizar uso de VRAM. Ideal para times que precisam atender múltiplos usuários simultaneamente com um único servidor de LLM.
Para uso pessoal/individual, Ollama é mais fácil. Para produção com múltiplos usuários, vLLM oferece melhor performance e controle.
Termos com W
WSL — Windows Subsystem for Linux
Camada de Compatibilidade Windows
Subsistema do Windows que permite rodar um ambiente Linux completo diretamente no Windows 10/11, sem máquina virtual. Essencial para usar Claude Code no Windows — a ferramenta precisa de ambiente Unix/Linux para funcionar corretamente. Instale via wsl --install no PowerShell como administrador.
WSL 2 (versão atual) usa o kernel Linux real via VM leve, oferecendo compatibilidade praticamente total com software Linux. O Ollama também tem versão nativa para Windows, mas para Claude Code o WSL é o caminho recomendado.
📚 Continue Aprendendo
Este glossário é um referência viva — novos termos são adicionados conforme o curso evolui. Volte às trilhas para ver os conceitos em ação.