ABC FINAL

📖 Glossário ABC do Claude Code

Todos os termos técnicos que você vai encontrar ao usar o Claude Code com Ollama, OpenRouter e outras integrações. De A a Z, explicados de forma direta e prática.

30+
Termos
A–Z
Cobertura
🤖
Claude Code
Ir para: A B C D E F G H I J L M N O P Q R S T V W
A

Termos com A

1

ANTHROPIC_BASE_URL

Variável de Ambiente

Variável de ambiente que define o endereço base da API que o Claude Code vai usar. Por padrão aponta para https://api.anthropic.com, mas você pode redirecionar para Ollama local (http://localhost:11434/v1) ou qualquer serviço compatível com a API da Anthropic.

Esta variável é o coração da estratégia "motor trocável" — basta mudar seu valor para usar um modelo completamente diferente sem alterar nada no Claude Code.

2

ANTHROPIC_AUTH_TOKEN

Variável de Ambiente

Token de autenticação enviado no header Authorization: Bearer de cada requisição. Quando você usa Ollama localmente, pode definir como qualquer string não-vazia (ex: ollama) pois o servidor local não valida autenticação.

Para OpenRouter, use a API Key real da sua conta. Para a Anthropic nativa, use sua sk-ant-... key.

3

autoCompactThreshold

settings.json

Configuração no settings.json que define em que percentual de preenchimento do contexto o Claude Code deve compactar automaticamente o histórico de conversa. Valor entre 0 e 1 (ex: 0.7 = 70%).

Modelos locais têm janelas de contexto menores, então configurar um threshold mais baixo evita erros de contexto excedido durante sessões longas.

4

API Key

Autenticação

Chave secreta que identifica sua conta em um serviço de API. Para a Anthropic começa com sk-ant-; para OpenRouter começa com sk-or-. Nunca compartilhe sua API Key nem a inclua em código que vai para o GitHub.

No contexto do Claude Code com Ollama local, você não precisa de API Key real — um placeholder qualquer funciona.

B

Termos com B

1

Base URL

API / Configuração

O endereço raiz de um servidor de API. Todas as requisições são feitas adicionando caminhos a esta URL base. Ex: se a Base URL é http://localhost:11434, a rota de chat completa seria http://localhost:11434/v1/messages.

2

Bash Tool

Ferramenta Interna

Uma das ferramentas nativas do Claude Code que permite executar comandos de terminal diretamente. O Claude usa o Bash Tool para rodar npm install, git commit, executar testes e muito mais durante uma sessão.

Você pode restringir quais comandos são permitidos via permissões no settings.json, aumentando a segurança em ambientes sensíveis.

3

Bearer Token

Protocolo HTTP

Esquema de autenticação HTTP onde o token é enviado no header: Authorization: Bearer SEU_TOKEN. O Claude Code usa este esquema ao se comunicar com APIs de LLM. O valor de ANTHROPIC_AUTH_TOKEN é colocado no lugar de "SEU_TOKEN".

C

Termos com C

1

CLAUDE.md

Arquivo de Configuração

Arquivo Markdown especial na raiz do projeto que o Claude Code lê automaticamente no início de cada sessão. Contém instruções permanentes: convenções do projeto, comandos importantes, estilo de código, contexto do negócio. É o equivalente a "o manual que o dev novo precisa ler antes de começar".

Bem escrito, o CLAUDE.md elimina a necessidade de repetir contexto toda vez que você abre uma nova sessão. É um dos recursos mais poderosos do Claude Code.

2

Claude Code

Interface CLI

Ferramenta oficial da Anthropic — um agente de programação que opera via linha de comando. Pode ler e editar arquivos, executar comandos de terminal, navegar repositórios e conversar sobre código. Funciona em qualquer terminal padrão.

A genialidade está na separação: a interface (Claude Code) pode ser usada com diferentes motores de LLM via configuração, sem alterar o comportamento da ferramenta.

3

Compactação de Contexto

Gerenciamento de Memória

Processo pelo qual o Claude Code resume o histórico de conversa quando o contexto está ficando cheio. Em vez de parar a sessão, ele comprime o histórico anterior mantendo apenas o essencial, liberando espaço para continuar trabalhando.

Modelos locais via Ollama geralmente têm janela de contexto menor (8K–32K tokens), então a compactação dispara mais frequentemente. Configure autoCompactThreshold para ajustar.

4

Contexto (Context Window)

LLM

A quantidade máxima de texto (medida em tokens) que um modelo LLM consegue processar de uma vez. Claude 3.5 Sonnet tem 200K tokens; modelos locais via Ollama geralmente entre 8K e 128K. Quanto maior o contexto, mais código e histórico o modelo pode "ver" ao responder.

5

Claude Opus / Sonnet / Haiku

Modelos da Anthropic

Os três tamanhos dos modelos Claude da Anthropic. Opus é o mais poderoso e caro; Sonnet é o equilíbrio entre capacidade e custo (o padrão do Claude Code); Haiku é o mais rápido e barato, usado para tarefas de background como sugestões de código.

Ao trocar o motor via ANTHROPIC_BASE_URL, você deixa de usar estes modelos e passa a usar o que estiver rodando no servidor alternativo.

D

Termos com D

1

DISABLE_PROMPT_CACHING

Variável de Ambiente

Quando definida como true, desativa o prompt caching do Claude Code. Por padrão o Claude Code tenta usar caching para reduzir custos com a API da Anthropic. Ao usar Ollama ou OpenRouter, definir esta variável pode evitar erros de compatibilidade com servidores que não suportam a feature.

Alguns proxies e servidores alternativos não implementam a API de prompt caching, retornando erros. Nesse caso, desabilitar resolve o problema.

2

Devstral

Modelo Open-Source

Modelo open-source da Mistral AI focado em tarefas de desenvolvimento de software. Excelente para usar com Claude Code via Ollama ou OpenRouter. Performa muito bem em coding benchmarks com tamanho relativamente pequeno (~24B parâmetros), sendo uma opção premium para uso local.

Para rodar localmente: ollama pull devstral. Necessita de GPU com 16GB+ de VRAM para bom desempenho.

E

Termos com E

1

Endpoint

API

URL específica de uma API que aceita requisições. O endpoint principal que o Claude Code usa é /v1/messages (API da Anthropic) ou /v1/chat/completions (compatível com OpenAI, usado pelo Ollama). Proxies como LiteLLM traduzem entre os dois formatos.

2

Variáveis de Ambiente

Environment Variables

Pares chave=valor definidos no sistema operacional, acessíveis por qualquer processo. No Claude Code, são o principal mecanismo de configuração — ANTHROPIC_BASE_URL, ANTHROPIC_AUTH_TOKEN, DISABLE_PROMPT_CACHING e outras.

Podem ser definidas no ~/.bashrc, ~/.zshrc, no próprio settings.json do Claude Code, ou na sessão de terminal com export VAR=valor.

F

Termos com F

1

Free Tier

Modelo de Negócio

Camada gratuita oferecida por serviços de API com limites de uso (rate limits). O OpenRouter oferece free tier para vários modelos, incluindo opções de alta qualidade como meta-llama/llama-3.3-70b e outros. Ideal para começar sem custos.

Os limites do free tier variam por modelo e podem incluir: número de requisições por minuto, tokens por dia ou por mês. Para uso leve a moderado, o free tier do OpenRouter costuma ser suficiente.

G

Termos com G

1

GPU

Hardware

Placa de vídeo (Graphics Processing Unit). Para rodar modelos LLM localmente com boa velocidade, uma GPU dedicada com memória VRAM é essencial. GPUs da NVIDIA (RTX 3060, 4070, 4090) são as mais compatíveis com frameworks como CUDA que o Ollama usa.

Sem GPU, o Ollama cai para CPU — o que funciona mas é significativamente mais lento (20-50x). Para uso com Claude Code em produção, GPU é altamente recomendado.

H

Termos com H

1

Haiku (Modelo Background)

Claude Code Interno

O Claude Code usa Claude Haiku internamente para tarefas de background como completar código inline, sugestões rápidas e análises simples — enquanto usa Sonnet ou Opus para as conversas principais. Ao trocar o motor, essas tarefas de background também passam a usar o modelo alternativo configurado.

2

Hooks

Automação

Scripts ou comandos configurados no settings.json que são executados automaticamente em eventos específicos do Claude Code, como antes de uma sessão iniciar (PreSessionStart) ou depois de uma ferramenta ser executada (PostToolUse).

Exemplos de uso: rodar linter automaticamente após edição de código, fazer backup antes de refatorações, notificar via Slack quando uma tarefa longa termina.

I

Termos com I

1

iframe

HTML / Interface

Elemento HTML que incorpora uma página dentro de outra. Nos materiais do curso INEMA.CLUB, modais usam iframes para carregar páginas de módulo completas sem duplicar código. No contexto do Claude Code, pode ser relevante ao construir dashboards ou interfaces de preview.

2

INEMA.CLUB

Plataforma

Plataforma de cursos e conteúdo técnico em português onde este curso está hospedado. Focada em automação, inteligência artificial e produtividade para desenvolvedores e profissionais técnicos.

J

Termos com J

1

JSON (settings.json)

Formato de Configuração

JavaScript Object Notation — formato leve de dados baseado em pares chave-valor. O settings.json do Claude Code usa JSON para armazenar todas as configurações: permissões, variáveis de ambiente, hooks, comportamentos padrão. Localizado em ~/.claude/settings.json.

L

Termos com L

1

LLM

Large Language Model

Modelo de linguagem grande — a classe de modelos de IA que compreende e gera texto. GPT-4, Claude, LLaMA, Qwen e Mistral são todos LLMs. O Claude Code é uma interface que se comunica com LLMs via API para executar tarefas de programação.

2

LM Studio

Aplicação Desktop

Aplicação desktop com interface gráfica para baixar e rodar modelos LLM localmente no Windows, Mac e Linux. Alternativa ao Ollama para quem prefere interface visual. Também expõe um servidor local compatível com a API OpenAI, podendo ser usado com Claude Code via ANTHROPIC_BASE_URL.

3

localhost

Rede

Endereço de rede que aponta para a própria máquina (equivalente a 127.0.0.1). Quando o Ollama está rodando localmente, seu servidor fica acessível em http://localhost:11434. É para este endereço que você aponta o ANTHROPIC_BASE_URL.

M

Termos com M

1

MCP — Model Context Protocol

Protocolo de Extensão

Protocolo aberto da Anthropic que permite ao Claude Code se conectar a ferramentas e fontes de dados externas via servidores padronizados. Com MCP você pode integrar banco de dados, APIs, serviços de busca, GitHub, Notion e muito mais diretamente no fluxo de trabalho do Claude Code.

Servidores MCP são configurados no settings.json. A comunidade já publicou centenas de servidores MCP open-source para as ferramentas mais populares.

2

Modal (vLLM na Nuvem)

Cloud Computing

Plataforma de computação em nuvem que permite rodar código Python (incluindo servidores vLLM) sob demanda, pagando apenas pelo tempo de uso. Ótima opção para hospedar modelos grandes sem manter infraestrutura própria — custo muito baixo para uso esporádico.

3

Modelo Quantizado

Otimização de Modelos

Versão comprimida de um modelo LLM onde os pesos são armazenados com menor precisão numérica (ex: Q4, Q5, Q8 no formato GGUF). Resultado: modelos menores que cabem em menos VRAM, com velocidade maior. Há perda mínima de qualidade nas quantizações mais altas (Q5, Q8).

O Ollama baixa automaticamente versões quantizadas dos modelos. Um modelo de 70B parâmetros em Q4 requer ~40GB VRAM, vs ~140GB em precisão total.

N

Termos com N

1

Node.js

Runtime JavaScript

Ambiente de execução JavaScript no servidor/terminal. O Claude Code é uma aplicação Node.js instalada via npm. É obrigatório ter Node.js v18 ou superior instalado para usar o Claude Code. No Linux: instale via nvm para facilitar o gerenciamento de versões.

2

npm

Gerenciador de Pacotes

Node Package Manager — gerenciador de pacotes do ecossistema Node.js. O Claude Code é instalado com o comando npm install -g @anthropic-ai/claude-code. A flag -g instala globalmente, tornando o comando claude disponível em qualquer diretório.

O

Termos com O

1

Ollama

Runtime de Modelos Locais

Ferramenta open-source que simplifica o download e execução de modelos LLM localmente. Com um único comando (ollama pull qwen2.5-coder), você baixa e configura um modelo. O Ollama expõe uma API REST local na porta 11434, compatível com OpenAI — que pode ser usada como motor do Claude Code.

Site oficial: ollama.ai. Disponível para Linux, macOS e Windows. Suporta aceleração via GPU (NVIDIA CUDA e AMD ROCm).

2

OpenRouter

API Proxy / Marketplace

Serviço que agrega centenas de modelos LLM (Claude, GPT, Gemini, Mistral, LLaMA e outros) sob uma única API com interface compatível com OpenAI. Oferece free tier para muitos modelos e tarifas pay-as-you-go para o restante. Ideal para usar Claude Code sem GPU.

Configure Claude Code apontando ANTHROPIC_BASE_URL para https://openrouter.ai/api/v1 e use sua API Key do OpenRouter no token.

3

Opus

Modelo Claude

O modelo mais capaz da linha Claude da Anthropic. Claude Opus excele em raciocínio complexo, análises profundas e tarefas de alta precisão. É mais lento e caro que Sonnet/Haiku, sendo ideal para tarefas críticas onde a qualidade supera o custo.

P

Termos com P

1

Permissões

Segurança / settings.json

Sistema de controle de acesso do Claude Code que define quais ações o agente pode executar sem confirmação do usuário. Configuradas em settings.json via listas allow e deny. Permite automatizar workflows sem interrupções mantendo controle sobre ações críticas.

2

Prompt Caching

Otimização de Custo

Feature da API da Anthropic que armazena partes do contexto (como CLAUDE.md e arquivos frequentes) no servidor, evitando reprocessamento e reduzindo custos em até 90%. O Claude Code usa prompt caching automaticamente. Ao usar motores alternativos, desative com DISABLE_PROMPT_CACHING=true se o servidor não suportar.

3

PowerShell

Terminal Windows

Shell de linha de comando do Windows. O Claude Code não suporta PowerShell nativamente — no Windows, use o WSL (Windows Subsystem for Linux) para ter um ambiente Linux completo onde o Claude Code funciona perfeitamente.

Q

Termos com Q

1

Qwen (Série de Modelos)

Alibaba / Open-Source

Família de modelos open-source da Alibaba Cloud. O Qwen2.5-Coder é especialmente popular para uso com Claude Code via Ollama — oferece excelente performance em tarefas de programação com tamanhos que vão de 1.5B a 72B parâmetros, cabendo em hardware modesto.

Comando: ollama pull qwen2.5-coder:7b para a versão de 7B (recomendada para GPUs de 8GB).

R

Termos com R

1

RAM

Hardware

Memória de acesso aleatório do computador. Quando não há GPU, o Ollama carrega os modelos na RAM do sistema. Isso é muito mais lento, mas funciona. Um modelo de 7B requer ~8GB de RAM; um de 13B requer ~16GB. Com GPU, a RAM relevante é a VRAM (memória da placa de vídeo).

S

Termos com S

1

settings.json

Arquivo de Configuração Principal

Arquivo JSON de configuração global do Claude Code, localizado em ~/.claude/settings.json. Contém permissões, variáveis de ambiente, configurações de hooks, servers MCP, comportamentos padrão e qualquer outra customização. Existe também um settings.local.json para overrides pessoais.

2

Slash Commands

Interface Claude Code

Comandos especiais digitados com / dentro do chat do Claude Code. Exemplos nativos: /clear (limpa contexto), /compact (compacta histórico), /doctor (diagnóstico), /help. Você pode criar slash commands customizados salvando arquivos .md em ~/.claude/commands/.

3

SWE-bench

Benchmark de Programação

Benchmark da indústria que avalia capacidade de agentes de IA em resolver issues reais do GitHub em repositórios Python populares. O Claude Code, quando lançado, alcançou 72.5% no SWE-bench Verified — o melhor resultado disponível publicamente na época. É a métrica padrão para comparar agentes de programação.

4

SSH

Acesso Remoto Seguro

Secure Shell — protocolo para acesso remoto seguro a servidores via terminal. Relevante para usar Claude Code em VPS (ex: servidor com Ollama), para acessar ambientes de desenvolvimento remotos, ou para configurar servidores vLLM na nuvem que serão usados como motor do Claude Code.

T

Termos com T

1

Token

Unidade de Processamento LLM

Unidade básica de texto que um LLM processa. Não é exatamente uma palavra — pode ser uma sílaba, palavra completa ou pontuação. Em inglês, 1 token ≈ 4 caracteres; em português, um pouco mais por causa dos acentos. APIs cobram por token de entrada e saída.

Com Ollama ou OpenRouter free tier, tokens são "gratuitos" — o custo é elétrico (local) ou limitado por rate limits (free tier).

2

tmux

Multiplexador de Terminal

Ferramenta que permite manter múltiplas sessões de terminal simultâneas e persistentes (sobrevivem a desconexões SSH). Muito útil para usar Claude Code: deixe Ollama rodando em uma janela e Claude Code em outra, sem medo de perder o estado ao fechar o terminal.

Instale com apt install tmux. Comandos básicos: tmux new -s nome, Ctrl+B D para desanexar, tmux attach -t nome para reanexar.

V

Termos com V

1

VPS

Virtual Private Server

Servidor virtual privado na nuvem. Você pode alugar uma VPS com GPU para rodar Ollama ou vLLM de forma permanente, acessando remotamente via SSH. Provedores como Vast.ai, RunPod e Lambda Labs oferecem VPS com GPU a preços acessíveis — ótima opção para quem não tem GPU local.

2

VRAM

Video RAM / Memória da GPU

Memória dedicada da placa de vídeo (GPU). Para rodar modelos LLM com boa velocidade, o modelo precisa caber na VRAM. Referência: 8GB VRAM → modelos até ~7B parâmetros (Q4); 16GB → até ~13B; 24GB → até ~34B; 80GB → modelos grandes de 70B+.

Com quantização Q4, os modelos cabem em menos VRAM com mínima perda de qualidade. Verifique sua VRAM com nvidia-smi.

3

vLLM

Servidor de Inferência

Framework Python de alto desempenho para servir modelos LLM, especialmente otimizado para throughput alto em produção. Usa técnicas como PagedAttention para maximizar uso de VRAM. Ideal para times que precisam atender múltiplos usuários simultaneamente com um único servidor de LLM.

Para uso pessoal/individual, Ollama é mais fácil. Para produção com múltiplos usuários, vLLM oferece melhor performance e controle.

W

Termos com W

1

WSL — Windows Subsystem for Linux

Camada de Compatibilidade Windows

Subsistema do Windows que permite rodar um ambiente Linux completo diretamente no Windows 10/11, sem máquina virtual. Essencial para usar Claude Code no Windows — a ferramenta precisa de ambiente Unix/Linux para funcionar corretamente. Instale via wsl --install no PowerShell como administrador.

WSL 2 (versão atual) usa o kernel Linux real via VM leve, oferecendo compatibilidade praticamente total com software Linux. O Ollama também tem versão nativa para Windows, mas para Claude Code o WSL é o caminho recomendado.

📚 Continue Aprendendo

Este glossário é um referência viva — novos termos são adicionados conforme o curso evolui. Volte às trilhas para ver os conceitos em ação.