MÓDULO 5.3

🔌 Configurando Provedores LLM

Escolha entre Claude CLI, Codex CLI, OpenAI ou Anthropic. Compare custos e configure o .env.

O que é: Claude CLI permite usar o Claude diretamente via linha de comando, aproveitando sua assinatura Pro/Team existente. Zero custo extra de API.

Por que aprender: É a forma mais barata de começar. Ideal para aprendizado, testes e simulações pequenas. Limitação: rate limits da assinatura.

# 1. Instalar Claude CLI

npm install -g @anthropic-ai/claude-code

# 2. Autenticar (primeira vez)

claude # Abre navegador para login

# 3. Configurar .env

LLM_PROVIDER=claude-cli

LLM_API_KEY= # deixar vazio

LLM_MODEL_NAME= # usa padrão (Sonnet)

# 4. Testar

echo "Olá, tudo bem?" | claude --print

# Deve retornar uma resposta do Claude

Custo: $0 extra (incluído na assinatura Claude Pro ~$20/mês). Perfeito para começar.

O que é: Codex CLI é outra opção de CLI que usa assinatura existente do serviço Codex. Funciona de forma similar ao Claude CLI no contexto do MiroFish.

Por que aprender: Ter um segundo provedor sem custo é útil como backup quando Claude CLI atinge rate limits ou está indisponível.

# 1. Instalar Codex CLI

npm install -g @openai/codex

# 2. Autenticar

codex # Seguir instruções de login

# 3. Configurar .env

LLM_PROVIDER=codex-cli

LLM_API_KEY= # deixar vazio

LLM_MODEL_NAME= # usa padrão

Mesma interface que Claude CLI. O fork abstrai a diferença entre os dois no backend.

O que é: A API da OpenAI oferece GPT-4o (potente) e GPT-4o-mini (barato). É a opção com melhor compatibilidade com OASIS, que espera formato OpenAI-compatible.

Por que aprender: OASIS (motor de simulação) foi projetado para APIs OpenAI-compatible. Usar OpenAI direta garante máxima compatibilidade.

# Configurar .env para OpenAI

LLM_PROVIDER=openai

LLM_API_KEY=sk-proj-abc123def456...

LLM_MODEL_NAME=gpt-4o-mini

LLM_BASE_URL=https://api.openai.com/v1

# Modelos disponíveis (custo por 1M tokens):

gpt-4o-mini → $0.15 input / $0.60 output (recomendado)

gpt-4o → $2.50 input / $10.00 output (melhor qualidade)

gpt-4-turbo → $10.00 input / $30.00 output (mais caro)

# Obter API key:

# https://platform.openai.com/api-keys

O que é: A API direta da Anthropic dá acesso ao Claude Sonnet e Opus com controle fino de parâmetros (temperature, max_tokens, system prompts).

Por que aprender: Para simulações que exigem raciocínio de alta qualidade, Claude Opus via API é a melhor opção (mas também a mais cara).

# Configurar .env para Anthropic

LLM_PROVIDER=anthropic

LLM_API_KEY=sk-ant-api03-abc123...

LLM_MODEL_NAME=claude-sonnet-4-20250514

LLM_BASE_URL=https://api.anthropic.com

# Modelos disponíveis (custo por 1M tokens):

claude-sonnet-4 → $3.00 input / $15.00 output (recomendado)

claude-opus-4 → $15.00 input / $75.00 output (máx qualidade)

claude-haiku → $0.25 input / $1.25 output (mais barato)

# Obter API key:

# https://console.anthropic.com/settings/keys

O que é: LLM_BOOST é um segundo provedor LLM usado especificamente para as rodadas de simulação OASIS. Permite usar um modelo barato nas simulações e um caro na análise.

Por que aprender: Em uma simulação com 100 agentes e 30 rodadas, são 3.000 chamadas LLM. Usar GPT-4o-mini no boost e Claude Sonnet na análise otimiza custo drasticamente.

# Configuração dual-LLM no .env

# LLM Principal (análise, relatório, grafo)

LLM_PROVIDER=anthropic

LLM_API_KEY=sk-ant-api03-...

LLM_MODEL_NAME=claude-sonnet-4-20250514

# LLM de Boost (simulação OASIS em massa)

LLM_BOOST_PROVIDER=openai

LLM_BOOST_API_KEY=sk-proj-...

LLM_BOOST_MODEL_NAME=gpt-4o-mini

# Economia estimada:

# Sem boost: 3000 chamadas × Claude Sonnet = ~$45

# Com boost: 3000 chamadas × GPT-4o-mini = ~$2

# + 10 chamadas × Claude Sonnet = ~$0.15

O que é: Tabela comparativa de custos por simulação típica (20 agentes, 20 rodadas) para cada provedor. O custo varia dramaticamente dependendo da escolha.

Por que aprender: Sem planejamento de custos, uma única simulação pode custar de $0 a $10.000+. A escolha correta economiza ordens de magnitude.

# Custo estimado por simulação (20 agentes, 20 rodadas)

┌─────────────────┬──────────┬────────────┐

│ Provedor │ Custo │ Qualidade │

├─────────────────┼──────────┼────────────┤

│ Claude CLI │ $0 │ ★★★★☆ │

│ Codex CLI │ $0 │ ★★★☆☆ │

│ GPT-4o-mini │ $1-5 │ ★★★☆☆ │

│ GPT-4o │ $10-50 │ ★★★★☆ │

│ Claude Sonnet │ $15-60 │ ★★★★★ │

│ Claude Opus │ $50-200 │ ★★★★★ │

└─────────────────┴──────────┴────────────┘

# Recomendação:

Testes: Claude CLI ($0)

Produção: GPT-4o-mini + Claude Sonnet (boost)

Premium: Claude Opus (simulações críticas)

Anterior: Clonando o Fork Próximo: Deploy com Docker