MÓDULO 5.5

🚀 Primeira Simulação: Do Upload ao Relatório

Acesse a interface, envie documentos, construa o grafo, configure e rode sua primeira simulação completa.

O que é: A interface web do MiroFish roda no frontend Vue.js. Em desenvolvimento local, acesse http://localhost:3000. Em produção Docker, use o domínio configurado com Traefik.

Por que aprender: A interface é onde toda a interação acontece: upload, configuração, acompanhamento e visualização de relatórios.

# Desenvolvimento local

npm run dev

# Abra: http://localhost:3000

# Produção Docker

# Abra: https://synth.scty.org (seu domínio)

# Ou: http://IP_DO_SERVIDOR:5001

# Se não carregar, verifique:

1. Frontend rodando? (porta 3000)

2. Backend rodando? (porta 5001)

3. Firewall permitindo acesso?

4. Docker containers saudáveis? (docker compose ps)

O que é: Envie documentos que servirão de base de conhecimento para a simulação. Formatos aceitos: PDF, Markdown (.md) e texto puro (.txt).

Por que aprender: A qualidade dos documentos determina a qualidade da simulação. Documentos ricos em contexto geram personas mais realistas e insights mais valiosos.

# Formatos aceitos

📄 PDF - Relatórios, artigos, apresentações

📝 MD - Documentação, análises em Markdown

📃 TXT - Texto puro, transcrições, dados

# Dicas para melhores resultados:

✅ Documentos com contexto rico (quem, o que, por que)

✅ Múltiplos pontos de vista sobre o tema

✅ Dados demográficos e perfis de público

✅ Análises prévias e pesquisas de mercado

❌ Evite: imagens sem texto, PDFs escaneados, arquivos > 10MB

Os arquivos são salvos em backend/uploads/ e processados pelo pipeline de GraphRAG.

O que é: Após o upload, o LLM analisa os documentos e extrai entidades (pessoas, conceitos, organizações) e relações entre elas, construindo um grafo de conhecimento no KuzuDB.

Por que aprender: O grafo é a fundação de tudo. Entidades mal extraídas geram personas fracas. Acompanhar a construção permite validar a qualidade.

# Fluxo de construção do grafo

1. Documento uploaded → backend/uploads/

2. Texto extraído e dividido em chunks

3. LLM analisa cada chunk:

- Extrai entidades (nós do grafo)

- Identifica relações (arestas)

4. Entidades e relações salvas no KuzuDB

5. Grafo pronto para gerar personas

# Exemplo de entidades extraídas:

[Consumidor Jovem] --usa--> [Redes Sociais]

[Empresa X] --compete_com--> [Empresa Y]

[Produto A] --atende--> [Necessidade B]

O que é: Configure o número de agentes e rodadas de simulação. REGRA DE OURO: use menos de 40 rodadas para testes! Cada rodada multiplica chamadas LLM pelo número de agentes.

Por que aprender: Uma configuração mal dimensionada pode custar centenas de dólares e levar horas. Comece SEMPRE pequeno e escale depois.

# Configuração recomendada para PRIMEIRO teste

Agentes: 5-10 (não mais que 20 no primeiro teste)

Rodadas: 10-15 (NUNCA mais que 40 no primeiro teste!)

# Cálculo de custo aproximado:

Chamadas LLM = agentes × rodadas × ~2 chamadas/ação

Exemplo: 10 agentes × 15 rodadas × 2 = 300 chamadas

→ Claude CLI: $0 (incluído na assinatura)

→ GPT-4o-mini: ~$0.50

→ GPT-4o: ~$5

→ Claude Sonnet: ~$8

⚠️ 100 agentes × 100 rodadas = 20.000 chamadas

→ Claude Sonnet: ~$500+!

O que é: O frontend faz polling do status da simulação a cada 1 segundo, mostrando: rodada atual, ações dos agentes, progresso geral e possíveis erros.

Por que aprender: O acompanhamento permite detectar problemas cedo (como falhas de API repetidas) e cancelar antes de acumular custos.

# O que você vê durante a simulação:

┌──────────────────────────────────────┐

│ Simulação em andamento... │

│ │

│ Rodada: 7/15 ████████░░░░░ 47% │

│ Agentes ativos: 10/10 │

│ Ações nesta rodada: 23 │

│ Tempo decorrido: 4m32s │

│ │

│ Status: running │

└──────────────────────────────────────┘

# Estados possíveis:

running → Simulação em execução

completed → Finalizada com sucesso

failed → Erro (verifique logs)

O que é: Ao final da simulação, o LLM gera um relatório estruturado com análise dos comportamentos emergentes, insights, tendências identificadas e recomendações.

Por que aprender: O relatório é o produto final de todo o processo. Saber interpretá-lo maximiza o retorno do investimento em simulação.

# Seções típicas do relatório:

1. Resumo Executivo

→ Principais conclusões em 2-3 parágrafos

2. Análise de Comportamento dos Agentes

→ Como cada grupo de agentes reagiu

3. Fenômenos Emergentes

→ Polarização, coalizões, cascatas

4. Tendências Identificadas

→ Padrões que surgiram ao longo das rodadas

5. Insights Acionáveis

→ Recomendações baseadas nos resultados

6. Dados Brutos

→ Logs de cada rodada para análise manual

O relatório pode ser navegado na interface ou exportado. Os dados brutos ficam em backend/data/ para análise offline.

Anterior: Deploy com Docker Próximo: Troubleshooting