Acesse a interface, envie documentos, construa o grafo, configure e rode sua primeira simulação completa.
O que é: A interface web do MiroFish roda no frontend Vue.js. Em desenvolvimento local, acesse http://localhost:3000. Em produção Docker, use o domínio configurado com Traefik.
Por que aprender: A interface é onde toda a interação acontece: upload, configuração, acompanhamento e visualização de relatórios.
# Desenvolvimento local
npm run dev
# Abra: http://localhost:3000
# Produção Docker
# Abra: https://synth.scty.org (seu domínio)
# Ou: http://IP_DO_SERVIDOR:5001
# Se não carregar, verifique:
1. Frontend rodando? (porta 3000)
2. Backend rodando? (porta 5001)
3. Firewall permitindo acesso?
4. Docker containers saudáveis? (docker compose ps)
O que é: Envie documentos que servirão de base de conhecimento para a simulação. Formatos aceitos: PDF, Markdown (.md) e texto puro (.txt).
Por que aprender: A qualidade dos documentos determina a qualidade da simulação. Documentos ricos em contexto geram personas mais realistas e insights mais valiosos.
# Formatos aceitos
📄 PDF - Relatórios, artigos, apresentações
📝 MD - Documentação, análises em Markdown
📃 TXT - Texto puro, transcrições, dados
# Dicas para melhores resultados:
✅ Documentos com contexto rico (quem, o que, por que)
✅ Múltiplos pontos de vista sobre o tema
✅ Dados demográficos e perfis de público
✅ Análises prévias e pesquisas de mercado
❌ Evite: imagens sem texto, PDFs escaneados, arquivos > 10MB
Os arquivos são salvos em backend/uploads/ e processados pelo pipeline de GraphRAG.
O que é: Após o upload, o LLM analisa os documentos e extrai entidades (pessoas, conceitos, organizações) e relações entre elas, construindo um grafo de conhecimento no KuzuDB.
Por que aprender: O grafo é a fundação de tudo. Entidades mal extraídas geram personas fracas. Acompanhar a construção permite validar a qualidade.
# Fluxo de construção do grafo
1. Documento uploaded → backend/uploads/
2. Texto extraído e dividido em chunks
3. LLM analisa cada chunk:
- Extrai entidades (nós do grafo)
- Identifica relações (arestas)
4. Entidades e relações salvas no KuzuDB
5. Grafo pronto para gerar personas
# Exemplo de entidades extraídas:
[Consumidor Jovem] --usa--> [Redes Sociais]
[Empresa X] --compete_com--> [Empresa Y]
[Produto A] --atende--> [Necessidade B]
O que é: Configure o número de agentes e rodadas de simulação. REGRA DE OURO: use menos de 40 rodadas para testes! Cada rodada multiplica chamadas LLM pelo número de agentes.
Por que aprender: Uma configuração mal dimensionada pode custar centenas de dólares e levar horas. Comece SEMPRE pequeno e escale depois.
# Configuração recomendada para PRIMEIRO teste
Agentes: 5-10 (não mais que 20 no primeiro teste)
Rodadas: 10-15 (NUNCA mais que 40 no primeiro teste!)
# Cálculo de custo aproximado:
Chamadas LLM = agentes × rodadas × ~2 chamadas/ação
Exemplo: 10 agentes × 15 rodadas × 2 = 300 chamadas
→ Claude CLI: $0 (incluído na assinatura)
→ GPT-4o-mini: ~$0.50
→ GPT-4o: ~$5
→ Claude Sonnet: ~$8
⚠️ 100 agentes × 100 rodadas = 20.000 chamadas
→ Claude Sonnet: ~$500+!
O que é: O frontend faz polling do status da simulação a cada 1 segundo, mostrando: rodada atual, ações dos agentes, progresso geral e possíveis erros.
Por que aprender: O acompanhamento permite detectar problemas cedo (como falhas de API repetidas) e cancelar antes de acumular custos.
# O que você vê durante a simulação:
┌──────────────────────────────────────┐
│ Simulação em andamento... │
│ │
│ Rodada: 7/15 ████████░░░░░ 47% │
│ Agentes ativos: 10/10 │
│ Ações nesta rodada: 23 │
│ Tempo decorrido: 4m32s │
│ │
│ Status: running │
└──────────────────────────────────────┘
# Estados possíveis:
running → Simulação em execução
completed → Finalizada com sucesso
failed → Erro (verifique logs)
O que é: Ao final da simulação, o LLM gera um relatório estruturado com análise dos comportamentos emergentes, insights, tendências identificadas e recomendações.
Por que aprender: O relatório é o produto final de todo o processo. Saber interpretá-lo maximiza o retorno do investimento em simulação.
# Seções típicas do relatório:
1. Resumo Executivo
→ Principais conclusões em 2-3 parágrafos
2. Análise de Comportamento dos Agentes
→ Como cada grupo de agentes reagiu
3. Fenômenos Emergentes
→ Polarização, coalizões, cascatas
4. Tendências Identificadas
→ Padrões que surgiram ao longo das rodadas
5. Insights Acionáveis
→ Recomendações baseadas nos resultados
6. Dados Brutos
→ Logs de cada rodada para análise manual
O relatório pode ser navegado na interface ou exportado. Os dados brutos ficam em backend/data/ para análise offline.