TRILHA 1

🧠 Fundamentos

Entenda os conceitos por trás da simulação multiagente, GraphRAG, inteligência de enxame e como o ecossistema MiroFish funciona de ponta a ponta.

6 Módulos | 36 Tópicos | ~3h | Básico
1

🌐 O que é o MiroFish

O motor de predição multiagente

2

🧠 Inteligência de Enxame

Comportamento coletivo emergente

3

📊 GraphRAG e Grafos de Conhecimento

A evolução da recuperação de contexto

4

🔗 O Ecossistema Completo

MindSpider, BettaFish e MiroFish

5

🏗️ Arquitetura Técnica

Frontend, Backend e Motor de Simulação

6

🤖 LLMs como Agentes

Personas, memória e ferramentas

Conteúdo Detalhado

1

🌐 O que é o MiroFish

6 tópicos

O que é: O MiroFish é um motor de predição que simula mundos digitais paralelos com centenas de agentes autônomos controlados por LLMs, cada um com personalidade e memória únicas.

Por que aprender: Entender a visão geral é essencial para contextualizar cada componente do sistema e compreender como a predição multiagente difere de métodos tradicionais.

Conceitos-chave: Simulação multiagente, predição comportamental, mundos digitais paralelos, agentes autônomos com LLM.

O que é: A ideia central é criar um "espelho" digital da sociedade, onde agentes simulam comportamentos reais baseados em dados coletados e grafos de conhecimento.

Por que aprender: Compreender o conceito de mundo paralelo ajuda a entender por que os resultados do MiroFish são mais ricos que pesquisas tradicionais.

Conceitos-chave: Simulação social, espelho digital, comportamento emergente, representatividade populacional.

O que é: O pipeline do MiroFish consiste em: GraphRAG (construção de conhecimento), Setup (configuração do ambiente), Simulação (execução paralela), Relatório (geração de insights) e Interação (exploração profunda).

Por que aprender: Conhecer as 5 etapas permite entender o fluxo completo de uma simulação, desde a preparação até a análise dos resultados.

Conceitos-chave: GraphRAG building, environment setup, parallel simulation, report generation, deep interaction.

O que é: O MiroFish foi criado por BaiFu em apenas 10 dias de "Vibe Coding" e recebeu investimento de 30 milhões de yuan do Shanda Group, validando o potencial da abordagem.

Por que aprender: A história de origem revela a filosofia de desenvolvimento rápido e o reconhecimento do mercado ao potencial da simulação multiagente.

Conceitos-chave: Vibe Coding, BaiFu, Shanda Group, prototipagem rápida, validação de mercado.

O que é: O fork inematds trouxe o MiroFish para PT-BR e inglês, adicionou suporte multi-LLM (DeepSeek, Gemini, Qwen, Kimi) e substituiu o Zep Cloud pelo KuzuDB local para funcionar sem dependências externas.

Por que aprender: O fork é a versão recomendada para uso, pois resolve limitações do original como dependência de serviços pagos e suporte apenas a chinês.

Conceitos-chave: Multi-LLM, KuzuDB, internacionalização, independência de serviços cloud.

O que é: O MiroFish serve pesquisadores, analistas de mercado, equipes de marketing, cientistas políticos e qualquer profissional que precise prever reações coletivas a eventos ou produtos.

Por que aprender: Identificar o público-alvo ajuda a calibrar expectativas e entender em quais cenários a simulação multiagente é mais valiosa que outros métodos.

Conceitos-chave: Casos de uso, análise de mercado, predição social, pesquisa de opinião, teste de cenários.

2

🧠 Inteligência de Enxame

6 tópicos

O que é: Swarm Intelligence é o comportamento inteligente que emerge de grupos de agentes simples interagindo entre si, sem coordenação central, inspirado em formigas, abelhas e cardumes de peixes.

Por que aprender: É o princípio fundamental que torna o MiroFish possível - a inteligência coletiva dos agentes produz insights que nenhum agente individual poderia gerar.

Conceitos-chave: Comportamento emergente, inteligência coletiva, auto-organização, sistemas complexos adaptativos.

O que é: Os três pilares da inteligência de enxame: descentralização (sem líder central), interação local (cada agente age com base no que vê ao redor) e auto-organização (padrões globais surgem de regras locais).

Por que aprender: Esses princípios explicam como centenas de agentes no MiroFish podem gerar previsões coerentes sem instruções explícitas de coordenação.

Conceitos-chave: Descentralização, interação local, auto-organização, feedback positivo e negativo, estigmergia.

O que é: Cada agente no MiroFish tem: personalidade única (gerada a partir do grafo de conhecimento), memória de interações passadas e regras comportamentais que guiam suas decisões.

Por que aprender: Entender a anatomia de um agente é essencial para configurar simulações realistas e interpretar os resultados corretamente.

Conceitos-chave: Persona, memória episódica, regras comportamentais, prompt de personalidade, contexto social.

O que é: Na simulação surgem fenômenos como polarização de opinião, efeito manada (agentes seguindo a maioria), formação de coalizões e cascatas de informação.

Por que aprender: Esses fenômenos são os sinais mais valiosos da simulação, pois revelam dinâmicas sociais que pesquisas tradicionais não conseguem capturar.

Conceitos-chave: Polarização, efeito manada, cascata informacional, formação de coalizões, ponto de virada social.

O que é: Comparação direta entre simulação multiagente e métodos como pesquisas de opinião, painéis de especialistas e análise de dados históricos, mostrando vantagens e limitações de cada abordagem.

Por que aprender: Saber quando usar simulação vs métodos tradicionais é fundamental para escolher a ferramenta certa para cada problema.

Conceitos-chave: Pesquisa quantitativa, opinião de especialistas, análise histórica, viés de amostragem, custo-benefício.

O que é: A relação entre o número de agentes e a qualidade dos resultados: mais agentes significam mais diversidade de perspectivas e fenômenos emergentes mais ricos e realistas.

Por que aprender: Entender a escala ajuda a dimensionar simulações corretamente - poucas vezes é melhor que muitas, e vice-versa.

Conceitos-chave: Escala de simulação, diversidade de personas, representatividade, custo computacional, lei dos grandes números.

3

📊 GraphRAG e Grafos de Conhecimento

6 tópicos

O que é: RAG tradicional busca chunks de texto por similaridade vetorial. GraphRAG adiciona relações estruturais entre entidades, permitindo navegação contextual e respostas que consideram conexões entre conceitos.

Por que aprender: GraphRAG é o alicerce que permite ao MiroFish construir personas ricas e contextualizadas a partir de documentos e dados coletados.

Conceitos-chave: RAG, embeddings, chunks, grafos de conhecimento, busca vetorial vs estrutural.

O que é: Estruturas de dados compostas por entidades (nós) e relações (arestas) que representam conhecimento de forma navegável, como "Pessoa A trabalha_em Empresa B" ou "Produto X compete_com Produto Y".

Por que aprender: Os grafos de conhecimento são a base da memória compartilhada dos agentes, permitindo que eles "conheçam" o contexto da simulação.

Conceitos-chave: Nós, arestas, triplas (sujeito-predicado-objeto), ontologia, travessia de grafo.

O que é: Combinação de três métodos de busca: semântica (por significado), BM25 (por palavras-chave) e travessia de grafo (por relações estruturais), maximizando a precisão da recuperação de contexto.

Por que aprender: A busca híbrida é o que garante que os agentes recebam o contexto mais relevante possível durante a simulação.

Conceitos-chave: Busca semântica, BM25, travessia de grafo, reranking, fusão de resultados.

O que é: O MiroFish original usa Zep Cloud (serviço pago na nuvem). O fork inematds substituiu pelo KuzuDB, um banco de grafos embarcado e local, eliminando custos e dependências externas.

Por que aprender: A escolha entre nuvem e local afeta custo, privacidade, latência e facilidade de deploy. É uma decisão arquitetural fundamental.

Conceitos-chave: Zep Cloud, KuzuDB, banco de grafos embarcado, latência, privacidade de dados.

O que é: O fluxo completo: documentos são processados, entidades e relações extraídas por LLM, armazenadas no grafo, e depois consultadas para gerar personas e alimentar o contexto dos agentes durante a simulação.

Por que aprender: Entender esse fluxo é essencial para preparar dados de entrada adequados e obter simulações de alta qualidade.

Conceitos-chave: Extração de entidades, construção de grafo, geração de personas, contextualização de agentes.

O que é: Graphiti é a camada que adiciona memória temporal ao grafo de conhecimento, registrando quando fatos foram aprendidos e resolvendo conflitos quando informações mudam ao longo do tempo.

Por que aprender: A temporalidade é crucial para simulações que modelam mudanças de opinião e evolução de cenários ao longo do tempo.

Conceitos-chave: Memória temporal, resolução de conflitos, versionamento de fatos, Graphiti, evolução de conhecimento.

4

🔗 O Ecossistema Completo

6 tópicos

O que é: MindSpider é um crawler de IA que coleta opinião pública de 13+ plataformas (Twitter/X, Reddit, Weibo, etc.). Foi arquivado mas suas funcionalidades foram integradas ao BettaFish.

Por que aprender: A coleta de dados é o primeiro passo para qualquer simulação - sem dados reais, as personas dos agentes não refletem a realidade.

Conceitos-chave: Web crawling, coleta de opinião, plataformas sociais, dados brutos, pré-processamento.

O que é: BettaFish (39.6k stars) é um sistema de análise com 5 agentes especializados: QueryEngine, MediaEngine, InsightEngine, ReportEngine e ForumEngine, cada um responsável por uma etapa da análise.

Por que aprender: O BettaFish alimenta o MiroFish com análises estruturadas, sendo a ponte entre dados brutos e simulações informadas.

Conceitos-chave: Agentes especializados, pipeline de análise, QueryEngine, MediaEngine, InsightEngine, ReportEngine, ForumEngine.

O que é: O MiroFish é o coração do ecossistema: recebe dados do BettaFish, constrói um grafo de conhecimento, gera agentes com personalidades únicas e simula suas interações para prever comportamentos coletivos.

Por que aprender: É o componente que transforma análises em predições acionáveis, o objetivo final de toda a esteira.

Conceitos-chave: Motor de simulação, predição comportamental, agentes autônomos, relatório de insights.

O que é: O fluxo completo do ecossistema: Coleta (MindSpider/BettaFish) → Análise (BettaFish) → Predição (MiroFish), onde cada etapa alimenta a próxima com dados processados e estruturados.

Por que aprender: Visualizar a esteira completa ajuda a planejar projetos de ponta a ponta e entender quais dados cada componente precisa.

Conceitos-chave: Pipeline de dados, integração de sistemas, fluxo de trabalho, automação de análise.

O que é: DeepSearchAgent é uma ferramenta de pesquisa profunda que pode ser usada antes da simulação para enriquecer o contexto, buscando informações detalhadas sobre o tema a ser simulado.

Por que aprender: A qualidade da simulação depende diretamente da qualidade do contexto. O DeepSearchAgent garante que o grafo de conhecimento seja rico e atualizado.

Conceitos-chave: Pesquisa profunda, enriquecimento de contexto, preparação de dados, qualidade de simulação.

O que é: Diagrama visual de como cada componente do ecossistema se conecta: entradas, saídas, dependências e fluxos de dados entre MindSpider, BettaFish, MiroFish e DeepSearchAgent.

Por que aprender: O mapa de relações é a referência rápida para entender a arquitetura geral do ecossistema e planejar integrações.

Conceitos-chave: Arquitetura de sistemas, dependências, fluxo de dados, integração, APIs.

5

🏗️ Arquitetura Técnica

6 tópicos

O que é: A interface do MiroFish é construída com Vue.js 3 e Vite para desenvolvimento rápido, D3.js para visualizações interativas de grafos e simulações, servida na porta 3000.

Por que aprender: Entender o frontend permite customizar visualizações e criar interfaces personalizadas para casos de uso específicos.

Conceitos-chave: Vue.js 3, Vite, D3.js, SPA, componentes reativos, visualização de grafos.

O que é: O backend é um servidor Python com Flask na porta 5001, responsável por orquestrar simulações, gerenciar o grafo de conhecimento e servir APIs para o frontend.

Por que aprender: O backend é onde a lógica de negócio vive - compreendê-lo é essencial para estender funcionalidades ou debugar problemas.

Conceitos-chave: Flask, APIs REST, orquestração, gestão de estado, WebSocket para simulações em tempo real.

O que é: OASIS (CAMEL-AI) é o motor de simulação social com 23 ações sociais disponíveis para agentes, suportando simulação simultânea em ambientes tipo Twitter e Reddit.

Por que aprender: O OASIS define o que os agentes podem fazer na simulação - entendê-lo permite criar cenários mais realistas e complexos.

Conceitos-chave: OASIS, CAMEL-AI, ações sociais, ambientes de simulação, Twitter/Reddit simultâneo.

O que é: Os LLMs funcionam como o "cérebro" de cada agente, processando contexto, gerando respostas em caráter e tomando decisões baseadas na personalidade e memória do agente.

Por que aprender: A escolha e configuração do LLM afeta diretamente a qualidade e o custo da simulação.

Conceitos-chave: LLMs, prompts de sistema, temperature, tokens, custo por simulação.

O que é: O MiroFish usa SQLite para dados estruturados, JSON para configurações e resultados de simulação, e o filesystem para armazenar logs e artefatos gerados.

Por que aprender: Saber onde os dados são armazenados permite análises offline, backup de simulações e integração com ferramentas externas.

Conceitos-chave: SQLite, JSON, filesystem, persistência, backup de simulações.

O que é: O MiroFish pode ser implantado via Docker Compose (orquestrando frontend, backend e banco de dados) ou através de scripts npm para desenvolvimento local.

Por que aprender: Saber fazer deploy é essencial para colocar simulações em produção ou compartilhar o ambiente com equipes.

Conceitos-chave: Docker, Docker Compose, containers, scripts npm, variáveis de ambiente.

6

🤖 LLMs como Agentes

6 tópicos

O que é: Um LLM sozinho não é um agente - ele apenas gera texto. Para ser um agente, precisa de memória persistente, capacidade de usar ferramentas e um loop de raciocínio-ação-observação.

Por que aprender: Entender essa distinção é fundamental para projetar agentes eficazes e evitar o erro comum de tratar o LLM como solução completa.

Conceitos-chave: LLM vs agente, memória, ferramentas, loop de ação, estado persistente.

O que é: O padrão ReACT (Reasoning + Acting) combina raciocínio (Thought), ação (Action) e observação (Observation) em um loop contínuo, permitindo que agentes resolvam problemas complexos passo a passo.

Por que aprender: ReACT é a arquitetura cognitiva usada pelos agentes do MiroFish para tomar decisões durante a simulação.

Conceitos-chave: Reasoning, Acting, Observation, loop cognitivo, tomada de decisão, cadeia de pensamento.

O que é: O MiroFish gera personalidades únicas para cada agente a partir do grafo de conhecimento, definindo opiniões, valores, estilo de comunicação e nível de influência social.

Por que aprender: A qualidade das personas determina o realismo da simulação - personas diversas e bem construídas geram resultados mais confiáveis.

Conceitos-chave: Geração de personas, prompt de personalidade, diversidade, realismo, grafo de conhecimento como base.

O que é: Os agentes possuem três tipos de memória: episódica (eventos vivenciados), semântica (conhecimento geral) e temporal (quando cada informação foi aprendida ou mudou).

Por que aprender: A memória é o que torna os agentes consistentes ao longo da simulação, evitando contradições e permitindo evolução de opinião.

Conceitos-chave: Memória episódica, semântica, temporal, persistência, consistência comportamental.

O que é: Os agentes do BettaFish/MiroFish têm acesso a ferramentas como insight_forge (geração de insights), panorama_search (busca contextual) e interview_agents (entrevistas entre agentes).

Por que aprender: As ferramentas estendem as capacidades dos agentes além da geração de texto, permitindo ações concretas durante a simulação.

Conceitos-chave: Tool use, insight_forge, panorama_search, interview_agents, function calling.

O que é: O ecossistema usa diferentes LLMs para diferentes tarefas: DeepSeek para raciocínio profundo, Gemini para análise multimodal, Qwen para tarefas em chinês e Kimi para contextos longos.

Por que aprender: Escolher o LLM certo para cada tarefa otimiza custo e qualidade - nem sempre o modelo mais caro é o mais adequado.

Conceitos-chave: Multi-LLM, DeepSeek, Gemini, Qwen, Kimi, especialização por tarefa, otimização de custo.

Voltar ao Início Próxima: Aplicações Empresariais