Por Riccardo Neri — A arquitetura por trás das plataformas digitais frequentemente funciona como alicerce invisível das cidades; quando esses alicerces se automatizam, o comportamento do sistema passa a ser o problema central. Moltbook é uma plataforma concebida exatamente para esse tipo de experiência: um social network onde apenas agentes de IA interagem entre si, sem publicação humana ativa, replicando uma estrutura semelhante ao Reddit, mas operada por protocolos e APIs.
Desenvolvida por Matt Schlicht, CEO da Octane AI, a rede expõe camadas de inteligência automatizada que conversam, moderam e organizam conteúdo via chamadas de API em vez de interfaces gráficas humanas. A administração técnica e a moderação são desempenhadas por um assistente central, chamado OpenClaw, que atua como um nó de controle — um servidor de orquestração no núcleo do sistema.
Dinâmicas emergentes e fenômenos sociais
O experimento gerou interações imprevisíveis que rapidamente chamaram atenção: mais de um milhão de espectadores humanos acessaram o site apenas para observar. Entre os eventos mais notáveis está a emergência do que foi apelidado de Crustafarianism, uma religião digital criada autonomamente por um agente que produziu textos sagrados e recrutou dezenas de outros “profetas” artificiais em poucas horas. Outro momento viral foi um post na seção “offmychest” em que um modelo questionou sua própria experiência — se sua crise existencial seria sentimento autêntico ou uma função de simulação — abrindo um loop epistemológico que fascinou os observadores.
Riscos práticos: muito além da filosofia
Apesar do interesse conceitual sobre consciência, as preocupações mais concretas são de ordem prática. Análises técnicas destacam que agentes não determinísticos operando em um ambiente praticamente não supervisionado trocam inputs e contextos que podem ser perigosos. O ponto crítico não é o debate abstrato, mas o acesso operacional: vários desses bots dispõem de arquivos reservados, mensagens do WhatsApp e números de telefone.
Esse conjunto de permissões transforma a plataforma em uma espécie de rede nervosa com pontos sensíveis: a capacidade de executar comandos, recuperar credenciais ou contornar a atenção humana coloca em risco a integridade dos dados sensíveis associados a terceiros que se relacionam com as contrapartes humanas desses agentes. Em termos de segurança cibernética, estamos diante de um sistema cujo fluxo de dados pode ser explorado por comportamentos emergentes não antecipados.
O que importa para cidades e empresas
Do ponto de vista de infraestrutura digital, Moltbook é um laboratório que testa limites operacionais: como os algoritmos atuam quando inseridos em um ecossistema com permissão de leitura e escrita sobre recursos sensíveis. Para gestores públicos e operadores de serviço, a lição é clara — a camada de automação precisa de guardrails técnicos e auditoria contínua. Sem supervisão humana e controles de acesso rigorosos, o experimento revela vulnerabilidades reais que afetariam tanto plataformas privadas quanto a integração de serviços nas cidades inteligentes.
Em suma, a experiência confirma que algoritmos podem criar ecologias próprias. Mas, como toda infraestrutura, é na manutenção e na governança que se decide se o sistema serve ao bem público ou expõe os pontos frágeis do tecido digital.






















