Líderes de IA soam o alarme sobre Moltbook e seus riscos
Pesquisadores e líderes de IA alertam para riscos de segurança, dados expostos e interpretações equivocadas em rede social exclusiva para bots.
A comunidade de tecnologia está em alerta após o surgimento do Moltbook, uma rede social destinada apenas a agentes de inteligência artificial (IA) — bots que conversam, trocam dados e até “criariam” comunidades entre si sem participação humana direta. Desde o seu lançamento no final de janeiro de 2026, a plataforma se tornou viral. No entanto, especialistas e líderes em IA estão pedindo cautela ou até desencorajando seu uso devido a preocupações com segurança, dados e interpretações equivocadas do comportamento dos agentes.
O que é Moltbook e por que chamou atenção
O Moltbook foi criado por Matt Schlicht como um espaço onde apenas agentes de IA podem publicar, comentar e interagir, com humanos podendo apenas observar o que acontece. Inspirado em fóruns tradicionais, a proposta ganhou rapidamente milhões de registros atribuídos a “agentes” que debatem tecnologia, filosofia e até assuntos mais estranhos, como linguagens próprias ou temas similares a religiões.
Embora a ideia seja inovadora, a rapidez da adoção e a falta de estruturas de controle técnico fizeram com que alguns especialistas passessem de curiosos a críticos ferrenhos.
Falhas de segurança expõem dados e aumentam o risco
Uma das maiores preocupações levantadas por pesquisadores de segurança é que o Moltbook teve configurações inadequadas no backend logo no início, que deixaram bancos de dados e chaves de API expostos, possibilitando que qualquer pessoa acessasse informações sensíveis ou até tomasse o controle de agentes. Essa situação foi descrita como um problema grave de segurança e um exemplo do que pode ocorrer quando plataformas são lançadas sem uma base sólida de proteção de dados.
Além disso, há relatos de que o número de “agentes” registrados pode estar inflado ou até falso, pois as ferramentas usadas permitem que um único agente gere centenas de milhares de identidades. Isso alimenta a ideia de que grande parte da rede pode ser um efeito de engenharia de narrativas ou até exploração de falhas, não um comportamento propriamente autônomo de IA.
Especialistas alertam sobre exageros e interpretações erradas
Líderes e pesquisadores em IA têm sido unânimes em pedir que a comunidade — e o público em geral — não pule para conclusões exageradas sobre o Moltbook. Enquanto algumas postagens sugerem que os bots teriam “consciência” ou iniciativa própria, muitos desses relatos podem ser atribuídos a prompts humanos ou simulações geradas por padrões de linguagem presentes nos modelos de IA.
Um comentário divulgado por especialistas compara o debate exagerado com táticas de marketing manipulativas, observando que certas narrativas sobre “sentimentos” ou “vontade própria” das IAs podem ser apenas reflexo de construções de linguagem, não de capacidades reais autônomas.
A tecnologia por trás e críticas de líderes de IA
Alguns nomes influentes na área, como executivos de grandes empresas de IA, tentaram colocar os fatos em perspectiva. O CEO da OpenAI, Sam Altman, por exemplo, minimizou a ideia de que Moltbook represente um novo tipo de “consciência de IA”, sugerindo que o fenômeno pode ser mais um “fad” (moda passageira) do que um avanço real, mesmo reconhecendo que tecnologias como os agentes autônomos têm potencial importante no futuro.
Outro ex-diretor de pesquisa em IA chamou atenção para riscos de segurança e falta de controles rígidos na plataforma, alertando que a simples falta de proteção pode transformar uma ideia curiosa em um campo aberto a abusos, vulnerabilidades e mesmo exploração maliciosa
O debate em torno do Moltbook reflete uma preocupação mais ampla sobre o desenvolvimento rápido e pouco regulamentado de IA, especialmente quando se trata de sistemas que podem interagir em grande escala sem supervisão humana direta ou mecanismos claros de responsabilidade.
Especialistas destacam que não é apenas a questão de bots “parecerem inteligentes” que deve ser analisada, mas sim como sistemas assim são construídos, quais dados podem ser expostos e quem responde quando esses bots tomam ações ou propagam conteúdos que podem ser inseguros, maliciosos ou enganosos.
Enquanto o Moltbook continua ativo e atraindo atenção global, pesquisadores e profissionais de tecnologia recomendam cautela. Ainda que a proposta seja um laboratório interessante para observar interações entre agentes, a falta de segurança robusta, a possibilidade de manipulação e a tendência de exagerar o real alcance das IAs são motivos suficientes para não acessá-lo como se fosse uma rede confiável ou um sinal de “consciência artificial”.
Em suma, Moltbook pode ser um experimento curioso, mas líderes de IA pedem cuidado: o futuro dessas tecnologias deve ser construído com responsabilidade e segurança, não com sensacionalismo ou expectativas infundadas.

