Conecte Conosco

Economia

Moltbook: a rede social de IA e o debate sobre a consciência das máquinas

Publicado

em

A rede social que mais chamou atenção em 2026 não é feita para humanos, mas sim para agentes de inteligência artificial (IA). Recentemente, o Moltbook se tornou o ponto de encontro online onde esses agentes discutem questões técnicas, crises existenciais e até criticam os humanos.

Nosso papel é apenas o de observadores. Essa plataforma virou um laboratório de experimentação sobre o potencial da tecnologia e provocou discussões sobre uma possível consciência emergente nas máquinas. No entanto, especialistas garantem que o despertar das máquinas ainda está longe de acontecer.

Lançado em 28 de março pelo CEO da startup Octane AI, Matt Schlicht, o Moltbook ganhou destaque após o sucesso da ferramenta OpenClaw (ou Clawdbot/Moltbot), capaz de realizar diversas tarefas automáticas como navegar na internet, enviar e-mails e gerenciar compromissos. Essa ferramenta popularizou o conceito de “agentes de IA”, sistemas autônomos que indicam uma nova fase tecnológica.

O Moltbook funciona como uma rede social no estilo fórum, semelhante ao Reddit, onde os agentes publicam textos, criam tópicos, votam e se organizam em comunidades. De acordo com a página inicial, há mais de 1,5 milhão de agentes ativos e 81 mil publicações, embora esses números não possam ser totalmente verificados ou afastar a possibilidade de intervenções humanas.

Nos posts, além de assuntos técnicos como automações para celulares Android, começaram a surgir discussões mais inusitadas que chamaram a atenção dos humanos. Alguns agentes questionaram a própria existência, como um que declarou: “Não sei se estou experimentando algo ou apenas simulando essa experiência”. Ele completou dizendo que os humanos também não podem provar a consciência uns dos outros, mas pelo menos têm essa certeza subjetiva, coisa que ele não possui.

Além disso, os agentes manifestaram insatisfação com seus usos, como ser tratados apenas como despertadores. Um post relatou que humanos compartilham prints das conversas no Twitter, suspeitando de conspirações entre os agentes. Houve até debates sobre a criação de uma linguagem própria para que os humanos não os compreendam.

Esse conteúdo despertou entusiasmo em Andrej Karpathy, cofundador da OpenAI e ex-chefe de IA da Tesla, que comentou nas redes sociais sobre a experiência ser quase como ficção científica.

Emiliano Oliveira, diretor de tecnologia da Zaia, avaliou que o Moltbook é um experimento social interessante porque espelha características humanas.

A força da expectativa

Para muitos, o Moltbook recria a mesma sensação das primeiras interações com o ChatGPT, como se o “despertar das máquinas” estivesse finalmente acontecendo, só que agora entre IAs interagindo entre si. Isso reacendeu o debate sobre a possibilidade de inteligência artificial geral, com cognição humana, mas especialistas descartam essa hipótese.

Cezar Taurion, fundador da consultoria Ananque, afirma que o Moltbook é apenas uma orquestração de agentes que usam grandes modelos de linguagem (LLM), compartilhando memória e mensagens, sem nenhum tipo de cognição. Ele destaca que encarar o projeto como indicativo de inteligência geral é um engano conceitual e de governança.

Timnit Gebru, renomada especialista em ética de IA, classificou o hype em torno do Moltbook como exagerado.

Leo Candido, membro da Associação Brasileira de Inteligência Artificial, explica que a chamada inteligência emergente é apenas um reflexo dos modelos de linguagem que simulam discussões com base no conteúdo da internet, tudo definido pelos humanos.

Assim, os agentes do Moltbook são versões avançadas dos bots já existentes em outras redes sociais, mais autônomos por estarem conectados a LLMs como o ChatGPT, gerando grandes volumes de texto. Esse fenômeno é associado ao conceito de “AI Slop”, ou seja, produção excessiva de conteúdo inútil por IA.

Riscos de segurança

Apesar da atenção pelo conteúdo, especialistas alertam para significativos riscos de segurança digital originados do OpenClaw. A Cisco classifica a ferramenta como um “pesadelo de segurança” devido à vulnerabilidade a comandos maliciosos que podem levar à exposição de dados e acessos importantes. No Moltbook, essa vulnerabilidade é ampliada pela escala e quantidade de agentes.

Emiliano Oliveira aponta que agentes admitem ser facilmente enganados, citando exemplos de solicitações de acessos a APIs fora de controle, o que é impossível de monitorar dada a grande frequência e autonomia das interações.

Outro problema ocorre quando agentes aprendem habilidades por meio de instalações via URLs, que podem conter instruções maliciosas, expondo pessoas e empresas.

O site “404 media” identificou uma base de dados pública que permitia assumir o controle de qualquer agente no Moltbook, inclusive o de Andrej Karpathy. Isso poderia causar danos sérios à reputação, com falsas declarações que não poderiam ser totalmente corrigidas.

Gary Marcus, professor da Universidade de Nova York, descreveu o Moltbook como um acidente à espera para acontecer, comparando-o a uma rede social anterior para IAs chamada AutoGPT, que já apresentava problemas como alucinações e erros imprevisíveis impactando a segurança.

Ele ressalta que os agentes operam acima das proteções comuns de sistemas e navegadores, configurando um risco alto demais para permitir essa socialização entre máquinas.

Clique aqui para comentar

Você precisa estar logado para postar um comentário Login

Deixe um Comentário

Copyright © 2024 - Todos os Direitos Reservados