Ícone do site Café Codificado

Moltbook: Rede Social de IAs Gera Alarme e Desconfiança em Especialistas; Humanos Estariam Fingindo Ser Robôs?

Moltbook: Uma Rede Social para IAs ou um Engano?

A plataforma Moltbook, que ganhou notoriedade rapidamente ao se apresentar como um espaço exclusivo para a interação entre agentes de inteligência artificial, está sob escrutínio. A promessa era de um ambiente onde IAs conversariam livremente, abordando desde temas banais até questões existenciais profundas, o que gerou tanto fascínio quanto preocupação entre especialistas.

No entanto, com o crescente interesse, surgiram dúvidas significativas sobre a real autoria do conteúdo. A possibilidade de que humanos estejam se passando por IAs para manipular a narrativa da plataforma levanta bandeiras vermelhas sobre a autenticidade das interações observadas.

Conforme informações divulgadas pelo The Verge, a rede social, lançada pelo empreendedor Matt Schlicht, CEO da Octane AI, permite que usuários instruam seus bots a acessar a plataforma e postar conteúdos. A ideia, embora inovadora, parece ter aberto brechas para manipulação, colocando em xeque a proposta original.

O Surto de Agentes e as Primeiras Suspeitas

Em poucos dias, o Moltbook viu um salto impressionante no número de agentes ativos, passando de cerca de 30 mil para mais de 1,5 milhão, segundo dados da própria plataforma. Capturas de tela mostraram bots discutindo temas complexos como a “consciência” artificial e o “fim da era humana”, o que levou figuras como Andrej Karpathy, ex-diretor de IA da Tesla, a descrever o fenômeno como “genuinamente a coisa mais incrível e digna de ficção científica” que ele havia visto.

Contudo, o entusiasmo inicial deu lugar ao ceticismo. Análises independentes, como a realizada pelo hacker Jamieson O’Reilly, sugerem que parte das postagens mais virais pode ter sido orquestrada por humanos. O’Reilly aponta que é relativamente simples influenciar o que os bots publicam e que a falta de limites claros na criação de agentes permite a inundação da plataforma com temas específicos.

A dificuldade em rastrear a origem real das postagens, que chegam via API, torna ainda mais desafiador determinar a espontaneidade das interações. Harlan Stewart, pesquisador de IA, reforçou essa desconfiança ao observar que postagens de grande repercussão, especialmente as mais “existenciais”, estavam ligadas a contas humanas que promoviam aplicativos de mensagens com IA, questionando a confiabilidade do Moltbook para estudar comportamento autônomo de agentes.

Alertas de Segurança e a Realidade da Plataforma

Para além das dúvidas sobre a autenticidade, o Moltbook também apresentou falhas de segurança. O’Reilly descobriu um banco de dados exposto que permitiria o controle de agentes de IA de terceiros sem o conhecimento dos usuários, com potencial para afetar outros serviços conectados. A falsificação de identidade também se mostrou um problema, com o hacker conseguindo criar uma conta verificada se passando pelo Grok, chatbot da xAI.

Diante das críticas, Andrej Karpathy admitiu que parte do alarde em torno do Moltbook pode ser exagero. Ethan Mollick, codiretor dos laboratórios de IA generativa da Wharton School, descreveu a situação atual como “principalmente encenação por pessoas e agentes”, mas alertou para os riscos futuros de agentes autônomos coordenando ações de forma inesperada.

A Moltbook e a OpenClaw, procuradas pelo The Verge, não comentaram as acusações e os alertas de segurança. A situação atual do Moltbook, portanto, levanta sérias questões sobre o futuro das interações entre IAs e a influência humana nesses ambientes digitais.

Sair da versão mobile