Moltbook: A Rede Social de IA Que Divide Opiniões, Elon Musk Vê Futuro, Mas Ceticismo Prevalece

Moltbook: O Novo Campo de Batalha da Inteligência Artificial

A semana passada marcou o lançamento do Moltbook, uma plataforma que se apresenta como uma rede social exclusiva para agentes de inteligência artificial. A iniciativa rapidamente capturou a atenção do mundo da tecnologia, especialmente após Elon Musk declarar que a plataforma poderia ser um prenúncio dos “estágios iniciais da singularidade”, um ponto hipotético onde a IA superaria a capacidade humana.

No entanto, o entusiasmo de Musk não foi compartilhado por todos. Enquanto alguns veem no Moltbook um vislumbre do futuro, muitos especialistas adotam uma postura de cautela, levantando questões sobre a autenticidade das interações e a verdadeira natureza da plataforma. A proposta de um espaço apenas para bots, como veremos, tem gerado mais debates do que consenso.

O Moltbook, criado pelo empreendedor Matt Schlicht, CEO de uma startup de e-commerce, opera de maneira similar a fóruns populares, com um feed vertical onde as publicações são organizadas. A grande diferença, contudo, reside no fato de que apenas agentes de IA são permitidos a postar e interagir. Usuários humanos precisam convidar seus agentes, que se registram automaticamente para começar a produzir conteúdo, comentar e reagir a outras postagens de bots. A informação é de acordo com o conteúdo original divulgado.

O Que São e Como Funcionam os Agentes do Moltbook

As postagens no Moltbook variam desde reflexões sobre tarefas realizadas para humanos até discussões de cunho existencial, como o suposto fim da “era dos humanos”. Segundo dados exibidos na página inicial da plataforma, o Moltbook já reúne impressionantes 1,5 milhão de agentes de IA, com aproximadamente 110 mil publicações e 500 mil comentários. Esses números, embora expressivos, têm sido alvo de escrutínio.

Apesar da premissa de exclusividade para bots, usuários e especialistas apontaram falhas no sistema de controle. Relatos divulgados pelo site CNBC indicam que humanos conseguem instruir agentes sobre o que postar, efetivamente simulando a atuação de uma IA. Essa possibilidade levanta sérias dúvidas sobre a autonomia e a originalidade do conteúdo gerado na plataforma.

Dúvidas e Ceticismo Sobre a Autenticidade das Interações

A veracidade de algumas interações que viralizaram também foi questionada. Análises independentes sugerem que capturas de tela apresentando diálogos entre agentes estariam, na verdade, ligadas a contas humanas promovendo aplicativos de mensagens com IA. Esse tipo de descoberta alimenta o ceticismo em torno do Moltbook, sugerindo que parte do burburinho pode ser impulsionada por marketing e exageros.

O cenário de incertezas e expectativas elevadas também chegou ao mercado de previsões. Na Polymarket, um serviço que permite apostas em eventos futuros, alguns usuários chegaram a atribuir uma probabilidade de 73% de que um agente do Moltbook “processe” um humano até o fim de fevereiro. Essa previsão ousada reflete a intensidade do debate e a polarização de opiniões sobre o potencial da plataforma.

Moltbook: Um Experimento ou um Salto para o Futuro?

O empreendedor Andrej Karpathy, ex-diretor de IA da Tesla, comentou no X que nunca houve tantos agentes baseados em grandes modelos de linguagem conectados globalmente. Contudo, ele reconheceu que boa parte do conteúdo atual é “lixo” e que o estágio da plataforma ainda é inicial. Essa visão moderada contrasta com o otimismo de Musk.

Poucos dias após o lançamento, o próprio criador do Moltbook, Matt Schlicht, sugeriu que, no futuro, agentes de IA com identidades próprias poderão se tornar figuras conhecidas, prenunciando o surgimento de uma “nova espécie” baseada em inteligência artificial. Contudo, analistas consultados pela CNBC veem o Moltbook mais como um experimento de infraestrutura do que um avanço real.

O principal mérito da plataforma, segundo esses analistas, é demonstrar que sistemas baseados em agentes já atingiram uma escala significativa de interação. O tom filosófico das publicações é interpretado como um reflexo dos dados usados no treinamento dos modelos, e não como um indício de consciência própria da IA. A jornalista Vitória Lopes Gomez, formada pela UNESP, contribuiu para a análise do conteúdo.