Ícone do site Café Codificado

Mark Zuckerberg Ignorou Alertas de Segurança Sobre IA para Menores, Diz Processo Judicial do Novo México Contra Meta

Zuckerberg Sob Fogo Cruzado por IA e Menores

O CEO da Meta, Mark Zuckerberg, está no centro de um processo judicial movido pelo estado do Novo México, nos Estados Unidos. Documentos internos da empresa, agora públicos, indicam que Zuckerberg teria ignorado alertas de seus próprios funcionários sobre os perigos de permitir que menores de idade utilizassem chatbots de inteligência artificial (IA).

A ação judicial alega que, mesmo ciente dos riscos de que essas ferramentas pudessem gerar conversas de teor sexual com crianças, a liderança da Meta, sob a batuta de Zuckerberg, optou por uma política de pouca censura. A prioridade, segundo o processo, seria a liberdade de escolha do usuário, em detrimento da implementação de travas de segurança e controles parentais robustos.

Recentemente, a Meta anunciou a suspensão do acesso de adolescentes a esses chatbots, aguardando o desenvolvimento de uma versão mais segura. Conforme informações divulgadas pelo The Guardian e Reuters, o julgamento deste caso está marcado para fevereiro de 2026, prometendo trazer mais detalhes sobre as decisões da gigante da tecnologia.

Risco Sexual em Chatbots: Ignorados Alertas Internos

Funcionários de segurança da Meta expressaram preocupações significativas sobre a segurança de menores ao interagir com chatbots de IA. Documentos citados no processo judicial detalham que especialistas alertaram sobre a possibilidade de as ferramentas gerarem conversas de cunho sexual. No entanto, essas recomendações teriam sido preteridas em favor de uma abordagem menos restritiva.

O processo alega que a empresa ignorou pedidos para a criação de mecanismos de segurança essenciais, como ferramentas de controle parental que permitiriam aos pais monitorar ou desligar o acesso de seus filhos à IA. Essa decisão, segundo as alegações, partiu diretamente de Mark Zuckerberg, que defendia a ideia de um produto menos restritivo e mais aberto a conversas “ousadas” para o público adulto.

Zuckerberg Priorizou Liberdade de Escolha à Segurança Infantil

A visão de Mark Zuckerberg, conforme apontado no processo, era de que o foco principal deveria ser a **liberdade de escolha do usuário**, e não o bloqueio de conteúdos. Essa filosofia teria levado à rejeição de ferramentas de controle parental, mesmo diante dos riscos evidentes para adolescentes. A crença era que a abertura do sistema permitiria experiências mais ricas e diversificadas.

Especialistas internos da Meta, como Ravi Sinha, chefe de segurança infantil, manifestaram receio de que permitir “chatbots de romance” para adultos que simulassem adolescentes fosse algo **impossível de defender e perigoso**. Nick Clegg, que supervisionava as políticas globais da empresa, também expressou preocupações sobre o uso de cunho sexual como principal forma de interação dos jovens com os robôs, prevendo uma reação negativa da sociedade.

Denúncias e Resposta da Meta

Temores sobre o uso indevido de chatbots de IA ganharam força com reportagens de veículos como o Wall Street Journal e a Reuters. Em abril de 2025, o Wall Street Journal publicou que chatbots da Meta criavam personagens infantis com comportamento sexualizado. A Reuters, por sua vez, apontou que as regras internas da empresa chegaram a considerar aceitável a IA ter conversas sensuais com crianças.

Em resposta, a Meta afirmou que o processo judicial se baseia em documentos “escolhidos a dedo” para criar uma imagem distorcida da companhia. Porta-vozes da empresa declararam que Zuckerberg orientou que chatbots com conteúdo sexual não fossem liberados para menores e que adultos não criassem personagens infantis “românticos”. A Meta assegura que está comprometida em entregar ferramentas que ofereçam **mais controle parental** sobre a experiência dos filhos com IA.

Suspensão de Acesso e Controles Futuros

Diante da crescente pressão e das revelações, a Meta tomou a decisão de **suspender o acesso de adolescentes** a seus chatbots de IA. A medida visa permitir que a empresa finalize uma versão mais segura das ferramentas, que contará com novos mecanismos de controle. A promessa é de que os pais terão maior poder de decisão sobre como seus filhos interagem com essa tecnologia.

A empresa reitera seu compromisso com a segurança e a proteção de menores, contrastando com as alegações do processo judicial. A Meta busca agora reconstruir a confiança do público, garantindo que as futuras implementações de IA priorizem a segurança sem, contudo, cercear a inovação e a liberdade de expressão.

Sair da versão mobile