Alerta Amazon: IA é treinada com milhões de arquivos de abuso infantil, NCMEC cobra transparência e dados para investigar crimes

Amazon emite alerta sobre conteúdo suspeito em treinamento de IA

A Amazon detectou centenas de milhares de arquivos com suspeita de envolvimento em abuso sexual infantil em suas bases de dados destinadas ao treinamento de modelos de inteligência artificial (IA). O volume expressivo desses registros, encaminhado ao National Center for Missing and Exploited Children (NCMEC), órgão americano de proteção à infância, resultou em um aumento drástico de 15 vezes nas denúncias relacionadas à IA em 2025, com a Amazon sendo a principal fonte.

A empresa afirma ter removido o conteúdo antes de utilizá-lo em seus treinamentos. No entanto, especialistas levantam preocupações significativas sobre a falta de informações detalhadas a respeito da origem desses arquivos. Essa lacuna dificulta o trabalho das autoridades policiais na identificação de criminosos e no resgate de vítimas, comprometendo a efetividade das investigações.

Conforme informações divulgadas, a Amazon enviou mais de um milhão de relatórios de abuso infantil ligados à IA em 2025, um salto considerável em comparação aos 64 mil registrados em 2024. A empresa justifica a quantidade alegando o uso de uma configuração de busca “muito sensível” para evitar que qualquer material passe despercebido, o que, segundo a própria Amazon, pode gerar um número elevado de falsos positivos.

Origem dos dados e desafios para a polícia

A Amazon declara que os dados foram coletados de fontes externas e da internet aberta, e que não possui detalhes técnicos que auxiliem a polícia no rastreamento dos responsáveis. Essa postura contrasta com a de outras gigantes da tecnologia, como Google e OpenAI, que, embora enviem um volume menor de denúncias, fornecem dados detalhados cruciais para investigações. O NCMEC ressalta que a mera notificação da existência de crimes, sem pistas sobre os perpetradores, não contribui para a proteção de crianças em perigo iminente.

Velocidade versus ética no desenvolvimento de IA

Pesquisadores da área alertam que a corrida pelo lançamento de novas IAs tem levado empresas a coletar volumes massivos de dados da internet sem uma verificação aprofundada de segurança. A prioridade na velocidade de desenvolvimento tem se sobreposto à análise ética do conteúdo que alimenta esses modelos. A diluição da responsabilidade sobre quem posta material criminoso é outra preocupação, uma vez que os dados provêm de terceiros ou são coletados automaticamente da web.

O perigo de utilizar dados suspeitos, segundo especialistas, reside na possibilidade de a IA aprender padrões abusivos e desenvolver a capacidade de sexualizar fotos de crianças reais ou gerar imagens sintéticas de abuso. A Amazon, contudo, assegura que suas IAs não geraram imagens de abuso a partir desse treinamento específico, utilizando um sistema de “hashing” para comparar imagens com um banco de dados de crimes conhecidos. A empresa prometeu divulgar dados mais detalhados sobre suas práticas de segurança em março de 2026.