Amazon emite alerta sobre conteúdo suspeito em treinamento de IA
A Amazon detectou centenas de milhares de arquivos com suspeita de envolvimento em abuso sexual infantil em suas bases de dados destinadas ao treinamento de modelos de inteligência artificial (IA). O volume expressivo desses registros, encaminhado ao National Center for Missing and Exploited Children (NCMEC), órgão americano de proteção à infância, resultou em um aumento drástico de 15 vezes nas denúncias relacionadas à IA em 2025, com a Amazon sendo a principal fonte.
A empresa afirma ter removido o conteúdo antes de utilizá-lo em seus treinamentos. No entanto, especialistas levantam preocupações significativas sobre a falta de informações detalhadas a respeito da origem desses arquivos. Essa lacuna dificulta o trabalho das autoridades policiais na identificação de criminosos e no resgate de vítimas, comprometendo a efetividade das investigações.
Conforme informações divulgadas, a Amazon enviou mais de um milhão de relatórios de abuso infantil ligados à IA em 2025, um salto considerável em comparação aos 64 mil registrados em 2024. A empresa justifica a quantidade alegando o uso de uma configuração de busca “muito sensível” para evitar que qualquer material passe despercebido, o que, segundo a própria Amazon, pode gerar um número elevado de falsos positivos.
Origem dos dados e desafios para a polícia
A Amazon declara que os dados foram coletados de fontes externas e da internet aberta, e que não possui detalhes técnicos que auxiliem a polícia no rastreamento dos responsáveis. Essa postura contrasta com a de outras gigantes da tecnologia, como Google e OpenAI, que, embora enviem um volume menor de denúncias, fornecem dados detalhados cruciais para investigações. O NCMEC ressalta que a mera notificação da existência de crimes, sem pistas sobre os perpetradores, não contribui para a proteção de crianças em perigo iminente.
Velocidade versus ética no desenvolvimento de IA
Pesquisadores da área alertam que a corrida pelo lançamento de novas IAs tem levado empresas a coletar volumes massivos de dados da internet sem uma verificação aprofundada de segurança. A prioridade na velocidade de desenvolvimento tem se sobreposto à análise ética do conteúdo que alimenta esses modelos. A diluição da responsabilidade sobre quem posta material criminoso é outra preocupação, uma vez que os dados provêm de terceiros ou são coletados automaticamente da web.
O perigo de utilizar dados suspeitos, segundo especialistas, reside na possibilidade de a IA aprender padrões abusivos e desenvolver a capacidade de sexualizar fotos de crianças reais ou gerar imagens sintéticas de abuso. A Amazon, contudo, assegura que suas IAs não geraram imagens de abuso a partir desse treinamento específico, utilizando um sistema de “hashing” para comparar imagens com um banco de dados de crimes conhecidos. A empresa prometeu divulgar dados mais detalhados sobre suas práticas de segurança em março de 2026.

Café Codificado é um portal dinâmico e confiável criado especialmente para desenvolvedores. Nosso foco é entregar:
Dicas práticas para programação, produtividade, frameworks, testes, DevOps e muito mais;
Notícias atualizadas, acompanhando tendências e lançamentos do mundo da tecnologia, compiladas com relevância e sem jargões desnecessários.
O que você encontra aqui:
Artigos objetivos e comandáveis — Tutoriais, tutoriais passo-a-passo e dicas que vão direto ao ponto.
Cobertura das tecnologias que estão em alta — do universo da IA, computação em nuvem e segurança à engenharia de software e criatividade em código.
Conteúdo para todos os níveis — de iniciantes buscando praticidade, a profissionais em busca de insights estratégicos e aperfeiçoamento.
Comunidade ativa — textos humanizados, perguntinhas instigantes e espaço para você contribuir com reflexões e comentários.