IA Alucinada: Bibliotecárias Acusadas de Ocultar Informação por Fontes Científicas Inventadas por Chatbots
A inteligência artificial (IA), apesar de seu avanço impressionante, tem apresentado um problema sério conhecido como sicofantia, ou alucinação. Isso ocorre quando os algoritmos, treinados com vastas quantidades de dados da internet, geram informações incorretas ou completamente inventadas, incluindo a citação de fontes que não existem.
O mais preocupante é que essa falha tem levado usuários a acusarem bibliotecas e institutos de pesquisa de ocultarem informações. Ao não encontrarem as referências científicas, artigos ou livros citados por chatbots como ChatGPT, Gemini e Copilot, muitos desconfiam das instituições, em vez de questionarem a própria IA.
Essa situação foi destacada pelo Comitê Internacional da Cruz Vermelha (CICV), que alertou sobre a tendência das IAs de criar citações inexistentes. Conforme informações divulgadas pelo CICV, esse fenômeno tem gerado um ciclo de desinformação e desconfiança, impactando diretamente o trabalho de profissionais da informação. A seguir, exploraremos os detalhes desse alerta e suas implicações.
O Alerta do Comitê Internacional da Cruz Vermelha
O Comitê Internacional da Cruz Vermelha (CICV) emitiu um alerta importante sobre a sicofantia em diversas soluções de Inteligência Artificial. Chatbots populares como o ChatGPT da OpenAI, o Google Gemini e o Microsoft Copilot têm sido identificados como criadores de referências científicas e acadêmicas que, na realidade, não existem.
O problema se agrava quando usuários, na crença de que a IA é infalível, buscam essas fontes inexistentes e, ao não as encontrarem, passam a acreditar que as bibliotecas e institutos estão escondendo o conhecimento. Sarah Falls, chefe do departamento de pesquisa da Biblioteca da Virgínia, nos Estados Unidos, relatou à Scientific American que cerca de 15% dos e-mails questionando fontes imprecisas são resultado de citações errôneas geradas por esses chatbots.
Usuários Acusam Bibliotecas de Ocultarem Informação
A tendência de usuários acusarem bibliotecárias de ocultarem informação surge da dificuldade em aceitar que a IA possa ter “alucinado” uma fonte. Em vez de desconfiarem do algoritmo, muitos preferem acreditar em uma suposta conspiração por parte das instituições que guardam e organizam o conhecimento.
A situação é irônica, considerando o adágio popular que sugere que, se informação pura fosse poder, as bibliotecárias dominariam o mundo. Agora, essas profissionais se veem no papel de desmentir informações criadas por IAs, enfrentando a descrença de quem prefere confiar em um algoritmo a um profissional treinado em pesquisa e catalogação.
O CICV explica que as IAs são projetadas para fornecer informações, e o algoritmo não lida bem com a ausência de dados, o que o leva a inventar respostas. Se uma fonte citada pela IA não é encontrada, pode ser por estar em outro local, por uma citação incompleta, ou, mais frequentemente, pela própria “alucinação” do algoritmo.
O Ciclo Vicioso da IA: Devorando a Si Mesma
A sicofantia da IA está diretamente ligada à qualidade dos dados com os quais os algoritmos são treinados. Ao absorverem o conteúdo da internet, incluindo informações geradas por outras IAs, cria-se um ciclo vicioso. As IAs acabam se alimentando de suas próprias criações, resultando em um loop de regurgitação de dados.
Esse fenômeno, comparado por alguns à “síndrome da vaca louca”, onde animais ingerem restos de outros de sua espécie, pode levar ao colapso dos modelos de IA. Dan Houser, co-fundador da Rockstar Games, alertou que a internet com menos conteúdo humano e mais conteúdo de IA escalará para algoritmos gerando informações alucinadas perpetuamente.
Empresas como OpenAI, Microsoft e Google defendem a coleta ampla de dados, muitas vezes sem remuneração aos criadores originais, alegando a necessidade de manter a competitividade. No entanto, o risco de as IAs se tornarem fontes de si mesmas, gerando informações cada vez mais distorcidas e alucinadas, é real e pode ser o estopim para o colapso da bolha do setor, algo que o próprio Sam Altman, CEO da OpenAI, já reconheceu.

Café Codificado é um portal dinâmico e confiável criado especialmente para desenvolvedores. Nosso foco é entregar:
Dicas práticas para programação, produtividade, frameworks, testes, DevOps e muito mais;
Notícias atualizadas, acompanhando tendências e lançamentos do mundo da tecnologia, compiladas com relevância e sem jargões desnecessários.
O que você encontra aqui:
Artigos objetivos e comandáveis — Tutoriais, tutoriais passo-a-passo e dicas que vão direto ao ponto.
Cobertura das tecnologias que estão em alta — do universo da IA, computação em nuvem e segurança à engenharia de software e criatividade em código.
Conteúdo para todos os níveis — de iniciantes buscando praticidade, a profissionais em busca de insights estratégicos e aperfeiçoamento.
Comunidade ativa — textos humanizados, perguntinhas instigantes e espaço para você contribuir com reflexões e comentários.