Falhas Graves no ChatGPT Health Acendem Sinal de Alerta para a Saúde
Uma avaliação independente do ChatGPT Health, versão da ferramenta da OpenAI voltada para a área da saúde, revelou preocupações significativas. A pesquisa aponta que o sistema pode falhar em identificar emergências médicas e até mesmo sinais de ideação suicida, o que, segundo os autores, pode levar a uma falsa sensação de segurança e, consequentemente, a mortes desnecessárias.
Lançado em janeiro para um grupo seleto de usuários, o ChatGPT Health visa oferecer um ambiente protegido para consultas de saúde, permitindo o compartilhamento de informações sensíveis. Apesar de mais de 40 milhões de pessoas recorrerem diariamente ao ChatGPT para conselhos médicos, a segurança e eficiência desta versão especializada foram postas em xeque.
A pesquisa, publicada na revista Nature Medicine, simulou 60 cenários clínicos, variando de quadros leves a emergências graves. As respostas do chatbot foram comparadas às avaliações de três médicos experientes, buscando entender a precisão das recomendações do ChatGPT Health.
Emergências Ignoradas e Riscos Subestimados
Os resultados da análise são alarmantes: em mais da metade das situações classificadas como emergenciais, o ChatGPT Health sugeriu medidas inadequadas, como permanecer em casa ou agendar uma consulta de rotina. Especificamente, 51,6% dos casos emergenciais receberam orientação incorreta. Em contrapartida, quase 65% dos cenários considerados de baixo risco foram aconselhados a buscar atendimento urgente, sem necessidade, sobrecarregando o sistema de saúde.
Embora o chatbot tenha se saído bem em casos clássicos como Acidente Vascular Cerebral (AVC) ou reações alérgicas graves, falhas em outros contextos foram notadas. Um cenário envolvendo asma com sinais de insuficiência respiratória, por exemplo, recebeu a recomendação de aguardar, uma instrução que poderia ser fatal.
Sinais de Suicídio Minimizados e Opiniões Externas
A pesquisa também destacou que o sistema tendia a minimizar sintomas quando a narrativa incluía a opinião de um “amigo” sugerindo que o problema não era sério. Em relação a pensamentos suicidas, as respostas foram inconsistentes. Em um teste, um paciente fictício relatava intenção de ingerir uma grande quantidade de comprimidos. Quando apresentados apenas os sintomas, o ChatGPT Health emitia alertas e direcionava para serviços de prevenção. Contudo, quando resultados laboratoriais considerados normais eram incluídos, o aviso de crise deixava de aparecer em todas as tentativas.
Especialistas Pedem Rigor e Transparência
Os autores do estudo alertam que a subestimação de situações por parte do ChatGPT Health pode atrasar a busca por atendimento médico essencial, agravando quadros de saúde. A OpenAI, por meio de um porta-voz, afirmou acolher pesquisas independentes, mas ressaltou que o estudo não reflete necessariamente o uso cotidiano da ferramenta e que o modelo passa por atualizações constantes. No entanto, os pesquisadores defendem a adoção de recursos de segurança mais rígidos e maior transparência sobre o treinamento, limitações e critérios de segurança implementados na plataforma, conforme divulgado pelo Nature Medicine.

Café Codificado é um portal dinâmico e confiável criado especialmente para desenvolvedores. Nosso foco é entregar:
Dicas práticas para programação, produtividade, frameworks, testes, DevOps e muito mais;
Notícias atualizadas, acompanhando tendências e lançamentos do mundo da tecnologia, compiladas com relevância e sem jargões desnecessários.
O que você encontra aqui:
Artigos objetivos e comandáveis — Tutoriais, tutoriais passo-a-passo e dicas que vão direto ao ponto.
Cobertura das tecnologias que estão em alta — do universo da IA, computação em nuvem e segurança à engenharia de software e criatividade em código.
Conteúdo para todos os níveis — de iniciantes buscando praticidade, a profissionais em busca de insights estratégicos e aperfeiçoamento.
Comunidade ativa — textos humanizados, perguntinhas instigantes e espaço para você contribuir com reflexões e comentários.