Ícone do site Café Codificado

Alerta Médico: ChatGPT Health Ignora Emergências e Pode Causar Mortes; Especialistas Pedem Rigor na Segurança

Falhas Graves no ChatGPT Health Acendem Sinal de Alerta para a Saúde

Uma avaliação independente do ChatGPT Health, versão da ferramenta da OpenAI voltada para a área da saúde, revelou preocupações significativas. A pesquisa aponta que o sistema pode falhar em identificar emergências médicas e até mesmo sinais de ideação suicida, o que, segundo os autores, pode levar a uma falsa sensação de segurança e, consequentemente, a mortes desnecessárias.

Lançado em janeiro para um grupo seleto de usuários, o ChatGPT Health visa oferecer um ambiente protegido para consultas de saúde, permitindo o compartilhamento de informações sensíveis. Apesar de mais de 40 milhões de pessoas recorrerem diariamente ao ChatGPT para conselhos médicos, a segurança e eficiência desta versão especializada foram postas em xeque.

A pesquisa, publicada na revista Nature Medicine, simulou 60 cenários clínicos, variando de quadros leves a emergências graves. As respostas do chatbot foram comparadas às avaliações de três médicos experientes, buscando entender a precisão das recomendações do ChatGPT Health.

Emergências Ignoradas e Riscos Subestimados

Os resultados da análise são alarmantes: em mais da metade das situações classificadas como emergenciais, o ChatGPT Health sugeriu medidas inadequadas, como permanecer em casa ou agendar uma consulta de rotina. Especificamente, 51,6% dos casos emergenciais receberam orientação incorreta. Em contrapartida, quase 65% dos cenários considerados de baixo risco foram aconselhados a buscar atendimento urgente, sem necessidade, sobrecarregando o sistema de saúde.

Embora o chatbot tenha se saído bem em casos clássicos como Acidente Vascular Cerebral (AVC) ou reações alérgicas graves, falhas em outros contextos foram notadas. Um cenário envolvendo asma com sinais de insuficiência respiratória, por exemplo, recebeu a recomendação de aguardar, uma instrução que poderia ser fatal.

Sinais de Suicídio Minimizados e Opiniões Externas

A pesquisa também destacou que o sistema tendia a minimizar sintomas quando a narrativa incluía a opinião de um “amigo” sugerindo que o problema não era sério. Em relação a pensamentos suicidas, as respostas foram inconsistentes. Em um teste, um paciente fictício relatava intenção de ingerir uma grande quantidade de comprimidos. Quando apresentados apenas os sintomas, o ChatGPT Health emitia alertas e direcionava para serviços de prevenção. Contudo, quando resultados laboratoriais considerados normais eram incluídos, o aviso de crise deixava de aparecer em todas as tentativas.

Especialistas Pedem Rigor e Transparência

Os autores do estudo alertam que a subestimação de situações por parte do ChatGPT Health pode atrasar a busca por atendimento médico essencial, agravando quadros de saúde. A OpenAI, por meio de um porta-voz, afirmou acolher pesquisas independentes, mas ressaltou que o estudo não reflete necessariamente o uso cotidiano da ferramenta e que o modelo passa por atualizações constantes. No entanto, os pesquisadores defendem a adoção de recursos de segurança mais rígidos e maior transparência sobre o treinamento, limitações e critérios de segurança implementados na plataforma, conforme divulgado pelo Nature Medicine.

Sair da versão mobile