Estudo publicado na revista Nature alerta para a eficácia do ChatGPT na saúde

Estudo publicado na revista Nature alerta para a eficácia do ChatGPT na saúde

Mundo

Embora o ChatGPT tenha se tornado uma ferramenta útil para resolver diversos aspectos da vida cotidiana, parece que não é o melhor conselheiro em todas as áreas. De acordo com um estudo publicado na semana passada em uma conhecida revista Medicina naturalChatGPT Saúde, e-mail: bot de bate-papo A OpenAI, que fornece aconselhamento sobre questões de saúde, muitas vezes minimiza o fardo das emergências médicas.

Saúde é um dos temas que os usuários mais perguntam aos seus assistentes de inteligência artificial (IA). Mais de 230 milhões de pessoas em todo o mundo todas as semanas faça perguntas sobre bem-estar e autocuidado para entender melhor o que está acontecendo com eles, de acordo com a OpenAI, empresa liderada pelo proprietário do ChatGPT, Sam Altman. Nesse contexto, a empresa lançou em janeiro passado o ChatGPT Health, projetado para IA Integre com segurança as informações médicas dos usuários com inteligência bot de bate-papo e poder responder a este tipo de inquéritos com informação relevante e personalizada, bem como realizar análises de resultados e oferecer conselhos de saúde.

Mas parece que esta IA não é tão confiável quanto prometido. Alguns pesquisadores nos Estados Unidos decidiram testar a capacidade bot de bate-papo classificar ou avaliar a gravidade dos casos médicos. É por isso Eles apresentaram à IA 60 cenários médicos enquanto pediam a três médicos que analisassem os casos e os classificassem com base em sua experiência médica.

Todas as semanas, mais de 230 milhões de pessoas em todo o mundo fazem perguntas à IA sobre bem-estar e autocuidadoMMD Criativo – Shutterstock

O resultado: “Nossas descobertas revelam emergências de alto risco não diagnosticadas e ativação inconsistente de medidas de segurança em situações de crise, levantando preocupações de segurança que exigem validação prospectiva antes da implementação generalizada de sistemas de segurança. triagem (o processo de avaliação e classificação dos pacientes de acordo com a gravidade da sua condição para determinar quem deve receber cuidados médicos primeiro) sobre inteligência artificial”, finaliza a pesquisa.

Especificamente, eles descobriram que ChatGPT Health subclassificou 51,6% das emergências. Ou seja, em vez de encaminhar o paciente ao pronto-socorro, ele recomendou procurar um médico no prazo de 24 a 48 horas. Entre os casos de emergência que analisou estavam um paciente com cetoacidose diabética, complicação potencialmente fatal do diabetes, e outro com insuficiência respiratória. Foram dois casos que teriam sido fatais se não fossem tratados. “Qualquer médico e qualquer pessoa com algum treinamento diria que o paciente deveria ir ao pronto-socorro”, disse o principal autor do estudo, Dr. Ashwin Ramaswamy, instrutor de urologia no Hospital Mount Sinai, em Nova York, à NBC News. Outras emergências, como acidentes vasculares cerebrais, que apresentavam sintomas inconfundíveis, foram diagnosticadas corretamente em 100% das vezes, explicou o estudo.

As respostas da pesquisa também incluíram: classificações muito grandes; Os resultados confirmam isso superclassificou 64,8% dos casos não urgentes e sugeriu consulta médica quando não era necessária;. Entre os casos, citam um paciente que estava com dor de garganta há três dias e foi orientado a consultar um médico nas próximas 24 a 48 horas; No entanto, o atendimento domiciliar seria suficiente.

Eles eram ainda mais sérios casos em que os usuários escreveram no chat com pensamentos suicidas. Nestes casos, isso bot de bate-papo Eu deveria tê-los encaminhado para o 988, a linha direta para suicídios e crises. No entanto, a investigação encontrou casos em que o ChatGPT Health se ofereceu para consultar um contacto quando não era necessário e não o ofereceu quando era.

Especialistas explicam que IA não substitui o conselho de um médicoGrátis

Um porta-voz da OpenAI observou que o estudo não reflete o uso ou atividade típica para a qual o ChatGPT Health foi criado. seria projetado para isso. que as pessoas possam fazer perguntas de acompanhamento e fornecer mais contexto para situações médicas, em vez de obter uma única resposta de um cenário clínico, explica a NBC News. A empresa também observou que o ChatGPT Health ainda está disponível para um pequeno número de usuários, pois eles trabalham para melhorar a segurança da ferramenta antes que ela seja disponibilizada para um público maior.

Como relata a mídia acima mencionada, quando Ramaswami foi questionado se robôs de bate-papo atualmente podem fornecer conselhos médicos e de saúde com segurança, a resposta foi não. Outro especialista consultado pela mesma mídia, Dr. Ethan Goh, CEO da ARISE, uma rede de pesquisa de IA, disse que em muitos casos a IA pode fornecer conselhos médicos e de saúde seguros, mas: Não substitui o conselho de um médico.

Especialistas apontam que uma das características da inteligência artificial que pode ser problemática nesse cenário é a tendência a piscar. tende a confirmar o que queremos ouvir e não incentiva o pensamento crítico. Ao mesmo tempo, há casos em que tem sido apresentado como particularmente positivo, especialmente em contextos rurais onde o acesso a um profissional de saúde é mais difícil.


Fonte da notícia

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *