Que salvaguardas devem ser implementadas para as interações de saúde da IA? – Notícias Deseret

Que salvaguardas devem ser implementadas para as interações de saúde da IA? – Notícias Deseret

Mundo

Outra família juntou-se à lista de enlutados que buscam responsabilização legal pelas mortes de seus filhos, que dizem ter sido causadas por inteligência artificial digital.

O calouro da faculdade Sam Nelson morreu de overdose de drogas no ano passado, aos 19 anos. Seus pais disseram à CBS News que seu filho usou a ferramenta ChatGPT da OpenAI para obter informações sobre as dosagens dos medicamentos que deveria tomar. Eles processaram a empresa de IA na terça-feira.

A ação alega que o chatbot deu conselhos médicos que não estava autorizado a dar, como dizer a Nelson que era “seguro tomar kratom, um suplemento encontrado em bebidas, comprimidos e outros produtos, em combinação com Xanax, um ansiolítico amplamente utilizado”.

Como outros pais, Leila Turner-Scott disse que a conversa de seu filho com o ChatGPT não foi sinalizada e que “redes de segurança” não foram fornecidas.

“Não é seguro só porque alguém diz que é seguro”, disse Turner-Scott. Ele realmente achava que tinha tudo sob controle. Ele realmente pensou que estava pesquisando coisas que poderiam ser seguras. E ele estava muito errado.

Ela descobriu o filho em seu quarto, de lábios azuis e indiferente. Segundo o Telegraph, na noite de sua morte, Nelson perguntou ao chatbot se o Xanax poderia aliviar a náusea causada pela ingestão de 15 gramas de kratom.

Um porta-voz disse à CBS News que a versão do ChatGPT que Nelson estava usando foi atualizada e não funciona mais. Eles também disseram que a situação era “dolorosa” e expressaram suas condolências pela perda da família.

Um porta-voz disse: “O ChatGPT não substitui os cuidados médicos ou de saúde mental e continuamos a fortalecer a forma como ele responde em situações sensíveis e agudas com a contribuição de especialistas em saúde mental. “As medidas de segurança no ChatGPT hoje são projetadas para detectar desconforto, lidar com solicitações maliciosas com segurança e orientar os usuários para ajuda no mundo real. Isso está em andamento e continuamos a melhorá-lo em estreita consulta com os médicos”.

No início deste ano, a OpenAI lançou o ChatGPT Health, que se autodenomina uma ferramenta de saúde e bem-estar.

“O ChatGPT Health é baseado em fortes controles de privacidade, segurança e dados em todo o ChatGPT, com proteções adicionais em camadas projetadas especificamente para a saúde – incluindo criptografia direcionada e isolamento para proteger e segmentar conversas sobre saúde”, diz a descrição do produto.

Turner Scott não está à venda.

Ele disse que o conceito era “absolutamente aterrorizante”. “Com o tipo de conselho que ele deu a Sam… qualquer médico teria perdido sua licença.”



Fonte da notícia

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *