ChatGPT não é confiável como ferramenta para consultas urológicas, mostra nova pesquisa

blog

LarLar / blog / ChatGPT não é confiável como ferramenta para consultas urológicas, mostra nova pesquisa

Aug 10, 2023

ChatGPT não é confiável como ferramenta para consultas urológicas, mostra nova pesquisa

Embora novos estudos continuem a elogiar os sucessos da inteligência artificial na interpretação de dados médicos e no fornecimento de conselhos, parece faltar pelo menos uma categoria médica importante para a saúde.

Embora novos estudos continuem a elogiar os sucessos da inteligência artificial na interpretação de dados médicos e no aconselhamento, parece faltar pelo menos uma categoria médica importante para os idosos: a urologia.

Quando questionados sobre questões médicas comuns, os pacientes podem consultar um médico sobre complicações urinárias, o popular chatbot ChatGPT ficou muito aquém dos padrões clínicos e, em muitos casos, as informações fornecidas não eram nada precisas.

Esta é a primeira vez que o ChatGPT foi avaliado especificamente para urologia, afirmam os pesquisadores.

Mas o potencial da IA ​​para oferecer informações imprecisas ou tendenciosas sobre cuidados de saúde tem sido uma grande preocupação desde que a utilização da tecnologia explodiu no início deste ano.

Talvez por isso, os pacientes também continuem preocupados com os usos clínicos da IA.

Algumas das condições mais comuns que os idosos apresentam e que levam a complicações urinárias incluem aumento da próstata (os sintomas estão presentes em cerca de metade dos homens com 75 anos ou mais) e demência. As próprias infecções do trato urinário também podem levar a complicações adicionais em idosos, como delírio ou frequência cardíaca anormal.

No estudo de urologia, realizado na Universidade da Flórida, no Departamento de Urologia de Gainesville, o ChatGPT não apenas fornecia frequentemente informações imprecisas, como recomendações de tratamento incorretas, mas também o fazia com “confiança”, afirmaram os pesquisadores.

Outros resultados foram igualmente contundentes: o chatbot ofereceu respostas que os pesquisadores consideraram “apropriadas” apenas 60% das vezes.

“O ChatGPT interpreta mal as diretrizes de cuidados clínicos, descarta informações contextuais importantes, oculta suas fontes e fornece referências inadequadas”, concluíram os pesquisadores.