Un estudio reciente revela que aunque la inteligencia artificial puede identificar enfermedades y medicamentos con alta precisión, falla al interpretar síntomas humanos y ofrecer diagnósticos confiables.
En la era digital, cada vez más personas recurren a herramientas en línea para resolver dudas sobre su salud. Sin embargo, los expertos advierten que confiar en la inteligencia artificial para obtener diagnósticos médicos puede ser peligroso. Así lo demuestra un estudio dirigido por Ahmed Abdeen Hamed, investigador de la Universidad de Binghamton, publicado en la revista iScience, que evaluó la capacidad de ChatGPT para ofrecer información médica precisa.
El análisis reveló que el chatbot de inteligencia artificial puede identificar enfermedades, medicamentos y datos genéticos con una precisión de entre el 88% y el 97%, pero presenta grandes limitaciones cuando los usuarios describen síntomas de manera informal o ambigua, como suele ocurrir en la vida real.
“La gente le pregunta a ChatGPT: ‘Tengo estos síntomas, ¿tengo cáncer?’ o ‘¿debería ir al hospital?’”, explicó Hamed. “Aunque puede reconocer enfermedades conocidas, no logra establecer relaciones fiables entre los síntomas y sus causas médicas”.
Una confianza que puede ser peligrosa
El Dr. Andrew Thornton, médico de Wellstar Health System en Atlanta, advirtió que el problema más serio no es la falta de conocimiento técnico, sino la confianza convincente con la que la IA responde.
“ChatGPT presenta la información con el mismo tono de seguridad, tanto si es correcta como si no lo es. Eso puede dar a los pacientes una falsa sensación de certeza”, señaló Thornton.
El especialista insistió en que, ante cualquier emergencia médica, la única respuesta adecuada es buscar atención profesional:
“Si una persona siente síntomas graves, no debe consultar con un chatbot ni perder tiempo buscando en internet. Es el momento de llamar al 911 o acudir al hospital inmediatamente”.
El auge del “Dr. ChatGPT”
El uso de herramientas de inteligencia artificial para consultas de salud está creciendo rápidamente. Una encuesta del Pew Research Center reveló que el 34% de los adultos estadounidenses ha utilizado ChatGPT, el doble que en 2023. Además, un estudio de la KFF Health Disinformation Survey indicó que el 17% de los adultos usa chatbots de IA al menos una vez al mes para obtener consejos médicos, cifra que asciende al 25% entre los menores de 30 años.
Thornton explicó que cada vez más pacientes mencionan sus búsquedas en línea durante las consultas médicas.
“Los pacientes ahora comparten lo que han leído en internet, incluso antes de explicar sus síntomas. Es algo cotidiano”, dijo.
Usar la IA con responsabilidad
Los investigadores coinciden en que las herramientas de IA pueden servir como apoyo educativo, pero no deben sustituir la valoración médica profesional.
“La inteligencia artificial puede ayudar a comprender mejor una enfermedad o un medicamento”, aclaró Thornton. “Pero no debería usarse para autodiagnosticarse ni para decidir tratamientos”.
El estudio concluye que, si bien ChatGPT representa un avance notable en el procesamiento del lenguaje médico, todavía carece de la precisión clínica, el juicio ético y la responsabilidad que requiere la atención médica real.
Fuente: Medical Express
fecha: