Investigadoras abordan desafíos para implantar la IA en el ámbito de la salud

En el año 2022, la Unión Europea marcó un hito al aprobar un sistema pionero que utiliza inteligencia artificial (IA) para analizar radiografías de tórax sin requerir la intervención de un radiólogo experto. Este sistema automatizado emite informes de pacientes sin anomalías y remite las imágenes dudosas a especialistas para su revisión, aliviando la carga de trabajo del personal médico. A medida que la IA reconfigura la relación entre la tecnología y el entorno humano, sus aplicaciones en el campo de la salud se multiplican y ofrecen prometedoras soluciones, como el diagnóstico de enfermedades, la identificación de lesiones y el desarrollo de medicamentos.

Las investigadoras Lara Lloret y Miriam Cobo, expertas en IA aplicada al diagnóstico médico por imagen, plantean que a pesar de los logros obtenidos, aún persisten retos que deben superarse para que los algoritmos de aprendizaje automático y profundo se integren plenamente en la práctica clínica. Estas cuestiones se exploran en su libro "Inteligencia artificial y medicina" (CSIC-Catarata). Los desafíos están vinculados con la calidad de los datos médicos y los algoritmos utilizados, y abordan cuestiones transversales como la privacidad y la ética.

El aprendizaje profundo, basado en redes neuronales, ha impulsado áreas como la visión artificial y el procesamiento del lenguaje natural, lo cual ha transformado el análisis de imágenes médicas. No obstante, Lloret y Cobo señalan una paradoja: el gran potencial de esta tecnología se encuentra limitado por la escasez de datos adecuados para los algoritmos. La información clínica suele carecer de estructura orientada al análisis posterior, resultando en pequeños conjuntos de datos que no permiten un entrenamiento efectivo.

La privacidad es otro reto. Aunque se pueden emplear datos anonimizados, la información genética, por ejemplo, no puede ser completamente anonimizada sin perder su utilidad. Los sesgos también afectan a los algoritmos, y los expertos advierten sobre sesgos estadísticos y sociales. La falta de representación adecuada en los datos puede ocasionar problemas de precisión y resultados desiguales para ciertos grupos de población.

La interpretabilidad es esencial para ganar la confianza en los sistemas de IA y entender sus decisiones. Lloret y Cobo defienden la necesidad de modelos interpretables sobre los de tipo caja negra, ya que permiten comprender los procesos de toma de decisiones y son fundamentales para la ciencia. La seguridad también es un factor crítico, con ejemplos de ciberataques en la atención médica que subrayan la importancia de un marco regulador adecuado.

La ética en la IA aplicada a la medicina es transversal y exige regulaciones legales apropiadas. La responsabilidad por decisiones incorrectas es un tema pendiente de resolución, y la IA responsable se define como un sistema que cumple con ciertas normas y permite identificar a los responsables en caso de incumplimiento.

Si bien la IA en medicina presenta desafíos, Lloret y Cobo subrayan su potencial para transformar el diagnóstico y la toma de decisiones clínicas. En los próximos años, la aprobación de sistemas de diagnóstico basados en IA para su uso en entornos clínicos reales será más frecuente. Superar los retos y desarrollar herramientas adecuadas será fundamental para aprovechar al máximo estas técnicas de manera segura y efectiva.

No te pierdas una noticia, suscribete gratis para recibir DiarioSalud en tu correo, siguenos en Facebook, Instagram, Twitter, Linkedln, telegram y Youtube

Publicidad
Publicidad
Publicidad
Publicidad
Publicidad