Organizaciones piden un compromiso ético con la IA en la salud

Durante el simposio "Hackeando la Sanidad: Inteligencia Artificial en Salud," organizado por la Asociación de Innovadores en eSalud (AIES), la red ITEMAS (dependiente del Instituto de Salud Carlos III), y el Instituto #SaludsinBulos, se ha destacado la urgencia de una regulación profunda de la Inteligencia Artificial (IA) en el ámbito de la salud. El evento, enmarcado en el Hackathon Salud, un proceso de creación de soluciones digitales en salud liderado por profesionales sanitarios, ha reunido a diversas organizaciones y asociaciones que exigen un uso responsable de la IA para proteger la confidencialidad de los datos de los pacientes y combatir la desinformación.

El simposio ha servido como plataforma para que numerosas sociedades científicas y profesionales de la salud expresen su preocupación y propongan medidas concretas para reducir los riesgos asociados a la IA en el sector de la salud.

El potencial de la IA en la salud es innegable, ya que se espera que permita reducir la carga de trabajo de los profesionales sanitarios en hasta un 20% en el caso de los médicos y un 8% en el caso de las enfermeras. Esta reducción liberaría tiempo para una atención más personalizada a los pacientes. La doctora Carmen Jódar, responsable de estrategia digital en la Junta de Andalucía y presidenta de AIES, destaca que varios estudios han demostrado que la IA puede ofrecer diagnósticos más precisos que los equipos médicos convencionales y contribuir a una asignación más eficiente de los recursos de la asistencia sanitaria.

Sin embargo, la IA también plantea desafíos éticos y de desinformación en el campo de la salud. La proliferación de deep fakes y contenido manipulado por IA dificulta la distinción entre información veraz y falsa. Carlos Mateos, coordinador del Instituto #SaludsinBulos y del Hackathon Salud, advierte que este fenómeno es cada vez más evidente y se refleja en la aparición de referencias falsas en contenido generado por IA.

El compromiso ético en el uso de la IA en salud es una prioridad. El Hackathon Salud se ha propuesto impulsar soluciones basadas en la IA para combatir la desinformación en este ámbito. Además, la Asociación de Innovadores en eSalud y el Instituto #SaludsinBulos han promovido un compromiso ético en torno a la IA en salud que ha recibido el respaldo de sociedades científicas de Atención Primaria y enfermería, como la Sociedad Española de Medicina de Familia y Comunitaria (semFYC), la Sociedad Española de Médicos de Atención Primaria (SEMERGEN), y la Federación de Asociaciones de Enfermería Familiar y Comunitaria (FEACAP). Este compromiso busca garantizar un uso responsable y ético de la IA en el sector de la salud, protegiendo a los pacientes y combatiendo la desinformación.

Mientras se espera que se sumen el resto de las 70 organizaciones que mantienen acuerdos de colaboración con AIES y #SaludsinBulos, se han desarrollado diez puntos clave sobre los que trabajar el futuro de la inteligencia artificial en la salud.

1. Autonomía

Los sistemas de inteligencia artificial deben preservar la autonomía de las personas. En salud deben incorporar mecanismos que los profesionales sean capaces de revisar y corregir cualquier resultado procedente de una IA. Los profesionales, los pacientes y los ciudadanos son los responsables de las decisiones sanitarias.

2. Bienestar

El uso de la inteligencia artificial tiene que promover el bienestar de las personas, y su finalidad está orientada al interés público mediante el desarrollo de sistemas seguros, precisos, eficaces y de calidad.

3. Confiabilidad

Para que un sistema de IA inspire confianza en los profesionales sanitarios y ciudadanos debe ser legal; asegurando el cumplimiento de las normativas y evitando sesgos y creencias injustificadas.

4. Equidad

El uso y acceso a los sistemas de inteligencia artificial debe ser equitativo en la medida de lo posible, extendiéndose a todas las personas y regiones sin discriminación por cualquier tipo de condición. Los sistemas de salud deben anticipar la repercusión que tendrá en los profesionales y pacientes utilizar la IA, habituándoles en su uso.

5. Información veraz

La IA debe ayudar a la alfabetización en salud y a la identificación y difusión de la información veraz en salud. Por ello, hay que ayudar a la IA para identificar las fuentes de la información y las referencias, tanto de texto como de imagen, y contrarrestar la desinformación con información veraz.

6. Privacidad

Los sistemas de IA y sus entornos tecnológicos deben poseer mecanismos robustos que garanticen la privacidad y seguridad de los datos, de forma que sean tratados responsablemente en la asistencia sanitaria y en la investigación científica.

7. Representatividad

Las soluciones de IA deben ser entrenadas y utilizar datos fiables y representativos de su universo. Y así cumplir con los principios de justicia, igualdad, diversidad e inclusión con los que mitigar los riesgos para los derechos fundamentales y la seguridad.

8. Responsabilidad

Deben existir mecanismos, acogidos a la legislación, que aseguren la responsabilidad en el desarrollo y uso de los sistemas de IA y se debe cubrir y respaldar a todas aquellas personas que se sientan perjudicadas por decisiones basadas en estos sistemas.

9. Sostenibilidad

Los sistemas de IA deben ser evaluados de forma continua y transparente en situaciones reales para saber si cumplen de forma adecuada sus expectativas y las necesidades para las que fueron creados. Los sistemas deben reducir al mínimo sus efectos medioambientales y ser eficientes energéticamente.

10. Transparencia

La transparencia es la cualidad que hace posible que los sistemas de IA puedan ser comprensibles. Estos deben proveer de información suficiente para conocer sus capacidades y sus limitaciones.

Fuente EFE.

No te pierdas una noticia, suscribete gratis para recibir DiarioSalud en tu correo, siguenos en Facebook, Instagram, Twitter, Linkedln, telegram y Youtube

Publicidad
Publicidad
Publicidad
Publicidad
Publicidad