Icono del sitio DiarioSalud.do

OMS publica guía sobre ética y gobernanza de la inteligencia artificial

Spread the love

La Organización Mundial de la Salud (OMS) publica nuevas orientaciones sobre la ética y la gobernanza de grandes modelos multimodales (LMM), un tipo de tecnología de inteligencia artificial (IA) generativa de rápido crecimiento con aplicaciones en toda la atención sanitaria.

La guía describe más de 40 recomendaciones para que las consideren gobiernos, empresas de tecnología y proveedores de atención médica para garantizar el uso apropiado de LMM para promover y proteger la salud de las poblaciones.

Los LMM pueden aceptar uno o más tipos de entradas de datos, como texto, vídeos e imágenes, y generar diversos resultados que no se limitan al tipo de datos introducidos. Los LMM son únicos en su imitación de la comunicación humana y su capacidad para realizar tareas para las que no fueron programados explícitamente. Los LMM se han adoptado más rápido que cualquier aplicación de consumo en la historia, y varias plataformas (como ChatGPT, Bard y Bert) entrarán en la conciencia pública en 2023.

«Las tecnologías de IA generativa tienen el potencial de mejorar la atención sanitaria, pero sólo si quienes las desarrollan, las regulan y las utilizan identifican y tienen plenamente en cuenta los riesgos asociados», afirmó el Dr. Jeremy Farrar, científico jefe de la OMS. «Necesitamos información y políticas transparentes para gestionar el diseño, desarrollo y uso de LMM para lograr mejores resultados de salud y superar las desigualdades sanitarias persistentes».

Beneficios y riesgos potenciales

La nueva guía de la OMS describe cinco aplicaciones amplias de los LMM para la salud:

Si bien los LMM están comenzando a utilizarse para fines específicos relacionados con la salud, también existen riesgos documentados de producir declaraciones falsas, inexactas, sesgadas o incompletas, que podrían perjudicar a las personas que utilizan dicha información para tomar decisiones de salud. Además, los LMM pueden estar entrenados con datos de mala calidad o sesgados, ya sea por raza, etnia, ascendencia, sexo, identidad de género o edad.

La guía también detalla riesgos más amplios para los sistemas de salud, como la accesibilidad y asequibilidad de los LMM de mejor rendimiento. Los LMMS también pueden fomentar un «sesgo de automatización» por parte de los profesionales de la salud y los pacientes, mediante el cual se pasan por alto errores que de otro modo se habrían identificado o se delegan incorrectamente decisiones difíciles a un LMM. Los LMM, al igual que otras formas de IA, también son vulnerables a riesgos de ciberseguridad que podrían poner en peligro la información del paciente o la confiabilidad de estos algoritmos y la prestación de atención médica en general.

Para crear LMM seguros y eficaces, la OMS subraya la necesidad de la participación de diversas partes interesadas: gobiernos, empresas de tecnología, proveedores de atención médica, pacientes y sociedad civil, en todas las etapas del desarrollo y despliegue de dichas tecnologías, incluida su supervisión y regulación.

«Los gobiernos de todos los países deben liderar de manera cooperativa los esfuerzos para regular eficazmente el desarrollo y el uso de tecnologías de inteligencia artificial, como los LMM», dijo el Dr. Alain Labrique, Director de Salud Digital e Innovación de la División de Ciencias de la OMS.

Recomendaciones clave

La nueva guía de la OMS incluye recomendaciones para los gobiernos, quienes tienen la responsabilidad principal de establecer estándares para el desarrollo y despliegue de LMM, y su integración y uso con fines médicos y de salud pública. Por ejemplo, los gobiernos deberían:

La guía también incluye las siguientes recomendaciones clave para los desarrolladores de LMM, quienes deben garantizar que:

Acceda a la publicación aquí.

fecha:

Salir de la versión móvil