Nueva Ley europea de Inteligencia Artificial: ¿cómo afectará al uso comercial de los dispositivos médicos?

La implementación de la nueva ley europea de Inteligencia Artificial ha puesto de manifiesto la necesidad de definir límites legales y éticos para esta tecnología. El propósito principal de la norma es asegurar que los sistemas de inteligencia artificial comercializados en Europa cumplan con estándares de seguridad y respeten los valores y derechos fundamentales de la Unión Europea (UE).

Desde la firma suiza de software especializada en soluciones deep tech, ERNI Consulting España, Alberto Martín, director de Tecnología e Innovación, explica que “si bien esta Ley de IA representa un hito histórico, es necesario establecer normas concretas y sin lagunas, ya que la ambigüedad en estas podría ralentizar el proceso y limitar el potencial transformador de la IA”.

Y es que esta ley, pionera a nivel mundial, aspira a regular el uso de la IA adaptando un enfoque “basado en el riesgo” y aplicando reglas más estrictas según de qué manera pueda afectar a la seguridad los sistemas de IA comercializados en el mercado europeo.

Dos visiones de la Ley de IA

Desde ERNI señalan que esta nueva normativa presenta una dualidad importante: por un lado, la norma actúa como una garantía de “filtro de calidad” para los proyectos de IA aprobados y destinados al uso comercial, sin embargo, las barreras operativas y la amenaza de multas excesivas podrían convertirse en un obstáculo para la innovación, especialmente para las pequeñas empresas y startups.

Paralelamente, la ley pone sobre la mesa una clasificación del riesgo que pueden llegar a representar los diferentes sistemas de IA (riesgo mínimo, alto riesgo, riesgo inadmisible). Por ejemplo, la ley contempla como “alto riesgo”  los sistemas de IA que se utilicen en productos sujetos a la legislación de la UE sobre seguridad de los productos, incluyendo los dispositivos médicos.

En este caso, desde ERNI Consulting explican que en el ámbito médico, una IA no podrá tomar decisiones para los pacientes, y en cualquier caso, un sistema de inteligencia artificial siempre se considerará de alto riesgo si elabora perfiles de personas físicas.

Finalmente, dependiendo de la infracción y el tamaño de la empresa, el incumplimiento de esta ley en la UE implicará multas que oscilan entre los 35 millones de euros o el 7% de la facturación global y los 7,5 millones o el 1,5% de la facturación.

No te pierdas una noticia, suscribete gratis para recibir DiarioSalud en tu correo, siguenos en Facebook, Instagram, Twitter, Linkedln, telegram y Youtube

Publicidad
Publicidad
Publicidad
Publicidad
Publicidad