El contexto normativo de la inteligencia artificial (IA) en el ámbito sanitario en Europa está marcado principalmente por cuatro normativas claves, regulaciones que buscan garantizar que la IA se implemente de forma segura, ética y fiable, protegiendo tanto la privacidad como los derechos de los pacientes y estableciendo obligaciones estrictas para los desarrolladores y usuarios de sistemas de IA en salud.
- El Reglamento Europeo de Inteligencia Artificial (AI Act).
Entró en vigor en 2024 y es el primer marco jurídico europeo sobre IA. Clasifica los sistemas de IA según su nivel de riesgo, considerando como de alto riesgo aquellos que afectan directamente a diagnósticos o tratamientos médicos. Exige requisitos estrictos como supervisión humana efectiva, transparencia, trazabilidad, gestión de riesgos, calidad de datos, explicabilidad y auditoría de las decisiones automatizadas.
- El Reglamento General de Protección de Datos (RGPD).
Regula la gestión y protección de datos personales, incluyendo datos clínicos sensibles, asegurando la privacidad y seguridad de la información sanitaria manejada por sistemas de IA.
- El Reglamento de Productos Sanitarios (MDR).
Regula los dispositivos médicos que incorporan IA, estableciendo validaciones exhaustivas para garantizar su seguridad y eficacia clínica antes de su uso o comercialización.
- El Reglamento del Espacio Europeo de Datos Sanitarios (EEDS).
Aprobado como Reglamento (UE) 2025/327, es una normativa clave que establece un marco común y armonizado para el uso y el intercambio seguro y ético de datos de salud electrónicos en toda la Unión Europea. Su objetivo principal es mejorar el acceso de las personas a sus datos de salud electrónicos personales, así como facilitar la reutilización de dichos datos con fines de investigación, innovación, políticas públicas y respuesta a amenazas para la salud, respetando siempre la privacidad y seguridad de los pacientes. Complementa al AI Act y al RGPD al proporcionar un marco específico para el manejo y gobernanza de los datos de salud.
Obligaciones y prohibiciones de los sistemas de IA en salud:
- Los sistemas de IA en salud deben contar con mecanismos para garantizar la explicabilidad de las decisiones, permitir la supervisión humana y evitar sesgos o discriminación.
- Se prohíbe el uso de IA que manipule subliminalmente decisiones clínicas, explote vulnerabilidades de pacientes o clasifique sin base clínica clara.
- Es obligatorio implementar sistemas de gestión de calidad que aseguren la fiabilidad y seguridad desde el diseño hasta el seguimiento de las herramientas de IA.
´
- Las autoridades sanitarias pueden ordenar la retirada o suspensión de sistemas de IA que representen un riesgo para la salud incluso antes de sancionar.
Por tanto, estas normativas europeas configuran un entorno regulatorio riguroso que fomenta la confianza, innovación responsable y protección del paciente, aunque pueden ralentizar la adopción rápida de tecnologías. En contraste, otros países como Estados Unidos regulan la IA sanitaria bajo la Administración de Alimentos y Medicamentos (FDA) con un enfoque más ágil y centrado en validación técnica y clínica pre-mercado.
En España y la Unión Europea se prepara también legislación complementaria para regular el uso de big data, neurotecnologías, y fomentar la interoperabilidad de la historia clínica digital con IA.
En resumen, la regulación de la IA en el ámbito sanitario en Europa se articula para asegurar un equilibrio entre innovación tecnológica y protección de los derechos y salud de los pacientes, estableciendo un marco normativo integral y exigente para todas las etapas del ciclo de vida de las soluciones de IA en salud.


