Descubre cómo afectará la Ley de IA de la UE a los hospitales y a los pacientes de aquí a 2027. Tucuvi explica los plazos clave, los requisitos de seguridad y los beneficios para la adopción de la IA clínica y sanitaria.

En agosto de 2027, las soluciones médicas basadas en IA y reguladas como productos sanitarios bajo el MDR deberán cumplir plenamente con sus requisitos de seguridad, trazabilidad y supervisión humana. A menos de un año de la aplicación del AI Act a los sistemas de inteligencia artificial de alto riesgo, hospitales, pacientes y proveedores tecnológicos se preparan para un cambio regulatorio sin precedentes.
El 2 de agosto de 2026 comenzará la implantación progresiva de la norma, y un año después, en agosto de 2027, las soluciones médicas reguladas como productos sanitarios bajo el MDR deberán cumplir plenamente con sus requisitos de seguridad, trazabilidad y supervisión humana.
En este contexto, Tucuvi, compañía internacional de tecnología sanitaria pionera en proveer IA de voz certificada, analiza las implicaciones del nuevo marco regulatorio. La empresa, que este año se convirtió en la primera voz clínica con IA certificada como producto sanitario de clase IIb bajo el Reglamento Europeo de Productos Sanitarios (MDR), destaca cinco claves que ayudarán a hospitales y pacientes a entender su alcance y prepararse para su aplicación.
¿Qué cambia y cuándo?
El calendario que marcará la adaptación sanitaria Desde el 2 de febrero de 2025 ya están en vigor las primeras prohibiciones sobre usos de “riesgo inaceptable”, como la manipulación subliminal o el social scoring, además de la obligación de programas de alfabetización en IA para profesionales. El 2 de agosto de 2026 marcará un hito para múltiples sistemas de alto riesgo; y, en sanidad, las soluciones médicas reguladas como productos sanitarios (MDR/IVDR) deberán cumplir plenamente con los nuevos requisitos de seguridad, trazabilidad, supervisión humana y transparencia a partir del 2 de agosto de 2027.
La sanidad bajo la categoría de “alto riesgo”
El AI Act clasifica como de alto riesgo toda IA aplicada en entornos sanitarios con uso clínico, desde herramientas de apoyo clínico hasta componentes de productos médicos. Esto supone cumplir con controles reforzados en gestión de riesgos, gobernanza de datos, calidad y supervisión humana. Además, exige sistemas de vigilancia continua tras su implantación, con el fin de asegurar la seguridad y fiabilidad de estas soluciones en el tiempo.
Cómo se complementan el AI Act y el MDR
El nuevo reglamento europeo de IA no sustituye al MDR, sino que lo complementa para reforzar tanto la parte tecnológica como la clínica. Ambos comparten exigencias en calidad, gestión de riesgos y documentación técnica, lo que permitirá aprovechar sinergias en procesos de certificación y auditoría. Esto significa que los proveedores con marcado CE bajo MDR parten con ventaja, mientras que quienes aún no lo tienen deberán afrontar un proceso más exigente de adecuación regulatoria.
Innovación bajo principios sólidos
El sistema sanitario dispone de esta oportunidad para afianzar la confianza en las tecnologías emergentes. El AI Act, además de ordenar el mercado, impulsa una visión de futuro donde la innovación tecnológica se construye sobre unas bases sólidas, especialmente cuando se aplica a la salud de las personas. Esto permitirá priorizar soluciones con evidencia regulatoria, reduciendo riesgos y mejorando la experiencia asistencial.
Los beneficios esperados para pacientes
La nueva normativa sitúa al paciente en el centro al exigir requisitos de precisión y trazabilidad en las soluciones de IA sanitaria. Estas medidas contribuyen a reforzar la confianza de los usuarios y garantizar que las tecnologías utilizadas en su atención cuentan con niveles de precisión y robustez adecuados y supervisión humana. De esta manera, el AI Act contribuye a una sanidad más transparente, segura y cercana, donde la innovación se pone al servicio de la salud y la protección de las personas.
La aplicación de este nuevo marco no es únicamente un requisito normativo, sino un mecanismo para asegurar que la adopción de inteligencia artificial en salud se produce con garantías para pacientes, profesionales e instituciones. Operar dentro de un entorno regulado y con evidencia clínica consolida la confianza del sistema, reduce el riesgo y habilita una implementación responsable y escalable, afirma María González, cofundadora y CEO de Tucuvi.