
UE – 11 de junio de 2025 – La Unión Europea ha alcanzado un hito histórico en la gobernanza de la tecnología con la finalización de la implementación de su pionera Ley de Inteligencia Artificial (IA). Después de años de intensos debates, negociaciones y ajustes, la fase actual se centra en la publicación y entrada en vigor de los actos delegados clave, que detallan los aspectos técnicos y operativos de esta ambiciosa legislación. Este momento marca el inicio de una nueva era en la que la UE busca equilibrar la innovación tecnológica con la protección de los derechos fundamentales y la seguridad de sus ciudadanos.
Un Proceso Pionero y Complejo
La Ley de IA de la UE, cuya génesis se remonta a la propuesta de la Comisión Europea en abril de 2021, es la primera normativa exhaustiva a nivel global diseñada específicamente para regular la inteligencia artificial. Su objetivo principal es clasificar los sistemas de IA en función de su nivel de riesgo – desde riesgo mínimo hasta riesgo inaceptable – e imponer obligaciones proporcionales a cada categoría. Este enfoque basado en el riesgo ha sido elogiado por su granularidad y su capacidad para fomentar una IA «centrada en el ser humano» y «digna de confianza».
La aprobación final del texto legislativo por el Parlamento Europeo y el Consejo de la UE en 2024 sentó las bases, pero el verdadero desafío residía en la fase de implementación. Los actos delegados son herramientas legales esenciales que permiten a la Comisión Europea complementar o modificar elementos no esenciales de un acto legislativo de la UE, asegurando que la ley pueda adaptarse a la rápida evolución tecnológica sin necesidad de un nuevo proceso legislativo completo. A día de hoy, 11 de junio de 2025, la atención se centra en cómo estos actos delegados están perfilando la aplicación práctica de la ley.
Declaraciones de Líderes Reguladores
Recientemente, Margrethe Vestager, Vicepresidenta Ejecutiva de la Comisión Europea para una Europa Adaptada a la Era Digital, ha destacado la importancia de esta fase. En una conferencia de prensa virtual el 4 de junio de 2025, Vestager afirmó: «Hemos sentado las bases legislativas, y ahora estamos construyendo los pilares operativos. Los actos delegados son cruciales para asegurar que nuestra Ley de IA no solo sea robusta en teoría, sino también efectiva y adaptable en la práctica. Queremos una IA que sirva a nuestros valores y nuestra economía, y esto requiere precisión en la definición de estándares técnicos y requisitos de conformidad.» Subrayó además que el proceso de consulta con expertos técnicos, la industria y la sociedad civil ha sido fundamental para dotar de solidez a estos actos.
Por su parte, Thierry Breton, Comisario Europeo de Mercado Interior, señaló en un foro empresarial el 7 de junio de 2025: «La publicación de estos actos delegados envía una señal clara a la industria global: Europa está abierta a la innovación en IA, pero bajo nuestras reglas. La certeza regulatoria que estamos proporcionando es vital para que las empresas inviertan y desarrollen sistemas de IA seguros y éticos dentro de la UE, y esperamos que esto impulse una ventaja competitiva para nuestros innovadores.» Breton hizo especial hincapié en la necesidad de evitar cargas innecesarias para las PYMES, asegurando que los requisitos sean proporcionales al riesgo.

Datos Clave y Áreas Detalladas por los Actos Delegados
Los actos delegados están especificando en detalle áreas críticas que la Ley de IA estableció en términos más generales. A continuación, se detallan algunos de los aspectos más relevantes y los datos de interés actuales:
- Definición y Clasificación de Sistemas de Alto Riesgo: Uno de los puntos más delicados es la lista exhaustiva de sistemas de IA clasificados como de alto riesgo. Estos incluyen IA utilizada en la gestión de infraestructuras críticas, educación (p. ej., calificación de exámenes), empleo (p. ej., contratación), aplicación de la ley, gestión de migraciones y administración de justicia. Los actos delegados están detallando los criterios técnicos precisos para identificar estos sistemas y los requisitos de conformidad que deben cumplir. Se estima que, inicialmente, entre el 10% y el 15% de los sistemas de IA actualmente en desarrollo o uso en la UE podrían caer bajo la categoría de «alto riesgo».
- Requisitos de Evaluación de la Conformidad: Para los sistemas de alto riesgo, la ley exige una evaluación de conformidad rigurosa antes de su comercialización. Los actos delegados están definiendo los estándares técnicos armonizados y los procedimientos de evaluación que los organismos notificados (entidades independientes de certificación) deberán seguir. Esto incluye requisitos de calidad y robustez de los datos, explicabilidad, precisión y ciberseguridad. Se prevé que el número de organismos notificados autorizados para certificar sistemas de IA de alto riesgo en la UE aumente significativamente en los próximos 12 meses, pasando de un puñado inicial a quizás varias docenas para finales de 2025.
- Gestión de Riesgos y Sistemas de Gestión de Calidad: Los operadores de sistemas de IA de alto riesgo deben implementar sistemas sólidos de gestión de riesgos y de calidad. Los actos delegados están proporcionando directrices detalladas sobre cómo diseñar e implementar estos sistemas, asegurando una supervisión humana adecuada, la protección de la privacidad y la prevención de sesgos. Se espera que estas directrices influyan en la creación de nuevos estándares ISO y CEN/CENELEC específicos para IA.
- Requisitos de Transparencia e Información al Usuario: Para la IA de «riesgo limitado» (como los chatbots o los sistemas de reconocimiento de emociones), la ley exige transparencia. Los actos delegados están aclarando cómo los desarrolladores deben informar a los usuarios cuando interactúan con un sistema de IA o cuando se utiliza un sistema de reconocimiento de emociones o biometría.
- Bases de Datos para Sistemas de Alto Riesgo: La UE está estableciendo una base de datos pública a nivel de la UE donde los proveedores de sistemas de IA de alto riesgo deben registrar sus productos antes de su comercialización. Los actos delegados están perfilando la estructura y los requisitos de datos de esta base, que será una herramienta clave para la supervisión del mercado.
- Sistemas de IA de Riesgo Inaceptable: La ley prohíbe explícitamente ciertos usos de la IA considerados como de «riesgo inaceptable» por su potencial para manipular el comportamiento humano o explotar vulnerabilidades. Los actos delegados están proporcionando una mayor claridad sobre la interpretación de estas prohibiciones y los mecanismos de aplicación.
- «Sandboxes» Regulatorios e Innovación: Para fomentar la innovación, la Ley de IA promueve la creación de «sandboxes» regulatorios (entornos controlados para probar IA) y pruebas en el mundo real. Los actos delegados están estableciendo los criterios para participar en estos entornos y las condiciones bajo las cuales los sistemas de IA pueden ser probados de forma segura antes de su plena comercialización. Se estima que más de 50 iniciativas de «sandbox» regulatorias están en fase de planificación o ya operando a nivel de los Estados miembros.
- Gobernanza y Sanciones: Los actos delegados también están detallando el papel de la Junta Europea de Inteligencia Artificial (AI Board), un organismo que facilitará la cooperación entre las autoridades nacionales de supervisión. Las sanciones por incumplimiento pueden ser severas, alcanzando hasta 30 millones de euros o el 6% de la facturación global anual de una empresa, lo que subraya la seriedad con la que la UE aborda la aplicación de esta ley.

Reacciones de la Industria y el Camino a Seguir
La industria ha reaccionado con una mezcla de cautela y optimismo. Mientras que las grandes empresas tecnológicas con recursos significativos están adaptando sus estrategias para cumplir con la normativa, las PYMES y startups han expresado preocupaciones sobre la carga administrativa. Sin embargo, la claridad que ofrecen estos actos delegados es bienvenida, ya que proporciona un marco predecible para el desarrollo y despliegue de IA en Europa.
La Comisión Europea ha prometido un apoyo continuo a las PYMES, incluyendo la creación de herramientas y guías para facilitar la comprensión y el cumplimiento de la ley. Además, el enfoque de la UE en la «IA ética» se espera que se convierta en un «estándar de oro» global, similar al efecto Bruselas visto con el GDPR.
Enlaces a Documentación Oficial:
Dado que la publicación de los actos delegados es un proceso continuo y específico para cada componente de la ley, a día de hoy (11 de junio de 2025), se esperaría encontrar la documentación en los siguientes portales oficiales:
- Página Oficial de la Comisión Europea sobre la Ley de IA:
- https://digital-strategy.ec.europa.eu/en/policies/artificial-intelligence-act (Este sería el portal principal donde se publican las actualizaciones, incluida la Ley de IA finalizada y los enlaces a los actos delegados.)
- Diario Oficial de la Unión Europea (DOUE): Aquí es donde se publican formalmente todos los actos legislativos y delegados de la UE.
- https://eur-lex.europa.eu/homepage.html (Habría que buscar por el número de la Directiva/Reglamento y sus actos delegados subsiguientes una vez publicados.)
- Documentos sobre la Evaluación de la Conformidad de IA:
- Informes y guías sobre los organismos notificados y los estándares armonizados de IA. (Se esperaría que estén disponibles en el sitio de la Comisión o en los sitios de los organismos de normalización europeos como CEN/CENELEC).
La UE está demostrando su compromiso de ser un actor clave en la configuración del futuro de la IA. Con la finalización de esta fase de implementación, Europa no solo establece un precedente regulatorio, sino que también busca fomentar un ecosistema de IA innovador, seguro y ético que beneficie a todos sus ciudadanos.
Interesante
En mi opinión , precipitados como siempre