Reglamento de la IA
- Cristina Lara Moreno
- 31 jul
- 3 Min. de lectura
El día 2 de agosto entra en vigor un nuevo bloque de artículos del Reglamento de la IA, relacionados con Sistemas de Alto Riesgo.

El at. 113 del Reglamento, en relacion con la entrada en vigor de la norma dispone que: el capítulo III, sección 4, el capítulo V, el capítulo VII y el capítulo XII y el artículo 78 serán aplicables a partir del 2 de agosto de 2025, a excepción del artículo 101.
Hace referencia a Sistemas de Alto Riesgo.
Hablemos de las implicaciones de este Reglamento, el primero a nivel mundial en regular la IA.
El Reglamento de Inteligencia Artificial (IA) de la Unión Europea, aprobado en junio de 2023, marca un hito en la regulación de los sistemas de IA a nivel mundial. En LECOVER Abogados, especialistas en derecho tecnológico, analizamos las implicaciones legales de esta nueva normativa y sus desafíos regulatorios.
¿Qué es el Reglamento de Inteligencia Artificial?
Este reglamento establece un marco normativo para garantizar el uso seguro, ético y transparente de la IA, con especial énfasis en la protección de los derechos fundamentales. Se inspira en precedentes como el Reglamento General de Protección de Datos (RGPD), buscando convertirse en un referente global. Sin embargo, la aplicación práctica de sus principios plantea diversas interrogantes y dificultades.
Principales Claves del Reglamento
El reglamento clasifica los sistemas de IA según su nivel de riesgo, imponiendo diferentes requisitos:
Riesgo inaceptable: sistemas prohibidos, como la vigilancia biométrica masiva o la manipulación subliminal.
Alto riesgo: sujetos a estrictos requisitos de seguridad y supervisión, como los sistemas de IA en contratación laboral o evaluación crediticia.
Riesgo limitado: obligados a transparencia, como los chatbots y generadores de contenido.
Riesgo mínimo: sin restricciones específicas, como asistentes virtuales básicos.
Impacto en Empresas y Usuarios
El reglamento afecta a proveedores y usuarios de IA dentro y fuera de la UE, siempre que sus sistemas tengan impacto en el territorio europeo. Esto implica que empresas tecnológicas, startups y desarrolladores deberán adaptar sus productos para cumplir con la normativa y evitar sanciones.
Además, se regula la identificación biométrica, limitando su uso a casos excepcionales, lo que impacta a sectores como la seguridad y la administración pública.
Desafíos y Críticas Regulatorias
A pesar de su ambición, el reglamento ha generado controversia. Se critica que su aplicación práctica puede frenar la innovación y que sus disposiciones podrían ser demasiado restrictivas para ciertos sectores.
Algunos de los principales problemas incluyen:
Definición amplia de IA: La normativa abarca sistemas que podrían no considerarse IA en términos estrictos, lo que genera confusión y carga regulatoria excesiva.
Complejidad en el cumplimiento: La categorización por niveles de riesgo puede resultar ambigua y dificultar la aplicación uniforme de la norma.
Exclusiones polémicas: No regula el uso de IA con fines militares o de seguridad nacional, lo que genera preocupaciones sobre su verdadero alcance y efectividad.
Impacto en la competitividad europea: Exigir altos estándares a los desarrolladores europeos mientras otras regiones tienen regulaciones más laxas podría poner en desventaja a la UE en el ámbito global.
Conclusión
El Reglamento de IA de la UE representa un avance en la regulación de la inteligencia artificial, pero también plantea desafíos significativos en su implementación. Es crucial encontrar un equilibrio entre innovación y protección de derechos fundamentales para evitar un marco excesivamente rígido que obstaculice el desarrollo tecnológico. En LECOVER Abogados, asesoramos a empresas y profesionales del sector tecnológico en el cumplimiento normativo, ayudándoles a navegar este complejo panorama legal.
Comentarios