¿Qué es la Ley de Inteligencia Artificial de la UE?
CAPLEA
Santander, 11.08.2025 - La Ley de Inteligencia Artificial (IA) es el primer marco jurídico en materia de IA, que aborda los riesgos de la IA y posiciona a Europa para desempeñar un papel de liderazgo a escala mundial.
La Ley de Inteligencia Artificial es el marco jurídico único para los sistemas de IA que operen en la Unión Europea: Reglamento (UE) 2024/1689, que entró en vigor oficialmente el 1 de agosto de 2024, y hace historia al ser el primer marco jurídico integral sobre IA en todo el mundo. De esta manera, la Unión Europea pretende liderar la regulación sobre inteligencia artificial global, fomentando una IA fiable en Europa y fuera de ella, garantizando que los sistemas de IA respeten los derechos fundamentales, la seguridad y los principios éticos y abordando los riesgos de modelos de IA muy potentes e impactantes", afirma la Comisión Europea.
Su objetivo es fomentar una IA fiable en Europa e imponer a los desarrolladores e implementadores de esta tecnología requisitos y obligaciones claras en relación con los usos de la IA. También busca reducir las cargas administrativas y financieras para las empresas, en particular las pequeñas y medianas (pymes).
¿Cómo se distribuyen las distintas obligaciones y prohibiciones?
La nueva Ley de IA europea tiene un enfoque basado en el riesgo, es decir, regula según el peligro que pueda suponer el modelo de inteligencia artificial para la seguridad y los derechos fundamentales.
Para ello define cuatro tipos de riesgos:
1_Riesgo mínimo o nulo: La mayoría de los sistemas de IA no plantean riesgos. Los juegos o los filtros de correo no deseado basados en la IA pueden utilizarse libremente, puesto que no están regulados ni se ven afectados por el Reglamento de IA de la UE.
2_Riesgo limitado: Los sistemas de IA que comportan un riesgo limitado, como los chatbots o los sistemas de IA generadores de contenido, están sujetos a obligaciones de transparencia, como la de informar a los usuarios de que su contenido se ha generado mediante IA para que puedan tomar decisiones con conocimiento de causa sobre su uso posterior.
3:_Riesgo alto: Los sistemas de IA de alto riesgo, como los utilizados en el diagnóstico de enfermedades, la conducción autónoma y la identificación biométrica de personas implicadas en actividades delictivas u objeto de investigaciones penales, deben cumplir unos requisitos y obligaciones estrictos para acceder al mercado de la UE. Entre ellos se incluyen unas pruebas rigurosas, transparencia y supervisión humana.
4_Riesgo inaceptable: Está prohibido en la UE el uso de sistemas de IA que supongan una amenaza para la seguridad, los derechos o los medios de subsistencia de las personas. Están prohibidos, por ejemplo, la manipulación cognitiva conductual, la actuación policial predictiva, el reconocimiento de emociones en lugares de trabajo y centros educativos, y la puntuación ciudadana, así como con algunas excepciones el uso en los espacios públicos, por parte de las autoridades garantes del cumplimiento del Derecho, de sistemas de identificación biométrica remota en tiempo real, como el reconocimiento facial.
¿Por qué necesitamos normas sobre IA?
La Ley de IA garantiza que los europeos puedan confiar en lo que la IA tiene para ofrecer. Si bien la mayoría de los sistemas de IA presentan un riesgo limitado a cero y pueden contribuir a resolver muchos desafíos sociales, ciertos sistemas de IA crean riesgos que debemos abordar para evitar resultados indeseables.
Por ejemplo, a menudo no es posible averiguar por qué un sistema de IA ha tomado una decisión o predicción y ha tomado una acción en particular. Por lo tanto, puede ser difícil evaluar si alguien ha sido injustamente desfavorecido, como en una decisión de contratación o en una solicitud de un plan de beneficios públicos.
Fuente: Consejo de la UE.
Si quieres más información sobre esta noticia pincha este enlace.
Santander, 11.08.2025 - La Ley de Inteligencia Artificial (IA) es el primer marco jurídico en materia de IA, que aborda los riesgos de la IA y posiciona a Europa para desempeñar un papel de liderazgo a escala mundial.
La Ley de Inteligencia Artificial es el marco jurídico único para los sistemas de IA que operen en la Unión Europea: Reglamento (UE) 2024/1689, que entró en vigor oficialmente el 1 de agosto de 2024, y hace historia al ser el primer marco jurídico integral sobre IA en todo el mundo. De esta manera, la Unión Europea pretende liderar la regulación sobre inteligencia artificial global, fomentando una IA fiable en Europa y fuera de ella, garantizando que los sistemas de IA respeten los derechos fundamentales, la seguridad y los principios éticos y abordando los riesgos de modelos de IA muy potentes e impactantes", afirma la Comisión Europea.
Su objetivo es fomentar una IA fiable en Europa e imponer a los desarrolladores e implementadores de esta tecnología requisitos y obligaciones claras en relación con los usos de la IA. También busca reducir las cargas administrativas y financieras para las empresas, en particular las pequeñas y medianas (pymes).
¿Cómo se distribuyen las distintas obligaciones y prohibiciones?
La nueva Ley de IA europea tiene un enfoque basado en el riesgo, es decir, regula según el peligro que pueda suponer el modelo de inteligencia artificial para la seguridad y los derechos fundamentales.
Para ello define cuatro tipos de riesgos:
1_Riesgo mínimo o nulo: La mayoría de los sistemas de IA no plantean riesgos. Los juegos o los filtros de correo no deseado basados en la IA pueden utilizarse libremente, puesto que no están regulados ni se ven afectados por el Reglamento de IA de la UE.
2_Riesgo limitado: Los sistemas de IA que comportan un riesgo limitado, como los chatbots o los sistemas de IA generadores de contenido, están sujetos a obligaciones de transparencia, como la de informar a los usuarios de que su contenido se ha generado mediante IA para que puedan tomar decisiones con conocimiento de causa sobre su uso posterior.
3:_Riesgo alto: Los sistemas de IA de alto riesgo, como los utilizados en el diagnóstico de enfermedades, la conducción autónoma y la identificación biométrica de personas implicadas en actividades delictivas u objeto de investigaciones penales, deben cumplir unos requisitos y obligaciones estrictos para acceder al mercado de la UE. Entre ellos se incluyen unas pruebas rigurosas, transparencia y supervisión humana.
4_Riesgo inaceptable: Está prohibido en la UE el uso de sistemas de IA que supongan una amenaza para la seguridad, los derechos o los medios de subsistencia de las personas. Están prohibidos, por ejemplo, la manipulación cognitiva conductual, la actuación policial predictiva, el reconocimiento de emociones en lugares de trabajo y centros educativos, y la puntuación ciudadana, así como con algunas excepciones el uso en los espacios públicos, por parte de las autoridades garantes del cumplimiento del Derecho, de sistemas de identificación biométrica remota en tiempo real, como el reconocimiento facial.
¿Por qué necesitamos normas sobre IA?
La Ley de IA garantiza que los europeos puedan confiar en lo que la IA tiene para ofrecer. Si bien la mayoría de los sistemas de IA presentan un riesgo limitado a cero y pueden contribuir a resolver muchos desafíos sociales, ciertos sistemas de IA crean riesgos que debemos abordar para evitar resultados indeseables.
Por ejemplo, a menudo no es posible averiguar por qué un sistema de IA ha tomado una decisión o predicción y ha tomado una acción en particular. Por lo tanto, puede ser difícil evaluar si alguien ha sido injustamente desfavorecido, como en una decisión de contratación o en una solicitud de un plan de beneficios públicos.
Fuente: Consejo de la UE.
Si quieres más información sobre esta noticia pincha este enlace.