#RIA – Reglamento de Inteligencia Artificial

Conoce qué establece el nuevo Reglamento de la Inteligencia Artificial: Ambito, Obligaciones, Implicaciones, … 

Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, por el que se establecen normas armonizadas en materia de inteligencia artificial.

https://eur-lex.europa.eu/legal-content/ES/TXT/?uri=OJ:L_202401689

El objetivo del Reglamento es garantizar la seguridad y los derechos fundamentales de los ciudadanos de la UE promoviendo la adopción de una Inteligencia artificial (IA) «centrada en el ser humano y fiable», estableciendo las directrices y normativas específicas para el desarrollo, despliegue y uso de la IA. 

El Reglamento busca asegurar que la IA se desarrolle y utilice de manera ética y segura, minimizando los riesgos asociados y promoviendo la innovación responsable. Contempla los requisitos que se han de cumplir y las obligaciones de los operadores, así como prohibiciones de ciertas prácticas. También recoge normas de seguimiento y vigilancia dentro del mercado y medidas de apoyo a la innovación, especialmente para pymes.

Entrada en vigor

Aunque entrará en vigor a los 20 días de su publicación (1 de Agosto de 2024), su aplicación se realizará de forma escalonada:

  • Las disposiciones generales y las prohibiciones de determinadas prácticas relacionadas con la IA serán aplicables a partir del 1 de febrero de 2025.
  • Las previsiones relativas a los organismos notificados, a los sistemas de IA generales pero que implican riesgos sistémicos, al sistema de gobernanza de la IA en la Unión Europea y buena parte del sistema sancionador serán aplicables a partir del 1 de agosto de 2025.
  • La regulación de ciertos sistemas de IA de alto riesgo y las obligaciones correspondientes del presente Reglamento serán aplicables a partir del 1 de agosto de 2027.

Categorías en función del riesgo

El Reglamento establece diferentes categorías en función del riesgo que representen los distintos sistemas de IA para la derechos de las personas (riesgo inaceptable, alto riesgo, riesgo limitado y riesgo mínimo).

Riesgo Inaceptable

El reglamento prohíbe ciertos usos de la IA considerados inaceptables debido a su potencial para causar daños significativos. Entre estos usos se incluyen:

  • Sistemas de IA que manipulen comportamientos humanos: Por ejemplo, aquellos que utilizan técnicas subliminales para influir en personas de manera que las hagan actuar contra sus intereses.
  • Puntuaciones sociales: La utilización de IA por parte de las autoridades públicas para puntuar a los ciudadanos basándose en su comportamiento social.
  • Reconocimiento facial en tiempo real en espacios públicos: Con excepciones muy limitadas, como la búsqueda de un sospechoso de un crimen grave.

Riesgo Alto

Los sistemas de IA considerados de alto riesgo están sujetos a estrictos requisitos debido a su potencial impacto en la seguridad o los derechos fundamentales. Las áreas cubiertas por esta categoría incluyen:

  • Infraestructura crítica: Como la energía y el transporte, donde fallos en los sistemas de IA podrían poner en riesgo la vida o la salud.
  • Educación y formación profesional: Sistemas que determinan el acceso a la educación o la carrera profesional de una persona.
  • Empleo y gestión de trabajadores: IA utilizada en procesos de contratación, evaluación de desempeño y terminación de contratos.
  • Servicios esenciales: Como la banca y los servicios públicos, donde errores en los sistemas de IA podrían afectar significativamente a los ciudadanos.

Riesgo Limitado

Para los sistemas de IA considerados de riesgo limitado, el reglamento establece menos obligaciones, pero aun así requiere ciertas medidas para garantizar la transparencia y la responsabilidad. Los usuarios de estos sistemas deben:

  • Proveer notificaciones: Informar a los usuarios cuando están interactuando con un sistema de IA, a menos que sea evidente por el contexto.
  • Permitir la supervisión humana: Asegurar que existan mecanismos para la correcta supervisión humana cuando sea necesario (por ejemplo profesiones colegiadas como Abogados, Médicos, Arquitectos, Ingenieros, etc)

Riesgo Mínimo

El hecho de que el RIA no establezca obligaciones específicas para las aplicaciones de IA que no estén incluidas dentro de las categorías anteriores, no implica que no se deban atender y gestionar los riesgos legales derivados del uso de la IA que puedan implicar ilícitos en materias relacionadas con Propiedad Intelectual, Protección de Datos, Confidencialidad, Secreto empresarial, Ciberseguridad, Defensa de Consumidores y Usuarios, Derecho Laboral, Derecho Civil, Derecho Penal etc.

Obligaciones

Cada categoría conlleva distintas obligaciones, responsabilidades e intensidad regulatoria.

  • Evaluación de riesgos: Obligación de realizar evaluaciones de riesgo para los sistemas de IA utilizados, especialmente los de alto riesgo.
  • Registro y documentación: Mantener registros detallados de los sistemas de IA utilizados, incluyendo su finalidad, funcionamiento y medidas de seguridad implementadas.
  • Supervisión humana: Garantizar una supervisión humana adecuada de los sistemas de IA, especialmente en aquellos de alto riesgo.
  • Formación y capacitación: Asegurar que el personal que trabaja con sistemas de IA esté debidamente formado y capacitado.
  • Gestión de calidad: Implementar sistemas de gestión de calidad para los sistemas de IA de alto riesgo.
  • Notificación de incidentes: Obligación de notificar a las autoridades competentes cualquier incidente grave o mal funcionamiento de los sistemas de IA de alto riesgo.
  • Colaboración con las autoridades: Cooperar con las autoridades nacionales en las inspecciones y auditorías que puedan realizarse.
  • Adaptación de procesos y políticas: Revisar y adaptar los procesos y políticas internas para cumplir con los requisitos del Reglamento.
  • Designación de responsables: Posible necesidad de designar responsables internos para la gestión y cumplimiento de la normativa de IA.
  • Evaluación de proveedores: Asegurar que los proveedores de sistemas de IA cumplan con los requisitos del Reglamento.