Nuevo Reglamento de IA en la UE

El 1 de agosto de 2024 entró en vigor el Reglamento de Inteligencia Artificial (RIA) de la Unión Europea, el primer marco global que establece directrices para el desarrollo y uso ético y seguro de la IA. Con categorizaciones de riesgo y estrictas obligaciones, las empresas deberán adaptarse a esta nueva normativa para evitar sanciones que pueden alcanzar hasta el 7% de su facturación global.

Este marco regulatorio establece directrices para garantizar un uso ético, seguro y responsable de la IA, promoviendo la innovación y protegiendo los derechos fundamentales.

Clasificación de Riesgos de la IA

  1. Riesgo Inaceptable: Prohibiciones como manipulación de comportamientos, puntuaciones sociales y reconocimiento facial en tiempo real (con pocas excepciones).
  2. Riesgo Alto: Estrictos controles en áreas críticas como infraestructura, educación, empleo y servicios esenciales. Obligaciones incluyen gestión de riesgos, transparencia y supervisión humana.
  3. Riesgo Limitado: Requiere notificaciones a los usuarios y supervisión humana.
  4. Riesgo Mínimo: Sin obligaciones específicas, pero deben gestionarse riesgos legales.

Impacto en las Empresas

  • Desarrolladores: Evaluar riesgos, documentar y auditar sistemas, e incorporar principios éticos.
  • Usuarios empresariales: Seleccionar proveedores conformes, supervisar el uso de la IA y capacitar empleados.

Plazos y Sanciones

El reglamento se aplicará completamente en fases, con sanciones de hasta el 7% del volumen de negocios anual global o 35 millones de euros por incumplimientos.

Autoridad de Control

La Oficina de Inteligencia Artificial de la UE supervisará la implementación del reglamento, coordinando con agencias nacionales como la AESIA en España.

Conclusión

El RIA establece un marco legal para un desarrollo tecnológico ético, obligando a las empresas a adaptarse y prevenir riesgos legales, operativos y reputacionales. Es un paso hacia un futuro responsable en la IA.