Regulación IA

Cumplimiento IA
EU AI Act

La primera regulación integral de IA del mundo ya está en vigor. Ayudamos a empresas españolas a entender sus obligaciones y cumplirlas sin paralizar sus operaciones de IA.

Calendario de obligaciones EU AI Act

Las fechas que marcan cuándo aplica cada obligación

Agosto 2024
Entrada en vigor

El Reglamento entra en vigor. Comienza el período de transición.

Febrero 2025
Prohibición de prácticas inaceptables

Quedan prohibidos los sistemas de IA de riesgo inaceptable: puntuación social, manipulación subliminal, explotación de vulnerabilidades, reconocimiento de emociones en entornos laborales/educativos.

Agosto 2025
Modelos de IA de propósito general (GPAI)

Los proveedores de modelos LLM y sistemas de IA de uso general deben cumplir con requisitos de transparencia, documentación técnica y derechos de autor.

Agosto 2026
Sistemas de alto riesgo — Plena aplicación

Obligaciones completas para sistemas IA en: RRHH y contratación, scoring crediticio, educación, infraestructuras críticas, aplicación de la ley, acceso a servicios públicos.

¿Cómo te afecta el EU AI Act?

El impacto depende de qué rol tienes en el ecosistema IA y qué tipo de sistemas utilizas o desarrollas. La mayoría de empresas cree que no les afecta — y casi siempre está equivocada.

Prohibido Riesgo Inaceptable

Sistemas de puntuación social, manipulación subliminal, reconocimiento de emociones en trabajo/educación (con excepciones). Prohibidos desde Feb 2025.

Alto Riesgo Riesgo Alto — Obligaciones exigentes

IA en RRHH, crédito, educación, infraestructuras críticas, salud, seguros. Requiere: evaluación de conformidad, documentación técnica, registro en base de datos UE, supervisión humana.

Limitado Riesgo Limitado — Transparencia

Chatbots, sistemas generadores de contenido. Obligación de informar al usuario de que interactúa con IA. Marking de deepfakes.

Mínimo Riesgo Mínimo — Sin obligaciones

Filtros de spam, juegos con IA, recomendaciones de contenido en plataformas. Sin obligaciones regulatorias específicas (aunque aplica RGPD).

Nuestro servicio de cumplimiento

01
Inventario de sistemas IA

Mapeamos todos los sistemas IA que usas o desarrollas, incluyendo los que no reconoces como "IA" (scoring, automatizaciones, modelos predictivos).

02
Clasificación de riesgo

Clasificamos cada sistema según los criterios del EU AI Act. Identificamos cuáles están en categorías de riesgo alto y cuáles pueden estar en zona gris.

03
Gap analysis y hoja de ruta

Comparamos el estado actual con los requisitos aplicables. Priorizamos por urgencia (fechas) e impacto (coste de no cumplir).

04
Documentación técnica

Elaboramos la documentación exigida: ficha técnica del sistema, evaluación de riesgos, registro de datos de entrenamiento, procedimientos de supervisión.

05
Formación del equipo

Formamos a los responsables de sistemas IA en las obligaciones aplicables y en cómo mantener el cumplimiento continuo.

Preguntas frecuentes

¿Qué es el EU AI Act?

El EU AI Act es la primera regulación integral sobre inteligencia artificial del mundo. Aprobado en 2024, clasifica los sistemas IA por niveles de riesgo y establece obligaciones según esa clasificación. Su objetivo es garantizar que la IA en la UE sea segura, transparente y respetuosa con los derechos fundamentales.

¿Mi empresa necesita cumplir con el EU AI Act?

Si tu empresa opera en la UE o sus productos/servicios se usan en la UE, aplica. Afecta tanto a proveedores de sistemas IA (los que desarrollan) como a empresas que los despliegan o usan en contextos profesionales. La mayoría de empresas tiene al menos algún sistema en categoría de riesgo limitado (chatbots, generadores de contenido).

¿Cuáles son las sanciones por incumplimiento?

Las multas van desde 7,5 millones de euros o el 1,5% de la facturación global anual (para obligaciones de transparencia) hasta 35 millones de euros o el 7% de la facturación global anual (para prácticas prohibidas). Las sanciones son proporcionales al tamaño de la empresa y la gravedad de la infracción.

¿Afecta a empresas que solo usan IA de terceros?

Sí. Si usas sistemas IA de alto riesgo en tus operaciones (por ejemplo, un software de RRHH con scoring de candidatos), tienes obligaciones como "deployador" incluso si no desarrollaste el sistema. Debes verificar que el proveedor cumple, configurar el sistema correctamente y mantener supervisión humana.