AI Act · Clasificación · Obligaciones
AI Act 2026: cómo clasificar tus sistemas de IA y cumplir obligaciones por nivel de riesgo
El Reglamento Europeo de IA (AI Act) entró en vigor el 1 de agosto de 2024 y ya no es un texto futuro: las primeras obligaciones se aplican desde febrero de 2025, los modelos de propósito general desde agosto de 2025, y los sistemas de alto riesgo desde agosto de 2026. Las sanciones llegan a 35 millones de euros o el 7 % de la facturación global. Esta guía explica qué obligaciones concretas tiene tu empresa según su rol, cómo clasificar tus sistemas de IA y por dónde empezar sin duplicar trabajo con NIS2, DORA o RGPD.
Resumen ejecutivo
- Marco horizontal: el AI Act regula por uso y nivel de riesgo, no por sector ni tecnología. Aplica si pones en el mercado o usas IA en la UE, aunque tu empresa esté fuera.
- Cuatro niveles de riesgo: prohibido, alto riesgo, riesgo limitado (transparencia) y riesgo mínimo. Cada uno con obligaciones distintas.
- Plazos clave 2025-2027: feb 2025 prohibiciones y alfabetización; ago 2025 modelos de propósito general (GPAI) y gobernanza; ago 2026 sistemas de alto riesgo Anexo III; ago 2027 alto riesgo Anexo I.
- Roles distintos, obligaciones distintas: proveedor, responsable del despliegue, importador y distribuidor tienen cargas muy diferentes. Identificar tu rol es el primer paso.
- Sanciones: hasta 35 M € o 7 % de facturación global por prácticas prohibidas; 15 M € o 3 % por incumplimientos de alto riesgo y GPAI; 7,5 M € o 1,5 % por información inexacta a autoridades.
1. Qué es realmente el AI Act y a quién afecta
El AI Act (Reglamento UE 2024/1689) es el primer marco normativo integral del mundo dedicado a la inteligencia artificial. A diferencia del RGPD, no se centra en datos personales: regula los sistemas de IA como productos, en función del riesgo que generan para la salud, la seguridad y los derechos fundamentales.
Tres ideas que las empresas españolas siguen confundiendo en 2026:
Aplica por uso, no por tecnología
Un mismo modelo puede ser riesgo mínimo en una aplicación y alto riesgo en otra. Un clasificador de imágenes para etiquetar fotos de producto no tiene obligaciones materiales; el mismo clasificador integrado en un sistema de selección de personal pasa a ser alto riesgo automáticamente (Anexo III, punto 4).
Aplica fuera de la UE si el output llega a la UE
El alcance es extraterritorial. Si tu proveedor estadounidense ofrece un sistema cuyo resultado se utiliza en España, está obligado. Y tú, como responsable del despliegue europeo, también.
Convive con RGPD, NIS2, DORA y sectoriales
El AI Act no sustituye nada: se suma. Un sistema de scoring crediticio con IA tiene que cumplir AI Act (alto riesgo), RGPD (datos personales), DORA (resiliencia operativa si es entidad financiera) y la normativa sectorial bancaria. La clave operativa es integrar gobernanzas, no duplicar.
2. Los cuatro niveles de riesgo
Riesgo inaceptable (prohibido desde feb 2025)
Prácticas vedadas en cualquier circunstancia: manipulación subliminal con daño material, explotación de vulnerabilidades, social scoring por autoridades públicas, identificación biométrica remota en tiempo real en espacios públicos (con excepciones tasadas para fuerzas de seguridad), categorización biométrica por características sensibles, reconocimiento de emociones en el trabajo y en educación, y predicción policial basada solo en perfilado.
Alto riesgo (obligaciones materiales desde ago 2026)
Dos categorías: sistemas que son componentes de seguridad de productos regulados (Anexo I: vehículos, dispositivos médicos, juguetes, ascensores…) y sistemas de los ámbitos listados en el Anexo III: biometría, infraestructuras críticas, educación, empleo, servicios esenciales (banca, seguros, prestaciones), aplicación de la ley, migración, administración de justicia y procesos democráticos.
Riesgo limitado (transparencia, desde ago 2026)
Chatbots, sistemas de generación de imagen/vídeo/texto y deepfakes. Obligación principal: informar al usuario de que interactúa con una IA o de que el contenido es sintético, con marcado legible por máquina.
Riesgo mínimo
Todo lo demás: filtros antispam, recomendadores de producto, videojuegos con IA. Sin obligaciones materiales más allá de los códigos de conducta voluntarios.
3. Sistemas de alto riesgo: qué obligaciones tienes realmente
Si pones en el mercado o despliegas un sistema de alto riesgo, te enfrentas a un paquete de obligaciones equivalente al de un dispositivo médico de clase IIa. No es un trámite: es un sistema de gestión completo.
Obligaciones del proveedor
- Sistema de gestión de riesgos documentado durante todo el ciclo de vida del sistema (art. 9).
- Gobernanza de datos de entrenamiento, validación y test: relevancia, representatividad, sesgos identificados y mitigados (art. 10).
- Documentación técnica completa antes de poner el sistema en el mercado, mantenida durante 10 años (art. 11 + Anexo IV).
- Registro automático de eventos (logs) trazables durante toda la vida útil (art. 12).
- Transparencia e información al usuario: manuales de uso, capacidades, limitaciones, sesgos residuales, medidas de supervisión humana (art. 13).
- Supervisión humana efectiva: el operador puede entender, interpretar y, cuando proceda, revertir o no aplicar la decisión del sistema (art. 14).
- Robustez, precisión y ciberseguridad proporcionales al uso y al estado del arte (art. 15).
- Sistema de gestión de la calidad documentado (art. 17), evaluación de la conformidad, declaración CE y marcado CE.
- Registro en la base de datos europea antes de la puesta en servicio (art. 71).
- Vigilancia post-comercialización y notificación de incidentes graves a la autoridad nacional en 15 días (art. 72-73).
Obligaciones del responsable del despliegue (deployer)
Si tu empresa usa un sistema de alto riesgo (por ejemplo, un ATS de selección de candidatos):
- Usar el sistema conforme al manual del proveedor.
- Garantizar supervisión humana por personas formadas.
- Monitorizar el funcionamiento y suspender el uso si detectas riesgo.
- Conservar los logs generados, mínimo 6 meses.
- Informar a las personas afectadas cuando se toman decisiones basadas en el sistema.
- Realizar una FRIA (Fundamental Rights Impact Assessment) si eres organismo público o prestas servicios públicos esenciales (art. 27).
- Si tu uso modifica sustancialmente el propósito del sistema, asumes obligaciones de proveedor.
La FRIA: cuándo es obligatoria
La evaluación de impacto en los derechos fundamentales es obligatoria para organismos públicos y entidades que prestan servicios públicos (educación, salud, vivienda social, prestaciones) cuando despliegan sistemas de alto riesgo del Anexo III. Para el resto, es altamente recomendable como prueba de diligencia. Debe incluir: descripción del proceso, periodo, personas afectadas, riesgos específicos, medidas de mitigación, supervisión humana y procedimiento de queja.
4. Modelos de propósito general (GPAI): obligaciones desde agosto 2025
Esta es la parte que afecta directamente a quien desarrolla o adapta modelos fundacionales (GPT, Llama, Mistral, Claude…). Las obligaciones se aplican al proveedor del modelo, no al usuario final.
Todos los GPAI
- Documentación técnica del modelo y del proceso de entrenamiento.
- Información a los proveedores aguas abajo que integren el modelo.
- Política para respetar la normativa de copyright de la UE.
- Resumen suficientemente detallado del contenido usado para entrenar el modelo (plantilla AI Office obligatoria).
GPAI con riesgo sistémico
Se presume riesgo sistémico cuando el cómputo total de entrenamiento supera 10²⁵ FLOPs (umbral revisable). Para estos modelos, además:
- Evaluación del modelo con metodologías estandarizadas, incluyendo red-teaming adversarial.
- Análisis y mitigación de riesgos sistémicos posibles a escala UE.
- Registro y reporte de incidentes graves a la AI Office en plazos definidos.
- Nivel de ciberseguridad adecuado para modelo y infraestructura física.
Para empresas que no entrenan modelos propios pero los integran (la mayoría): tu obligación principal es elegir proveedores conformes y reflejarlo en el contrato (cláusulas de cumplimiento AI Act, derechos de información, plan de continuidad).
5. Plazos clave (timeline operativo)
- 1 ago 2024 — Entrada en vigor del Reglamento.
- 2 feb 2025 — Aplicación de prohibiciones (capítulo II) y obligación de alfabetización en IA del personal (art. 4).
- 2 ago 2025 — Obligaciones de GPAI, gobernanza europea (AI Office, AI Board), autoridades nacionales designadas, régimen sancionador aplicable.
- 2 ago 2026 — Aplicación general del Reglamento. Obligaciones plenas para sistemas de alto riesgo del Anexo III y para sistemas de transparencia (riesgo limitado).
- 2 ago 2027 — Obligaciones para sistemas de alto riesgo del Anexo I (componentes de seguridad de productos regulados) y para GPAI puestos en el mercado antes de ago 2025 (transición).
En España, la AESIA (Agencia Española de Supervisión de la Inteligencia Artificial), con sede en A Coruña, es la autoridad nacional de referencia desde 2023, coordinada con AEPD, CNMC, Banco de España y autoridades sectoriales para los casos solapados.
6. Convergencia con NIS2, DORA y RGPD: no duplicar trabajo
El error más caro que veo en empresas españolas es montar cuatro programas de cumplimiento en paralelo. Las normas se solapan deliberadamente; aprovecharlo ahorra meses de esfuerzo.
Solapamientos operativos clave
- Gestión de riesgos: art. 9 AI Act ↔ art. 21 NIS2 ↔ art. 6 DORA. Un único marco de riesgos con anexos específicos por norma.
- Gobernanza de datos: art. 10 AI Act ↔ principios RGPD (calidad, minimización, exactitud). El registro de tratamientos del RGPD documenta el 70 % de lo que pide el AI Act.
- Documentación técnica + logs: AI Act 10 años + NIS2 trazabilidad + DORA registro de incidentes. Una política de retención común vale para los tres.
- Notificación de incidentes: AI Act 15 días (incidente grave) + NIS2 early warning 24 h + DORA 4 h. Un único proceso con tres canales de salida.
- Supervisión humana / responsabilidad: AI Act art. 14 ↔ RGPD art. 22 (decisiones automatizadas). Mismo control, dos justificaciones jurídicas.
Estructura recomendada
Un Comité de Gobernanza Tecnológica que combine CISO, DPO, responsable de IA, compliance y un representante del negocio. Una matriz de obligaciones única, donde cada control mapea a las normas que cubre. Y un único inventario de sistemas: cada sistema de IA tiene su ficha con clasificación AI Act, base legal RGPD, criticidad NIS2 y, si aplica, función crítica DORA.
7. Checklist práctico 2026: por dónde empezar
Si tu empresa aún no ha hecho nada estructurado, este es el orden razonable para los próximos 90 días.
Mes 1: inventario y clasificación
- Inventario de todos los sistemas de IA en uso o en desarrollo (incluye SaaS, plugins, copilots).
- Para cada uno: proveedor, propósito, datos usados, decisión que produce, personas afectadas.
- Clasificación de riesgo según AI Act (prohibido / alto / limitado / mínimo).
- Identificación de tu rol (proveedor / responsable del despliegue / importador / distribuidor) para cada sistema.
- Lanzar el programa de alfabetización en IA obligatorio desde feb 2025 (art. 4). Materiales adaptados por perfil.
Mes 2: gobernanza y políticas
- Política corporativa de IA aprobada por dirección.
- Comité de gobernanza tecnológica con calendario de reuniones.
- Procedimiento de evaluación previa de nuevos sistemas (gate AI/risk).
- Plantilla FRIA y criterios para activarla.
- Cláusulas contractuales tipo para proveedores de IA (GPAI, alto riesgo, datos).
Mes 3: controles técnicos y plan
- Para sistemas alto riesgo identificados: gap analysis vs. art. 8-15.
- Plan de remediación priorizado por fecha de aplicación (Anexo III: ago 2026).
- Procedimiento de supervisión humana y formación específica de operadores.
- Plan de respuesta a incidentes con flujo único AI Act / NIS2 / DORA / RGPD.
- Auditoría interna de cumplimiento programada para el último trimestre.
8. Errores frecuentes que veo en empresas en 2026
- Tratar el AI Act como "otro RGPD": el AI Act regula productos, no tratamientos. La lógica jurídica es distinta y los equipos responsables también.
- Asumir que "no tenemos IA": los copilots integrados en CRM, ERP, herramientas RRHH y ofimática son IA. Si tu Workday o tu SAP tienen módulos de IA, los tienes.
- Confiar en el "AI Act compliance" del proveedor sin contrato: el responsable del despliegue tiene obligaciones propias. Si el proveedor falla y tú no documentaste tu diligencia, respondes.
- Saltarse la alfabetización: es obligatoria desde feb 2025 para todo el personal que interactúe con sistemas IA, no solo técnicos. Es de los primeros puntos que pueden inspeccionar.
- Olvidar la transparencia: usar chatbots o generadores de contenido sin informar al usuario es incumplimiento aunque el sistema sea de riesgo limitado. Multa proporcional.
- No mapear con NIS2/DORA/RGPD: equipos paralelos compitiendo por presupuesto, controles duplicados, fricción interna.
- Modificar sustancialmente un sistema de tercero sin asumir el rol de proveedor: fine-tuning fuerte sobre un modelo open source puede convertirte en proveedor del nuevo sistema, con todas las obligaciones.
9. Preguntas frecuentes
¿El AI Act se aplica a una pyme española?
Sí. El AI Act aplica con independencia del tamaño. Lo que cambia con el tamaño es el régimen de simplificaciones: pymes y startups tienen acceso prioritario a los sandboxes regulatorios, plantillas reducidas de documentación técnica y multas proporcionales menores. Pero las obligaciones materiales son las mismas si tu sistema entra en alto riesgo o si eres proveedor de un GPAI.
¿Qué pasa si en la empresa usamos ChatGPT, Claude o Gemini?
Usar un asistente conversacional genérico para tareas de oficina es riesgo limitado o mínimo en la mayoría de los casos, así que las obligaciones materiales son escasas: transparencia básica (informar al cliente si recibe contenido generado por IA), alfabetización del personal y diligencia sobre datos confidenciales. Cambia el escenario cuando integras esos modelos en un sistema que toma decisiones sobre personas (selección, crédito, evaluación de empleados): ahí pasas a alto riesgo y a obligaciones plenas.
¿Cuándo es obligatorio realizar una FRIA?
Para organismos públicos y entidades privadas que prestan servicios públicos esenciales (educación, salud, vivienda social, prestaciones sociales) cuando despliegan un sistema de alto riesgo del Anexo III, antes de su puesta en uso. Para el resto no es estrictamente obligatoria, pero realizarla es la mejor defensa frente a una inspección y frente a posibles reclamaciones de personas afectadas.
¿Cómo se acredita la conformidad de un sistema de alto riesgo?
Mediante evaluación de la conformidad, que en la mayoría de casos del Anexo III es autoevaluación documentada por el proveedor (control interno). Para sistemas de identificación biométrica remota es obligatorio organismo notificado. El resultado se materializa en la declaración UE de conformidad, el marcado CE y el registro en la base de datos europea de sistemas de alto riesgo gestionada por la Comisión.
¿Qué multas reales se están aplicando en 2026?
En el primer semestre de 2026 las autoridades nacionales han priorizado expedientes informativos y sancionadores leves vinculados a prohibiciones (feb 2025) y a obligaciones GPAI (ago 2025). Los expedientes graves por alto riesgo empezarán a abrirse a partir de ago 2026, cuando entran plenamente en aplicación. El tope sancionador es real: 35 M € o 7 % global por prácticas prohibidas; 15 M € o 3 % por incumplimientos alto riesgo y GPAI; 7,5 M € o 1,5 % por información inexacta a autoridades.
¿El AI Act sustituye al RGPD?
No. Conviven y se complementan. El RGPD regula el tratamiento de datos personales; el AI Act regula los sistemas de IA como productos. Si tu sistema de IA usa datos personales (la mayoría), cumples ambos a la vez. El art. 22 RGPD sobre decisiones automatizadas sigue plenamente vigente y se refuerza con la supervisión humana del art. 14 AI Act.
¿Qué papel tiene la AESIA?
La Agencia Española de Supervisión de la Inteligencia Artificial, con sede en A Coruña, es la autoridad nacional de referencia para el AI Act en España. Coordina con AEPD (datos), CNMC (mercados), Banco de España (financiero) y autoridades sectoriales. Es quien tramitará la mayoría de los expedientes y quien gestiona los sandboxes regulatorios para empresas.
¿Por dónde empiezo si mañana tengo que reportar avances al consejo?
Tres entregables que cualquier consejo entiende: (1) inventario de sistemas de IA con clasificación de riesgo y rol de la empresa por sistema; (2) gap analysis frente a las obligaciones aplicables en 2026 (alto riesgo Anexo III, transparencia, alfabetización); (3) plan a 12 meses con hitos, responsables y presupuesto, integrado con NIS2 / DORA / RGPD para evitar duplicidades. Con eso demuestras diligencia y das visibilidad real del riesgo legal y operativo.
Cierre operativo
El AI Act no es un cumplimiento más: es la primera regulación horizontal del mundo sobre IA y va a marcar cómo las empresas españolas y europeas diseñan, contratan y operan sistemas inteligentes durante la próxima década. Los plazos de 2026 son inmediatos, las sanciones son materiales, y la inspección administrativa ya tiene herramientas. La buena noticia: gran parte del trabajo se reutiliza si lo integras con NIS2, DORA y RGPD desde el primer día.
Si estás liderando esta iniciativa en tu empresa y necesitas ayuda para acelerar el inventario, la clasificación de riesgos, la FRIA o el plan de cumplimiento integrado, puedo ayudarte como AI Project Manager externo. Cuéntame tu caso →