AI Act · Clasificación · Obligaciones

AI Act 2026: cómo clasificar tus sistemas de IA y cumplir obligaciones por nivel de riesgo

El Reglamento Europeo de IA (AI Act) entró en vigor el 1 de agosto de 2024 y ya no es un texto futuro: las primeras obligaciones se aplican desde febrero de 2025, los modelos de propósito general desde agosto de 2025, y los sistemas de alto riesgo desde agosto de 2026. Las sanciones llegan a 35 millones de euros o el 7 % de la facturación global. Esta guía explica qué obligaciones concretas tiene tu empresa según su rol, cómo clasificar tus sistemas de IA y por dónde empezar sin duplicar trabajo con NIS2, DORA o RGPD.

Resumen ejecutivo

1. Qué es realmente el AI Act y a quién afecta

El AI Act (Reglamento UE 2024/1689) es el primer marco normativo integral del mundo dedicado a la inteligencia artificial. A diferencia del RGPD, no se centra en datos personales: regula los sistemas de IA como productos, en función del riesgo que generan para la salud, la seguridad y los derechos fundamentales.

Tres ideas que las empresas españolas siguen confundiendo en 2026:

Aplica por uso, no por tecnología

Un mismo modelo puede ser riesgo mínimo en una aplicación y alto riesgo en otra. Un clasificador de imágenes para etiquetar fotos de producto no tiene obligaciones materiales; el mismo clasificador integrado en un sistema de selección de personal pasa a ser alto riesgo automáticamente (Anexo III, punto 4).

Aplica fuera de la UE si el output llega a la UE

El alcance es extraterritorial. Si tu proveedor estadounidense ofrece un sistema cuyo resultado se utiliza en España, está obligado. Y tú, como responsable del despliegue europeo, también.

Convive con RGPD, NIS2, DORA y sectoriales

El AI Act no sustituye nada: se suma. Un sistema de scoring crediticio con IA tiene que cumplir AI Act (alto riesgo), RGPD (datos personales), DORA (resiliencia operativa si es entidad financiera) y la normativa sectorial bancaria. La clave operativa es integrar gobernanzas, no duplicar.

2. Los cuatro niveles de riesgo

Riesgo inaceptable (prohibido desde feb 2025)

Prácticas vedadas en cualquier circunstancia: manipulación subliminal con daño material, explotación de vulnerabilidades, social scoring por autoridades públicas, identificación biométrica remota en tiempo real en espacios públicos (con excepciones tasadas para fuerzas de seguridad), categorización biométrica por características sensibles, reconocimiento de emociones en el trabajo y en educación, y predicción policial basada solo en perfilado.

Alto riesgo (obligaciones materiales desde ago 2026)

Dos categorías: sistemas que son componentes de seguridad de productos regulados (Anexo I: vehículos, dispositivos médicos, juguetes, ascensores…) y sistemas de los ámbitos listados en el Anexo III: biometría, infraestructuras críticas, educación, empleo, servicios esenciales (banca, seguros, prestaciones), aplicación de la ley, migración, administración de justicia y procesos democráticos.

Riesgo limitado (transparencia, desde ago 2026)

Chatbots, sistemas de generación de imagen/vídeo/texto y deepfakes. Obligación principal: informar al usuario de que interactúa con una IA o de que el contenido es sintético, con marcado legible por máquina.

Riesgo mínimo

Todo lo demás: filtros antispam, recomendadores de producto, videojuegos con IA. Sin obligaciones materiales más allá de los códigos de conducta voluntarios.

3. Sistemas de alto riesgo: qué obligaciones tienes realmente

Si pones en el mercado o despliegas un sistema de alto riesgo, te enfrentas a un paquete de obligaciones equivalente al de un dispositivo médico de clase IIa. No es un trámite: es un sistema de gestión completo.

Obligaciones del proveedor

  1. Sistema de gestión de riesgos documentado durante todo el ciclo de vida del sistema (art. 9).
  2. Gobernanza de datos de entrenamiento, validación y test: relevancia, representatividad, sesgos identificados y mitigados (art. 10).
  3. Documentación técnica completa antes de poner el sistema en el mercado, mantenida durante 10 años (art. 11 + Anexo IV).
  4. Registro automático de eventos (logs) trazables durante toda la vida útil (art. 12).
  5. Transparencia e información al usuario: manuales de uso, capacidades, limitaciones, sesgos residuales, medidas de supervisión humana (art. 13).
  6. Supervisión humana efectiva: el operador puede entender, interpretar y, cuando proceda, revertir o no aplicar la decisión del sistema (art. 14).
  7. Robustez, precisión y ciberseguridad proporcionales al uso y al estado del arte (art. 15).
  8. Sistema de gestión de la calidad documentado (art. 17), evaluación de la conformidad, declaración CE y marcado CE.
  9. Registro en la base de datos europea antes de la puesta en servicio (art. 71).
  10. Vigilancia post-comercialización y notificación de incidentes graves a la autoridad nacional en 15 días (art. 72-73).

Obligaciones del responsable del despliegue (deployer)

Si tu empresa usa un sistema de alto riesgo (por ejemplo, un ATS de selección de candidatos):

La FRIA: cuándo es obligatoria

La evaluación de impacto en los derechos fundamentales es obligatoria para organismos públicos y entidades que prestan servicios públicos (educación, salud, vivienda social, prestaciones) cuando despliegan sistemas de alto riesgo del Anexo III. Para el resto, es altamente recomendable como prueba de diligencia. Debe incluir: descripción del proceso, periodo, personas afectadas, riesgos específicos, medidas de mitigación, supervisión humana y procedimiento de queja.

4. Modelos de propósito general (GPAI): obligaciones desde agosto 2025

Esta es la parte que afecta directamente a quien desarrolla o adapta modelos fundacionales (GPT, Llama, Mistral, Claude…). Las obligaciones se aplican al proveedor del modelo, no al usuario final.

Todos los GPAI

GPAI con riesgo sistémico

Se presume riesgo sistémico cuando el cómputo total de entrenamiento supera 10²⁵ FLOPs (umbral revisable). Para estos modelos, además:

Para empresas que no entrenan modelos propios pero los integran (la mayoría): tu obligación principal es elegir proveedores conformes y reflejarlo en el contrato (cláusulas de cumplimiento AI Act, derechos de información, plan de continuidad).

5. Plazos clave (timeline operativo)

En España, la AESIA (Agencia Española de Supervisión de la Inteligencia Artificial), con sede en A Coruña, es la autoridad nacional de referencia desde 2023, coordinada con AEPD, CNMC, Banco de España y autoridades sectoriales para los casos solapados.

6. Convergencia con NIS2, DORA y RGPD: no duplicar trabajo

El error más caro que veo en empresas españolas es montar cuatro programas de cumplimiento en paralelo. Las normas se solapan deliberadamente; aprovecharlo ahorra meses de esfuerzo.

Solapamientos operativos clave

Estructura recomendada

Un Comité de Gobernanza Tecnológica que combine CISO, DPO, responsable de IA, compliance y un representante del negocio. Una matriz de obligaciones única, donde cada control mapea a las normas que cubre. Y un único inventario de sistemas: cada sistema de IA tiene su ficha con clasificación AI Act, base legal RGPD, criticidad NIS2 y, si aplica, función crítica DORA.

7. Checklist práctico 2026: por dónde empezar

Si tu empresa aún no ha hecho nada estructurado, este es el orden razonable para los próximos 90 días.

Mes 1: inventario y clasificación

Mes 2: gobernanza y políticas

Mes 3: controles técnicos y plan

8. Errores frecuentes que veo en empresas en 2026

  1. Tratar el AI Act como "otro RGPD": el AI Act regula productos, no tratamientos. La lógica jurídica es distinta y los equipos responsables también.
  2. Asumir que "no tenemos IA": los copilots integrados en CRM, ERP, herramientas RRHH y ofimática son IA. Si tu Workday o tu SAP tienen módulos de IA, los tienes.
  3. Confiar en el "AI Act compliance" del proveedor sin contrato: el responsable del despliegue tiene obligaciones propias. Si el proveedor falla y tú no documentaste tu diligencia, respondes.
  4. Saltarse la alfabetización: es obligatoria desde feb 2025 para todo el personal que interactúe con sistemas IA, no solo técnicos. Es de los primeros puntos que pueden inspeccionar.
  5. Olvidar la transparencia: usar chatbots o generadores de contenido sin informar al usuario es incumplimiento aunque el sistema sea de riesgo limitado. Multa proporcional.
  6. No mapear con NIS2/DORA/RGPD: equipos paralelos compitiendo por presupuesto, controles duplicados, fricción interna.
  7. Modificar sustancialmente un sistema de tercero sin asumir el rol de proveedor: fine-tuning fuerte sobre un modelo open source puede convertirte en proveedor del nuevo sistema, con todas las obligaciones.

9. Preguntas frecuentes

¿El AI Act se aplica a una pyme española?

Sí. El AI Act aplica con independencia del tamaño. Lo que cambia con el tamaño es el régimen de simplificaciones: pymes y startups tienen acceso prioritario a los sandboxes regulatorios, plantillas reducidas de documentación técnica y multas proporcionales menores. Pero las obligaciones materiales son las mismas si tu sistema entra en alto riesgo o si eres proveedor de un GPAI.

¿Qué pasa si en la empresa usamos ChatGPT, Claude o Gemini?

Usar un asistente conversacional genérico para tareas de oficina es riesgo limitado o mínimo en la mayoría de los casos, así que las obligaciones materiales son escasas: transparencia básica (informar al cliente si recibe contenido generado por IA), alfabetización del personal y diligencia sobre datos confidenciales. Cambia el escenario cuando integras esos modelos en un sistema que toma decisiones sobre personas (selección, crédito, evaluación de empleados): ahí pasas a alto riesgo y a obligaciones plenas.

¿Cuándo es obligatorio realizar una FRIA?

Para organismos públicos y entidades privadas que prestan servicios públicos esenciales (educación, salud, vivienda social, prestaciones sociales) cuando despliegan un sistema de alto riesgo del Anexo III, antes de su puesta en uso. Para el resto no es estrictamente obligatoria, pero realizarla es la mejor defensa frente a una inspección y frente a posibles reclamaciones de personas afectadas.

¿Cómo se acredita la conformidad de un sistema de alto riesgo?

Mediante evaluación de la conformidad, que en la mayoría de casos del Anexo III es autoevaluación documentada por el proveedor (control interno). Para sistemas de identificación biométrica remota es obligatorio organismo notificado. El resultado se materializa en la declaración UE de conformidad, el marcado CE y el registro en la base de datos europea de sistemas de alto riesgo gestionada por la Comisión.

¿Qué multas reales se están aplicando en 2026?

En el primer semestre de 2026 las autoridades nacionales han priorizado expedientes informativos y sancionadores leves vinculados a prohibiciones (feb 2025) y a obligaciones GPAI (ago 2025). Los expedientes graves por alto riesgo empezarán a abrirse a partir de ago 2026, cuando entran plenamente en aplicación. El tope sancionador es real: 35 M € o 7 % global por prácticas prohibidas; 15 M € o 3 % por incumplimientos alto riesgo y GPAI; 7,5 M € o 1,5 % por información inexacta a autoridades.

¿El AI Act sustituye al RGPD?

No. Conviven y se complementan. El RGPD regula el tratamiento de datos personales; el AI Act regula los sistemas de IA como productos. Si tu sistema de IA usa datos personales (la mayoría), cumples ambos a la vez. El art. 22 RGPD sobre decisiones automatizadas sigue plenamente vigente y se refuerza con la supervisión humana del art. 14 AI Act.

¿Qué papel tiene la AESIA?

La Agencia Española de Supervisión de la Inteligencia Artificial, con sede en A Coruña, es la autoridad nacional de referencia para el AI Act en España. Coordina con AEPD (datos), CNMC (mercados), Banco de España (financiero) y autoridades sectoriales. Es quien tramitará la mayoría de los expedientes y quien gestiona los sandboxes regulatorios para empresas.

¿Por dónde empiezo si mañana tengo que reportar avances al consejo?

Tres entregables que cualquier consejo entiende: (1) inventario de sistemas de IA con clasificación de riesgo y rol de la empresa por sistema; (2) gap analysis frente a las obligaciones aplicables en 2026 (alto riesgo Anexo III, transparencia, alfabetización); (3) plan a 12 meses con hitos, responsables y presupuesto, integrado con NIS2 / DORA / RGPD para evitar duplicidades. Con eso demuestras diligencia y das visibilidad real del riesgo legal y operativo.

Cierre operativo

El AI Act no es un cumplimiento más: es la primera regulación horizontal del mundo sobre IA y va a marcar cómo las empresas españolas y europeas diseñan, contratan y operan sistemas inteligentes durante la próxima década. Los plazos de 2026 son inmediatos, las sanciones son materiales, y la inspección administrativa ya tiene herramientas. La buena noticia: gran parte del trabajo se reutiliza si lo integras con NIS2, DORA y RGPD desde el primer día.

Si estás liderando esta iniciativa en tu empresa y necesitas ayuda para acelerar el inventario, la clasificación de riesgos, la FRIA o el plan de cumplimiento integrado, puedo ayudarte como AI Project Manager externo. Cuéntame tu caso →