- Las 16 guías de AESIA y sus checklists traducen el Reglamento Europeo de IA en pasos prácticos para sistemas de alto riesgo.
- El Sandbox español de IA y el Código europeo de buenas prácticas para modelos de propósito general marcan un marco de referencia internacional.
- Plantillas de transparencia sobre datos de entrenamiento y auditorías de IA ayudan a alinear innovación, seguridad y retorno de inversión.
Las organizaciones que desarrollan o integran soluciones de inteligencia artificial se están encontrando en 2025 con un panorama regulatorio completamente nuevo. El Reglamento Europeo de Inteligencia Artificial (RIA) y las guias de apoyo publicadas en España han cambiado las reglas del juego para quienes diseñan, entrenan, despliegan y supervisan sistemas de IA, especialmente cuando se consideran de alto riesgo.
Ante un texto legal complejo, técnico y todavía en evolución, muchas empresas se preguntan, casi con urgencia, por dónde empezar. Las 16 guías y los checklists publicados por la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA) se han convertido en el punto de referencia práctico para aterrizar el RIA en la realidad diaria de pymes, startups y grandes compañías que quieren innovar sin meterse en líos regulatorios.
El Ministerio para la Transformación Digital y de la Función Pública, a través de la Secretaría de Estado de Digitalización e Inteligencia Artificial (SEDIA), ha apostado por un enfoque muy pragmático. Antes de que el reglamento europeo fuese plenamente exigible, se puso en marcha un Sandbox de IA para probar la regulación con doce sistemas reales de alto riesgo, procedentes de sectores tan sensibles como servicios esenciales, biometría, empleo, infraestructuras críticas, maquinaria y productos sanitarios para diagnóstico in vitro.
En este entorno de pruebas, el equipo del Ministerio trabajó codo con codo con las empresas seleccionadas, ofreciendo formación y consultoría pública de alto nivel. El objetivo era doble: ayudar a las entidades a entender qué exigirá el RIA en la práctica y, a la vez, detectar ambigüedades y fricciones de la norma cuando se aplica sobre algoritmos y procesos que ya funcionan en el mundo real.
Participaron compañías muy diversas, desde firmas especializadas en biometría y analítica avanzada hasta proveedores de soluciones de salud digital o empleo. En el proyecto intervinieron también autoridades clave de supervisión como AESIA, la Agencia Española de Protección de Datos (AEPD), el Banco de España y la Agencia Estatal de Seguridad Aérea (AESA), además de un panel de expertos en regulación y tecnología.
De este trabajo colaborativo salieron las conclusiones que hoy se recogen en las guías. Aunque estos documentos no son jurídicamente vinculantes ni sustituyen a las normas técnicas armonizadas que vendrán, sí ofrecen una lectura práctica, ordenada y realista de las obligaciones del RIA para los sistemas de IA de alto riesgo.
España se ha ganado, gracias a esta experiencia, un papel de referencia internacional. El Sandbox de IA se cita como buena práctica en el Informe para la Década Digital de Europa y se observa desde otros países como modelo para anticipar la adaptación al reglamento, reduciendo incertidumbres y errores costosos en el camino.
Las 16 guías de AESIA: estructura, enfoque y objetivos
Las publicaciones de AESIA se organizan en un conjunto coherente de 16 guías más varias listas de comprobación. Su finalidad principal es ayudar a las organizaciones a identificar, entender y cumplir las obligaciones del Reglamento (UE) 2024/1689, poniendo el foco en los sistemas clasificados como de alto riesgo.
Estas guías se dirigen expresamente a pymes, startups y grandes empresas que desarrollan o despliegan IA en sectores regulados. No sustituyen al reglamento ni a los estándares que se irán aprobando, pero sirven como instrumento de apoyo para diseñar sistemas de IA innovadores, fiables y respetuosos con los derechos fundamentales, algo imprescindible para no frenar la innovación pero tampoco dejarla sin frenos.
La colección se divide en varios bloques funcionales. Por un lado, se incluyen dos guías introductorias de carácter divulgativo, y por otro, trece guías técnicas centradas en los requisitos concretos del RIA (gestión de riesgos, gobernanza de datos, transparencia, ciberseguridad, calidad, registros, vigilancia humana, etc.).
Además, se ha publicado un manual específico para las listas de comprobación y se facilitan ejemplos de checklists en formato Excel. Estos ficheros permiten hacer autodiagnósticos del grado de cumplimiento de los sistemas de alto riesgo y planificar un itinerario de adaptación ordenado, en vez de improvisar parches de última hora cuando la normativa ya esté plenamente en vigor.
Un rasgo importante es la estructura modular de los documentos. Las guías están pensadas para que cada organización pueda ir profundizando por capas según su tamaño, sector y grado de madurez en IA; esto evita que una pyme se vea abrumada con el mismo nivel de detalle que necesitaría una gran multinacional con decenas de modelos en producción.
Guías introductorias: entender el RIA sin volverse loco
Las dos guías introductorias proporcionan la base conceptual para no perderse en la jerga del reglamento. La primera es una introducción general al RIA, en la que se describen el ámbito de aplicación, las categorías de riesgo y los diferentes roles implicados (proveedor, responsable del despliegue, distribuidor, usuario, etc.).
En ella se aclaran cuestiones que suelen generar confusión en las empresas, como qué se considera realmente un sistema de IA de alto riesgo, cuáles son los usos directamente prohibidos y qué obligaciones activan cada uno de los perfiles implicados en la cadena de valor. También se detalla cómo se relaciona el RIA con otras normativas europeas relevantes, como protección de datos, seguridad de productos o servicios financieros, algo clave para evitar duplicidades o lagunas.
La segunda guía introductoria adopta un enfoque aún más práctico, combinando explicación normativa con un caso de ejemplo. Se muestra cómo identificar si un sistema concreto entra en la categoría de alto riesgo y qué pasos básicos tendría que seguir para alinearse con el reglamento, desde la fase de diseño hasta la vigilancia una vez se pone en el mercado.
Ambos documentos incluyen un glosario detallado, muy útil para equipos no jurídicos. Definir con rigor términos como “vigilancia humana”, “riesgo razonablemente previsible” o “riesgo sistémico” evita muchos malentendidos internos entre áreas técnicas, legales, de negocio o ciberseguridad.
Estas guías de contexto se han convertido, en la práctica, en el punto de acceso para directivos, DPOs, CISOs, responsables de innovación y equipos de IT que necesitan una visión clara antes de sumergirse en la parte más técnica. Funcionan como un mapa general que orienta al lector hacia las guías especializadas que realmente necesita, evitando perder tiempo revisando documentos que no aplican a su caso.
Guías técnicas: aterrizar los requisitos del RIA en el ciclo de vida de la IA
El bloque más amplio de la colección de AESIA está formado por trece guías técnicas, cada una dedicada a un requisito clave del RIA para sistemas de alto riesgo. Estas guías “bajan al barro” y traducen mandatos legales en procesos, controles y evidencias verificables que las organizaciones pueden implantar en sus proyectos de IA.
La guía de evaluación de la conformidad explica cómo deben prepararse los sistemas de IA de alto riesgo para superar los procedimientos de evaluación previstos en el reglamento. Describe qué documentación se exige, cómo se organizan las auditorías internas y externas, y qué papel juegan los organismos notificados a la hora de certificar que un modelo cumple con los requisitos esenciales.
Otra guía se centra en el sistema de gestión de la calidad. Su finalidad es garantizar que las métricas y objetivos definidos durante el diseño del sistema se mantienen estables durante el desarrollo, validación y explotación, y que cualquier desviación queda debidamente registrada. Se insiste en la importancia de conservar evidencias de todas las validaciones y pruebas realizadas, no solo para cumplir, sino para poder defender la robustez del sistema ante terceros.
La guía de gestión de riesgos traduce el enfoque basado en riesgo del RIA a una metodología operativa. Incluye orientaciones para identificar, analizar, evaluar y mitigar los riesgos vinculados a la salud, la seguridad y los derechos fundamentales, tanto en el uso previsto del sistema como en usos razonablemente previsibles. También aborda la necesidad de revisiones periódicas a medida que cambian los datos, el contexto o la propia tecnología. Para planificar medidas prácticas se recomienda apoyarse en herramientas de autodiagnóstico que orienten sobre prioridades de mitigación.
La vigilancia humana ocupa otra guía completa. Aquí se detallan las medidas de diseño, interfaz y procesos organizativos necesarias para que las personas que supervisan el sistema puedan detectar anomalías, intervenir a tiempo y no depender ciegamente de la automatización. Se proponen, por ejemplo, mecanismos de override humano, alertas comprensibles y procedimientos de escalado claros cuando algo no cuadra.
La guía sobre datos y gobernanza es especialmente relevante en modelos complejos. Describe qué requisitos deben cumplir los conjuntos de datos utilizados para entrenar, validar y probar los sistemas de IA: pertinencia, representatividad, ausencia de sesgos injustificados, calidad, integridad y trazabilidad. Además, se aborda la necesidad de políticas de gobernanza que controlen quién puede modificar los datos, cómo se documentan las fuentes y cómo se gestionan errores detectados a posteriori.
Otro documento técnico se dedica a la transparencia. En él se proponen medidas para que tanto proveedores como usuarios de los sistemas de IA puedan cumplir las obligaciones de información: desde la documentación técnica accesible a integradores hasta la comunicación clara hacia personas afectadas por decisiones automatizadas o semiautomatizadas.
La guía de precisión orienta sobre cómo seleccionar, medir y monitorizar las métricas de rendimiento del modelo. No se limita a la exactitud estadística; también se tratan cuestiones como estabilidad temporal, rendimiento por subgrupos y comportamiento en condiciones límite, con el fin de evitar resultados engañosos que puedan afectar negativamente a colectivos concretos.
La solidez del sistema dispone igualmente de su propio documento. Esta guía recoge las medidas que deben adoptarse para garantizar la tolerancia a fallos, la resistencia frente a entradas adversariales o cambios en el entorno, y la capacidad para seguir funcionando dentro de parámetros seguros aun cuando algunos componentes fallen o los datos se degraden.
La ciberseguridad se aborda en una guía específica que desarrolla las medidas técnicas y organizativas necesarias para proteger los sistemas de IA frente a ataques o manipulaciones maliciosas. Se tratan aspectos como la seguridad en el pipeline de datos, la protección del modelo frente a exfiltración, el control de accesos o la respuesta ante incidentes, alineando estos requerimientos con la visión más amplia de la seguridad de la información de la entidad. Para profundizar en amenazas concretas consulte amenazas de ciberseguridad y su impacto en IA.
La guía de registros define qué logs y evidencias deben conservarse en los sistemas de IA de alto riesgo. Incluye orientaciones sobre qué eventos registrar, durante cuánto tiempo conservarlos y cómo garantizar su integridad y disponibilidad, de modo que sirvan tanto para auditorías como para investigar incidentes o reclamaciones de personas afectadas. Para técnicas de protección de la integridad de los registros es recomendable el uso de mecanismos de cifrado adecuados.
Otra guía se centra en la vigilancia poscomercialización. En este documento se describen los procesos necesarios para hacer seguimiento del comportamiento del sistema una vez desplegado, recoger feedback de usuarios, detectar incidentes, ajustar el modelo si aparecen riesgos nuevos y reportar a las autoridades cuando proceda.
Completan el bloque técnico la guía de gestión de incidentes, que explica cómo notificar incidentes graves relacionados con sistemas de IA de alto riesgo, y la guía de documentación técnica. Esta última organiza los requisitos de contenido y estructura del dossier técnico que permitirá demostrar el cumplimiento antes de poner el sistema en el mercado o en servicio.
Listas de comprobación: del papel a la acción en las empresas
Junto a las guías, AESIA ha publicado un manual de listas de comprobación y ejemplos de checklists estructurados en formato Excel. Su función no es teórica, sino servir como herramienta operativa para que las entidades puedan evaluar por sí mismas el nivel de cumplimiento de sus sistemas de IA de alto riesgo.
Estas listas siguen la misma lógica que las guías de requisitos. Para cada uno de los doce grandes requisitos del RIA se incluye un conjunto de preguntas, evidencias y campos a completar, que ayudan a realizar un autodiagnóstico ordenado y homogéneo. El fichero incorpora pestañas informativas con instrucciones de uso y contexto, así como hojas de trabajo donde volcar la información concreta de cada sistema.
La idea es que las empresas no se limiten a “marcar casillas”, sino que utilicen la herramienta para construir un verdadero plan de adaptación. El resultado del autodiagnóstico debería desembocar en una hoja de ruta realista, que priorice riesgos y medidas según el impacto y el esfuerzo, algo especialmente crítico para organizaciones con recursos limitados.
Este enfoque es especialmente útil en un momento en el que los plazos parecen largos pero el trabajo es intenso. Las obligaciones más exigentes del reglamento de IA empezarán a aplicarse en agosto de 2026, pero revisar procesos internos, modelos de datos y gobernanza no se hace de la noche a la mañana, por lo que quien se adelante llegará con margen y menos improvisación.
Además, el uso sistemático de checklists facilita que equipos muy distintos (legal, ciberseguridad, IT, producto, datos) hablen el mismo idioma. Cuando todos trabajan con los mismos criterios y niveles de evidencia, se reduce el ruido interno, los retrasos y los rediseños innecesarios, algo que en proyectos de IA suele traducirse directamente en ahorro de costes y de disgustos.
Código de buenas prácticas para modelos de IA de uso general
Mientras España avanzaba con su Sandbox y las guías de AESIA, a nivel europeo se desarrollaba otro instrumento clave: el Código de buenas prácticas para la IA de uso general (GPAI). La Oficina Europea de IA coordinó un proceso participativo con casi mil partes interesadas para elaborar este código, que complementa las obligaciones de la Ley de IA para los proveedores de modelos de propósito general.
Los modelos de IA de uso general son aquellos capaces de realizar muchas tareas distintas y que sirven de base a multitud de sistemas y aplicaciones. Algunos de estos modelos pueden llegar a generar riesgos sistémicos si son muy potentes o están muy extendidos en el mercado, por lo que el legislador europeo ha definido requisitos específicos de transparencia, copyright y seguridad.
El Código, presentado a la Comisión Europea el 10 de julio de 2025, es una herramienta voluntaria, pero con ventajas claras. Los proveedores que se adhieren al Código pueden utilizarlo para demostrar que cumplen con las obligaciones de los artículos 53 y 55 del RIA, reduciendo así la carga administrativa y mejorando su seguridad jurídica respecto a soluciones ad hoc.
El documento se estructura en tres grandes bloques: transparencia, derechos de autor y seguridad/protección. En materia de transparencia, el Código ofrece un formulario estándar de documentación del modelo, que recoge información clave sobre capacidades, limitaciones, datos de entrenamiento, pruebas y validación. Esta información debe mantenerse actualizada y disponible para autoridades y proveedores downstream que lo soliciten.
En cuanto a derechos de autor, el Código traduce la legislación europea de propiedad intelectual al contexto de la IA. Se recomiendan medidas concretas como limitar el rastreo web a contenidos legalmente accesibles, respetar reservas de derechos mediante robots.txt o metadatos, excluir dominios infractores y establecer políticas internas claras de copyright, designando responsables y canales de reclamación.
El tercer bloque se dirige a los modelos de IA de uso general con riesgo sistémico, es decir, aquellos cuyas capacidades de alto impacto pueden tener un efecto significativo en el mercado de la Unión. Se proponen principios de gestión integral del ciclo de vida, proporcionalidad al nivel de riesgo, innovación en seguridad y aplicación del principio de precaución, especialmente cuando todavía no hay datos científicos suficientes para evaluar por completo ciertos peligros.
El Código también pone el foco en las pymes que desarrollan modelos avanzados. Se aboga por vías simplificadas de cumplimiento para pequeños proveedores, siempre que se mantenga el nivel de protección esperado, y se detallan obligaciones como la notificación de incidentes graves o la documentación de acciones preventivas antes de que esos incidentes se materialicen.
Este instrumento no se queda congelado. El propio texto prevé su revisión al menos cada dos años, de forma que pueda ir actualizándose en función de la evolución tecnológica, la aparición de nuevos riesgos o la experiencia acumulada con la aplicación del RIA en el terreno.
Plantilla para el resumen de los datos de entrenamiento
En paralelo al Código de buenas prácticas, la Oficina Europea de IA ha desarrollado una plantilla específica para el resumen de los datos de entrenamiento que deben hacer públicos los proveedores de modelos de IA de uso general. Esta obligación, prevista en el artículo 53.1.d) del RIA, persigue reforzar la transparencia y el respeto a los derechos de autor en el entrenamiento de modelos.
Para elaborar esta plantilla, la Oficina recabó aportaciones a través de una consulta multilateral con más de 430 respuestas de distintas partes interesadas. Las ideas preliminares se contrastaron también en el marco del proceso del Código de buenas prácticas, con participación de proveedores, expertos, representantes de Estados miembros y Parlamento Europeo, antes de su adopción formal en julio de 2025.
La plantilla está estrechamente conectada con el capítulo de transparencia del Código, y busca un equilibrio delicado. Por una parte, exige un resumen lo bastante detallado para que terceros entiendan de forma razonable qué tipos de datos se han utilizado; por otra, respeta la confidencialidad de información comercial sensible y no obliga a desvelar cada elemento concreto del dataset.
En la práctica, esta herramienta impulsa una cultura de documentación más madura en los proveedores de modelos de propósito general. Quien entrena grandes modelos con enormes volúmenes de información necesita tener claro de dónde salen los datos, qué licencias rigen su uso y cómo se reflejará todo ello hacia fuera, tanto para gestionar riesgos legales como para generar confianza en el ecosistema que construye sobre esos modelos.
De nuevo, el énfasis no es meramente formalista. La transparencia en los datos de entrenamiento no solo sirve para cumplir; también permite discutir con honestidad los sesgos potenciales, los límites de uso razonable y las expectativas realistas de rendimiento cuando esos modelos se integran en soluciones destinadas a sectores críticos o a usuarios finales masivos.
Auditoría de herramientas de IA y visión estratégica para directivos
Al margen de las obligaciones puramente regulatorias, muchas organizaciones se están planteando en 2025 cómo evaluar el verdadero retorno de inversión de sus iniciativas de IA. No basta con desplegar modelos y agentes inteligentes; hace falta auditar si generan valor real, si son seguros y si su coste total de propiedad tiene sentido frente a otras alternativas tecnológicas.
Una auditoría de herramientas de IA bien diseñada permite a CEOs, CIOs y otros perfiles ejecutivos separar el ruido del marketing de los resultados tangibles. Este tipo de análisis revisa el encaje de cada caso de uso con los objetivos de negocio, mide beneficios esperados en productividad, reducción de errores o generación de ingresos y analiza riesgos técnicos y regulatorios como sesgos, fallos de ciberseguridad o incumplimientos del RIA.
En este contexto, cobran relevancia métricas muy concretas: tiempo de ciclo ahorrado, reducción de costes operativos, incremento de conversiones, precisión del modelo en producción, coste por transacción o ahorro atribuible a la automatización. También se valoran indicadores de riesgo como vulnerabilidades detectadas en pruebas de seguridad, nivel de cumplimiento normativo y probabilidad de dependencia excesiva de un proveedor único (vendor lock-in).
Las empresas que complementan la IA con soluciones de inteligencia de negocio y visualización, como cuadros de mando sobre herramientas tipo Power BI, obtienen una visión mucho más clara de este impacto. Centralizar datos de rendimiento, costes y riesgos en paneles comprensibles para comités de dirección facilita la toma de decisiones basada en evidencias, no en intuiciones o modas tecnológicas pasajeras.
En paralelo, la integración con infraestructuras cloud (AWS, Azure u otras) y la correcta estimación del coste total de propiedad son piezas clave del análisis. Comprender bien los costes de entrenamiento, inferencia, almacenamiento y mantenimiento en la nube, así como los mecanismos de seguridad asociados, es fundamental para que la IA soporte realmente la estrategia y no se convierta en un pozo de gasto difícil de justificar. Para decisiones sobre copia y protección de datos en cloud consulte comparativas sobre copias de seguridad en la nube y locales.
En definitiva, la auditoría de IA ya no es un lujo sino una necesidad estratégica. Quienes combinen un enfoque riguroso de cumplimiento del RIA con una medición honesta del ROI tecnológico estarán en mejor posición para aprovechar la inteligencia artificial de forma sostenible, tanto en términos económicos como de reputación y confianza social.
Todo este ecosistema de guías, códigos voluntarios, plantillas de transparencia y prácticas de auditoría configura un nuevo marco para la seguridad en los entornos de desarrollo de IA en 2025. Las organizaciones que empiecen ahora a interiorizar estos instrumentos, a usarlos de manera sistemática y a integrarlos en su gobernanza tecnológica tendrán más opciones de convertir la regulación en una ventaja competitiva, demostrando que es posible innovar en IA de forma responsable, segura y alineada con los derechos de las personas.
Tabla de Contenidos
- Las 16 guías de AESIA: estructura, enfoque y objetivos
- Guías introductorias: entender el RIA sin volverse loco
- Guías técnicas: aterrizar los requisitos del RIA en el ciclo de vida de la IA
- Listas de comprobación: del papel a la acción en las empresas
- Código de buenas prácticas para modelos de IA de uso general
- Plantilla para el resumen de los datos de entrenamiento
- Auditoría de herramientas de IA y visión estratégica para directivos