En agosto de 2025 se activa otro conjunto clave de disposiciones del Reglamento de Inteligencia Artificial (Reglamento (UE) 2024/XXXX), en concreto varios artículos con fuerte impacto jurídico, técnico y operativo para los actores que desarrollan, comercializan o utilizan modelos de IA de propósito general (GPAI) y otros sistemas.
Es una nueva etapa en la implementación progresiva del Reglamento, que sigue su calendario escalonado para permitir la adaptación de todos los actores del ecosistema.
📘 ¿QUÉ DISPOSICIONES EMPIEZAN A APLICARSE?
✅ Capítulo V – Obligaciones de los proveedores de modelos de IA de propósito general
Este capítulo impone obligaciones específicas a los desarrolladores de modelos fundacionales o de uso general. Son modelos que no están diseñados para una aplicación específica (como ChatGPT o Claude), pero que pueden ser integrados en múltiples sistemas de IA.
Algunas de las obligaciones más relevantes que entran en vigor en agosto de 2025 son:
📄 Documentación técnica detallada:
Los proveedores deberán elaborar una documentación que describa las capacidades, limitaciones, procesos de evaluación, arquitectura general del modelo, medidas de mitigación de riesgos, etc. Todo con el objetivo de fomentar la transparencia y facilitar la auditoría por autoridades y terceros.
🔍 Transparencia para integradores:
Se exige proporcionar información adecuada a quienes quieran integrar ese modelo en sus propios sistemas de IA. Esto incluye advertencias sobre usos no previstos, sesgos identificados, o limitaciones funcionales.
📚 Resumen del contenido usado para entrenamiento:
Los desarrolladores deberán publicar un resumen accesible del conjunto de datos utilizados para entrenar el modelo, incluyendo las fuentes y características generales (sin comprometer secretos industriales ni derechos de autor). Esto busca facilitar el cumplimiento de derechos y aumentar la responsabilidad en el uso de datasets.
Estas medidas son un cambio radical respecto a la opacidad previa de muchos desarrolladores de IA. La norma busca equilibrio: fomentar la innovación, sin sacrificar el interés público, la protección de derechos o la competencia leal.
⚖️ Capítulo XII – Sanciones
También entra en vigor este capítulo, que articula el régimen sancionador del Reglamento de IA. No incluye (todavía) las sanciones del artículo 101, que están reservadas a los proveedores de modelos GPAI de alto riesgo y se aplicarán más adelante.
Aun así, ya se establece un marco potente para la aplicación efectiva del reglamento, incluyendo:
🛑 Multas de hasta 35 millones de euros o el 7% del volumen de negocio mundial, según la infracción.
🔧 Posibles medidas correctivas (retirada de productos, suspensión de servicios, etc.).
🕵️♀️ Facultades para las autoridades nacionales de supervisión (designadas por cada Estado miembro), que podrán investigar, inspeccionar y sancionar.
🔍 REFLEXIÓN
Estamos ante un punto de inflexión en el marco regulador de la IA en Europa. Las empresas tecnológicas —desde startups hasta big tech— deben tomar nota: ya no basta con alegar innovación, ahora toca cumplir con obligaciones jurídicas claras.
Esta etapa del Reglamento refuerza la transparencia y trazabilidad, dos principios clave en la gobernanza de sistemas de IA.
⚠️ No cumplir puede salir caro. Pero más allá de las multas, la reputación, la confianza del mercado y el cumplimiento ético están en juego.
🧠 ¿Y ahora qué?
✔️ Si desarrollas o integras modelos de IA, revisa si estás sujeto a estas obligaciones.
✔️ Adapta tu documentación y procesos antes de agosto.
✔️ Consulta con profesionales del derecho y del ámbito técnico para garantizar un enfoque interdisciplinar.
💬 ¿Estás preparado para esta nueva fase del Reglamento de IA? ¿Ves estas medidas como una carga o como una oportunidad para construir confianza en la IA?