El nuevo reto del Reglamento Europeo

2025 está siendo, sin duda, el año de los agentes de IA. Herramientas que aprenden, actúan y deciden de forma autónoma están apareciendo por todas partes. Pero mientras el ecosistema tecnológico avanza a toda velocidad… el marco legal intenta ponerse al día.

El Reglamento de Inteligencia Artificial (RIA), aprobado con un enfoque centrado en sistemas concretos y riesgos predefinidos, no se diseñó pensando en los agentes de IA. De hecho, tampoco lo hizo con la inteligencia artificial generativa: esta se incorporó a última hora, tras su irrupción masiva en el mercado.

Entonces, surge la pregunta clave 👇

¿Están los agentes de IA realmente cubiertos por el RIA?

La respuesta es matizada:

🔹 Sí, en la medida en que los agentes integren modelos de IA de propósito general, están sujetos a la misma regulación que estos, incluyendo las obligaciones adicionales para modelos con riesgo sistémico.

🔹 Además, un agente puede considerarse un sistema de alto riesgo dependiendo de su uso (por ejemplo, los contemplados en el Anexo III del RIA). En ese caso, se activa el Capítulo III del Reglamento, que impone obligaciones a proveedores y deployers: evaluación de riesgos, medidas de transparencia, control humano y supervisión técnica.

En otras palabras:

➡️ No todos los agentes de IA están regulados de igual forma, pero todos pueden estarlo en función de su arquitectura y propósito.

El debate apenas comienza. Los agentes de IA no son solo asistentes sofisticados; son entidades con capacidad de acción autónoma que plantean desafíos inéditos en materia de responsabilidad, gobernanza y cumplimiento normativo.

📄 En el documento elaborado por The Future Society, se profundiza en cómo el RIA puede aplicarse a estos sistemas y qué vacíos normativos aún quedan por cubrir.