Todo sobre el anteproyecto de Ley de gobernanza de la IA

El Reglamento de Inteligencia Artificial de la UE (Artificial Intelligence Act), que ya ha sido aprobado a nivel europeo, establece una regulación basada en el riesgo: cuanto mayor es el impacto potencial de un sistema de IA en los derechos fundamentales, más estrictas serán sus exigencias regulatorias.

El anteproyecto español busca armonizar esta normativa con el ordenamiento jurídico nacional y contempla la creación de un entorno controlado de pruebas (sandbox regulatorio). Este mecanismo permitirá a los desarrolladores de IA validar sus sistemas antes de su implementación definitiva, facilitando así el cumplimiento de la legislación vigente.

Uno de los puntos clave del anteproyecto es la determinación de las autoridades responsables de la supervisión de los sistemas de IA considerados de alto riesgo. En línea con la regulación europea, se establece que las autoridades sectoriales existentes serán las responsables de la vigilancia de la IA en su ámbito de actuación:

🔹 Agencia Española de Protección de Datos (AEPD): Supervisará los sistemas de IA aplicados en gestión de migraciones y asilo dentro de las Fuerzas y Cuerpos de Seguridad del Estado.
🔹 Consejo General del Poder Judicial (CGPJ): Controlará los sistemas de IA utilizados en la administración de justicia.
🔹 Junta Electoral Central: Supervisará los sistemas aplicados a procesos electorales.
🔹 Banco de España: Regulará los sistemas de clasificación de solvencia crediticia.
🔹 Dirección General de Seguros: Competente en IA aplicada a seguros.
🔹 Comisión Nacional del Mercado de Valores (CNMV): Supervisará los sistemas de IA en mercados de capitales.
🔹 Agencia Española de Supervisión de la IA (AESIA): Será la autoridad de referencia en todos los demás casos.

⚖️ Implicaciones legales

Este anteproyecto de ley supone un paso clave en la regulación de la IA en España, pero plantea retos en cuanto a:

✅ Compatibilización con normativas existentes, como el RGPD en materia de protección de datos personales.
✅ Definición de criterios técnicos para determinar cuándo un sistema de IA es de «alto riesgo».
✅ Coordinación entre distintas autoridades reguladoras para evitar solapamientos normativos.

En este sentido, la jurisprudencia del TJUE ha señalado en varias ocasiones la necesidad de garantizar transparencia y proporcionalidad en el uso de tecnologías automatizadas, especialmente cuando afectan derechos fundamentales (véase caso Schrems II, sobre transferencia de datos y vigilancia tecnológica).

A medida que la legislación avance en su tramitación parlamentaria, será clave analizar su impacto en la innovación, la protección de derechos y la competitividad del sector tecnológico en España.

📢 ¿Cómo crees que afectará esta regulación a las empresas y desarrolladores de IA en España? ¡Déjanos tu opinión en los comentarios!