Datos clave
| Normativa | Convenio Marco del Consejo de Europa sobre Inteligencia Artificial y Derechos Humanos, Democracia y Estado de Derecho |
|---|---|
| Referencia oficial | OJ:L_202601081 |
| Publicación | 13 de mayo de 2026 |
| Entrada en vigor | No especificada |
| Afectados | Empresas tecnológicas, administraciones públicas y entidades que desarrollen o usen sistemas de IA |
| Categoría | Normativa Europea |
| Relación con otras normas | Complementa el Reglamento europeo de IA (AI Act) |
| Alcance geográfico | Estados miembros del Consejo de Europa y países no miembros de la UE que se adhieran |
Las empresas que usan inteligencia artificial para tomar decisiones sobre personas tienen ahora una nueva obligación internacional encima de la mesa. El Convenio Marco del Consejo de Europa sobre Inteligencia Artificial y Derechos Humanos, Democracia y Estado de Derecho, publicado el 13 de mayo de 2026 con referencia OJ:L_202601081, es el primer tratado internacional jurídicamente vinculante sobre IA del mundo.
No es una declaración de intenciones. Es un tratado con fuerza legal que obliga a los Estados parte a garantizar que los sistemas de IA respeten los derechos humanos, la democracia y el Estado de Derecho. Y eso tiene consecuencias directas para las organizaciones que desarrollan o despliegan IA.
¿Qué establece esta normativa?
El Convenio Marco crea un marco de obligaciones estructurado en torno a tres ejes principales que los Estados deben trasladar a sus ordenamientos y que afectan directamente a las organizaciones que operan con IA:
| Obligación | En qué consiste |
|---|---|
| Evaluaciones de impacto | Los sistemas de IA deben someterse a evaluaciones de impacto durante su ciclo de vida, especialmente cuando puedan afectar a derechos fundamentales |
| Transparencia | Las organizaciones deben garantizar que el funcionamiento de sus sistemas de IA sea comprensible y explicable para las personas afectadas |
| Rendición de cuentas | Debe existir un responsable identificable de las decisiones tomadas o asistidas por sistemas de IA, con mecanismos de supervisión claros |
El convenio cubre el ciclo de vida completo de los sistemas de IA: desde su diseño y desarrollo hasta su despliegue y retirada. No se limita a la fase de uso.
En cuanto a su relación con el Reglamento europeo de IA (AI Act), este convenio no lo sustituye ni lo modifica: lo complementa. Mientras el AI Act regula principalmente los riesgos técnicos y de mercado, este convenio añade una capa de derechos humanos con un alcance geográfico más amplio, ya que incluye países que no son miembros de la UE pero sí del Consejo de Europa, además de la posibilidad de adhesión de terceros países.
Impacto económico y operativo
El impacto no es una multa directa ni una tasa. Es un coste de adaptación operativa que las organizaciones deben asumir para cumplir con los nuevos estándares. Los principales focos de gasto son:
- Auditorías y evaluaciones de impacto: Las empresas que aún no han implementado procesos formales de evaluación de impacto de sus sistemas de IA deberán diseñarlos e integrarlos en sus flujos de trabajo.
- Documentación y transparencia: Será necesario documentar cómo funcionan los sistemas de IA, qué datos usan y cómo afectan a las personas, lo que implica recursos técnicos y legales.
- Revisión de marcos de cumplimiento: Las organizaciones que ya cumplen con el AI Act deberán verificar si su marco de cumplimiento cubre también la dimensión de derechos humanos que exige este convenio.
- Formación interna: Los equipos de tecnología, legal y cumplimiento deben conocer las nuevas obligaciones y cómo aplicarlas en el ciclo de vida de cada sistema de IA.
Para las empresas que ya tienen un programa de cumplimiento del AI Act, el esfuerzo adicional será menor. Para las que aún no han iniciado ese proceso, este convenio añade urgencia a la adaptación.
¿A quién afecta?
- Empresas tecnológicas que desarrollen sistemas de IA, plataformas, modelos o herramientas basadas en inteligencia artificial.
- Administraciones públicas que usen IA en procesos de toma de decisiones que afecten a ciudadanos (concesión de ayudas, evaluación de expedientes, vigilancia, etc.).
- Entidades del sector privado que desplieguen IA en áreas con impacto en derechos fundamentales: selección de personal, scoring crediticio, atención sanitaria, servicios educativos, seguros.
- Organizaciones con operaciones en países no miembros de la UE que se adhieran al convenio, dado su alcance geográfico más amplio que el AI Act.
- Asesores legales, consultoras y auditoras que presten servicios de cumplimiento normativo a clientes con sistemas de IA.
Ejemplo práctico
Una empresa de recursos humanos utiliza un sistema de IA para filtrar candidaturas y puntuar a los candidatos antes de la entrevista. Bajo este convenio, esa empresa debe:
- Realizar una evaluación de impacto sobre ese sistema, documentando cómo puede afectar a los derechos de los candidatos (no discriminación, privacidad, igualdad de oportunidades).
- Garantizar transparencia: los candidatos deben poder saber que un sistema de IA ha intervenido en la evaluación de su candidatura.
- Establecer un mecanismo de rendición de cuentas: debe existir una persona responsable que pueda revisar, explicar y, si es necesario, corregir las decisiones del sistema.
Si la empresa ya cumple con el AI Act para este tipo de sistema de alto riesgo, probablemente tenga gran parte de este trabajo hecho. Si no, este convenio añade una razón más para iniciar la adaptación sin demora.
¿Qué deben hacer las empresas ahora?
- Inventariar los sistemas de IA en uso: Identifica todos los sistemas de IA que tu organización desarrolla o despliega, especialmente los que intervienen en decisiones que afectan a personas.
- Evaluar si hay impacto en derechos fundamentales: Para cada sistema identificado, analiza si puede afectar a derechos como la privacidad, la no discriminación, el acceso a servicios o la libertad.
- Revisar el marco de cumplimiento existente: Si ya tienes un programa de cumplimiento del AI Act, verifica si cubre también los requisitos de derechos humanos que exige este convenio. Si no tienes ningún programa, este es el momento de iniciarlo.
- Implementar o reforzar evaluaciones de impacto: Diseña un proceso formal de evaluación de impacto para los sistemas de IA con potencial afectación a derechos, e intégralo en el ciclo de vida del sistema desde el diseño.
- Documentar transparencia y rendición de cuentas: Asegúrate de que existe documentación clara sobre cómo funciona cada sistema, quién es responsable de sus decisiones y cómo pueden impugnarlas las personas afectadas.
- Formar a los equipos implicados: Legal, tecnología y cumplimiento deben conocer las obligaciones del convenio y cómo aplicarlas en la práctica diaria.
- Monitorizar la transposición nacional: Dado que la fecha de entrada en vigor no ha sido especificada, sigue de cerca cómo cada Estado parte traslada las obligaciones del convenio a su legislación nacional, ya que eso determinará los plazos y requisitos concretos aplicables.
Preguntas frecuentes
¿A qué empresas afecta el Convenio Marco del Consejo de Europa sobre IA?
Afecta a empresas tecnológicas, administraciones públicas y cualquier entidad que desarrolle o despliegue sistemas de IA en sectores públicos o con impacto en derechos fundamentales de las personas.
¿En qué se diferencia este convenio del Reglamento europeo de IA (AI Act)?
El Convenio Marco complementa el AI Act añadiendo una dimensión específica de derechos humanos y tiene un alcance geográfico más amplio, incluyendo países no miembros de la UE que se adhieran al tratado.
¿Qué obligaciones concretas impone a las empresas este convenio sobre IA?
Las empresas deben realizar evaluaciones de impacto sobre sus sistemas de IA, garantizar transparencia en su funcionamiento y establecer mecanismos de rendición de cuentas durante todo el ciclo de vida del sistema de IA.
¿Cuándo entra en vigor el Convenio Marco sobre IA y derechos humanos?
La normativa fue publicada el 13 de mayo de 2026. La fecha de entrada en vigor no ha sido especificada en el texto publicado.