Datos clave
| Normativa | Resolución de 10 de abril de 2026, de la Subsecretaría, por la que se publica el Convenio entre la Agencia Española de Supervisión de Inteligencia Artificial y el Instituto de las Mujeres, O.A., para la colaboración en la supervisión de sistemas de IA, la protección de los derechos fundamentales, la alfabetización y el desarrollo de laboratorios de ideas en materia de Inteligencia Artificial |
|---|---|
| Publicación BOE | 20 de abril de 2026 |
| Entrada en vigor | 10 de abril de 2026 |
| Organismos firmantes | AESIA (Agencia Española de Supervisión de Inteligencia Artificial) e Instituto de las Mujeres, O.A. |
| Sectores afectados | Empresas desarrolladoras y usuarias de sistemas de IA, especialmente en RRHH, finanzas y servicios |
| Categoría | Protección de Datos / Supervisión de IA |
| Áreas de riesgo identificadas | Selección de personal, concesión de crédito, salud y servicios públicos |
Si tienes un sistema de IA que decide quién pasa a la siguiente fase de un proceso de selección, quién recibe un préstamo o qué tratamiento médico se recomienda, tu empresa está en el foco de esta nueva supervisión. El convenio firmado entre la Agencia Española de Supervisión de Inteligencia Artificial (AESIA) y el Instituto de las Mujeres, publicado en el BOE el 20 de abril de 2026 (referencia BOE-A-2026-8672), establece un marco de colaboración para supervisar estos sistemas desde una perspectiva de género y derechos fundamentales.
No es una norma que imponga multas directas por sí sola, pero sí amplía el alcance y los criterios de la supervisión regulatoria existente. Las empresas que ya estaban adaptándose al Reglamento europeo de IA deben saber que en España esa adaptación incluye ahora un control adicional específico sobre sesgos de género.
¿Qué establece esta normativa?
El convenio articula tres líneas de actuación concretas entre la AESIA y el Instituto de las Mujeres:
- Supervisión conjunta de sistemas de IA con criterios de no discriminación por razón de género y protección de derechos fundamentales.
- Alfabetización en IA con enfoque de igualdad, dirigida a profesionales y ciudadanía.
- Laboratorios de ideas conjuntos para desarrollar metodologías y marcos de análisis de sesgos de género en sistemas de IA.
Desde el punto de vista empresarial, el elemento más relevante es el primero: la supervisión regulatoria incorporará de forma explícita criterios de no discriminación por género. Esto significa que los organismos supervisores pueden requerir información, realizar auditorías o exigir modificaciones en sistemas de IA que operen en los sectores identificados como de mayor riesgo.
| Área de aplicación | Tipo de sistema de IA afectado |
|---|---|
| Recursos Humanos | Sistemas de selección, cribado de candidatos, evaluación del desempeño |
| Finanzas y crédito | Sistemas de scoring crediticio, aprobación de préstamos, seguros |
| Salud | Sistemas de diagnóstico, triaje, recomendación de tratamientos |
| Servicios públicos | Sistemas de asignación de recursos, atención ciudadana automatizada |
Impacto económico y operativo
Este convenio no establece sanciones propias ni importes directos. Su impacto económico y operativo se materializa a través de los mecanismos de supervisión que activa:
- Auditorías adicionales: Los sistemas de IA en los sectores señalados pueden ser objeto de revisiones específicas sobre sesgos de género, más allá de las ya previstas por el Reglamento europeo de IA.
- Requerimientos de modificación: Si una auditoría detecta sesgos de género en un sistema, la empresa puede recibir requerimientos para corregirlo, con los costes operativos y técnicos que eso implica.
- Coste de adaptación preventiva: Las empresas que actúen antes de ser auditadas deberán invertir en revisión de modelos, documentación de sesgos y, en su caso, rediseño de algoritmos.
- Riesgo reputacional: Una auditoría con resultado negativo en materia de discriminación de género puede tener impacto reputacional directo, especialmente en empresas con exposición pública.
El convenio refuerza la aplicación del Reglamento europeo de IA en España con una capa adicional de control. Las empresas que ya estaban invirtiendo en cumplimiento del Reglamento de IA deben revisar si ese cumplimiento incluye explícitamente el análisis de sesgos de género.
¿A quién afecta?
- Empresas desarrolladoras de sistemas de IA que comercialicen soluciones para selección de personal, scoring crediticio, salud o servicios públicos.
- Empresas usuarias de sistemas de IA en procesos de RRHH (cribado de CVs, entrevistas automatizadas, evaluación del desempeño).
- Entidades financieras que usen modelos de IA para concesión de crédito o evaluación de riesgo.
- Empresas del sector salud con sistemas de diagnóstico o triaje automatizados.
- Administraciones públicas y empresas que presten servicios públicos con sistemas de asignación automatizada.
- Departamentos de RRHH y Compliance de cualquier empresa mediana o grande con procesos de selección automatizados.
- Proveedores tecnológicos que integren IA en sus productos para los sectores anteriores.
Ejemplo práctico
Una empresa de 200 empleados usa un software de selección de personal basado en IA para cribar los CVs recibidos en sus procesos de contratación. El sistema puntúa automáticamente a los candidatos y filtra quiénes pasan a la entrevista.
Con este convenio en vigor, la AESIA —en colaboración con el Instituto de las Mujeres— puede iniciar una supervisión sobre ese sistema para verificar si genera sesgos de género: por ejemplo, si penaliza candidaturas de mujeres en determinadas posiciones técnicas o directivas, o si favorece perfiles masculinos en sectores históricamente masculinizados.
Si la supervisión detecta un sesgo, la empresa puede recibir un requerimiento para modificar el modelo, documentar los cambios y acreditar que el sistema corregido no discrimina por género. Ese proceso tiene un coste técnico real: revisión del modelo, ajuste de parámetros, nueva validación y documentación para el regulador. Actuar de forma preventiva —antes de recibir ese requerimiento— es más barato y evita el riesgo reputacional asociado a una auditoría con resultado negativo.
¿Qué deben hacer las empresas ahora?
- Identificar todos los sistemas de IA en uso que intervengan en procesos de selección, crédito, salud o servicios públicos. Incluye tanto los desarrollados internamente como los adquiridos a terceros.
- Revisar si esos sistemas incluyen análisis de sesgos de género en su documentación técnica y en los procesos de validación. Si no lo incluyen, es una laguna que hay que corregir.
- Solicitar a los proveedores tecnológicos que acrediten que sus sistemas han sido validados frente a sesgos de género, especialmente si operan en los sectores señalados por el convenio.
- Actualizar la documentación de cumplimiento normativo para incluir la perspectiva de género como criterio explícito en la evaluación de sistemas de IA, alineándola con los requisitos del Reglamento europeo de IA y este convenio.
- Asignar responsabilidad interna (DPO, responsable de Compliance o de RRHH) para el seguimiento de los requerimientos que puedan derivarse de la supervisión conjunta AESIA-Instituto de las Mujeres.
- Consultar con un especialista en cumplimiento de IA si tu empresa opera en alguno de los sectores de alto riesgo identificados, antes de que llegue una auditoría.
Preguntas frecuentes
¿Qué sistemas de IA quedan bajo supervisión por este convenio?
Los sistemas que afecten a procesos de selección de personal, concesión de crédito, salud y servicios públicos son los señalados expresamente como áreas de mayor riesgo de sesgo de género. La supervisión la ejercen conjuntamente la AESIA y el Instituto de las Mujeres.