La IA no tiene género. Quien la construye, sí.
¿Tiene género la inteligencia artificial?
La respuesta corta es no. Un algoritmo no tiene cromosomas, ni socialización, ni sesgos propios. Pero las personas que lo diseñan, los datos con los que se entrena y las decisiones que se toman sobre qué optimizar… eso sí tiene género. Y mucho.
La neutralidad tecnológica es un mito cómodo.
Las mujeres representan solo el 26% de la fuerza laboral global en datos e inteligencia artificial (ONU, 2026). Y apenas el 35% de los graduados en carreras STEM son mujeres (UNESCO) — una cifra que no se ha movido en la última década.
Cuando un equipo de personas diseña un sistema, el sistema hereda sus puntos ciegos. No por maldad. Por omisión. Nadie se sienta a construir un algoritmo pensando “voy a discriminar”. Pero si los datos con los que entrenas reflejan décadas de desigualdad, el resultado será desigual. Y lo peor: lo será a escala, con apariencia de objetividad y sin que nadie tenga que dar explicaciones.
El 99% de las víctimas de deepfakes son mujeres o niñas (Home Security Heroes, 2023). Eso no es un error técnico. Es el reflejo amplificado de una desigualdad que ya existía antes de que ningún algoritmo la procesara.
Conozco este problema desde dentro. Participo en el proyecto COPID — un consorcio real, no un paper — en el marco de la Carta de Derechos Digitales. Y la verdad, cuando empecé, pensaba que el sesgo de género en IA era sobre todo un problema de datos. Me equivocaba. Es un problema de quién decide qué se mide, qué se optimiza y qué se ignora. Uno de los socios, Fundación ONCE, acuñó el concepto de Comunidades de Práctica para trabajar derechos digitales desde la experiencia directa con colectivos vulnerables. No desde un despacho. Desde la mesa donde se sientan las personas que viven las consecuencias.
Y ahí aparece algo que creo que merece más atención de la que está recibiendo.
Igualdad de género por diseño.
La idea es sencilla de formular: si quieres que un sistema sea justo, la justicia tiene que estar en el diseño desde el principio. No puedes construir primero y corregir después. Corregir sesgos algorítmicos a posteriori es caro, lento y muchas veces ineficaz. El daño ya está hecho. Las decisiones ya se tomaron. Las personas ya fueron descartadas, puntuadas o clasificadas por un sistema que nadie auditó a tiempo.
En 2018 se supo que Amazon llevaba años usando una herramienta de selección de personal que penalizaba automáticamente los CV que contenían la palabra “women’s”. Clubes de mujeres, asociaciones, títulos de universidades femeninas — todo restaba puntos. Lo descubrieron años después de ponerlo en marcha. ¿Cuántas candidatas fueron descartadas en silencio?
Igualdad de género por diseño significa que la pregunta “¿a quién puede perjudicar esto?” se hace antes de escribir la primera línea de código. No después de la primera denuncia.
En COPID estamos aplicando exactamente eso. La UC3M ha montado tres espacios con nombres que dicen mucho: un Centro de Investigación para analizar lo que se sabe, un Mirador para observar lo que realmente se practica, y un Laboratorio para proponer lo que debe cambiar. Cuando lo vi por primera vez pensé: esto es sentido común. Pero el sentido común en igualdad digital es sorprendentemente raro. OdiseIA, por su parte, traduce esa investigación en herramientas que una empresa o una administración pueda usar al día siguiente: auditorías de sesgos, protocolos de evaluación, marcos de riesgo. No es un ejercicio académico. Es igualdad de género por diseño convertida en práctica.
Pero hay una pieza más grande detrás de todo esto.
España tiene una Carta de Derechos Digitales. Su artículo VIII reconoce el derecho a la igualdad y a la no discriminación en el entorno digital — incluyendo, expresamente, el derecho a no ser discriminado por decisiones automatizadas basadas en algoritmos o inteligencia artificial.
¿Cuánta gente lo sabe? ¿Cuántas empresas lo aplican? ¿Cuántos responsables de producto o de datos lo tienen en cuenta cuando diseñan un sistema?
La Carta es un documento ambicioso. Pero sin mecanismos de implementación — sin gente que se siente a construir el puente entre el derecho reconocido y la práctica real — se queda en una declaración de intenciones.
El proyecto COPID existe precisamente para eso. Cinco comunidades de práctica. Una dedicada exclusivamente a igualdad y no discriminación digital. No para escribir otro informe — para convertir la igualdad de género por diseño en metodología aplicable.
El concepto se llama igualdad de género por diseño. Y no es una declaración de intenciones — es una metodología.
En mayo hay una puesta de largo en Barcelona. Y el 27 de marzo, un webinar donde se empieza a hablar de esto en abierto.
En eso estamos trabajando.


