Sesgos de Género en la inteligencia artificial: un desafío para la igualdad
Introducción
La inteligencia artificial (IA) se erige como una herramienta transformadora, pero su desarrollo y aplicación no están exentos de riesgos para las mujeres, particularmente en lo que respecta a los denominados sesgos algorítmicos de género que pueden perpetuar y exacerbar la desigualdad estructural que afecta a las mujeres histórica y globalmente. Es que el insumo principal de la IA, es la información y los datos históricos y, de la mano de ellos, los patrones socioculturales que puede reproducir decisiones discriminatorias si no se incorpora una perspectiva de género proactiva en el diseño, entrenamiento y supervisión de la IA.1
En realidad, la IA puede ser concebida como un ámbito ideal para corregir esos patrones y con ellos las brechas de género que generan, y de ese modo promover la igualdad real, especialmente en ámbitos críticos como el trabajo, la justicia y la salud.
Falta de neutralidad de la IA
La idea de la ley neutral en cuanto al género fue hasta hace poco una creencia extendida. Se asumía que la legislación, desprovista de discriminación explícita, produciría efectos idénticos en su aplicación a hombres y mujeres. Sin embargo, esta premisa, sumada a la histórica distribución de roles sociales y la naturalización de estereotipos, ha contribuido significativamente a la persistente desigualdad estructural que enfrentan las mujeres a nivel mundial.2 Esta desigualdad no se limita a casos individuales, sino que afecta a una porción considerable de la población global: más de la mitad.
La IA tampoco es neutral al género. Los datos con los que se entrena, particularmente aquellos derivados de registros históricos, y los algoritmos que emplea, pueden contener los ya denominados sesgos algorítmicos de género.
Estos sesgos tienen el potencial de inducir a los sistemas de IA a tomar decisiones discriminatorias, replicando y amplificando las desigualdades preexistentes en la sociedad real.
El desafío, entonces, no radica únicamente en evitar la reproducción de sesgos sociales en el ámbito virtual; la IA debe ser concebida como una oportunidad decisiva para rectificar estas asimetrías y fomentar la igualdad efectiva. Si las decisiones cruciales en áreas como la salud, el ámbito laboral y los procesos judiciales serán cada vez más influenciadas por la IA, es imperativo que se redoblen los esfuerzos para eliminar las los sesgos y con ellos las brechas de género, entendidas como las disparidades sociales, culturales, políticas y económicas determinadas por el género.
El Origen y la Perpetuación de los Sesgos de Género en la IA
Los sesgos de género en la IA se originan principalmente en dos fuentes interconectadas: los datos de entrenamiento y el diseño algorítmico. Los sistemas de IA aprenden de vastos conjuntos de datos, que a menudo reflejan patrones históricos de desigualdad y representaciones estereotipadas. Si estos datos están desequilibrados, por ejemplo, al mostrar predominantemente perfiles masculinos en roles de liderazgo o decisión, la IA puede internalizar y perpetuar esta discriminación. Como resultado, al procesar nueva información, el sistema podría favorecer implícitamente a un género sobre otro, reproduciendo la subrepresentación femenina en ciertos ámbitos.
Además de los datos, las redes neuronales artificiales aprenden del lenguaje, las acciones y la interacción humana. Si el lenguaje utilizado para entrenar estos modelos carece de una representación equitativa de mujeres en roles diversos —desde juezas y fiscales hasta médicas cirujanas—, la IA desarrollará una comprensión sesgada de la realidad. El lenguaje es un constructo cultural, no biológico, y su modificación deliberada puede alterar conductas y percepciones. Por lo tanto, la inclusión de mujeres en esferas públicas y de toma de decisiones, y su reflejo en el lenguaje que alimenta la IA, es fundamental para contrarrestar los sesgos.
Es crucial reconocer que la tarea de mitigar estos sesgos no recae exclusivamente en los profesionales del campo tecnológico, en el que, además, las mujeres están subrepresentadas. La responsabilidad es compartida por todas las personas que interactúan con la IA, desde su diseño y desarrollo hasta su aplicación y supervisión. Si bien se postula que una ventaja de la IA es su falta de emociones, es precisamente la intervención humana, con su capacidad de incorporar diversas perspectivas incluyendo la de mujeres, personas con discapacidad, diferentes etnias y grupos etarios—, la que puede corregir e introducir la equidad necesaria.
En el ámbito de la justicia, la utilización de datos en las sentencias y demás actos procesales debe ser inclusiva, reflejando una multiplicidad de circunstancias sociales, culturas y funciones tanto en hombres como en mujeres. Es imperativo eliminar los sesgos históricos que asocian empleos o características específicas con un género determinado, prácticas que hoy se consideran anacrónicas y universalmente reconocidas como existentes.
Marcos Regulatorios y Principios para una IA Inclusiva
La creciente conciencia sobre los sesgos de género en la IA ha impulsado el desarrollo de posibles marcos regulatorios y principios éticos a nivel global. Entre las más recientes, Las Recomendaciones de uso de IA para el Poder Judicial (CABA), por ejemplo, establecen como principio la no discriminación:3
Prevenir aplicaciones sesgadas de sistemas de IA y resultados que generen, reproduzcan, refuercen, perpetúen o agraven la discriminación.
También en fecha cercana, el Ministerio Público de la Nación creó el Programa de Inteligencia Artificial del Ministerio Público Fiscal. Allí se propone dictar buenas prácticas, entre otras, que atiendan al problema de la discriminación. Se dice en el documento en este sentido que:4
Sin perjuicio de sus ventajas, la incorporación de sistemas de inteligencia artificial plantea problemas relevantes que deben ser abordados con responsabilidad y previsión, particularmente en lo que se refiere a la comprensión de sus procesos, la transparencia, la rendición de cuentas, el mantenimiento de control humano significativo, la prevención de sesgos y discriminaciones algorítmicas.
De manera similar, la Carta Iberoamericana de Inteligencia Artificial en la Administración Pública, aprobada por el Centro Latinoamericano de Administración para el Desarrollo (CLAD), ya consagraba el principio de no discriminación, afirmando la necesidad de «Eliminar los sesgos de género, etnia, religión, así como cualquiera otra característica de los seres humanos que pueda manifestarse en los datos e información que nutren los sistemas de Inteligencia Artificial». Este documento también promueve la equidad, inclusividad y no discriminación, instando a que la utilización de la IA en la administración pública «promueva en todo momento la equidad, garantizando una distribución igualitaria de riesgos y beneficios de su despliegue en todos los ámbitos, así como contribuyendo a reducir las brechas existentes en las sociedades».5
Existen, por otra parte, diversos proyectos de ley en trámite para regular el uso de la IA en los que también se enfatiza la necesidad de que los resultados de la inteligencia artificial sean beneficiosos para las personas, promoviendo la inclusión de poblaciones subrepresentadas y reduciendo las desigualdades económicas, sociales y de género. Se reitera la necesidad de incorporar perspectivas de género tanto en la generación de datos como en la creación de algoritmos.6
La implementación de estas directrices es fundamental para abordar los sesgos negativos y con ellos también las brechas que éstos producen: brecha de acceso al empleo, brechas de ingresos y brecha de activos, las cuales contribuyen significativamente a la falta de autonomía de las mujeres. La aplicación de la IA con una perspectiva de género en la selección y generación de datos, así como en la creación de algoritmos, y siempre bajo supervisión humana, representa una oportunidad crucial para saldar la deuda histórica con las mujeres en términos de igualdad de condiciones en el mercado laboral.
El rol de los órganos que imparten justicia
Los tribunales son grandes productores de información, a partir de datos y procesos que se refieren a personas específicas, aunque anonimizadas por excepción, y a información estatal. Un expediente judicial, a menudo abierto a la consulta pública, es una fuente rica en datos. Del mismo modo, una sentencia, tanto en sus considerandos como en su parte resolutiva, ofrece una gran cantidad de información susceptible de ser analizada por sistemas de IA.
Es por ello relevante que allí también se refieran a juezas, a defensoras, a peritas y a todas las denominaciones que involucren a la mujer en roles de decisiones, a efectos que las mujeres no queden invisibilizadas, vía utilización del masculino genérico, y a roles tradicionalmente asignados a los hombres.
Conclusión
La inteligencia artificial, si bien conlleva riesgos y desafíos considerables, emerge como una oportunidad sin precedentes para modificar la realidad de la desigualdad estructural. La clave reside en su desarrollo y aplicación conscientes, incorporando una perspectiva de género en cada etapa, desde la generación y selección de datos hasta la creación de algoritmos, siempre bajo una rigurosa supervisión humana. Solo así se podrá asegurar que la IA no empeore la situación de las poblaciones vulnerables, sino que, por el contrario, se convierta en una herramienta potente para la construcción de sociedades más equitativas e inclusivas. La responsabilidad de esta transformación es colectiva, involucrando a todos los actores sociales en la configuración de un futuro digital que refleje y promueva la igualdad real.
Notas
- Este trabajo forma parte de la exposición hecha por la Dra. Agustina O’Donnell en la Jornada de Inteligencia Artificial en la Justicia, «Perspectiva de género, vulnerabilidad digital y los derechos en la era de la IA», organizada por la Federación Argentina de la Magistratura, Tucumán, 16/5/2025. ↑
- Saba, Roberto. Más allá de la igualdad formal ante la ley. Colección Derecho y Política, Siglo Veintiuno Argentina, Buenos Aires, 2016, p. 268. ↑
- Res. N° 206/2025 (Recomendaciones de uso de IA para el Poder Judicial, CABA). ↑
- Res. N° 14/25 (14.5.2025). ↑
- www.clad.org. ↑
- Entre ellos «Responsabilidad algorítmica y promoción de la robótica, algoritmos verdes e inteligencia artificial en la república argentina». Expte N° 805-D-2024. ↑