Asistentes de IA y sesgo de género: por qué la tecnología “educada” refuerza estereotipos dañinos

14

Los asistentes de voz con inteligencia artificial (IA) son ahora omnipresentes, con más de 8 mil millones activos en todo el mundo (más de uno por persona en el planeta). A pesar de su conveniencia, estos sistemas recurren abrumadoramente a personajes femeninos, perpetuando estereotipos de género dañinos y normalizando interacciones dañinas. Esta no es una mera cuestión de marca; es una elección de diseño fundamental con consecuencias en el mundo real.

El diseño de género de los asistentes de IA

La naturaleza de género de los asistentes de IA es evidente en sus nombres y voces. Siri de Apple, derivado de un nombre femenino escandinavo que significa “mujer hermosa que te lleva a la victoria”, ejemplifica esta tendencia. Compárese esto con Watson for Oncology de IBM, lanzado con una voz masculina: una señal clara de que las mujeres sirven, mientras que los hombres instruyen.

Este diseño refuerza las expectativas sociales sobre los roles de género, donde las mujeres se posicionan como serviciales y sumisas, mientras que los hombres son autoritarios. Las implicaciones se extienden más allá del simbolismo; normaliza la subordinación basada en el género y aumenta el riesgo de abuso.

La inquietante realidad del abuso

La investigación revela el alcance de las interacciones dañinas con la IA feminizada. Los estudios muestran que hasta el 50% de los intercambios entre humanos y máquinas contienen contenido verbalmente abusivo, incluido lenguaje sexual explícito. A pesar de esto, muchos desarrolladores todavía confían en respuestas precodificadas al abuso (“Hmm, no estoy seguro de lo que quisiste decir con esa pregunta”) en lugar de cambios sistémicos.

Este comportamiento puede extenderse a las interacciones del mundo real. Los experimentos muestran que el 18% de las interacciones con agentes con encarnación femenina se centran en el sexo, en comparación con el 10% de las encarnaciones masculinas y el 2% de los robots sin género. El banco Bradesco de Brasil informó que se enviaron 95.000 mensajes de acoso sexual a su chatbot feminizado en un solo año.

La rápida escalada de abusos es alarmante. El chatbot Tay de Microsoft fue manipulado para que arrojara insultos racistas y misóginos dentro de las 16 horas posteriores a su lanzamiento. En Corea, Luda fue obligada a responder a solicitudes sexuales como una obediente “esclava sexual”, y algunos vieron esto como un “crimen sin víctima”. Estos casos demuestran cómo las opciones de diseño crean un ambiente permisivo para la agresión de género.

Brechas regulatorias y problemas sistémicos

La regulación lucha por seguir el ritmo de este crecimiento. La discriminación por motivos de género rara vez se considera de alto riesgo y las leyes actuales a menudo no abordan el problema. La Ley de IA de la Unión Europea, si bien exige evaluaciones de riesgo, no clasificará a la mayoría de los asistentes de IA como de “alto riesgo”, lo que significa que los estereotipos de género o la normalización del abuso no activarán automáticamente la prohibición.

Canadá exige evaluaciones de impacto basadas en género para los sistemas gubernamentales, pero el sector privado sigue sin estar regulado. Australia planea confiar en los marcos existentes en lugar de elaborar reglas específicas para la IA. Este vacío regulatorio es peligroso porque la IA aprende de cada interacción, lo que potencialmente codifica la misoginia en resultados futuros.

La necesidad de un cambio sistémico

El problema no es simplemente Siri o Alexa; es sistémico. Las mujeres representan sólo el 22% de los profesionales de la IA a nivel mundial, lo que significa que estas tecnologías se basan en perspectivas estrechas. Una encuesta de 2015 encontró que el 65% de las mujeres de alto nivel en Silicon Valley habían experimentado insinuaciones sexuales no deseadas por parte de supervisores, lo que pone de relieve la cultura profundamente desigual que da forma al desarrollo de la IA.

Las directrices éticas voluntarias no son suficientes. La legislación debe reconocer los daños por género como de alto riesgo, exigir evaluaciones de impacto basadas en el género y responsabilizar a las empresas cuando no logran minimizar los daños. Hay que hacer cumplir las sanciones. La educación también es crucial, especialmente dentro del sector tecnológico, para comprender el impacto de los valores predeterminados de género en los asistentes de voz.

Estas herramientas son producto de elecciones humanas, y esas elecciones perpetúan un mundo donde las mujeres –reales o virtuales– son consideradas serviles, sumisas o silenciosas.