Por: Megan Specia.   7 junio
“La actitud servil y ‘femenina’ de Siri —así como la sumisión expresada por muchos otros asistentes digitales proyectados como jóvenes mujeres— proporciona una ilustración poderosa de los sesgos de género integrados en los productos tecnológicos”, según un informe de la Unesco.
“La actitud servil y ‘femenina’ de Siri —así como la sumisión expresada por muchos otros asistentes digitales proyectados como jóvenes mujeres— proporciona una ilustración poderosa de los sesgos de género integrados en los productos tecnológicos”, según un informe de la Unesco.

¿Por qué la mayoría de los asistentes virtuales que son impulsados mediante la inteligencia artificial —como Siri de Apple y Alexa de Amazon— por defecto tienen nombres y voces de mujer, y a menudo tienen un estilo sumiso o incluso coqueto?

El problema, de acuerdo con un nuevo informe publicado por la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (Unesco), se origina en una falta de diversidad dentro de la industria, la cual está reforzando estereotipos de género problemáticos.

“Las máquinas obedientes y complacientes que fingen ser mujeres están entrando a nuestras casas, autos y oficinas”, dijo mediante un comunicado Saniye Gülser Corat, directora de equidad de género de la Unesco. “El mundo necesita poner más atención respecto de si las tecnologías de IA tienen género, así como en qué momento y de qué manera lo tienen y, esencialmente, quién lo está asignando”.

Una reflexión particularmente preocupante al respecto son las “respuestas evasoras, mediocres o apologéticas” que estas asistentes ofrecen después de un insulto.

El título del informe —“Me sonrojaría si pudiera”— viene de una respuesta estándar de Siri, el asistente de voz de Apple, cuando un usuario le grita una grosería relacionada con el género. Cuando un usuario le dice a Alexa: “Eres candente”, su respuesta generalmente ha sido un alegre: “¡Qué amable de tu parte!”

La respuesta de Siri hace poco fue modificada para que dijera una frase más neutral: “No sé cómo responder a eso”, pero el informe sugiere que la tecnología sigue teniendo un sesgo de género y argumenta que el problema comienza con los equipos de ingenieros que en su gran mayoría son hombres.

“La actitud servil y ‘femenina’ de Siri —así como la sumisión expresada por muchos otros asistentes digitales proyectados como jóvenes mujeres— proporciona una ilustración poderosa de los sesgos de género integrados en los productos tecnológicos”, halló el informe.

Alexa de Amazon, llamada así por la antigua biblioteca de Alexandria, es inequívocamente una mujer. Cortana de Microsoft fue nombrada así a partir de un personaje de IA en la franquicia de videojuegos de Halo que se proyecta como una mujer sensual y desnuda. Siri de Apple es un nombre nórdico que significa “hermosa mujer que te lleva a la victoria”. El sistema Google Assistant, también conocido como Google Home, tiene un nombre de género neutral, pero la voz por defecto es de mujer.

Sin embargo, en sus personalidades humanizadas se encuentran integradas generaciones enteras de percepciones problemáticas de las mujeres. Estas asistentes están poniendo un sello en la sociedad conforme se vuelven comunes en los hogares de todo el mundo, y pueden influir sobre las interacciones con las mujeres de verdad, advierte el informe. Como lo señala el informe, “cuanto más enseñe la cultura a igualar a las mujeres con asistentes, más consideraremos que las mujeres son como asistentes, y estas serán penalizadas por no actuar como tal”.

Apple y Google rechazaron hacer comentarios sobre el informe. Amazon no respondió de inmediato a las peticiones para hacer declaraciones.

La publicación —la primera en ofrecer recomendaciones de un organismo de la ONU respecto del género de las tecnologías de IA— animó a las empresas tecnológicas y los gobiernos a dejar de fabricar asistentes digitales con voz de mujer por defecto y a explorar el desarrollo de un asistente de voz de género neutral, entre otros lineamientos.

Los sistemas son un reflejo de las disparidades más grandes de género dentro de los sectores de la tecnología y la IA, señaló la Unesco en el informe, el cual fue emitido en colaboración con el gobierno de Alemania y la Equals Skills Coalition, que promueve el equilibrio de género en el sector de la tecnología.

Sesgos inconscientes

Las mujeres están muy subrepresentadas en la inteligencia artificial, pues conforman el 12% de los investigadores de la IA y el 6% de los desarrolladores de software en el campo.

El informe señaló que las empresas tecnológicas justifican el uso de voces de mujeres señalando estudios que mostraban que los consumidores preferían voces de mujeres y no de hombres. Sin embargo, perdidas en medio de esa conversación se encuentran las investigaciones que muestran que a la gente le gusta el sonido de una voz masculina cuando está haciendo declaraciones autoritarias, pero una voz femenina cuando se es “útil”, lo cual hace perdurar aún más los estereotipos.

Los expertos dicen que los sesgos integrados en la IA y las disparidades más amplias dentro del campo de la programación no son nuevos, pues señaló como ejemplos una herramienta de contratación involuntariamente sexista desarrollada por Amazon y la tecnología de reconocimiento facial que identificaba mal los rostros negros.

“No siempre es un sesgo malicioso, sino inconsciente y, además, hay una falta de conciencia de que existe este sesgo inconsciente, por lo que se perpetúa”, dijo Allison Gardner, cofundadora de Women Leading in AI. “No obstante, estos errores suceden porque no hay equipos diversos ni la diversidad de pensamiento e innovación necesaria para detectar los problemas evidentes”.

Sin embargo, el informe ofrece lineamientos para la educación y medidas para abordar los problemas, las cuales han sido propuestas desde hace mucho por los defensores de la equidad.

La organización de Gardner trabaja para reunir a las mujeres que trabajan en la IA con líderes de negocios y políticos con el fin de hablar de la ética, los sesgos y el potencial para que los marcos legislativos desarrollen la industria de una manera que sea más representativa.

El grupo ha publicado su propia lista de recomendaciones para construir inteligencia artificial inclusiva, entre ellas establecer un organismo regulador para auditar algoritmos, investigar quejas y asegurarse de que se tomen en cuenta los sesgos en el desarrollo de nuevas tecnologías.

El sistema Google Assistant, también conocido como Google Home, tiene un nombre de género neutral, pero la voz por defecto es de mujer.

“Debemos cambiar esta situación en este momento, porque ya se están implementando estas tecnologías”, dijo Gardner, y señaló la veloz proliferación de los asistentes virtuales impulsados con IA. “Hoy estamos escribiendo los estándares que se usarán en el futuro”.

Gardner dijo que los cambios también se necesitan en la educación, porque el sesgo era síntoma de la subrepresentación sistemática dentro de un campo dominado por los hombres.

“Toda la estructura del campo de la informática se ha diseñado para estar enfocada en los hombres, hasta la semántica que utilizamos”, comentó.

Aunque las mujeres ahora tienen más oportunidades en la informática, más de ellas están desapareciendo del campo conforme avanzan en sus carreras, una tendencia conocida como el fenómeno de las “fugas en la tubería”.

“Yo diría que en realidad las están excluyendo de un entorno y una cultura que son poco amigables con las mujeres”, dijo Gardner. “Lo que debe cambiar es la cultura”.