A la ministra Montero (Irene) no le gustan ni Alexia, ni Siri: siempre están pendientes de ayudar a los demás
Irene Montero no descansa. Avanza y avanza en la senda del feminismo hasta llegar... no sabemos dónde. Ahora el ministerio que dirige y el Instituto de la Mujer han editado la guía-‘Mujeres y digitalización. De las brechas a los algoritmos’- considera que «asistentes» virtuales tan populares como Alexa o Siri perpetúan roles de género.
El trabajo, muy detallado, analiza la presencia de la mujer en entornos digitales. Y en este sentido, señala que «la mayor parte de estos asistentes virtuales sitúan de manera indirecta a las mujeres en puestos secundarios, ligados al rol tradicional de género asociado a tareas como las de prestar ayuda y asistencia a otras personas». Y eso no le gusta a la señora ministra.
Sólo un apunte, doña Irene, a ver si vamos a mezclar la gimnasia con la magnesia: ayudar o asistir a los demás, no depende de si uno es hombre o mujer. Está relacionado con la voluntad de las personas, las hay que son solícitas de por sí y las hay que, simplemente, no lo son -hombres o mujeres-.
Y siguiendo con la guía que ha sido difundido en los últimos días desde el Ministerio, el profundo documento alerta sobre los «sesgos de género en sistemas de reconocimiento de imagen y voz». En este sentido, se indica que «muchos de los algoritmos que se utilizan en aplicaciones de reconocimiento de imagen o voz se basan en estereotipos de género a partir de la apariencia física de las personas que se suponen usuarias de las mismas».
Según publica Ok Diario: «Dichos algoritmos reproducen falsas creencias en torno a cómo deberían ser los atributos físicos que definen a las personas según su sexo biológico, su procedencia étnica o cultural, o su orientación sexual. A pesar de que los estudios apuntan a este tipo de problemas, parece que el patrón cultural dominante corresponde a un hombre blanco perteneciente a un grupo acomodado», añade. Por ello, «es a él a quien se tiene como público objetivo a la hora de diseñar y desarrollar herramientas de inteligencia artificial».
El trabajo cita un estudio que observó «que asistentes de voz como Alexa, Siri o Cortana, al utilizar atributos femeninos, representaban la identidad de género femenina y, por ende, estaban diseñados para llevar a cabo tareas administrativas básicas (ligadas a puestos de trabajo con una alta presencia femenina) como contestar emails, leer y enviar mensajes o planificar agendas en el calendario».