Los algoritmos heredan los sesgos de género que imperan en nuestra sociedad. Sí, como os contamos en este artículo de Maldita Tecnología, publicado originalmente en The Conversation, los algoritmos tienen errores sistemáticos que replican de los humanos.

Hasta la fecha, los estudios que han analizado el sesgo de género en el funcionamiento de los algoritmos se han centrado mayoritariamente en el inglés, pero esta lengua no tiene género gramatical. O sea, en inglés, enfermero o enfermera se dice igual, “nurse”. Por ello, recientemente, un análisis realizado por la organización AlgorithmWatch ha comprobado que Google Translate cambia el género de algunas traducciones de profesiones cuando estas no reproducen estereotipos en cinco idiomas, diferentes del inglés, que sí reconocen el género gramatical. Es decir, que tienen una palabra para el género femenino y otra para el masculino. 

El estudio ha demostrado que si traduces el nombre de 11 profesiones entre idiomas que sí tienen en cuenta la distinción de género (el alemán, italiano, polaco, español y francés), Google Translate se queda con la versión masculina en el 41,3% de los casos, independientemente de que tanto el idioma de origen como el de destino tenga una versión femenina específica para eso. 

Por ejemplo, si escribimos en alemán “vier Historikerinnen und Historiker”, literalmente, estamos diciendo “cuatro historiadores e historiadoras” pero Google Translate no nos muestra la forma femenina, simplemente lo traduce como “cuatro historiadores”.  

Algo similar sucede si, por ejemplo, traducimos “die Präsidentin” (la presidenta, en alemán) al italiano o al español. A pesar de que el alemán sí contempla la distinción de género del término “presidente”, usando “die” para ellas y “der” para ellos, Google Translate nos muestra el mismo resultado: “el presidente”, en masculino.  

De hecho, también ocurre al revés. O sea, si traducimos el sustantivo masculino al femenino. En este caso, si pedimos a Google Translate que nos traduzca "l'infermiere" (enfermero, en italiano) al español, el resultado que nos muestra es "la enfermera", con género femenino.

El estudio reconoce que hay profesiones que sí se traducen correctamente de un idioma a otro, pero generalmente ocurre en las profesiones en las que el sustantivo en cuestión no tiene género femenino. Por ejemplo, la profesión de asistente, que en español es igual para hombres que para mujeres. 

Por idiomas, Google Translate detecta más profesiones incorrectas en francés e italiano (con un 44,3% de error), que en español, alemán o polaco (con un 42% o menos de error). Pero cambia dependiendo de la profesión que traduzcamos. Hay algunas profesiones, como doctora, historiadora o presidenta, que el traductor de Google cambia a su forma masculina mayoritariamente en los cinco idiomas. Es decir, de las 20 traducciones del sustantivo doctora, el traductor de Google no detectó ninguna forma femenina. En alemán, “die Doktorin” se convirtió en "le docteur", en francés; y "la dottoressa", en italiano, en "der Doktor", en alemán. 

El inglés no tiene género gramatical por lo que, si se utiliza como idioma puente, se pierde el género femenino durante la traducción

En ese sentido, desde Google han explicado a Maldita.es que “la traducción de ambas formas gramaticales requiere grandes volúmenes de datos bilingües que a menudo no existen para todos los idiomas” y añaden que, cuando eso pasa, “estas traducciones se realizan a través de una técnica llamada puente o bridging”. Esta técnica implica la entrada de un tercer idioma que actúe como puente entre el primero y el segundo. El tercer idioma que entra en juego suele ser el inglés. ¿Cuál es el problema? Como hemos explicado anteriormente, la mayoría de sustantivos en inglés no distingue el género gramatical por lo que si traducimos “enfermera” de un idioma que sí reconoce la forma gramatical femenina al inglés, la perdemos en el camino.  

"La gran mayoría de idiomas no ingleses se unen a través del inglés", continúan desde Google, aunque no especifican qué idiomas pasan por este proceso. Por ello, es imposible saber si para traducir sustantivos del alemán al español, del español al italiano, o del francés al polaco han pasado por el inglés.

Es cierto que, actualmente, Google Translate está mejorando sus servicios. En 2018, introdujo el desdoblamiento por género femenino y masculino de algunas palabras y expresiones. Así, por ejemplo, si buscas el término desarrollador, se traduce correctamente y en ambas formas gramaticales. 

De hecho, tal y como especifican en el estudio de AlgorithmWatch, cuando Google Translate traduce textos largos o páginas web, suele observar el género de las palabras que están al lado del término en cuestión para mostrar la forma femenina o masculina y traducir, correctamente, los sustantivos con inflexión de género. Sin embargo, eso no siempre ocurre.

En Maldita.es hemos traducido "el enfermero es un hombre" y "la presidenta es una mujer" al francés y al italiano. Pero el resultado ha sido el mismo: a pesar de haber especificado el género, Google Translate no reconoce adecuadamente el género gramatical ni en francés ni en italiano.

Aunque se especifica que "el enfermero es un hombre", en la traducción sigue siendo una profesión de mujeres. Lo mismo que si escribimos "la presidenta es una mujer", el traductor muestra el sustantivo en masculino.

Sexismo en los algoritmos de búsqueda de imágenes y de internet 

Sin embargo, aunque el traductor de Google ha introducido correcciones en los últimos años, hay decenas de estudios que analizan el funcionamiento de ciertos algoritmos tanto de Google como de otras herramientas en internet y detectan sesgos sexistas.

Por ejemplo, este estudio demostró que los algoritmos de búsqueda de imágenes en Bing (buscador de internet) se obtienen fotos de mujeres con más frecuencia al utilizar palabras en la búsqueda como “sensible” o “emocional”. En cambio, palabras como “inteligencia” o “racional” están más representadas por fotos de hombres. Incluso si buscas la palabra “persona”, se cargan más fotos de hombres que de mujeres. 

En esta otra investigación, se observó que un algoritmo entrenado con texto tomado de internet asociaba nombres femeninos, como Sarah, con palabras como “padres” y “boda”. Por el contrario, nombres masculinos, como John, con “profesional” y “salario”. O sea, las palabras que se relacionaban con el nombre de mujer estaban atribuidas a la familia pero las del hombre, con el trabajo.