Google Translate, le service de traduction du géant technologique du même nom, est utilisé journellement par plus de 200 millions de personnes. Mais les résultats de ce travail de traduction ne sont pas représentatifs en matière de genre (masculin - féminin). Voilà ce qu'on peut lire dans un rapport de recherche de l'Université Fédérale de Rio Grande do Sul au Brésil. Dans le cadre d'une recherche, trois scientifiques, à savoir Marcelo Prates, Pedro Avelar et Luis Lamb, ont examiné comment Google Translate traduisait des phrases tirées d'une douzaine de langues neutres sur le plan du genre.

Dans ces langues, dont le chinois, le hongrois, le japonais et le turc, aucune distinction n'est généralement faite entre 'il' ou 'elle'. Lorsque Google Translate convertit des phrases en anglais, l'algorithme doit donc compléter lui-même le genre du sujet abordé.

L'ingénieur est-il de genre masculin ou féminin?

Les chercheurs ont ainsi créé des phrases telles que 'il/elle est ingénieur' et les ont soumises à Google Translate, pour savoir de quelle manière le service allait de lui-même compléter les pronoms personnels. Ils comparèrent alors les résultats avec les données de l'US Bureau of Labor Statistics (BLS), pour voir si le nombre de pronoms masculins et féminins générés par Google, correspondait à la réalité.

Selon les chercheurs, l'algorithme aurait dû générer des pronoms selon un rapport plus ou moins représentatif de celui du monde extérieur. L'algorithme d'apprentissage machine utilise en effet les données du monde réel. Lorsqu'une profession spécifique est exercée principalement par des femmes, il est logique que Google Translate recoure plus souvent à 'elle' dans la traduction d'une phrase. Telle est du moins la théorie, mais cela ne fonctionne pas dans la pratique.

Le masculin par défaut

"Nous démontrons que Google Translate affiche une nette préférence pour le masculin par défaut, surtout dans les secteurs où l'équilibre des genres n'est pas de mise, comme dans les emplois STEM (Science, Technology, Engineering and Mathematics)", signalent les chercheurs. "Nous avons comparé ensuite ces données avec celles provenant du BLS quant à la participation réelle des femmes dans chaque métier, et nous prétendons donc que Google Translate n'est pas capable d'en arriver à une répartition des travailleuses qui concorde avec celle du monde réel."

En chiffres, cela signifie que Google Translate a traduit en moyenne quelque 11,76 pour cent des phrases avec un pronom personnel féminin, toutes professions confondues, alors que selon le BLS, des femmes exerçaient ces professions dans 35,94 pour cent des cas. Autrement dit, Google Translate affiche une nette préférence pour les hommes dans les phrases évoquant des métiers, ce qui ne correspond pas du tout à la réalité.

Stéréotypes

Les stéréotypes allaient du reste dans les deux sens. La préférence de l'algorithme pour des mots tels 'joli', 'heureux' ou 'chéri' prenait clairement une connotation féminine, alors que des phrases incluant des mots comme 'arrogant', 'coupable' et 'vulgaire' étaient plus souvent traduites en genre masculin.

Les préjugés de Google Translate en anglais sont préoccupants, selon les chercheurs, surtout du fait que cette langue est généralement la langue véhiculaire dans le monde. La traduction d'une phrase écrite en swahili vers le chinois passe en général d'abord par l'anglais. "Google Translate utilise généralement l'anglais en tant que 'lingua franca' pour traduire d'autres langues entre elles", peut-on encore lire dans le rapport.