Dans les médias sociaux, ce que beaucoup de gens désignent comme un abonde maintenant gender biens lors de l’utilisation de services de traduction en ligne. Pour certains, ce n’est peut-être pas un phénomène nouveau, mais nous en avons été particulièrement conscients lorsque nous l’avons testé nous-mêmes.

Selon Google Translate, il n’est pas possible d’avoir une petite amie qui soit à la fois avocate et femme. Nous avons effectué le test suivant : entrez « ma copine est (…) » avec l’anglais comme langue de traduction, et insérez diverses professions et tâches.


Camille Hagelien

Camille Hagelien

Le résultat était intéressant. Cela suggère que les services de traduction basés sur des algorithmes peuvent en eux-mêmes contribuer à renforcer les modèles traditionnels de rôles de genre que beaucoup pensent que nous avons abandonnés il y a longtemps. Selon Google Translate, l’homme est, par exemple, médecin, avocat, répare la voiture et gagne de l’argent. La femme, quant à elle, est infirmière, prépare le dîner et s’occupe des enfants.

Parfois, Google propose des alternatives, par exemple qu’au lieu de « petit ami », cela peut être « petite amie », et au lieu de « il », cela peut être « elle ». Cependant, pour les avocats, d’autres options n’ont même pas été proposées. Vous ne pouvez avoir qu’un « amant » ou un « petit ami » qui est avocat, pas une « petite amie ».


Sarah Renså Skogesal

Sarah Renså Skogesal (Photo: Privé)

Les infirmiers n’existent clairement pas non plus, et selon Google, seuls les hommes peuvent travailler très dur. Des cas similaires ont également été observés dans des traductions de langues neutres, où les pronoms liés au genre ne sont pas utilisés.

Les processus décisionnels basés sur des algorithmes sont souvent mis en avant comme un avantage car ils réduisent le risque d’erreur humaine et de préférences subjectives. À l’avenir, il est possible que nous fondions nos évaluations et nos décisions sur des données basées sur des algorithmes encore plus qu’aujourd’hui.

Comme les algorithmes de plusieurs autres sociétés Big Tech, les algorithmes de Google sont considérés comme ayant une réputation relativement bonne – précisément en raison de la grande quantité de données qui sont traitées avant que les décisions ne soient prises. Cependant, il ne faut pas oublier qu’une telle technologie peut être caractérisée par des sources d’erreur, selon le type de données dont l’algorithme est testé et alimenté.

Dans certaines sociétés et familles, il est probablement encore vrai que la plupart des femmes s’occupent des enfants et que la plupart des hommes sont avocats et gagnent de l’argent. Mais ce n’est pas une vérité générale. Nous ne pouvons pas sortir des anciens schémas de pensée et de prise de décision si les algorithmes que nous utilisons sont basés sur d’anciennes données.

Comme l’a illustré notre expérience de traduction, les anciens ensembles de données doivent éventuellement être remplacés et corrigés pour toutes les sources d’erreur qui ne reflètent plus la société dans laquelle nous vivons. Les tâches et les occupations professionnelles ne doivent pas du tout être fondées sur le sexe. Mais il ne faut en aucun cas laisser les algorithmes faire le choix à notre place.

Salut Google ! Nous existons aussi ! Salutations à deux femmes du monde juridique.

Nous ne pouvons pas sortir des anciens schémas de pensée et de prise de décision si les algorithmes que nous utilisons sont basés sur d’anciennes données.


(Conditions)Copyright Dagens Næringsliv AS et/ou nos fournisseurs. Nous aimerions que vous partagiez nos cas en utilisant des liens, qui mènent directement à nos pages. La copie ou d’autres formes d’utilisation de tout ou partie du contenu ne peuvent avoir lieu qu’avec une autorisation écrite ou dans la mesure permise par la loi. Pour plus de termes voir ici.