Compte-rendu de Fabienne Baider
Nous accueillons chaleureusement la contribution qui suit, dirigée par Fabienne H. Baider. Fabienne est professeur associée à l'Université de Chypre et travaille sur la sémantique et l’analyse de discours d'un point de vue socio-cognitiviste et contrastif (français, anglais et grec). Ses recherches incluent les métaphores conceptuelles et les émotions dans le discours politique, la communication en ligne et le discours de haine. Elle se concentre actuellement sur les stratégies discursives discriminatoires (covert racism, covert sexism) ainsi que sur les stratégies de discours en matière de leadership politique. Sa méthodologie inclut la linguistique de corpus et l'analyse de discours critique (CDA). Elle est la coordinatrice du Projet C.O.N.T.A.C.T. co-financé par l'UE (reportinghate.eu). Avant cette carrière universitaire, Fabienne a voyagé et travaillé comme enseignante de FLE en Afrique (entre autres métiers), particulièrement en Afrique du sud, ainsi qu’au Canada où elle a repris ses études de troisième cycle (cf. sa page web (http://www.fabiennehbaider.
Notre compte-rendu est consacré à l’étude publiée en février 2019 et intitulée Il a dit, elle a dit: Aborder le genre dans la traduction automatique neurale. [He Said, She Said: Addressing Gender in Neural Machine Translation, (Gino Dino, 2019)].
Chacun et chacune ayant traduit de la langue anglaise (langue sans genre lexical mais avec genre uniquement pronominal) vers la langue française à l’aide de logiciels tels que Google translate ont connu certains déboires. Ainsi les traductions suivantes indiquent des biais :
This person is a very well known professor;
Cette personne est un professeur très connu
Two women were late; When they arrived they were happy;
Deux femmes étaient en retard. Quand ils sont arrivés, ils étaient heureux
Automatiquement Google translate propose et emploie le genre grammatical masculin par défaut, même lorsque des indices grammaticaux et sémantiques indiquent clairement le genre féminin. Pour les utilisateurs le problème du sexisme de l'intelligence artificielle était connu mais il a été découvert en quelque sorte par les chercheurs assez récemment.
En effet, selon l’article mentionné ci-dessus, il a fallu attendre novembre 2018 pour que ‘l’affaire’ soit publique auprès des informaticiens quand les médias ont enfin discuté les suggestions automatiques sexistes de Google Mail. Pour simplifier ce problème, Google mail (Gmail) ne va plus proposer automatiquement un genre grammatical avec leur nouveau logiciel de traduction automatique. [1] En effet une nouvelle fonctionnalité (appelée Smart Compose) évitera de suggérer des genres. De même en décembre 2018, Google a publié un premier article sur les mesures prises afin de réduire les stéréotypes sexistes que nous avons mentionnés plus haut dans Google Translate [2] . Ainsi il avait été prouvé que les traductions se basaient principalement sur de tels stéréotypes ainsi la suggestion de pronoms masculins pour des cooccurrences avec des mots comme « fort » ou «docteur» et des pronoms féminins pour des cooccurrences avec les adjectifs tels que « beau » et «infirmier».
Pour éviter ces automatismes Google a mis à jour son logiciel et les requêtes de traduction de l'anglais vers le français, l'italien, le portugais ou l'espagnol vont proposer des choix de traductions i.e. le masculin et le féminin [3] . Cependant comme nous l’avons vu au début de ce texte avec l’exemple de deux phrases consécutives, le mot femme ne va pas déclencher dans la proposition suivante le pronom elles. De fait les phrases plus longues ou plus complexes ou même ce qu’on appelle les anaphores entre phrases, quant à elles, nécessitent un processus plus complexe. Tellement complexe que Google a dû « apporter des modifications importantes » à son logiciel de traduction. Cet article explique en effet que ce n’est pas facile d’être objectif et neutre : le logiciel doit prendre un nouveau processus qui prend en compte notamment les suggestions de traduction rejetées. Google affirme que ce nouveau système peut être fiable en ce qui concerne le genre des traductions féminines et masculines ‘99% du temps’, sauf que notre exemple très simple donnée plus haut n’est toujours pas traduit de manière équitable.
Eva Vanmassenhove qui travaille en recherche dans le domaine de la traduction automatique depuis 2015, rapporte dans cet article qu’elle avait souligné les faiblesses d’une telle approche pour des raisons nombreuses, et qui sont toutes basées sur le fait que la problématique est bien plus complexe que changer des pronoms. En particulier elle reproche le fait que Google travaille surtout à sens unique c’est-à-dire qu’ils travaillent sur des traductions avec l’anglais comme langue cible et d’autres langues comme langue source. De plus la chercheure souligne la complexité de la tâche. En effet le genre ne s’exprime pas seulement avec le genre grammatical, car le choix des verbes ou des adjectifs est aussi genré. Enfin il ne faut pas non plus sous-estimer la dimension de l’interculturalité : différentes langues ont différentes manières d’exprimer le genre et envisager une solution unique est utopique. Le contexte est aussi primordial dans les traductions et prédire le genre dans des langues qui expriment ce genre minimalement reste une tâche non résolue et sans doute non résolvable. On en reste encore dans Google translate a « The nurse arrived » et « The surgeon arrived » comme traduction par défaut de ‘l'infirmière est arrivée’ et ‘le chirurgien est arrivé ». Pire le féminin est proposé par défaut pour renforcer des stéréotypes ainsi :
I am a strong surgeon se traduit par ‘je suis un chirurgien fort’ (juillet 2019)
I am a beautiful surgeon se traduit par ‘je suis une belle chirurgienne’ (juillet 2019)
Pour détecter de tels biais, il s’agit de compiler un volume d’exemples impressionnant qui ne peut que se faire après des années. Se rendre compte des biais est déjà une étape importante; les premiers ont été vers la réduction des préjugés sexistes dans la traduction automatique.
Mais la discussion des biais ne devrait pas se limiter au sexisme. En effet la correction des biais devrait se faire dans le cadre de la théorie intersectionnelle : cette théorie pose que le genre, la classe et la race principalement vont entraîner des biais spécifiques; combiner et cumuler ces biais vont aussi entraîner des problèmes de traduction pour les modèles neuronaux. Les asymétries sociales sont multiples et incluent l’âge, l’orientation sexuelle et l’appartenance à des groupes minoritaires, asymétries qui vont de traduire dans des suggestions de traduction biaisées. Eva Vanmassenhove en a conclu que les préjugés, y compris le genre mais pas seulement, doivent être des préoccupations importantes, car
on ne comprend pas immédiatement comment les algorithmes de MT les perpétuent, et ils passent souvent inaperçus, puisque les algorithmes neuronaux sont très efficaces pour fournir ce qu'ils pensent que nous voulons voir.
Il n’a pas été question dans cet article de la question très difficile concernant les pronoms pour les transgenres et les transsexuels, et de l’écriture non genrée qui au contraire du mouvement pour la féminisation ou les choix alternatifs il / elle et la volonté de vouloir inscrire le genre sexué dans la langue, veut effacer toute trace de genre. Ainsi si nous prenons le cas de la Suède, un pronom neutre hen, pronom personnel de la troisième personne singulier, a été adopté par l’académie suédoise en 2014 et est entré dans le dictionnaire en 2015. Il a été proposé pour désigner une personne de manière non sexuée puisque dans la grammaire suédoise comme dans toutes les langues germaniques les pronoms personnels de la troisième personne singulier sont sexuées [4]. Ce pronom non seulement donne la possibilité de ne pas désigner une personne par son identité sexuée et ainsi éviter des stéréotypes de genre, mais il permet aussi de déstabiliser les usages normatifs et normées qui est tout à fait dans la lignée de la théorie postmoderne illustrée fameusement par les ouvrages de Judith Butler (2005) [5] qui promeut la politique de subversion pour défaire les normes de genre. Mais ceci est un tout autre débat et un tout autre projet pour Google translate en et du suédois…!
[2] Fearful of bias, Google blocks gender-based pronouns from new AI tool, Reuters, 27 November 2018
[3] The Keyword, December 6, 2018
[4] Neural Machine Translation, Slator Language Industry Magazine
[5] Hen : le pronom suédois qui fait polémique, CFTTR
et
Ni "lui", ni "elle", un pronom neutre en Suède : en France, ce serait impossible
L’OBS 29-03-2015
[6] Butler Judith (2006) Trouble dans le genre. Éditions Poche ; (2016) Défaire le genre Nouvelle Édition Amsterdam
Lectures supplémentaires :
Dictionnaire critique du sexisme linguistique
Recension, Prof. Fabienne Baider
Sujet intéressant. Cela montre une des limites de la traduction automatique. N'empêche: les hommes sont généralement plus forts physiquement que les femmes. Or, enlevez au langage sa dimension analogique et vous n'avez plus de langage du tout.
Rédigé par : Elsa Wack | 11/08/2019 à 00:05