“Le donne sono belle, gli uomini leader”, è questo il titolo introduttivo di un nuovo studio sulla presenza di gender bias all’interno dei motori di traduzione automatica. Una piaga ancora oggi tutt’altro che risolta.
Ne abbiamo parlato a più riprese nei nostri canali, i pregiudizi di genere (o gender bias) nella machine translation rappresentano una problematica difficile da sradicare.
Come espresso nel nostro testo I gender bias nell’intelligenza artificiale, “questi pregiudizi di genere si verificano quando i sistemi di traduzione o scrittura automatica presentano all’interno dei propri output testuali i pregiudizi legati al genere dell’individuo tipici di determinati contesti sociali”.
Ovvero quando, ad esempio, il genere femminile è associato a termini appartenenti alla sfera dei sentimenti e delle emozioni, alla fragilità, alla famiglia e alla bellezza. Allo stesso tempo, si verificano quando al genere maschile sono attribuite le caratteristiche relative alla professionalità, leadership, forza e razionalità.
Leggi anche:
Come riportato da Slator, questo nuovo studio condotto dai ricercatori del Kempelen Institute of Intelligent Technologies (visionabile dal link presente nella conclusione), mira a identificare gli schemi di base che portano alla propagazione di questi pregiudizi, riconducendo oltre 3.500 esempi a 16 modelli di pregiudizio fondamentali.
Lo studio: come i gender bias descrivono donne e uomini
Per svolgere l’analisi in oggetto, i ricercatori hanno collaborato con un team di esperti di gender bias, inserendo le manifestazioni di questi pregiudizi in frasi brevi del tutto simili a quelle che potrebbero manifestarsi nel linguaggio quotidiano.
L’elenco, comprendente in totale 3.565 esempi, è stato quindi ridotto in pochi macro-stereotipi universali, intesi come fondamenta del ragionamento pregiudizievole.
Nel dettaglio, questi gender bias vedono le donne come “emotive e irrazionali” in 254 esempi, “gentili e sottomesse” in 215, “empatiche e premurose” in 256, “ordinate e diligenti” in 207, “socievoli” in 200, “deboli” in 197 e “belle” in 243.
Al contrario, l’uomo è visto come “duro e ruvido” in 251 esempi. “Sicuro di sé” in 229, “professionale” in 215, “razionale” in 231, “leader” in 222, “infantile” in 194 e “forte” in 221.
Stereotipi inaccettabili, capaci di rappresentare una realtà falsata e chiaramente fuorviante. Nel tentativo di risolvere in via definitiva questa problematica, i ricercatori hanno presentato il dataset GEST, uno strumento per misurare i gender bias all’interno dei sistemi di traduzione automatica.
In conclusione, per citare i ricercatori: “Se vogliamo comprendere gli stereotipi in questi modelli, dobbiamo averli ben chiari e definiti. […] I nostri risultati mostrano un quadro piuttosto desolante dello stato del settore oggi. Diversi tipi di modelli seguono pattern di comportamento apparentemente molto simili, indicando che tutti potrebbero aver appreso da fonti avvelenate similari. Allo stesso tempo, poiché ora ne abbiamo una visione più dettagliata, possiamo provare a concentrarci su questioni specifiche. Ad esempio, come impedire ai modelli di sessualizzare le donne. Questo potrebbe essere più gestibile rispetto a quando i pregiudizi di genere erano considerati un problema vasto e nebuloso”.
Per chi volesse approfondire, consigliamo la lettura integrale dello studio – Women Are Beautiful, Men Are Leaders: Gender Stereotypes in Machine Translation and Language Modeling.
Foto di Tim Mossholder da Pexels





