Avevamo già parlato di questo tema in un nostro precedente articolo: i gender bias sono un problema reale nella traduzione automatica.
Un recente studio, condotto dai ricercatori della New York University, ne sottolinea nuove sfaccettature, più infime e radicate.
Negli ultimi anni, numerosi utenti di Google Translate e altri sistemi di MT (Machine Translation) hanno ripetutamente criticato la distorsione di genere di queste tecnologie. Un esempio? Diversi utenti di origine finlandese hanno notato come il pronome di terza persona neutrale fosse tradotto con il genere maschile nelle frasi legate al lavoro. Allo stesso tempo, il genere neutro veniva tradotto con “lei” nella frase “si prende cura del bambino“.
Non è una novità, in uno studio da noi riportato a inizio anno si evidenziava come i gender bias, o pregiudizi di genere, nella traduzione automatica riguardassero un numero davvero vasto di lingue.
“I risultati, affermano i ricercatori, mostrano come in tutte le 25 lingue il concetto di carriera sia prevalentemente correlato al genere maschile.”
ASTW – GENDER BIAS: TRA LINGUA E PREGIUDIZIO DI GENERE
Tuttavia, il recente lavoro dei ricercatori suggerisce che tale pregiudizio di genere nel linguaggio umano vada ancora più in profondità.
I “nuovi” gender bias nella traduzione automatica
I ricercatori della New York University hanno scoperto che la parola inglese “people” potrebbe non essere neutrale rispetto al genere come si potrebbe pensare.
La definizione del dizionario, ovviamente, non denota un’identità di genere specifica. Tuttavia, l’utilizzo dell’intelligenza artificiale (AI) per analizzare un corpus di 630 miliardi di parole dipinge un quadro diverso.
Nell’articolo pubblicato su Science Advances , il team di ricercatori evidenzia come i parlanti tendano a usare la parola “people” in contesti associati più frequentemente agli uomini che alle donne. Lo studio potrebbe potenzialmente gettare ulteriore luce sul pregiudizio di genere nella traduzione automatica (MT) e sui corpora utilizzati per sviluppare modelli di MT, ancora oggi influenzati dai gender bias.
“Molte forme di pregiudizio, come la tendenza ad associare la scienza agli uomini più che alle donne, sono state studiate in passato. Ma c’è stato molto meno lavoro sul come vediamo e identifichiamo una persona” ha affermato April Bailey, autore principale dell’articolo.
In risposta alle critiche, le big tech come Google hanno tentato di mitigare alcuni dei problemi associati a questi pregiudizi di genere. Nel caso di Google Translate, il sistema ora produce più traduzioni per frasi e parole che potrebbero avere interpretazioni diverse rispetto al genere del soggetto (come nel caso degli esempi dal finlandese menzionati in precedenza). I ricercatori nel presente studio osservano che questi sforzi si sono concentrati solo sul linguaggio esplicitamente di genere. Senza tener conto del pregiudizio di genere sottostante in parole apparentemente neutre.
“Gli sforzi attuali per impedire la diffusione di questi pregiudizi hanno prodotto risultati contrastanti e ancora non includono i gender bias più nascosti, come ad esempio l’associazione persone/uomini“, scrivono i ricercatori. “Ci auguriamo che il presente lavoro guidi gli sforzi futuri per modificare gli algoritmi di elaborazione del linguaggio naturale”.
Foto di Magda Ehlers da Pexels