Sì, a volte la traduzione automatica ha pregiudizi razzisti

In questi giorni il noto servizio di traduzione automatica Google Translate ha fatto nuovamente parlare di sé. Questa volta al centro del ciclone sono i finiti i pregiudizi di carattere razzista presenti in alcune traduzioni proposte agli utenti.

Ma andiamo per gradi.

Non è la prima volta che parliamo di pregiudizi, o bias, presenti all’interno dei motori di traduzione automatica. Nel nostro articolo I gender bias nella traduzione automatica sono ancora una realtà parlavamo dei pregiudizi di genere riscontrati in diversi sistemi di MT.

Nel testo riportavamo gli esiti di uno studio condotto dalla New York University su un ampio campione di dati, volto ad analizzare la presenza di gender bias nei motori di traduzione automatica. Un esempio che più di altri è in grado di chiarire l’entità di questi bias è relativo alla traduzione dal finlandese di una serie di frasi contenenti la terza persona neutrale.

La traduzione inglese ha mostrato come il soggetto venisse tradotto con il genere maschile se collegato agli ambiti lavorativi, lasciando il passo al genere femminile se relazionato ad azioni quali la cura della casa o dei figli.

Tornando alla questione odierna, invece, il pregiudizio in esame sembrerebbe assumere le caratteristiche tipiche delle ideologie razziste. Nello specifico il caso si concentra sulla traduzione dall’arabo all’inglese del termine “تخطط”, traducibile in italiano con “piano”. E sebbene la traduzione di questa parola in lingua anglofona non presenti nessuna problematica, la frase di esempio, che dovrebbe aiutare gli utenti a comprendere meglio la semantica del vocabolo, conteneva un messaggio ritenuto da molti razzista e frutto di stereotipi e pregiudizi.

La frase è la seguente: “piano per far saltare in aria l’auto”.

Google è quindi intervenuto per risolvere il problema, anche a seguito delle proteste dei media e del CAIR (Council on American-Islamic Relations).

Traduzione automatica e pregiudizi, il caso Google

“Accogliamo con favore la rapida risoluzione del problema e speriamo che vengano implementate misure per garantire che i servizi di traduzione non producano tali risultati stereotipati per nessuna lingua”, ha affermato Nihad Awad, direttore esecutivo nazionale del CAIR. Aggiungendo che “la stereotipizzazione spesso si traduce in un tipo di pregiudizio che ha un impatto negativo su tutte le comunità minoritarie.”

Google ha sempre mostrato la propria efficienza intervenendo in tempi brevi nel risolvere i vari problemi legati al proprio servizio. Ed è inoltre doveroso ricordare che questi pregiudizi non dipendono esclusivamente dal team di ricerca e dagli sviluppatori.

L’addestramento dei motori di traduzione automatica necessita di una mole davvero grande di dati. Dati che, inevitabilmente, provengono dall’uso che l’essere umano fa della propria lingua.

Questi stereotipi, quindi, altro non sono che una trasposizione dei pensieri razzisti, sessisti o di qualsiasi altra natura presenti in alcuni individui. Concetti riportati sotto forma di testo elaborato dalla machine traslation e proposti al pubblico sulla base dei dati utilizzati per l’addestramento.

“Google Translate è un traduttore automatico che utilizza i modelli di milioni di traduzioni esistenti e le query degli utenti per scegliere la migliore traduzione e i suggerimenti per il completamento automatico per i nostri utenti”, ha affermato Google in una dichiarazione scusandosi per l’errore più recente. “Purtroppo, alcuni di questi schemi possono portare a suggerimenti di completamento automatico non intenzionali.”

Tuttavia, come sostenuto da Corey Saylor, direttore della ricerca presso il CAIR, “Google Translate è una fonte affidabile di informazione che rafforza casualmente gli stereotipi”.

Lavorare su queste tecnologie, per renderle scevre da pregiudizi di ogni tipo, deve quindi essere una priorità. Una migliore traduzione automatica è certamente un obiettivo al quale ambire e le segnalazioni degli utenti rappresentano a oggi il miglior feedback possibile.


Fonti: Newsweek, Multilingual, CAIR



Lascia un commento