La notizia, riportata in queste ore anche da Multilingual, ha generato notevole scalpore tra gli utenti di tutto il mondo. Un bug di sistema, dovuto con ogni probabilità a un bias presente nel modello linguistico utilizzato da Instagram (Meta) per la traduzione automatica dei contenuti pubblicati sulla piattaforma, ha erroneamente aggiunto la parola “terroristi” in diversi contenuti legati al popolo palestinese.
Nei giorni scorsi, su Instagram, diversi utenti hanno notato che qualora la parola inglese “Palestinian” fosse inserita in una frase contenente l’emoji della bandiera palestinese e la parola araba “alhamdulillah” (traducibile in “Lode a Dio” o “grazie a Dio”), l’algoritmo traducesse erroneamente il contenuto inserendo il concetto di “terrorista”.
Un grave, gravissimo errore. In grado di condurre a conseguenze anche gravi ai danni del singolo utente e del movimento a lui affine. Capace di offendere un’intera nazione e popolazione.
Leggi anche:
- I modelli linguistici di grandi dimensioni copiano gli umani
- Traduzione automatica, ibrida o umana
- Google, Facebook e Microsoft lavorano su modelli di IA multilingue
La notizia, inizialmente segnalata dal magazine tecnologico 404 Media, non poteva che esacerbare ulteriormente gli animi, specialmente in questo tragico periodo storico.
La risposta di Meta, azienda madre di Instagram, non si è certo fatta attendere. Tramite un suo portavoce, ha annunciato al The Guardian Australia la corretta risoluzione del problema, senza tuttavia fornire ulteriori dettagli relativi alle sue possibili cause.
Meta e la traduzione automatica: perché il termine “terroristi”?
Il vuoto creatosi con l’assenza di spiegazioni sulle cause del problema, ha lasciato inevitabilmente ampio spazio alle riflessioni personali. Tra queste, non poteva certo mancare l’ipotesi di colpevolezza ai danni della big tech Meta.
Non spetta certo a noi sentenziare in merito. Tuttavia, cosa possiamo ipotizzare è la presenza di bias (o pregiudizi) all’interno del modello linguistico utilizzato per l’addestramento del sistema di traduzione automatica disponibile sul social network.
Come riportato da 404 Media, anche i ricercatori Gabriel Nicholas e Aliya Bhatia del Center for Democracy and Technology ritengono che il bug sia dovuto ai dati di addestramento del modello.
Volendo riassumere massivamente la questione, se il sistema è addestrato su dati, spesso reperiti online, all’interno dei quali è presente un pregiudizio, il modello riprodurrà questo pregiudizio a ogni nuova occorrenza. A meno che non si intervenga direttamente per eliminarlo.
Leggi anche:
- Sì, a volte la traduzione automatica ha pregiudizi razzisti
- I gender bias nella traduzione automatica sono ancora una realtà
“Meta si trova ad affrontare una carenza di dati disponibili sulla formazione in lingue diverse dall’inglese e in particolare nei dialetti arabi che potrebbero non essere ampiamente parlati o geopoliticamente forti”, ha sostenuto Bhatia. “Il modello linguistico riporta il collegamento presente negli esempi disponibili di discorsi in lingua araba o di discorsi relativi al popolo palestinese, e ciò significa che il risultato riflette la prospettiva di questi testi”.
Un pregiudizio in grado di provocare un danno di immagine difficilmente misurabile, dovuto ancora una volta all’utilizzo della traduzione automatica non supervisionata.
Ed è proprio per questo che ad oggi il gold standard per i servizi di traduzione richiede la presenza insindacabile di un traduttore umano.
Fonti: Multilingual – 404 Media – The Guardian
Foto di Pixabay