Language service provider e traduttori freelance di tutto il mondo conoscono bene i vantaggi offerti dai fuzzy matches al processo traduttivo. I sistemi di machine translation adattiva hanno compiuto in questi ultimi anni numerosi progressi significativi, raccogliendo consensi e migliorando esponenzialmente la qualità dei propri output. Un nuovo studio mostra come l’unione tra fuzzy matches e modelli linguistici di grandi dimensioni possa raggiungere livelli qualitativi ancora più elevati.
“La coerenza terminologica è uno dei requisiti fondamentali per una traduzione di alta qualità. È particolarmente importante aderire alla terminologia e alle traduzioni pre-approvate per ogni progetto specifico di un dato dominio […] tuttavia, l’adattamento in tempo reale risulta ancora complesso. I modelli linguistici su larga scala (LLM) hanno recentemente mostrato interessanti capacità di apprendimento contestuale, in cui imparano a replicare determinati modelli di generazione di testo input-output, senza ulteriore messa a punto. Alimentando un LLM con un prompt costituito da un elenco di coppie di traduzioni, quest’ultimo potrà quindi simulare le caratteristiche del dominio e dello stile al momento dell’inferenza”.
Con queste parole la ricercatrice Yasmin Moslem e i ricercatori Rejwanul Haque e Andy Way introducono il proprio studio, dal titolo Adaptive Machine Translation with Large Language Models.
In sintesi, una delle caratteristiche degne di nota dei modelli linguistici di grandi dimensioni è il cosiddetto “in-context learning”, l’apprendimento contestuale che permette loro di adattarsi a un determinato contesto o dominio senza necessitare di ulteriori informazioni. I ricercatori hanno quindi voluto mettere alla prova questa feature sfruttando le corrispondenze parziali per migliorare l’accuratezza terminologica e sintattica di questi sistemi.
Nello specifico, i ricercatori hanno utilizzato il modello Generative Pre-trained Transformer 3 (GPT-3), sviluppato da Open AI e struttura di base del fenomeno del momento: ChatGPT.
Fuzzy matches e modelli linguistici: lo studio
Lo studio, visionabile anche nel post LinkedIn pubblicato dalla ricercatrice Yasmin Moslem, vuole approfondire tutti i possibili vantaggi che possono scaturire dall’interazione tra questo modello linguistico di grandi dimensioni e i sopracitati fuzzy matches.
Più dettagliatamente, per ogni porzione dei testi oggetto di analisi, i ricercatori hanno anzitutto selezionato una pluralità di segmenti al cui interno fossero riscontrabili corrispondenze parziali con il documento sorgente.
Questi segmenti, in totale 3.070, hanno permesso di condurre i test su cinque coppie linguistiche, dall’inglese all’arabo, al cinese, al francese, allo spagnolo e al kinyarwanda.
I risultati, seppur eterogenei nella globalità delle combinazioni, hanno mostrato i benefici qualitativi che questi modelli hanno raggiunto mediante l’apprendimento da traduzioni simili in tempo reale.
Come affermato dai ricercatori: “Invece di chiedere al modello di tradurre una frase o fornire esempi casuali, risulta che mostrare al modello da 1 a 10 coppie di traduzioni specifiche del dominio simili alla frase da tradurre può migliorare immediatamente la traduzione della nuova frase”.
Le disparità nei risultati ottenuti sono da attribuire, sempre secondo i ricercatori, al fatto che il modello GPT-3 supporta principalmente lingue latine ad alte risorse. Fattore che penalizzerebbe maggiormente le due coppie linguistiche inglese-arabo e inglese-kinywanda.
Per approfondire e visionare lo studio nella sua interezza clicca qui.
Foto di Brett Sayles da Pexels