È quello che ha dimostrato un team di ricerca composto da membri di Tencent AI, dell’Università di Tsinghua (Pechino) e dell’Università Shanghai Jiao Thong. In particolare, lo studio mostra come sia possibile addestrare i modelli linguistici di grandi dimensioni a emulare il comportamento dei traduttori umani.
I risultati sono a dir poco sorprendenti.
Come anticipato nel nostro articolo relativo ai termini dell’intelligenza artificiale, i modelli linguistici di grandi dimensioni (LLM) sono una particolare tipologia di modelli di intelligenza artificiale nati allo scopo di comprendere e processare i linguaggi umani (NLP).
Gli LLM vengono addestrati su enormi quantità di dati testuali e il loro scopo è quello di emulare il più possibile le capacità di elaborazione del linguaggio innate in ognuno di noi.
Un esempio di applicazione di questi modelli linguistici è l’ormai celebre chatbot di Open AI, ChatGPT. Ma riscuotono nondimeno un enorme successo anche nel campo della traduzione automatica.
Questo perché, la machine translation “classica” tende a focalizzarsi quasi esclusivamente sulla mappatura diretta del testo sorgente, per poi tradurlo nella lingua di arrivo secondo modalità che possono variare da un sistema all’altro.
Il team di ricerca, però, è riuscito a dimostrare come un LLM possa raggiungere risultati qualitativamente superiori se addestrato ad agire come un traduttore umano.
Modelli linguistici di grandi dimensioni e linguisti umani
Come riportato all’interno dello studio, i traduttori professionisti tendono a svolgere fasi preliminari di preparazione del testo in vista del processo di traduzione. Queste includono la raccolta e l’analisi di informazioni rilevanti, quali parole chiave, testi paralleli e l’identificazione del campo di applicazione.
I ricercatori hanno quindi proposto un metodo denominato MAPS (Multi-Aspect Prompting and Selection) volto a ripercorrere le fasi tipiche del lavoro del linguista.
Questo metodo si compone di tre fasi successive: estrazione della conoscenza (Knowledge mining), integrazione della conoscenza (Knowledge integration) e selezione della conoscenza (Knowledge selection).
Nel corso della prima, il modello prende in esame il testo di partenza generando tre diversi tipi di conoscenza: keywords, topics e demonstrations.
Nell’ordine, le parole chiavi sono fondamentali per poter mantenere la giusta semantica e garantire coerenza testuale. Gli argomenti specifici trattati all’interno del testo sono selezionati alfine di identificare i migliori traducenti domain specific. Inoltre, i testi paralleli permettono un ulteriore selezione accurata del traducente più utilizzato all’interno di un dato ambito.
Queste nozioni vengono quindi utilizzate nel contesto traduttivo nella fase di integrazione, che funge da guida per il modello linguistico nella generazione di molteplici soluzioni possibili.
Infine, nella fase di selezione il modello linguistico applica un filtro alle informazioni raccolte, eliminando tutte le traduzioni più imprecise e meno pertinenti.
I risultati dei test, svolti su 8 combinazioni linguistiche, hanno dimostrato miglioramenti significativi negli output ottenuti, evidenziando che l’incorporazione di passaggi preparatori e l’utilizzo di conoscenze autogenerate possono portare a traduzione di qualità superiore.
Per maggiori informazioni e approfondimenti consigliamo di leggere il documento pubblicato dai ricercatori.
Foto di Noelle Otto da Pexels