L’intelligenza artificiale nell’era della creazione di contenuti

In che modo l’intelligenza artificiale sta cambiando le modalità con cui creiamo contenuti? Questa è stata la domanda affrontata dal panel di SlatorCon moderato da Florian Faes, che ha riunito Michel Lopez, fondatore e CEO di e2f, Konstantin Savenkov, CEO di Intento, e Jochen Hummel, CEO di Coreon e ESTeam.

I relatori hanno scambiato ampie vedute sul mercato della creazione di contenuti digitali. La discussione è iniziata parlando delle memorie di traduzione (TM) come dati di addestramento per un’ampia gamma di casi d’uso, dalla traduzione automatica alla Named Entity Recognition (NER).

È stato quindi esaminato il ruolo dell’intelligenza artificiale nella trasformazione del contenuto, dalla parola al testo e viceversa, con Savenkov e Lopez che hanno presentato una nuova prospettiva: possiamo vedere queste attività come composte da fasi successive di trasformazione, ognuna con il potenziale per essere potenziata dall’intelligenza artificiale.

Nella sottotitolazione, ad esempio, è possibile utilizzare il riconoscimento vocale automatico (ASR) per trasformare la voce in testo, cambiare la lingua utilizzando la traduzione automatica (MT) e quindi utilizzare uno strumento di intelligenza artificiale per tagliare il testo in porzioni. Inoltre, si ha la possibilità di applicare strumenti di QA basati sull’intelligenza artificiale in qualsiasi momento lungo il percorso per migliorare la qualità.

I contenuti generati dall’intelligenza artificiale

Il panel ha poi affrontato il tema della generazione di contenuti e del modello linguistico più grande del mondo, GPT-3. Tracciando parallelismi tra MT e GPT-3 e sottolineando come GPT-3 sia già stato messo in pratica. Ad esempio, per la creazione della sceneggiatura per un cortometraggio.

Ecco i momenti salienti della conversazione.

Slator: cosa ne pensate di GPT-3?

Savenkov: sembra come quando Google ha lanciato la traduzione automatica neurale nel 2016, ma per la generazione di contenuti.

Hummel: quello che fa GPT-3 è fantastico, ma fa anche cose strane. Non puoi semplicemente prendere il contenuto e pubblicarlo: hai bisogno di un essere umano nel ciclo. I parallelismi tra l’industria della localizzazione e l’industria della creazione di contenuti sono sorprendenti.

Slator: nella pratica, state già utilizzando GPT-3?

Hummel: certo, è già stato messo in pratica.

Lopez: in realtà stiamo generando più contenuti di quelli che stiamo traducendo. Abbiamo generato circa tre milioni di parole di testo per gli script, allo scopo di addestrare i motori di riconoscimento vocale.

È possibile visionare (a pagamento) l’intera conversazione a questo link.

Localizzazione a cura di Stefano Gaffuri.

Originale qui.