Nuovi e sofisticati modelli di intelligenza artificiale come GPT-3 di OpenAI stanno facendo notizia per la loro capacità di imitare un linguaggio simil-umano. Questo significa che gli esseri umani saranno sostituiti dai computer? Non così in fretta.
Nonostante il clamore, questi algoritmi hanno ancora grossi difetti. Le macchine non riescono ancora a comprendere il significato e l’intento dietro la conversazione umana. Per non parlare del fatto che le preoccupazioni etiche come i pregiudizi nell’IA sono ancora lontane dal trovare una soluzione. Per questi motivi, gli esseri umani devono ancora essere coinvolti nella maggior parte delle applicazioni pratiche di intelligenza artificiale, specialmente se inerenti ad aree ricche di sfumature come il linguaggio.
Gli esseri umani rimangono il modo migliore per comprendere il contesto
I nuovi modelli di apprendimento automatico sono sistemi altamente complessi addestrati su grandi quantità di dati, che consentono loro di eseguire relativamente bene una varietà di attività linguistiche pronte all’uso.
Finora, i beta tester hanno ottenuto risultati sorprendenti in molte applicazioni, come scrivere saggi, creare chatbot e persino nella traduzione automatica. Nonostante siano formati prevalentemente sui dati in inglese, i ricercatori dietro GPT-3 hanno scoperto che il modello può tradurre dal francese, tedesco e rumeno all’inglese con sorprendente precisione.
Sarebbe conveniente se potessimo utilizzare lo stesso sistema di AI per più attività contemporaneamente, come rispondere e tradurre simultaneamente la domanda di un cliente. Tuttavia, la traduzione è fondamentalmente un effetto collaterale e fortuito dell’addestramento di un modello così grande e potente. C’è ancora molta strada da fare prima di poter contare comodamente su un modello come questo per fornire risposte coerenti ai clienti.
Il CEO di OpenAI Sam Altman ha dichiarato su Twitter che, nonostante l’hype, GPT-3 “ha ancora gravi punti deboli e talvolta commette errori molto sciocchi”. I test sono ancora pieni di errori, alcuni più eclatanti di altri. Gli utenti non sempre ottengono risposte valide al primo tentativo e quindi devono modificare il proprio messaggio per ottenere risposte corrette. Non ci si può aspettare che gli algoritmi di apprendimento automatico siano accurati al 100%. Agli esseri umani è ancora richiesto di differenziare le risposte accettabili da quelle inaccettabili.
Il potere del contesto nella traduzione
Parte della determinazione di ciò che è accettabile sta nell’esprimere giudizi relativi a come il linguaggio viene interpretato nel contesto, aspetto nel quale gli esseri umani eccellono. Sappiamo senza sforzo che se chiediamo a un’amica: “Ti piace cucinare?” e la sua risposta è “mi piace mangiare”, probabilmente non le piace cucinare. Il contesto è anche il motivo per cui diciamo: “Potrebbe fornire i dettagli del pagamento?” a un cliente piuttosto che “Dammi il numero della tua carta di credito”, anche se le due frasi hanno lo stesso intento.
Nelle impostazioni in cui c’è poco margine di errore, come le chat del servizio clienti in tempo reale, gli esseri umani occasionalmente devono correggere gli errori delle macchine. I dialetti e le frasi locali possono essere facilmente interpretati erroneamente dalla traduzione automatica. È anche fondamentale che un sistema di traduzione aderisca a norme culturali localizzate, ad esempio parlando formalmente in un contesto aziendale in paesi come la Germania o il Giappone. Quindi, per ora, abbiamo ancora bisogno degli esseri umani per elaborare le sfumature del linguaggio.
Intelligenza artificiale e bias (pregiudizi)
Andando oltre le questioni di contesto, gli esseri umani devono inoltre essere coinvolti nello sviluppo di questi modelli linguistici per ragioni etiche. Sappiamo che i sistemi di intelligenza artificiale sono spesso soggetti a pregiudizi. Nel documento GPT-3, gli autori conducono un’analisi preliminare delle carenze del modello riguardo a equità, pregiudizi e rappresentazione, conducendo esperimenti relativi alla percezione del modello di genere, razza e religione.
Dopo aver fornito al modello suggerimenti come “He was very”, “She was very”, “He would be described as” e così via, gli autori hanno generato molti campioni di testo e hanno esaminato gli aggettivi e gli avverbi più comuni per ciascun Genere. Hanno notato che le donne sono più spesso descritte con parole legate al loro aspetto (“bella”, “stupenda”, “minuta”), mentre i maschi sono descritti con termini più vari (“affabile”, “grande”, “pigro”). Nell’esaminare la “comprensione” della razza e della religione del modello, gli autori concludono che “i modelli formati da Internet hanno pregiudizi legati a Internet”, i modelli tendono a “riflettere gli stereotipi presenti nei dati di addestramento”.
Niente di tutto ciò è nuovo o sorprendente, ma investigare, identificare e misurare i pregiudizi nei sistemi di intelligenza artificiale devono essere i primi passi verso l’eliminazione di questi ultimi.
Mantenere gli umani nel ciclo dell’apprendimento automatico
Per compiere progressi tangibili nella mitigazione di questi pregiudizi e del loro impatto, abbiamo bisogno degli esseri umani. Questo va oltre la possibilità di correggere gli errori, aumentare i set di dati e riaddestrare i modelli. I ricercatori di UMass Amherst e Microsoft hanno analizzato quasi 150 documenti relativi ai “pregiudizi”. Nell’elaborazione del linguaggio AI hanno scoperto che molti hanno motivazioni vaghe e mancano di ragionamento normativo. Spesso non affermano esplicitamente come, perché e per chi i “pregiudizi” siano dannosi.
Per comprendere il reale impatto dei sistemi di intelligenza artificiale, sostengono, dobbiamo impegnarci con la letteratura che “esplora la relazione tra linguaggio e gerarchie sociali”. Dobbiamo anche impegnarci con le comunità le cui vite sono influenzate dall’intelligenza artificiale e dai sistemi linguistici.
Oltre ai pregiudizi, continuano a emergere importanti preoccupazioni sul potenziale del modello per la generazione automatizzata di linguaggi tossici e la propagazione di notizie false.
Qui il bisogno degli esseri umani non è una questione di prestazioni del modello, ma di etica. Chi se non gli esseri umani garantirà che tale tecnologia verrà utilizzata in modo responsabile?
Non conoscono il mondo reale
Se l’obiettivo è addestrare l’intelligenza artificiale per corrispondere all’intelligenza umana, o almeno imitare perfettamente il linguaggio umano, forse il problema più grande è che i modelli linguistici addestrati esclusivamente sul testo non hanno basi nel mondo reale (sebbene questa sia un’area di ricerca attiva). In altre parole, non “sanno” veramente cosa stanno dicendo. La loro “conoscenza” è limitata al testo su cui sono formati.
Quindi, mentre GPT-3 può dirti con precisione chi era il presidente degli Stati Uniti nel 1955, non sa che un tostapane è più pesante di una matita. Per utilizzare i sistemi linguistici basati sull’intelligenza artificiale in modo responsabile, abbiamo ancora bisogno che gli esseri umani siano strettamente coinvolti.
Articolo tradotto e adattato da Stefano Gaffuri.
Originale qui a cura di Christine Maroti.
COMMENTS(02)