Ormai non si parla d’altro. L’intelligenza artificiale è entrata prepotentemente nelle nostre vite, portando con sé un numero davvero vasto di termini specifici e acronimi del settore. Oggi, così come abbiamo fatto anni fa per il mondo della traduzione, proveremo a stilare una sorta di glossario terminologico per l’IA.
Per il momento, ci limiteremo a trattare quelli che sono i termini utilizzati più frequentemente, lasciando al prossimo futuro il compito di trattare le voci meno usuali.
L’ordine delle voci non segue la sequenza alfabetica al fine di facilitare la comprensione dei termini via via più complessi.
Acronimi di base nell’intelligenza artificiale
AI (o IA). Iniziamo dal principio. Con la sigla AI si identifica in termini generali l’Artificial Intelligence in senso lato.
Come spesso accade, anche in Italia e in gran parte del mondo si è ormai affermata la forma inglese. Tuttavia, accade di imbattersi della sua formula italiana, ovvero IA.
Algoritmo. Un insieme di istruzioni fornite alla macchina per far sì che questa svolta una sequenza di azioni, quali calcoli matematici, elaborazione di dati o automatizzazione di attività ripetitive.
Nodi. i nodi sono le unità di elaborazione della rete neurale, una riproduzione artificiale di quello che sono i neuroni nel cervello umano.
NN (o ANN). Le reti neurali (Neural Network, NN), anche conosciute come reti neurali artificiali (Artificial Neural Network, ANN) rappresentano un sottoinsieme del machine learning e sono l’elemento centrale degli algoritmi di deep learning. Il loro nome e la loro struttura sono ispirati al cervello umano, imitando il modo in cui i neuroni biologici scambiano i segnali. Sono composte da livelli di nodi, in cui ciascun nodo e interconnesso con un altro.
Machine learning. Anche detto apprendimento automatico, è una branca dell’intelligenza artificiale che si occupa di creare sistemi in grado apprendere e migliorare in modalità autonoma sulla base dei dati ricevuti.
Questo settore raggruppa i metodi sviluppati all’interno di differenti campi di studio, tra cui la statistica computazionale, la teoria dei sistemi dinamici e gli algoritmi adattivi.
In sintesi, questi metodi mirano a predisporre un sistema all’apprendimento autonomo, senza quindi necessitare di istruzioni esplicite.
Large Language Model (LMM). Noti in italiano come Modelli linguistici di grandi dimensioni, sono delle particolari applicazioni del machine learning nate per svolgere mansioni associate al linguaggio.
Tra queste troviamo la traduzione automatica, i chatbot, il question answering e tutta una serie di funzioni legate alle lingue naturali ai codici di linguaggio informatici.
Questi modelli sono in grado di estrapolare rapidamente le informazioni da dataset di grandi dimensioni (che possono contare anche miliardi di dati), facilitando così l’accesso ai dati ivi inclusi.
Aumentiamo la difficoltà…
DNN. Addentrandoci sempre più nel vocabolario di settore, troviamo uno degli acronimi più utilizzati nell’intelligenza artificiale. Le Deep Neural Networks (DNN), sono reti neurali (NN) profonde all’interno delle quali convivono un numero elevato di livelli nascosti tra input e output.
La principale differenza con le reti neurali classiche risiede nella quantità di livelli nascosti presenti all’interno della rete, capaci di svolgere funzioni sempre più complesse.
Generative AI. L’intelligenza artificiale generativa (o GenAI) è un tipo di intelligenza artificiale in grado di generare testo, immagini, video e musica in risposta alle istruzioni degli utenti dette prompt.
I sistemi di intelligenza artificiale generativa utilizzano modelli generativi, ovvero modelli statistici di una distribuzione congiunta di una variabile osservabile e di una variabile dipendente.
Rientrano in questo ambito i modelli linguistici di grandi dimensioni, tra cui GPT-3 e GPT-4 alla base del funzionamento del celebre ChatGPT.
Transfer Learning. Un metodo avanzato di machine learning, grazie al quale un modello precedente ideato per svolgere un dato compito, viene ricodificato per eseguirne uno differente.
In sostanza, si tratta della pratica di riutilizzare un modello per compiti affini, seppur differenti, a quelli per cui era stato concepito.
Volendo fare un esempio, si potrebbe effettuare un transfer learning per addestrare un modello nato per identificare le razze canine per riconoscere le differenti specie di mammiferi.
Foto di Snapwire da Pexels.
COMMENT(01)