Continua il nostro excursus all’interno del mondo dell’IA, riprendendo da dove eravamo rimasti con l’articolo della scorsa settimana I termini e gli acronimi dell’intelligenza artificiale.
In questo testo approfondiremo i nuovi vocaboli legati al settore cercando di fare chiarezza sul loro significato. Anche in questo caso l’ordine delle voci non seguirà la sequenza alfabetica, in modo da consentire una più facile comprensione dei vari termini dell’intelligenza artificiale.
Ecco dunque un’altra piccola selezione di vocaboli inusuali, almeno fino a oggi.
Big data. Con questo termine si fa riferimento a enormi quantità di dati, in genere prodotti e raccolti da aziende o organizzazioni alfine di analizzare e soppesare al meglio le scelte strategiche presenti e future.
Le caratteristiche fondamentali dei big data sono tre: varietà (dati eterogenei), volume (numero di dati) e velocità (tempestiva raccolta e utilizzo dei dati).
A queste possono esserne aggiunte altre due: veridicità e valore.
Cluster. Un insieme di dati molto simili tra loro. Nell’intelligenza artificiale gli algoritmi di clustering sono utilizzati per identificare e suddividere gruppi omogenei di dati.
Data mining. È il processo automatico per estrapolare informazioni di vario tipo da grandi quantità di dati.
In particolare, viene utilizzato per identificare schemi ricorrenti, tendenze e modelli sui quali basare scelte e strategie. Il data mining si compone di diverse metodologie, ciascuna volta all’individuazione dei parametri richiesti.
Deep Learning. Il deep learning, o apprendimento profondo, è un campo di applicazione dell’apprendimento automatico.
Volendo riassumere, si compone di diverse tecniche di apprendimento basate sulle reti neurali artificiali organizzate per strati, in cui ogni strato elabora l’informazione da trasmettere a quello successivo.
Deep fake. Tecnica per la sintesi dell’immagine umana che permette di creare molteplici contenuti partendo dalla base di esempi reali.
Il deep fake consente di ricreare in modo estremamente realistico le caratteristiche dell’individuo, per poi inserirle nei contesti più disparati.
Ad esempio, si potrebbe creare un video di Napoleone che si allena in sala pesi.
Natural language processing (NLP). Uno degli acronimi dell’intelligenza artificiale che più interessa il mondo dei servizi linguistici.
Il natural language processing racchiude svariati metodi di apprendimento automatico utilizzati per permettere ai sistemi di IA di comprendere e utilizzare le lingue naturali.
Le finalità possono variare dalla comprensione del contenuto testuale, alla traduzione, fino alla produzione di testo in modo autonomo a partire da dati o informazioni forniti come input.
Uno degli strumenti utilizzati per l’addestramento sono proprio i modelli linguistici di grandi dimensioni.
Sistemi esperti. Ne abbiamo parlato nel nostro articolo Non solo traduzione, i modelli linguistici nel diritto IP.
I sistemi esperti sono sistemi di intelligenza artificiale volti a riprodurre le conoscenze, le prestazioni e le capacità tipiche di una persona esperta in un dato ramo professionale.
I sistemi esperti si basano sulla media degli individui, così da identificarne e incarnarne le caratteristiche e le peculiarità.
Foto di Foto di Nothing Ahead da Pexels