Un argomento così rilevante da dover essere affrontato a tutti i costi. L’intelligenza artificiale generativa si è certamente dimostrata uno strumento utile in svariati campi d’applicazione, ma come ogni nuova tecnologia porta con sé rischi e pericoli da cui guardarsi con attenzione, specialmente in ambito giuridico.
Quanti di noi non hanno mai utilizzato, anche solo per curiosità, ChatGPT? Il successo mediatico degli ultimi mesi suggerisce una risposta chiara: pochi. E se è certamente vero che la qualità delle informazioni, così come la capacità di intuire le richieste dell’utente, sono a dir poco sorprendenti, è altrettanto vero che questi strumenti non sono perfetti.
È sufficiente interrogare il chatbot di OpenAI su un argomento per il quale possediamo una profonda conoscenza, per renderci conto delle possibili imprecisioni e informazioni fuorvianti fornite da questo tool.
Ma i rischi per l’utilizzatore non finiscono qui, come correttamente sottolineato da Gen Quinn, avvocato specializzato in proprietà intellettuale, in un suo contributo per IPWatchdog.
La questione, forse più importante, riguarda la privacy e la sicurezza dei dati inseriti dagli utenti nel sistema di IA. Le mie informazioni saranno utilizzate per addestrare ilmodello linguisticoe quindi condivise con altri utenti in caso di domande inerenti al tema da me trattato?
Molto probabilmente sì. O meglio, probabilmente sì se il sistema utilizzato è proprio ChatGPT.
Questo perché, come espresso dalla stessa OpenAI, i dati inviati potrebbero essere utilizzati ed elaborati per migliorare le risposte del chatbot e accrescere la qualità del modello (*). L’utilizzo di questi strumenti di intelligenza artificiale in ambito giuridico può quindi condurre a possibili violazioni del segreto professionale.
Leggi anche:
Intelligenza artificiale e ambito giuridico
Date queste premesse, non stupisce che nelle ultime settimane due colossi tecnologici, quali Samsung e Apple, abbiano limitato l’utilizzo di questi sistemi di IA da parte dei propri dipendenti. Preoccupati per la possibile perdita di dati rilevanti e dei possibili vantaggi involontariamente forniti alla concorrenza.
La segretezza delle informazioni riservate è certamente una questione fondamentale per le aziende tecnologiche, ma non solo. Studi associati e rappresentanti legali hanno infatti l’obbligo di garantire la riservatezza delle informazioni fornite dai clienti nell’ambito del proprio lavoro.
L’utilizzo dell’intelligenza artificiale generativa in questo contesto potrebbe facilmente velocizzare i processi di stesura e preparazione della documentazione necessaria, specie se teniamo conto della qualità raggiunta da questi strumenti una volta indirizzati dall’utente verso uno specifico campo d’azione, limitato alla produzione di testo sulla base dei prompt forniti.
Come anticipato, però, le informazioni fornite potrebbero essere fruibili da altri utilizzatori per gli scopi più disparati, conducendo la parte rappresentata a conseguenze anche gravi.
Rischi che studi legali e avvocati competenti sapranno certamente mitigare, basando il proprio lavoro su strumenti sicuri e garantiti.
In conclusione, e ancora una volta, affidarsi a professionisti esperti capaci di svolgere con piena consapevolezza il proprio lavoro, ivi compreso un utilizzo accorto di eventuali sistemi di intelligenza artificiale, rappresenta la scelta più saggia e sicura per tutelarsi.
* è possibile richiedere a OpenAI di non trattare i propri dati. Tuttavia, la società si riserva il diritto di non accettare la richiesta in caso quest’ultima non fosse ritenuta valida.
Foto di Sora Shimazaki da Pexels