Intelligenza Artificiale e manipolazione del percepito

Stefania Giordano

A conclusione dell’anno sociale e del corso dal titolo “Parole potere e percezione della realtà”, l’Istituto di formazione Mons. A. Lanza ha ospitato il professore Carlo Morabito, ordinario di elettrotecnica dell’Università Mediterranea, che ha relazionato sul tema dell’intelligenza artificiale generativa e della manipolazione delle parole e del percepito.

Il prof. Morabito, che si occupa dello studio delle reti neurali sin dal 1987, ha ripercorso l’evoluzione degli strumenti che sono alla base del funzionamento dell’intelligenza artificiale, fino all’introduzione del campo di ricerca del Deep Learning, o apprendimento profondo, i cui modelli possono essere addestrati per la classificazione di immagini, il riconoscimento di schemi e l’analisi predittiva.

Sono note le potenzialità di questi strumenti nel mondo del lavoro, in campo medico, o in tema di sicurezza e prevenzione, ma è anche vero che c’è il rischio che le applicazioni di intelligenza artificiale vengano usate in modo improprio e dannoso.

Il primo esempio riportato è stato quello dei sistemi di riconoscimento facciale, che non si limitano alla riproduzione dei tratti somatici, ma sono in grado di duplicare una serie di informazioni, come i movimenti del volto e delle palpebre, e anche la voce, e possono essere utilizzati per creare artificialmente falsi audio e video.

Si è discusso poi anche su ciò avviene sul web durante la navigazione, in particolare della cessione dei dati, della profilazione degli utenti e delle cosiddette “bolle informative” o bolle di filtraggio.

Come ha ben spiegato il docente, le reti generatrici sono in grado di costruire autonomamente un contenuto informativo, possono generare un discorso, testi, immagini, video e deepfake il cui meccanismo di creazione sembra sfuggire persino a chi ha costruito la rete. Inoltre è stato evidenziato che i modelli di intelligenza artificiale vengono addestrati continuamente, si autocorreggono, per fornire risposte sempre più accurate e anche personalizzate.

Non è mancato il riferimento alla difficoltà di definire chiaramente un codice etico per l’intelligenza artificiale perché i repentini mutamenti rendono subito obsoleta ogni definizione.

Basti pensare all’AI jailbreaking, e alle tecniche di manipolazione che sono in grado di aggirare le linee guida etiche e generare contenuti pericolosi.

Nel 2014 è entrato in vigore all’interno dell’Unione Europea l’IA Act, la prima regolamentazione al mondo sull’utilizzo e lo sviluppo dell’intelligenza artificiale, con lo scopo di creare un quadro normativo comune che assicuri che “i sistemi di Intelligenza Artificiale utilizzati nell’Unione Europea siano sicuri, trasparenti, tracciabili, non discriminatori e rispettosi dell’ambiente”.

La Santa Sede si è espressa più volte sul tema, fino alla recente Nota “Antiqua et Nova” del Dicastero per la Dottrina della Fede e del Dicastero per la Cultura e l’Educazione.