AI e la capacità di scelta dell’uomo

Di intelligenza artificiale si è parlato molto negli ultimi mesi, soprattutto a proposito di quella generativa che è in grado di produrre immagini, testi, codici di programmazione, video o brani musicali. Gli algoritmi sono in grado di clonare la nostra voce e parlare al posto nostro, tradurre in un’altra lingua in tempo quasi reale le nostre videochiamate o guidare autonomamente un veicolo.
Se da un lato tutto questo ci potrebbe intimorire o preoccupare, dall’altro è opportuno diventare consapevoli che questi algoritmi, addestrati grazie a una vastissima mole di dati, non sono pensanti, ma si basano su modelli probabilistici.
L’esperto di Intelligenza artificiale e autore di Brand Voice Alessio Pomaro ha narrato nel corso di una conferenza tenuta a Venezia Mestre il 15 maggio scorso, come lui sia solito paragonare questi sistemi complessi a calcolatrici che facilitano il lavoro di calcolo, ma senza nessuna consapevolezza dei processi, né capacità di ragionare. Oppure è solito raffrontarli con i sistemi di completamento automatico del testo presenti nei nostri smartphone, che sono in grado di suggerirci il testo che stiamo scrivendo grazie a un sistema basato sul calcolo probabilistico. Si tratta del prodotto ottenuto grazie a reti neurali in grado di assolvere a compiti complessi, simulando anche una certa creatività non indifferente, che però sono profondamente diverse dalle reti neuronali che possediamo noi umani.

I progressi fatti da questi algoritmi ci sorprendono perché restituiscono la sensazione che gli apparati tecnologici possano essere “pensanti” ma, in realtà, gli algoritmi non sono intelligenti secondo il senso che noi attribuiamo comunemente a questo termine. Non sono in grado di “intus legere”, leggere dentro, come ci suggerisce l’etimologia del termine. Di fronte a questa sfida come assicurarci che le macchine non possano prendere il sopravvento?

Nonostante qualche film ci abbia prospettato scenari apocalittici siamo fortunatamente abbastanza lontani dal passaggio che viene definito “singolarità” tecnologica, ovvero il punto in cui le macchine supereranno l’uomo. Possiamo, però iniziare sin d’ora a prevenire rischi nell’utilizzo di queste tecnologie innanzitutto elevando il nostro livello di consapevolezza. Vale la pena di prendersi qualche ora per approfondire, tramite fonti verificate e autorevoli, come funzionino questi sistemi complessi e come, eventualmente, poterli utilizzare al meglio in ambito professionale, ludico, medico o, ancora didattico. Don Andrea Ciucci, coordinatore di segreteria della Pontificia Accademia per la Vita ha affermato a proposito degli algoritmi che governano l’intelligenza artificiale: «Il fatto che progettiamo qualcosa e che poi la realizziamo, esprime la maniera in cui noi pensiamo e vogliamo il mondo. Non ci sono “cose” neutre, che possono semplicemente essere usate in modo buono o in modo cattivo. L’oggetto che abbiamo in mano è già eticamente connotato». Padre Paolo Benanti, francescano del Terzo Ordine Regolare e docente di Teologia Morale alla Pontifica Università Gregoriana, ha affermato che è necessaria ”un’algoretica”, ovvero un’etica che ci orienti nel momento in cui dobbiamo programmare e addestrare gli algoritmi a compiere determinate funzioni.

È qui, infatti, che si gioca la partita cruciale che ci permette di far prevalere i valori che abbiamo scelto come guida della nostra vita sulle automazioni che, una volta avviate su presupposti distorti, diventano difficilmente governabili.
La rivista America Magazine (americamagazine.org), gestita dai Gesuiti d’Oltreoceano, ha messo in rilievo come nell’allenare gli algoritmi a risponderci possano esserci degli AI bias, ovvero distorsioni cognitive, che possono influenzare negativamente i risultati dei processi digitali. Siamo, quindi, noi a poter evitare che queste distorsioni alterino i criteri di funzionamento delle macchine facendo prevalere i nostri valori e tenendo sempre alte le soglie di vigilanza e consapevolezza.

(Marco Sanavio, rivista SE VUOI 5/2023)