Prof.ssa Giovanola: “L’intelligenza artificiale non è neutrale, interroghiamoci sullo scopo del suo utilizzo”

Foto di Gerd Altmann da Pixabay

Intelligenza artificiale, rischio o opportunità? Non si tratta delle facce di una moneta da lanciare in aria e vedere quale delle due esce affidandosi al caso, perché la risposta a questa domanda non dipende dalla sorte bensì dall’intelligenza dell’uomo. Un’intelligenza che sa che la tecnologia può essere uno strumento, magari sempre più efficace ed efficiente, mentre il fine resta il bene comune di ciascuna persona e dell’intera collettività. Il dibattito sull’intelligenza artificiale, in inglese artificial intelligence (Ai), si confronta in merito agli interrogativi sull’impatto che questa avrà sul mondo del lavoro, sulla sfera della privacy e della sicurezza, sulla circolazione e la diffusione di informazioni attendibili e verificate o della fake news, sullo sviluppo cognitivo. Dalle risposte che ci sapremo dare, indirizzeremo il futuro del mondo.

Opportunità e rischi

Dato che lo sviluppo di questa tecnologia sembra portare a un mutamento epocale, nel suo intervento alla 78esima Assemblea generale delle Nazioni unite il presidente del Consiglio italiano Giorgia Meloni, al debutto in questa veste al Palazzo di vetro a New York, ha sottolineato l’importanza di un sistema di regole condivise a livello mondiale e di “barriere etiche” per far sì che il progresso tecnologico resti al servizio dell’uomo – tema che ha poi ripreso nel messaggio alla prima edizione di ComoLake2023 Next generation innovation lo scorso 5 ottobre – : “Le applicazioni di questa nuova tecnologia rappresentano sicuramente una grande opportunità in molti campi, ma non possiamo fingere di non comprendere anche gli enormi rischi che porta con sé. Non sono certa che ci stiamo rendendo conto abbastanza delle implicazioni connesse a uno sviluppo tecnologico che corre molto più velocemente della nostra capacità di governarne gli effetti. E dunque penso che non possiamo commettere l’errore di considerare questo dominio una sorta di ‘zona franca’ senza regole. Servono meccanismi di governance globale che siano capaci di assicurare che queste tecnologie rispettino barriere etiche, che l’evoluzione della tecnologia rimanga al servizio dell’uomo e non viceversa. Serve dare applicazione pratica al concetto di ‘algoretica’, ovvero dare un’etica agli algoritmi”.

Algoretica

L’algoretica, o la sua variante algor-etica, formazione ottenuta dalla parte iniziale di una parola e un altro termine intero, risulta attestata per la prima, secondo l’Accademia della Crusca, nel libro “Oracoli. Tra algoretica e algocrazia” del frate francescano del Terzo Ordine Regolare Paolo Benanti, docente di Teologia morale e Bioetica alla Pontificia università gregoriana. E lo stesso papa Francesco ne ha fatto uso nel 2020 in un discorso rivolto alla platea della Pontificia accademia per la vita – letto in quell’occasione dal presidente monsignor Vincenzo Paglia – in cui, riflettendo su questa nuova relazione tra uomo e algoritmo, evidenzia i vantaggi della tecnologia ma anche le criticità, come l’asimmetria dei rapporti tra i proprietari, gli “addetti ai lavori”, e gli utenti, con i primi che accumulano i dati dei secondi in base ai loro comportamenti nel mondo digitale, il rischio che confini certi tra reale e virtuale diventino indistinguibili e che le persone che ne fanno uso siano ridotte a consumatori, indebolendo così “il pensiero critico e l’esercizio consapevole della libertà”. L’intelligenza artificiale è inoltre il tema scelto dal Santo Padre per la 58esima Giornata mondiale delle comunicazioni sociali. Nel suo messaggio il Pontefice scrive che “è importante guidare l’intelligenza artificiale e gli algoritmi, perché vi sia in ognuno una consapevolezza responsabile nell’uso e nello sviluppo di queste forme differenti di comunicazione che si vanno ad affiancare a quelle dei social media e di Internet”.

Norme e regolamentazione

Sulla governance, c’è chi ne chiede meno e chi lavora per un maggior controllo, affinché lo sviluppo sia giusto ed equo. Recentemente, intervenendo in collegamento all’Italian Tech Week a Torino, il ceo di OpenAI Sam Altman, il “padre” di ChatGpt, ha detto che “i modelli attuali non sono così pericolosi come spesso vengono descritti” e che sarebbe un “peccato applicare normative stringenti” perché “tutto quello che è open source non dovrebbe essere normato”. L’Europa invece non vuole rimanere indietro sul fronte della legislazione dell’intelligenza artificiale. A giugno scorso è partito l’iter per l’approvazione dell’Artificial Intelligence Act. L’intento è di regolare l’Ai in accordo al diritto e ai valori dell’Unione Europea. Il primo passo è stato il via libera arrivato dall’Europarlamento, a cui seguirà il trilogo, ovvero il confronto tra le tre istituzioni comunitarie, Parlamento, Consiglio e Commissione. Tra le pratiche vietate, secondo quanto prevede il testo, ci sono il riconoscimento delle emozioni, l’uso di materiale protetto dal copyright nell’allenamento di modelli linguistici larghi (come ChatGpt), l’attribuzione di punteggio sociale secondo i comportamenti desunti dai dati.

L’intervista

Come ha dimostrato negli ultimi mesi il “caso” ChatGpt, l’Ai è sempre meno fantascienza e sempre più il nostro presente, oltre che il nostro futuro. Per approfondire meglio l’argomento, Interris.it ha intervistato la professoressa di filosofia morale dell’Università di Macerata Benedetta Giovanola, titolare della cattedra Jean Monnet EDIT, la prima in Europa su etica e intelligenza artificiale.

“Intelligenza artificiale” e “Ai” sono parole che ancora “sanno” di futuro, ma questa tecnologia è qui, presente, tra noi. Ce ne può dare allora una definizione, per capire meglio di cosa stiamo parlando?

“Intelligenza artificiale è un concetto plurale. All’attenzione di tutti oggi ci sono soprattutto le tecniche di apprendimento automatico (machine learning) e l’intelligenza artificiale generativa (large language model). Nel primo caso si stabiliscono correlazioni tra una serie di dati ritenuti rilevanti e interpretati alla luce di alcuni pattern e categorie. In base ai dati che forniamo, utilizzando i motori di ricerca e le applicazioni, si costruisce un profilo su di noi e ci viene offerta una serie di raccomandazioni, per esempio in forma di suggerimento di acquisto. Nel caso di modelli linguistici larghi si procede invece per correlazioni testuali. L’Ai può offrire tante opportunità e se utilizzato di supporto a vari lavori può rendere i processi più efficienti. Però può anche generare problemi a livello etico e di impatto sociale in base ai modi in cui questi sistemi vengono ‘allenati’ e quali dati sono presi e come sono aggregati”.

C’è un’opinione concorde sull’Ai oppure il suo rapido sviluppo e la capillare diffusione mentre entusiasmano alcuni spaventano altri?

“Dopo una prima fase in cui si sottolineavano le opportunità, come le potenzialità della rete per la partecipazione democratica, è in corso un grande dibattito sui rischi. C’è una sorta di separazione tra ‘apocalittici’ e ‘integrati’, ma la polarizzazione non aiuta. Non si può pensare l’Ai come un semplice strumento, perché ha un potere trasformativo”.

Quali sono allora le opportunità e i rischi?

“Queste tecniche consentono di svolgere in maniera più veloce e più efficiente delle funzioni che a noi esseri umani richiedono più tempo e fatica, perché loro possono accedere a una grande quantità di dati e informazioni da database enormi, e anche differenti, ed elaborarli con estrema velocità. In ambito giuridico possono avere accesso a una grande casistica e incrociare le diverse informazioni per prendere una decisione. Un altro campo di applicazione importante è la salute, come l’assistenza medica da remoto sia nella fase diagnostica che di terapia. O ancora i robot sociali per la socialità delle persone anziani”.

Nell’Unione europea si lavora alla prima regolamentazione dell’intelligenza artificiale. Cosa prevede l’Artificial intelligence Act?

“La via europea per la definizione dei modelli globali di governance dell’Ai secondo principi etici e sociali si basa su un approccio caratterizzato dall’attenzione al rapporto tra intelligenza artificiale e persona, sia intesa come individuo che come insieme. Per garantire un impatto etico e sociale dobbiamo valutare i rischi per le persone. Questo ci differenzia un po’ da altri contesti, come gli Stati Uniti, dove si spinge di più sulla sperimentazione piuttosto che sulla regolamentazione. Spesso si pensa alle regole come a un freno all’innovazione, serve invece una rivoluzione culturale affinché questi principi siano di impulso allo sviluppo di una buona tecnologia. Dopo un decennio in cui ne abbiamo scoperto i lati positivi abbiamo cominciato a vedere i problemi legati ad algoritmi opachi e a discriminazioni, chi li progetta ha in mano un grande potere perché detiene i dati e inoltre le modalità con cui vengono addestrati contengono pregiudizi, esclusioni e ingiustizie che amplificano le asimmetrie. Oggi dobbiamo riorientare la tecnologia, tutti hanno una responsabilità: le istituzioni, le imprese e i cittadini, che devono esercitare lo spirito critico e la capacità di comprensione”.

Come possiamo far sì che l’Ai sia etica?

“Dobbiamo riflettere sui rischi esistenziali legati all’intelligenza artificiale già nell’oggi, non solo in possibili scenari futuri. L’Ai non è qualcosa di neutrale, per cui occorre che, fin dal momento della progettazione, ci interroghiamo sul fine per cui la vogliamo utilizzare. Serve andare oltre il determinismo tecnologico, altrimenti il semplice fatto che è possibile fare qualcosa diventa il suo stesso valore, quando non è necessariamente così. L’etica è un metodo, prima ancora che un contenuto, che anche attraverso l’analisi critica ci permette di individuare quei valori e quei principi che ci consentono distinguere cosa è giusto e cosa è sbagliato, quindi di pensare e di conseguenza di agire bene. In questo ambito, l’etica ci serve per orientare il design delle tecnologie al bene dei singoli e della collettività, per garantire la trasparenza e promuovere l’equità. Dato che non abbiamo la capacità di predire il futuro, non possiamo sapere in anticipo cosa saprà fare l’Ai un domani – già oggi riesce a fare cose in anticipo rispetto a quanto si pensava -, per cui è dirimente che ci poniamo queste domande già quando la progettiamo”.

Lorenzo Cipolla: