I calendari pontifici, da sempre, giocano o possano giocare strani scherzi. Così accade e non può sorprendere che nel giorno in cui va al G7, primo papa a intervenire davanti a tale consesso, papa Francesco abbia ricevuto in vaticano i comici. Lui, che raccomandava ai suoi preti quando era a Buenos Aires di non perdere mai il buon umore, avrà preso questo scherzo del calendario come un’opportunità per prepararsi al G7 nel migliore dei modi, perché la serietà del tema da affrontare al G7, l’Intelligenza Artificiale, richiede certamente un’immersione nei bivi della vita, alla cui base c’è l’esigenza di capire sempre al di là dei veli asfittici del formalismo e dell’uniformità. E proprio il rischio di un mondo uniformato è emerso verso la fine del suo intervento, quasi a punto d’arrivo di un rischio terribile: che questa uniformità sia senza etica, sebbene vissuta da sponde opposte.
Il Papa nella sua allocuzione ha cominciato seguendo una sorta di suo cliché divertente: “Ho qui due discorsi, la versione lunga e la versione corta: leggerò la versione corta”. Anche i capi di Stato e di governo hanno bisogno di buon umore, e a questo Francesco ha fatto appello per ribadire che sono finite in soffitta le ruggini antiche tra fede e scienza, o tecnica, che fanno pienamente parte del dono della creatività dato da Dio all’uomo. L’essere umano si distingue dagli altri viventi per la capacità di creare utensili per soddisfare i suoi bisogni, così oggi è davanti a una sfida affascinante e tremenda: l’Intelligenza Artificiale. Affascinante, per tutto quello che saprà o potrebbe dare all’umanità, eliminando lavori usuranti, allargando l’accessibilità del sapere, contribuendo alla cura del creato. Affascinante davvero. Ma potrà anche produrre nuove frontiere, tra chi può e chi non può, a livello di Stati e di individui o ceti sociali, e così aggravare le forme già gravi di esclusione. E ancora, o di più: interferire nelle guerre con armi letali autonome che si arrogano i diritti di decidere autonomamente chi va eliminato. Dunque è il problema etico che il papa ha sottolineato a tutti i presenti: chi decide? E’ l’uomo che deve conservare sempre il potere di decidere l’azione della macchina, non è la macchina che può arrogarsi il potere di decidere al posto dell’uomo. Il già noto intervento dell’Intelligenza Artificiale nelle guerre con risultati temibili dimostra la centralità della richiesta di abolire questi armamenti e di scegliere: scegliere l’etica.
Nel testo lungo, quello che il Papa non ha letto integralmente ma che è stato pubblicato dal Vaticano, si trova questo passaggio decisivo; “Nella sua essenza l’intelligenza artificiale è un utensile disegnato per la risoluzione di un problema e funziona per mezzo di un concatenamento logico di operazioni algebriche, effettuato su categorie di dati, che sono raffrontati per scoprire delle correlazioni, migliorandone il valore statistico, grazie a un processo di auto-apprendimento, basato sulla ricerca di calcolo. L’intelligenza artificiale è così disegnata per risolvere dei problemi specifici, ma per coloro che la utilizzano è spesso irresistibile la tentazione di trarre, a partire dalle soluzioni puntuali che essa propone, delle deduzioni generali, persino di ordine antropologico. Un buon esempio è l’uso dei programmi disegnati per aiutare i magistrati nelle decisioni relative alla concessione dei domiciliari a detenuti che stanno scontando una pena in un istituto carcerario. In questo caso, si chiede all’intelligenza artificiale di prevedere la probabilità di recidiva del crimine commesso da parte di un condannato a partire da categorie prefissate (tipo di reato, comportamento in prigione, valutazione psicologiche ed altro), permettendo all’intelligenza artificiale di avere accesso a categorie di dati inerenti alla vita privata del detenuto (origine etnica, livello educativo, linea di credito ed altro). L’uso di una tale metodologia – che rischia a volte di delegare de facto a una macchina l’ultima parola sul destino di una persona – può portare con sé implicitamente il riferimento ai pregiudizi insiti alle categorie di dati utilizzati dall’intelligenza artificiale. L’essere classificato in un certo gruppo etnico o, più prosaicamente, l’aver commesso anni prima un’infrazione minore (il non avere pagato, per esempio, una multa per una sosta vietata), influenzerà, infatti, la decisione circa la concessione dei domiciliari. Al contrario, l’essere umano è sempre in evoluzione ed è capace di sorprendere con le sue azioni, cosa di cui la macchina non può tenere conto”.
Ecco allora che è chiaro cosa non deve significare l’apertura al fascino dell’Intelligenza Artificiale: piuttosto deve essere il contrario, cioè riporre al centro l’uomo, non le varie forme possibili di adeguamento, codificazione e sopraffazione.
Viste in termini non settoriali ma complessivi, tali dinamiche determinerebbero soprattutto economicamente un pensiero unico, quello aziendale rispetto a quello statale, quello della parte rispetto al tutto. Francesco sa bene che interessi specifici non possono essere eliminati, o cancellati. Ma se prendessero il sopravvento rispetto all’etica come orizzonte prevalente e di fondo potrebbero condurre a esiti davvero tremendi.
Ecco perché ha concluso, davanti ai leader del G7 e quelli di tanti altri Paesi convocati per questa sessione speciale dalla presidenza italiana, con un fortissimo paragrafo sulla politica, la buona politica, la forma più alta dell’amore. Davanti a tanti potenti (seduti su sedie che scricchiolano, o più stabili in alcuni casi), Francesco non ha esitato a ricordare che tutti rischi che causerebbe il passaggio al paradigma tecnocratico: “Non possiamo permettere a uno strumento così potente e così indispensabile come l’intelligenza artificiale di rinforzare un tale paradigma, ma anzi, dobbiamo fare dell’intelligenza artificiale un baluardo proprio contro la sua espansione”.
La rapidità dello sviluppo dell’Intelligenza Artificiale non con consente rinvii: la scelta sul governo etico di questo strumento dalle sconfinate applicazioni va compiuta insieme, ora.