La voce degli ultimi

giovedì 30 Gennaio 2025
8 C
Città del Vaticano

La voce degli ultimi

giovedì 30 Gennaio 2025

Intelligenza Artificiale, Santa Sede: “L’IA sia al servizio del bene comune”

La nota “Antiqua et Nova” si è focalizzata sulla prospettiva cristiana del rapporto tra IA e intelligenza umana

Il Dicastero per la dottrina della fede e il Dicastero per la cultura e l’educazione hanno elaborato la nota “Antiqua et Nova” sul rapporto tra IA e intelligenza umana, mettendo al centro la prospettiva cristiana.

La nota

Distinguere il concetto di intelligenza in riferimento all’IA e all’essere umano”. È l’obiettivo principale della Nota “Antiqua et Nova” sul rapporto tra IA e intelligenza umana, elaborata dal Dicastero per la dottrina della fede e dal Dicastero per la cultura e l’educazione. Nel testo “si considera la prospettiva cristiana sull’intelligenza umana, offrendo un quadro generale di riflessione fondato sulla tradizione filosofica e teologica della Chiesa”, per poi proporre “alcune linee guida allo scopo di assicurare che lo sviluppo e l’uso dell’IA rispettino la dignità umana e promuovano lo sviluppo integrale della persona e della società”. I progressi della tecnologia umana, si legge nella Nota, “consentono ai sistemi di IA di rispondere a differenti tipi di stimoli provenienti dagli esseri umani, di adattarsi a nuove situazioni e persino di offrire soluzioni inedite non previste dai programmatori originali”. “A causa di tali rapidi progressi, molti lavori un tempo gestiti esclusivamente dalle persone sono ora affidati all’IA. Tali sistemi possono affiancare o addirittura sostituire le possibilità umane in molti settori, in particolare in compiti specializzati come l’analisi dei dati, il riconoscimento delle immagini e le diagnosi mediche”. Il rischio, quindi, è arrivare a “mettere in ombra la stessa persona umana”, usando la parola “intelligenza” sia in riferimento all’intelligenza umana che all’IA. “Questo approccio riflette una prospettiva funzionalista, secondo la quale le persone sono valutate in base ai lavori che possono svolgere. Tuttavia, il valore di una persona non dipende dal possesso di singolari abilità, dai risultati cognitivi e tecnologici o dal successo individuale, bensì dalla sua intrinseca dignità fondata sull’essere creata a immagine di Dio”. Il problema, allora, è “come assicurare che i sistemi di IA siano ordinati al bene delle persone e non contro di esse”, attraverso “un uso etico dei sistemi di IA” che “chiama in causa innanzitutto coloro che li sviluppano, producono, gestiscono e supervisionano; una tale responsabilità è condivisa anche dagli utenti”.

L’IA per la pace

“Mai si deve consentire che strumenti pensati per mantenere una certa pace siano adoperati a fini di ingiustizie, violenze od oppressione, ma devono sempre essere subordinati alla ferma volontà di rispettare gli altri uomini e i popoli e la loro dignità, e alla assidua pratica della fratellanza”. È quanto afferma la Nota della Santa Sede sull’intelligenza artificiale nella parte dedicata alla guerra. “Mentre le capacità analitiche dell’IA potrebbero essere impiegate per aiutare le nazioni a ricercare la pace e a garantire la sicurezza, l’utilizzo bellico dell’intelligenza artificiale può essere assai problematico”, sottolinea il testo, evidenziando come “la facilità con cui le armi, rese autonome, rendono più praticabile la guerra va contro il principio della guerra come ultima risorsa in caso di legittima difesa, accrescendo le risorse belliche ben oltre il controllo umano e accelerando una destabilizzante corsa agli armamenti con conseguenze devastanti per i diritti umani”. In particolare, “i sistemi di armi autonome e letali, in grado di identificare e colpire obiettivi senza intervento umano diretto, sono grave motivo di preoccupazione etica, poiché mancano della esclusiva capacità umana di giudizio morale e decisione etica”. Di qui l’urgenza di accogliere l’invito di Papa Francesco a “ripensare lo sviluppo di tali armi per bandirne l’uso”, poiché “nessuna macchina dovrebbe mai scegliere se togliere la vita a un essere umano”. La tecnologia dell’IA, secondo la Santa Sede, rappresenta un “rischio esistenziale”, poiché conferisce alla guerra un potere distruttivo incontrollabile che colpisce molti civili innocenti, inclusi i bambini. “Le atrocità già commesse nel corso della storia umana bastano a suscitare profonde preoccupazioni circa i potenziali abusi dell’IA”, avverte il testo, sottolineando che per evitare spirali di autodistruzione è necessario opporsi con decisione a tutte le applicazioni tecnologiche che minacciano la vita e la dignità umana. Questo richiede “un attento discernimento sull’uso dell’IA, specialmente nelle applicazioni di difesa militare, per garantire che rispetti sempre la dignità umana e sia al servizio del bene comune”. Lo sviluppo e l’uso dell’IA negli armamenti dovrebbero essere soggetti ai più alti livelli di controllo etico, assicurando il rispetto della dignità umana e la sacralità della vita.

IA e fake news

“Esiste un serio rischio che l’IA generi contenuti manipolati e informazioni false, i quali, essendo molto difficili da distinguere dai dati reali, possono facilmente trarre in inganno”. È quanto si legge nella Nota della Santa Sede sull’intelligenza artificiale, in cui si mette in guardia da fake news e deep fake. “Le conseguenze di tali aberrazioni e false informazioni possono essere assai gravi”, il monito del testo, in cui si segnala come “tutti coloro che producono ed utilizzano l’IA dovrebbero impegnarsi per la veridicità e l’accuratezza delle informazioni elaborate da tali sistemi e diffuse al pubblico”. “Se, da un lato, l’IA ha il potenziale latente di generare contenuti fittizi, dall’altro c’è il problema ancora più preoccupante di un suo uso intenzionale a fini di manipolazione”, spiega la Santa Sede: “Ciò può accadere, ad esempio, quando un operatore umano o un’organizzazione genera intenzionalmente e divulga informazioni, come immagini, video e audio deepfake, per ingannare o danneggiare. Sebbene le immagini o i video possano essere in sé artificiali, i danni da questi provocati sono reali, e lasciano profonde cicatrici nel cuore di chi lo subisce, che così si sente ferito nella sua dignità umana”. In altre parole, distorcendo il rapporto con gli altri e con la realtà, “i prodotti audiovisivi contraffatti generati con l’IA possono progressivamente minare le fondamenta della società”: “ciò richiede un’attenta regolamentazione, poiché la disinformazione, specialmente attraverso media controllati o influenzati dall’IA, può diffondersi in modo non intenzionale, alimentando la polarizzazione politica e il malcontento sociale”. “Poiché i deepfake inducono a mettere tutto in dubbio e i contenuti falsi generati dall’IA intaccano la fiducia in ciò che si vede e si ascolta, la polarizzazione e il conflitto non potranno che crescere”, la previsione della Santa Sede, secondo la quale “il contrasto alle falsificazioni alimentate dall’IA non è solamente un lavoro da esperti del settore, ma richiede gli sforzi di tutte le persone di buona volontà”: “Coloro che producono e condividono materiale generato con l’IA dovrebbero sempre avere cura di controllare la veridicità di quanto divulgano e, in ogni caso, dovrebbero evitare la condivisione di parole e immagini degradanti per l’essere umano, ed escludere quindi ciò che alimenta l’odio e l’intolleranza, svilisce la bellezza e l’intimità della sessualità umana, sfrutta i deboli e gli indifesi. Ciò richiede una continua prudenza e un attento discernimento da parte di ogni utente riguardo alla propria attività in rete”.

Il rispetto della dignità umana

“Esiste un serio rischio che l’IA generi contenuti manipolati e informazioni false, i quali, essendo molto difficili da distinguere dai dati reali, possono facilmente trarre in inganno”. È quanto si legge nella Nota della Santa Sede sull’intelligenza artificiale, in cui si mette in guardia da fake news e deep fake. “Le conseguenze di tali aberrazioni e false informazioni possono essere assai gravi”, il monito del testo, in cui si segnala come “tutti coloro che producono ed utilizzano l’IA dovrebbero impegnarsi per la veridicità e l’accuratezza delle informazioni elaborate da tali sistemi e diffuse al pubblico”. “Se, da un lato, l’IA ha il potenziale latente di generare contenuti fittizi, dall’altro c’è il problema ancora più preoccupante di un suo uso intenzionale a fini di manipolazione”, spiega la Santa Sede: “Ciò può accadere, ad esempio, quando un operatore umano o un’organizzazione genera intenzionalmente e divulga informazioni, come immagini, video e audio deepfake, per ingannare o danneggiare. Sebbene le immagini o i video possano essere in sé artificiali, i danni da questi provocati sono reali, e lasciano profonde cicatrici nel cuore di chi lo subisce, che così si sente ferito nella sua dignità umana”. In altre parole, distorcendo il rapporto con gli altri e con la realtà, “i prodotti audiovisivi contraffatti generati con l’IA possono progressivamente minare le fondamenta della società”: “ciò richiede un’attenta regolamentazione, poiché la disinformazione, specialmente attraverso media controllati o influenzati dall’IA, può diffondersi in modo non intenzionale, alimentando la polarizzazione politica e il malcontento sociale”. “Poiché i deepfake inducono a mettere tutto in dubbio e i contenuti falsi generati dall’IA intaccano la fiducia in ciò che si vede e si ascolta, la polarizzazione e il conflitto non potranno che crescere”, la previsione della Santa Sede, secondo la quale “il contrasto alle falsificazioni alimentate dall’IA non è solamente un lavoro da esperti del settore, ma richiede gli sforzi di tutte le persone di buona volontà”: “Coloro che producono e condividono materiale generato con l’IA dovrebbero sempre avere cura di controllare la veridicità di quanto divulgano e, in ogni caso, dovrebbero evitare la condivisione di parole e immagini degradanti per l’essere umano, ed escludere quindi ciò che alimenta l’odio e l’intolleranza, svilisce la bellezza e l’intimità della sessualità umana, sfrutta i deboli e gli indifesi. Ciò richiede una continua prudenza e un attento discernimento da parte di ogni utente riguardo alla propria attività in rete”.

Chi detiene l’IA

“Il fatto che attualmente la maggior parte del potere sulle principali applicazioni dell’IA sia concentrato nelle mani di poche potenti aziende solleva notevoli preoccupazioni etiche”. A porre l’accento su tale rischio è la Nota della Santa Sede sull’intelligenza artificiale, parlando dell’intrinseca natura dei sistemi di IA, “nei quali nessun singolo individuo è in grado di avere una supervisione completa dei vasti e complessi insiemi di dati utilizzati per il calcolo”. “Questa mancanza di una responsabilità (accountability) ben definita produce il rischio che l’IA possa essere manipolata per guadagni personali o aziendali, o per orientare l’opinione pubblica verso l’interesse di un settore”, l’analisi del testo: “Tali entità, motivate dai propri interessi, possiedono la capacità di esercitare forme di controllo tanto sottili quanto invasive, creando meccanismi di manipolazione delle coscienze e del processo democratico”. Oltre a ciò, c’è il rischio che l’IA venga utilizzata per promuovere quello che Papa Francesco ha chiamato “paradigma tecnocratico”, il quale intende risolvere tendenzialmente tutti i problemi del mondo attraverso i soli mezzi tecnologici”. “Piuttosto che limitarsi a perseguire obiettivi economici o tecnologici – la proposta della Santa Sede – l’IA dovrebbe essere usata in favore del bene comune dell’intera famiglia umana, cioè dell’insieme di quelle condizioni della vita sociale che permettono tanto ai gruppi quanto ai singoli membri di raggiungere la propria perfezione più pienamente e più speditamente”.

IA e relazioni

L’IA “va considerata per quello che è: uno strumento, non una persona”. È quanto si legge nella Nota della Santa Sede sull’intelligenza artificiale, in cui si mette in guardia dalla tendenza ad “antropomorfizzare” l’IA, offuscando così la linea di demarcazione tra ciò che è umano e ciò che è artificiale. “L’antropomorfizzazione dell’IA pone particolari problemi per la crescita dei bambini, i quali possono sentirsi incoraggiati a sviluppare schemi di interazione che intendono le relazioni umane in modo utilitaristico, così come avviene con i chatbot”, si spiega nel testo: “Tali approcci rischierebbero di indurre i più giovani a percepire gli insegnanti come dispensatori di informazioni e non come maestri che li guidano e sostengono la loro crescita intellettuale e morale”. “Nessuna applicazione dell’IA è in grado di provare davvero empatia”, incalza la Santa Sede: “Le emozioni non si possono ridurre a espressioni facciali oppure a frasi generate in risposta alle richieste dell’utente”, perché “la vera empatia esiste nella sfera relazionale” e “chiama in causa la percezione e il far proprio il vissuto dell’altro, pur mantenendo la distinzione di ogni individuo”. “Nonostante l’IA possa simulare risposte empatiche, la natura spiccatamente personale e relazionale dell’autentica empatia non può essere replicata da sistemi artificiali”, il monito: “Perciò, si dovrebbe sempre evitare di rappresentare, in modo erroneo, l’IA come una persona, e attuare ciò per scopi fraudolenti costituisce una grave violazione etica che potrebbe erodere la fiducia sociale. Ugualmente, utilizzare l’IA per ingannare in altri contesti – quali l’educazione o le relazioni umane, compresa la sfera della sessualità – è da ritenere immorale e richiede un’attenta vigilanza, onde prevenire eventuali danni, mantenere la trasparenza e garantire la dignità di tutti”.

IA e lavoro

“Consegnare l’economia e la finanza totalmente nelle mani della tecnologia digitale” è un rischio da evitare. Ne è convinta la Santa Sede, che nella Nota sull’intelligenza artificiale spiega che “mentre l’IA promette di dare impulso alla produttività facendosi carico delle mansioni ordinarie, i lavoratori sono spesso costretti ad adattarsi alla velocità e alle richieste delle macchine, piuttosto che siano queste ultime a essere progettate per aiutare chi lavora”. Per questo, contrariamente ai benefici dell’IA che vengono pubblicizzati, “gli attuali approcci alla tecnologia possono paradossalmente dequalificare i lavoratori, sottoporli a una sorveglianza automatizzata e relegarli a funzioni rigide e ripetitive”. “La necessità di stare al passo con il ritmo della tecnologia può erodere il senso della propria capacità di agire da parte dei lavoratori e soffocare le capacità innovative che questi sono chiamati a profondere nel loro lavoro”, il grido d’allarme del testo: “L’IA sta eliminando la necessità di alcune attività precedentemente svolte dagli esseri umani. Se essa viene usata per sostituire i lavoratori umani piuttosto che per accompagnarli, c’è il rischio sostanziale di un vantaggio sproporzionato per pochi a scapito dell’impoverimento di molti. Inoltre, man mano che l’IA diventa più potente, c’è anche il pericolo associato che il lavoro perda il suo valore nel sistema economico. Questa è la conseguenza logica del paradigma tecnocratico: il mondo di un’umanità asservita all’efficienza, nel quale, in ultima analisi, il costo di tale umanità deve essere tagliato. Invece, le vite umane sono preziose in se stesse, al di là del loro rendimento economico”. “Nell’ordinare le cose ci si deve adeguare all’ordine delle persone e non il contrario”: perciò, “il lavoro umano deve essere non solo al servizio del profitto, ma dell’uomo. Il rispetto della dignità dei lavoratori e l’importanza dell’occupazione per il benessere economico delle persone, delle famiglie e delle società, la sicurezza degli impieghi e l’equità dei salari, dovrebbero costituire un’alta priorità per la comunità internazionale, mentre queste forme di tecnologia penetrano sempre più profondamente nei luoghi di lavoro”.

IA e medicina

L’IA rischia di rafforzare il modello di una “medicina per i ricchi”, in cui “le persone provviste di mezzi finanziari traggono beneficio da strumenti avanzati di prevenzione e da informazioni mediche personalizzate, mentre altri riescono a fatica ad avere accesso persino ai servizi di base”. Lo scrive la Santa Sede, che nella Nota sull’intelligenza artificiale definisce “necessari quadri equi di gestione per garantire che l’utilizzo dell’IA nell’assistenza sanitaria non aggravi le disuguaglianze esistenti, ma sia al servizio del bene comune”. “Le decisioni che riguardano il trattamento dei pazienti e il peso della responsabilità ad esse legato devono sempre rimanere in capo alle persone e mai essere delegati all’IA”, la raccomandazione del testo, in cui si fa notare che “l’uso dell’IA per determinare chi debba ricevere cure, basandosi prevalentemente su criteri economici o di efficienza, è un caso particolarmente problematico di paradigma tecnocratico che dovrebbe essere rifiutato”, perché penalizza i più fragili, amplificando le disuguaglianze già esistenti nell’accesso alle cure: “Poiché l’assistenza sanitaria si orienta sempre più sulla prevenzione e su approcci basati sullo stile di vita, può accadere che le soluzioni orientate dall’IA possano involontariamente facilitare le popolazioni più abbienti, le quali già godono di un maggiore accesso alle risorse mediche e a un’alimentazione di qualità”.

IA e attività didattica

“La presenza fisica dell’insegnante crea una dinamica relazionale che l’IA non può replicare, una dinamica che approfondisce l’impegno e alimenta lo sviluppo integrale dello studente”. Ne è convinta la Santa Sede, che nella Nota sull’intelligenza artificiale, sulla scorta di Papa Francesco, esorta ad armonizzare nell’educazione il linguaggio della testa, il linguaggio del cuore e il linguaggio delle mani, essenziali “in un’epoca segnata dalla tecnologia, in cui non si tratta più soltanto di usare strumenti di comunicazione, ma di vivere in una cultura ampiamente digitalizzata che ha impatti profondissimi sulla nozione di tempo e di spazio, sulla percezione di sé, degli altri e del mondo, sul modo di comunicare, di apprendere, di informarsi, di entrare in relazione con gli altri”. Il pericolo, invece, in campo educativo è quello di “un’accresciuta dipendenza degli studenti dalla tecnologia, intaccando la loro capacità di svolgere alcune attività in modo autonomo e un peggioramento della dipendenza dagli schermi”. “Molti programmi si limitano a fornire risposte invece di spingere gli studenti a reperirle da sé, oppure a scrivere essi stessi dei testi”, il grido d’allarme del testo: “Invece di allenare i giovani ad accumulare informazioni e a fornire veloci risposte, l’educazione all’uso di forme di intelligenza artificiale dovrebbe mirare soprattutto a promuovere il pensiero critico”. Inoltre, “gli attuali programmi di IA possono fornire informazioni distorte o artefatte, inducendo gli studenti ad affidarsi a contenuti inesatti”, minando così il processo educativo.

Fonte: Agensir

ARTICOLI CORRELATI

AUTORE

ARTICOLI DI ALTRI AUTORI

Ricevi sempre le ultime notizie

Ricevi comodamente e senza costi tutte le ultime notizie direttamente nella tua casella email.

Stay Connected

Seguici sui nostri social !

Scrivi a In Terris

Per inviare un messaggio al direttore o scrivere un tuo articolo:

Decimo Anniversario