Il mercato è un luogo aperto e libero dove chiunque può pubblicizzare le proprie idee, costruire imprese, assumere collaboratori, ottenere un credito, guadagnare un reddito. Ma il mercato ha bisogno di regole, perché non si può assumere che tutti coloro che vi agiscono siano ben-intenzionati e facciano uso della propria libertà senza attentare alla libertà degli altri. I cattolici direbbero: perchè c’è il peccato originale e c’è il principe del male in circolazione. In questi ultimi tempi si era diffusa la pessima idea che fosse il mercato ad autoimporsi delle regole e dunque non ci fosse bisogno di regolatori “esterni”. Abbiamo visto come è finita con la de-regolamentazione dell’attività finanziaria, che ha portato alla grande crisi del 2008, seguita da una corsa a salvare banche e imprese con i soldi dello Stato e dunque dei cittadini. Poi abbiamo visto come è finita con l’epidemia da Covid19, in cui pure sono dovuti massicciamente intervenire gli stati a finanziare i vaccini e a tenere i cittadini a distanza con i lockdown, senza poter evitare più di 6 milioni di morti e tante perdite economiche. Ultimamente ci si era illusi che i social media fossero “buoni” e non necessitassero di regole. Ma ora che dai social media è emersa anche l’Intelligenza Artificiale (IA) sono in molti a richiedere regole anche per queste innovazioni, che stanno minacciando la società alle sue radici. Possiamo per una volta dire che l’Unione europea, che tutti tacciano sempre di lentezza e poca lungimiranza nelle decisioni, ha avuto uno scatto di reni ed entrata in campo prima al mondo. Il 13 marzo è stato approvato dal Parlamento europeo un regolamento per l’Ia, preceduto da altri tre più settoriali, ma sempre volti a proteggere i cittadini dagli abusi perpetrati in rete. Il regolamento ha ottenuto 523 voti a favore, 46 contrari e 49 astenuti.
Si tratta di un testo di più di 400 pagine, lungamente preparato, con il determinante contributo anche del deputato italiano Brando Benifei, che introduce livelli di rischio a cui corrispondono diversi livelli di intervento: trasparenza a tutti i livelli, restrizioni a rischio medio-alto e divieti a livelli alti. Per tutte le applicazioni di IA si richiede la dichiarazione delle fonti usate per addestrare i sistemi degli algoritmi, l’etichettatura delle cosiddette “deep-fake”, ossia immagini, video, audio costruiti artificialmente, le segnalazioni di malfunzionamento (chiamate “allucinazioni”). Per i livelli di rischio medio-alto si richiedono presidi rafforzati (per esempio per i dispositivi medici e le infrastrutture critiche).
Ci sono poi alcune applicazioni per cui scattano divieti: è vietata la rilevazione delle emozioni nei luoghi di lavoro e nelle scuole, la diffusione di informazioni sensibili su soggetti vulnerabili, la sorveglianza biometrica e il riconoscimento facciale (ad eccezione di casi utili ad indagini giudiziarie) e l’assegnazione di un “punteggio sociale”. Viene instaurata un’agenzia a Bruxelles che si occuperà di monitorare l’applicazione del regolamento e avrà il diritto di richiedere informazioni alle aziende sulla valutazione dei rischi. Il regolamento si applicherà entro sei mesi dalla pubblicazione per i divieti e entro due anni per tutti gli altri aspetti, anche perché le aziende si devono attrezzare e hanno bisogno di tempo. A traino della Ue ora si stanno mettendo al lavoro anche altri Stati.
È certamente solo un inizio, ma è ormai diventato chiaro che l’immunità di cui i social media hanno goduto finora è archiviata e altri miglioramenti si potranno fare nel corso del tempo per proteggere l’umanità dagli effetti dirompenti di queste tecnologie di piattaforma, che tanti danni stanno facendo soprattutto ai giovani e alla democrazia di molti paesi, per le troppe notizie false circolate e le troppe induzioni a comportamenti lesivi della dignità e dell’integrità delle persone.