Mentre gli sciatori scendevano e curvavano in uno snowpark fuori Pechino durante le Olimpiadi invernali del 2022, diverse torri posizionate lungo il percorso raccoglievano le più disparate lunghezze d’onda attraverso lo spettro sonoro e analizzavano i dati alla ricerca di segni di movimento sospetto! Se quelle persone avessero saputo di essere soggetti involontari di un esperimento di sorveglianza delle frontiere basato sull’intelligenza artificiale si sarebbero preoccupate?
Quest’estate, ai Giochi Olimpici di Parigi, i funzionari della sicurezza eseguiranno un esperimento molto più grande che andrà a coprire l’area degli eventi, dell’intero villaggio olimpico, delle strade e delle ferrovie di collegamento. Si procederà grazie a una “legge temporanea” che consentirà ai sistemi di sorveglianza automatizzati di rilevare “eventi predeterminati” per poter prevedere potenziali attacchi terroristici.
Questa volta, le persone si stanno preoccupando. “La sorveglianza di massa, guidata dall’intelligenza artificiale è un progetto politico pericoloso che potrebbe portare a vaste violazioni dei diritti umani. Ogni azione in uno spazio pubblico verrà risucchiata in una rete di infrastrutture di sorveglianza, minando le libertà civili fondamentali”, ha dichiarato Agnes Callamard, segretaria generale di Amnesty International, subito dopo l’approvazione della legge e del progetto.
La notizia, comunque, non ha fatto grande scalpore. Il grande pubblico sembra essere rimasto indifferente. Infatti, quando i funzionari di Seine-Saint-Denis, uno dei distretti che ospiteranno le Olimpiadi, hanno presentato informazioni su un sistema preliminare di videosorveglianza basato sull’intelligenza artificiale in grado di rilevare ed emettere multe per comportamenti antisociali, come l’abbandono dei rifiuti, i residenti hanno alzato la mano e hanno chiesto come mai un sistema simile non fosse già presente nelle strade francesi.
“La sorveglianza non è un concetto monolitico. Non tutti sono contrari alla sorveglianza”, afferma lo studente laureato in antropologia Matheus Viegas Ferrari, dell’Universidade Federal da Bahia, in Brasile, e dell’Université Paris 8 Saint-Denis, a Parigi, che ha partecipato all’incontro comunitario a Seine-Saint-Denis e ha pubblicato uno studio sulla sorveglianza alle Olimpiadi del 2024.
Chiunque si arrabbi con i vicini che lasciano abbaiare i loro cani, per esempio, può identificarsi con i residenti di Seine-Saint-Denis, che accolgono questo nuovo sistema di sorveglianza. Ma se questo sistema di sorveglianza multasse un vicino più di un altro solo perché l’algoritmo ha deciso che debba essere favorito un certo colore della pelle o uno stile di abbigliamento rispetto a un altro, allora forse le opinioni potrebbero cambiare!
In effetti, la Francia e altri paesi dell’Unione europea sono nel bel mezzo della definizione dei dettagli più fini della legge sull’intelligenza artificiale dell’Unione europea, che cerca di proteggere la privacy e i diritti dei cittadini, regolando l’uso governativo e commerciale dell’intelligenza artificiale. La scarsa attuazione di una legge sull’IA relativa alla politica di welfare ha già fatto cadere un governo europeo.
Sembra che questa legge sulla sorveglianza temporanea sia stata scritta per evitare questo risultato, insistendo sul fatto che gli algoritmi sotto la sua governance “non possano elaborare alcun dato biometrico e non incrementino alcuna tecnica di riconoscimento facciale, senza effettuare alcuna riconciliazione, interconnessione o collegamento automatizzato con altri trattamenti di dati personali”.
Paolo Cirio, un artista che realizza poster affissi in giro per Parigi creati dal collage di volti degli agenti di polizia custoditi in un archivio personale, vede questo linguaggio come un progresso. “Il fatto anche per le Olimpiadi in Francia, il governo abbia dovuto scrivere nella legge che non utilizzerà la tecnologia biometrica, è già qualcosa di incredibile per me”, dice. “Questo è il risultato di attivisti che lottano da anni in Francia, in Europa e altrove”.
In realtà si vuole utilizzare l’analisi biometrica e il riconoscimento facciale per l’analisi della folla in tempo reale e in questo caso verrebbe a mancare il reale anonimato di ogni persona facente parte di un assembramento. Gruppi della società civile europea hanno sostenuto in una lettera aperta che la sorveglianza richiederebbe necessariamente l’isolamento e quindi l’identificazione degli individui, privando le persone innocenti del loro diritto alla privacy.
Non è chiaro se questo sia realmente vero! La rapida evoluzione delle tecnologie coinvolte rende difficile rispondere a questa domanda. “Non è necessario identificare le persone”, afferma il data scientist Jonathan Weber dell’Università dell’Alta Alsazia, a Mulhouse, in Francia, e coautore di una revisione dell’analisi della folla attraverso strumenti video. Risulta possibile, invece, addestrare una rete neurale nell’analisi di video contenenti forme geometriche simili a persone, affinché vengano riconosciuti determinati cittadini in modo affidabile. Quindi è possibile addestrare la rete neurale anche su schemi più sofisticati, come il riconoscimento di persone che cadono, corrono, litigano, persino discutono o portano un coltello.
“I dati che rileviamo non riguardano dati biometrici, ma solo la posizione, ad esempio quella di una persona che si trova distesa a terra”, afferma Alan Ferbach, cofondatore e amministratore delegato di Videtics, una società di Parigi che ha presentato un’offerta per partecipare come partner della sicurezza nelle Olimpiadi 2024. Videntis sta già vendendo software in grado di rilevare cadute negli edifici o posizionamenti o scarico di materiali illegali all’aperto, nessuno dei quali richiede l’identificazione delle persone.
Per alcuni, però, il solo registrare il comportamento delle persone “potrebbe essere altrettanto invasivo e pericoloso quanto identificare le persone perché potrebbe portare a errori, discriminazioni, violazione della privacy e dell’anonimato negli spazi pubblici e potrebbe avere un impatto sul diritto al giusto processo e sull’accesso alla giustizia”, afferma Karolina Iwańska, la consulente per lo spazio civile digitale presso il Centro europeo per il diritto, un’organizzazione senza scopo di lucro con sede all’Aia, Paesi Bassi.
Weber è particolarmente preoccupato di come i dati di addestramento distorti potrebbero portare a problematiche dovute all’analisi della folla da parte dell’intelligenza artificiale. Ad esempio, quando l’ACLU (l’American Civil Liberties Union, un’organizzazione non governativa orientata a difendere i diritti civili e le libertà individuali negli Stati Uniti) ha confrontato le foto dei rappresentanti del Congresso degli Stati Uniti con le foto segnaletiche, il software ha identificato erroneamente e in modo sproporzionato le persone dalla pelle più scura come fuorilegge. I potenziali errori in un simile algoritmo dipendono solamente da come gli sviluppatori del software lo addestreranno, afferma Weber: “Devi stare molto attento ed è uno dei problemi più grandi: probabilmente non avrai a disposizione tonnellate di video di persone con comportamenti pericolosi per addestrare l’algoritmo.”
“Secondo me dobbiamo certificare il percorso di addestramento”, afferma Ferbach. Successivamente diverse aziende potrebbero sviluppare i propri modelli basati su set di formazione certificati. “Se dovessimo certificare ogni modello, il costo sarebbe enorme”. Le autorità di regolamentazione dell’UE devono ancora decidere come la legge sull’intelligenza artificiale affronterà questo problema.
Se gli sviluppatori di software riescono a mettere insieme abbastanza video reali o simulati di comportamenti scorretti per addestrare i loro algoritmi senza pregiudizi, dovranno comunque capire cosa fare con tutti i dati del mondo reale che raccolgono. “Più dati raccogli, maggiore è il pericolo in futuro che tali dati possano finire nelle mani sbagliate”, afferma Cirio. In risposta, alcune aziende utilizzano strumenti di sfocatura dei volti per ridurre la possibilità di una fuga di dati contenente dati personali. Altri ricercatori propongono di registrare video direttamente dall’alto, per evitare di registrare i volti delle persone.
Altri ricercatori stanno andando nella direzione opposta, sviluppando strumenti per riconoscere gli individui o almeno differenziarli dagli altri in un video, utilizzando l’analisi dell’andatura. Se questa tecnica fosse applicata ai video di sorveglianza, violerebbe la legge francese sulle Olimpiadi ed eluderebbe gli effetti di tutela della privacy derivanti dall’offuscamento dei volti e dall’acquisizione di video dall’alto. Il fatto che la legge vieti il trattamento dei dati biometrici pur consentendo il rilevamento algoritmico degli eventi “sembra essere nient’altro che un pio desiderio”, afferma Iwańska. “Non riesco a immaginare come il sistema dovrebbe funzionare come previsto senza necessariamente elaborare i dati biometrici.”
Un’altra domanda che preoccupa gli osservatori della sicurezza delle Olimpiadi è per quanto tempo il sistema dovrebbe rimanere in vigore. “È molto comune che i governi che desiderano una maggiore sorveglianza utilizzino qualche evento incitante, come un attacco o un grande evento imminente, per giustificarlo”, afferma Matthew Guariglia, analista politico senior presso la Electronic Frontier Foundation, un’organizzazione della società civile. a San Francisco. “L’infrastruttura potrebbe rimanere al suo posto e venire facilmente riutilizzata per le attività di polizia di tutti i giorni”.
La legge francese sulle Olimpiadi prevede una data di scadenza, ma Iwańska la definisce arbitraria. Dice che è stata creata “senza alcuna valutazione di necessità o proporzionalità” rispetto ai due mesi delle Olimpiadi e delle Paralimpiadi”.
Altri storici della tecnologia della sicurezza e delle Olimpiadi hanno sottolineato che i paesi spesso trattano le Olimpiadi come una fiera commerciale sulla sicurezza. E anche se la Francia smettesse di utilizzare i suoi algoritmi di elaborazione video nei luoghi pubblici dopo la scadenza della legge sulle Olimpiadi, altri paesi potrebbero acquistarli da società francesi per il loro uso interno. Infatti, dopo le Olimpiadi cinesi del 2008, l’Ecuador e altri paesi con precedenti contrastanti in materia di diritti umani hanno acquistato apparecchiature di sorveglianza basate sui sistemi mostrati alle Olimpiadi del 2008. L’industria della sorveglianza, in Francia e altrove, trarrà molto da questa esposizione.