Quale politica segue Facebook, il più celebre tra i social network, per censurare e moderare i contenuti che circolano tra gli oltre due miliardi di account registrati? A svelarlo è il “Guardian”, che sul suo sito ha pubblicato un centinaio di documenti interni al social di Mark Zuckerberg nei quali sono indicate le procedure da seguire per “censurare” foto, video e link. Tuttavia, alcune di queste indicazioni su cui sono formati i moderatori, ovvero quelle persone che intervengono direttamente nel rimuovere i post quando non sono sufficienti i filtri, si contraddicono a vicenda. Secondo il quotidiano inglese, infatti, sembra che Facebook non riesca a controllare in modo soddisfacente le’enorme numero di contenuti pubblicati e condivisi ogni giorno dai suoi utenti. In effetti spesso il social è stato criticato, in particolar modo in Europa, per essere intervenuto con lentezza nel censurare contenuti offensivi, o per aver cancellato post che non avevano nulla di controverso, come ad esempio la rimozione di alcune opere d’arte che raffigurano dei nudi.
L’interpretazione delle regole
Le istruzioni contraddittorie non aiutano le migliaia di moderatori che ogni giorno si occupano di rivedere i post segnalati su Facebook. Interpretare le regole può essere difficoltoso, soprattutto nel caso di contenuti a tema sessuale: a volte sono espliciti e in chiara violazione delle regole di utilizzo del social network, in altri casi sono più sfumati e richiedono valutazioni aggiuntive, influenzate dalle capacità di giudizio soggettive del singoli moderatori. Anche per questo motivo può succedere che post simili e con contenuti controversi siano rimossi o mantenuti, a seconda del processo di revisione che hanno subìto. La mole di lavoro è enorme e strettamente legata alla rapida crescita di Facebook, che ha lasciato poco tempo ai suoi amministratori per produrre linee guida chiare per la moderazione. Di norma una prima revisione dei contenuti segnalati dagli utenti viene effettuata con un processo automatico; poi sulla base della risposta degli utenti avviene una nuova verifica da parte di un moderatore. I tempi per una revisione sono molto stretti: accade spesso che un impiegato di Facebook abbia circa 10 secondi per decidere che cosa fare di un post segnalato, prima di passare al successivo. Così poco tempo e regole di moderazione ambigue possono portare a errori, anche grossolani, come avvenuto lo scorso anno quando il social network censurò la famosa fotografia di una bambina nuda che scappa da un villaggio appena bombardato durante la guerra nel Vietnam.
Le regole di Facebook per la censura
Il Guardian ha fatto un elenco con le principali istruzioni fornite da Facebook ai suoi moderatori. Ad esempio, frasi come “qualcuno dovrebbe sparare a Trump” vanno rimosse, perché i capi di stato sono una categoria protetta sul social network. Al contrario, affermazioni del tipo: “muori”, “vaff***”, o “spero che qualcuno ti uccida” vengono tollerate poiché non costituiscono una minaccia credibile. Per quanto riguarda i video delle morti violente, non tutti vanno rimossi. Infatti, alcuni potrebbero essere utili a comprendere problemi legati alla salute mentale. Tuttavia, Facebook richiede all’utente che ha postato quel video di segnalarlo come “immagini forti”. Invece, le violenze sugli animali possono essere condivise, così come pure i dipinti e illustrazioni con nudi e attività sessuale, ma fotografie e video no. Consentiti anche i video che mostrano un aborto a patto che non ci siano scene di nudo. Per quanto riguarda le dirette video, quelle di persone che cercano di farsi male da sole sono permesse. Secondo il social, infatti, è sbagliato censurare le persone in difficoltà e la trasmissione può essere utile per avvisare e fare intervenire i conoscenti della persona che la sta realizzando. In altri documenti interni di Facebook, si dice che “online le persone usano un linguaggio violento per esprimere le loro frustrazioni”, e che in un certo senso si sentono libere e al sicuro nel farlo sul social network: “Pensano che il problema non li riguardi e sono indifferenti nei confronti della persona che minacciano, per una mancanza di empatia dovuta alla comunicazione tramite dispositivi e non di persona”.
Violenza
Secondo i manuali, le affermazioni violente “non sono molto spesso credibili”, per lo meno fino a quando le espressioni utilizzate “non danno elementi sufficienti per concludere che non siano più solamente l’espressione di un sentimento, ma lo spostamento verso un piano” contro qualcuno. Il problema è che ogni post è una storia a sé e ci sono molte zone grigie, che rendono difficili e ambigue le reazioni dei moderatori. Un post satirico può avere per esempio contenuti espliciti ed espressioni violente, ma non può essere inserito nella stessa categoria dei messaggi che incitano all’odio. Tuttavia, non sempre un post satirico o umoristico viene riconosciuto, e quindi viene eliminano dai moderatori segnalando il suo autore al sistema.
Tutela dei minori
Facebook utilizza sistemi automatici e manuali per tutelare i suoi iscritti in base all’età, con particolare attenzione verso i minori (ci si può iscrivere al social network dai 13 anni). Per i video più espliciti e violenti, che però non violano le regole, sono previste “protezioni” per i più piccoli in modo che sia meno probabile la loro visione, mentre agli adulti viene data la possibilità di scegliere con un avviso prima della riproduzione. Nel caso di video in cui si vedono persone che si fanno del male, la linea è di non cancellare il contenuto perché: “può avere importanza nel creare consapevolezza su problemi legati alla salute mentale, su crimini di guerra o altri temi importanti”. Applicare questa regola a particolari temi, come la violenza nei confronti dei bambini non a sfondo sessuale, è molto più difficile. Il Guardian, citando i manuali di Facebook, dice: “Non interveniamo sulle foto che mostrano abusi verso i bambini. Avvisiamo gli utenti sulla presenza di video sulle violenze che li potrebbero disturbare. Rimuoviamo le immagini di abusi sui bambini se sono condivise con commenti sadici o che esaltano le violenze”. L’idea è che mantenendo questi contenuti si possano fornire informazioni a cittadini e forze dell’ordine, che possono poi intervenire per aiutare i bambini che subiscono violenze.
Moderazione e rilevanza
Facebook ha modificato in parte le regole sulle fotografie che mostrano nudi. Da qualche mese è stata introdotta una maggiore flessibilità nella moderazione: se una fotografia che mostra persone nude ha una “rilevanza giornalistica” per illustrare un fatto, la sua pubblicazione e condivisione è consentita. Ci possono comunque essere casi in cui un’immagine sia temporaneamente sospesa, se per esempio i sistemi che automaticamente riconoscono le fotografie esplicite di nudi senza rilevarne l’origine.
La risposta di Facebook al Guardian
La pubblicazione da parte del Guardian ha attirato molto interesse da parte di molti lettori e di altri media. Monika Bickert, responsabile delle politiche di gestione del social network, ha spiegato che per Facebook la priorità rimane “tenere gli utenti al sicuro” e ha ricordato che saranno presto assunti altri 3 mila moderatori, che si aggiungeranno ai già presenti 4.500. Bickert ha anche promesso sistemi più semplici da usare per segnalare i post con immagini esplicite, minacce o che incitano all’odio, un punto su cui c’è molto da migliorare secondo gli osservatori più critici. Facebook basa buona parte del proprio successo sul numero di persone che utilizzano il suo social network: più ce ne sono, più è alta la probabilità che visualizzino le pubblicità sul sito, la sua unica fonte di ricavo. Per il social, quindi, è essenziale continuare a crescere e ad accumulare nuovi utenti. Ma il problema non riguarda solo foto e video espliciti o messaggi d’odio, ma anche i post che diffondono notizie false. Anche per questo motivo Facebook sta lavorando a nuovi sistemi di intelligenza artificiale per rendere più accurata la revisione automatica dei post.