Sono stati già ribattezzati come i Facebook files, ma non ha nulla a che fare con marziani, forze extraterrestri e tutto ciò che la serie TV X-Files può farvi tornare in mente. In realtà, infatti, si tratta una raccolta di manuali, fogli di lavoro e brevi note utilizzate dal team di revisori del social network per eccellenza per decidere se un post riguarda un argomento scottante (sesso, violenza, terrorismo, cyberbullismo e bullismo e incitazione all'odio). Insomma, una sorta di summa theologica di cosa può essere pubblicato su Facebook e cosa no.

I manuali, analizzati dal quotidiano britannico The Guardian, forniscono ai revisori (centinaia di persone pagate dal social network per analizzare le segnalazioni degli utenti su post, immagini e gruppi) degli esempi pratici su come valutare un contenuto piuttosto che un altro. Documenti di grande valore, se si pensa che Facebook attraversa un momento molto particolare della sua vita: molti Stati europei e gli Stati Uniti stanno facendo pressioni affinché il social network ponga maggiore attenzione ai contenuti pubblicati dagli utenti. Al centro delle richieste troviamo la creazione e diffusione delle fake news e contenuti che possano favorire organizzazioni o singoli legati al terrorismo internazionale.

 

Facebook

 

Cosa contengono i Facebook Files

Come già accennato, all'interno dei Files trovano spazi tutti quei contenuti ed esempi che possano in qualche maniera facilitare il compito dei revisori. Si tratta di manuali operativi, presentazioni, raccolte di immagini, fogli di lavoro e quant'altro possa essere utile al compito – piuttosto delicato – di chi è chiamato a rivedere le segnalazioni degli utenti e prendere una decisione. Confrontando ciò che visualizzano a schermo con gli esempi e le immagini presenti nel Facebook Files, i revisori saranno così in grado di decidere se un post debba essere eliminato o possa continuare a essere visualizzato e condiviso.

Casi limite

Un ruolo piuttosto complesso per una lunga serie di motivazioni. I revisori, infatti, hanno solitamente meno di 10 secondi per prendere una decisione e devono, in qualche modo, mantenere un'uniformità di decisioni nel corso del loro lavoro. Il tutto, però, tenendo conto del contesto in cui si trovano a "lavorare": ciò vuol dire che un'immagine può essere considerata offensiva o violenta a seconda di dove e come viene condivisa o commentata. Un video di un omicidio o di violenza su animali, come vedremo tra poco, possono essere considerati "accettabili" a patto che contribuiscano a far crescere la consapevolezza degli utenti Facebook su ciò che sta accadendo. Discorso analogo per immagini o post in cui il sesso, violenza o bullismo siano al centro della discussione: tutto dipende dal contesto.

Post su violenza e bullismo

Molte delle indicazioni fornite ai revisori riguardano post contenenti testi o immagini violente. Si tratta, infatti, di argomenti particolarmente delicati e complessi e, allo stesso tempo, vasti. Accade così che le indicazioni dei Facebook Files possano apparire in qualche caso contraddittorie: una frase come "Ammazziamo Trump" dovrà essere rimossa immediatamente, mentre un post contenente un testo come "Prima o poi quella ragazza la faccio fuori" non sarà cancellato, dal momento che le minacce sono generiche e non contestualizzate.

 

Notifiche Facebook

 

Video di morti violente – incidenti stradali, omicidi, sparatori e quant'altro ricade in questa categoria – continueranno a essere mostrati nelle Timeline degli utenti nella misura in cui contribuiscono a far crescere negli utenti la consapevolezza su alcune particolari argomenti. Stesso discorso nel caso di immagini o video che ritraggono atti di violenza – non sessuale – o bullismo nei confronti dei bambini: non dovranno essere rimosse, a meno che non abbiano carattere umiliatorio o sadico.

Post a sfondo sessuale

Stando a quanto affermato dagli stessi revisori, le indicazioni riguardanti post a sfondo sessuale sono le più complesse e, per alcuni versi, contrastanti. Quando si parla di revenge porn, ad esempio, i revisori devono verificare che le immagini siano state effettivamente condivise senza il consenso della persona ricattata (oltre a contenere immagini di nudo o ritrarre atti sessualmente espliciti). Indicazioni particolarmente stringenti riguardano immagini o video contenenti nudo, anche se i revisori devono chiudere un occhio in caso di immagini storiche (si pensi, ad esempio, alle immagini dei campi di concentramento nazisti o alla celebre foto della ragazza vietnamita che corre nuda dopo che il suo villaggio è stato bombardato con il napalm).

Post su violenza sugli animali

Il discorso sulla violenza sugli animali diventa ancora più complesso rispetto a quanto già visto per violenza tout court e bullismo. In particolare, si legge nei Facebook Files, immagini e video che documentano atti di violenza o abusi perpetrati nei confronti degli animali potrebbero non essere rimossi nella misura in cui sono utili a far aumentare la consapevolezza degli utenti e condannare gli episodi. Il social network potrebbe aggiungere un avviso che specifichi la crudezza delle immagini e mettere in guardia gli utenti più sensibili, ma il tutto resterebbe comunque visibile.

A cura di Cultur-e Costruisci il tuo futuro con la connessione Fastweb