Quando Valera Zaicev ha iniziato a lavorare a Dublino come moderatore di Facebook, un paio di anni fa, sapeva che avrebbe dovuto guardare alcuni tra i contenuti più grafici e violenti di internet.
Quello che non sapeva è che Facebook avrebbe contato i secondi delle sue pause al bagno.
Videos by VICE
“Le persone devono timbrare il cartellino in entrata e in uscita, anche quando vanno in bagno e spiegare perché ci hanno messo tanto—è imbarazzante e umiliante,” ha raccontato Zaicev a VICE.
Facebook, che affida il grosso della moderazione contenuti a oltre 15.000 contraenti di terze parti, non ha sempre tenuto i propri dipendenti così al guinzaglio. Quando Zaicev, 33 anni, è entrato in squadra nel 2016, ha trovato un ambiente professionale dove sentiva di ricevere training approfonditi ed essere trattato con rispetto.
Poi è cambiato tutto. Quando il numero dei moderatori negli uffici di Dublino è esploso—da 120 a oltre 800 in due anni—le condizioni si sono deteriorate e il periodo di training è evaporato.
Con il 2018, il numero di moderatori nel mondo è cresciuto nell’ordine delle decine di migliaia, e Facebook ha iniziato a testare un “sistema di gestione del tempo” progettato per monitorare l’uso di ogni minuto del giorno—comprese pause pranzo, training, “pause benessere” per fare terapia o yoga, e persino il tempo passato al bagno, stando a Zaicev e a un impiegato attualmente sotto contratto, che non vuole divulgare il proprio nome.
Negli ultimi anni, Facebook ha cercato di smentire le critiche su come i contenuti raccapriccianti sono gestiti sulla piattaforma. L’azienda ha speso almeno mezzo miliardo di dollari per assumere moderatori in carne e ossa, in aggiunta agli algoritmi che già regolano le sue pagine.
“Le persone devono timbrare il cartellino in entrata e in uscita, anche quando vanno in bagno.”
A causa della crescente attenzione da parte dei governi del mondo, il lavoro che fanno queste persone è essenziale. Sono la prima linea di difesa per l’azienda contro contenuti raccapriccianti e illegali—eppure, dicono che l’azienda li paga poco e non fornisce loro sostegno adeguato. Il risultato è un’incidenza significativa di problemi di salute mentale, e, il mese scorso, la prima di molte cause legali previste per non aver fornito un ambiente di lavoro salutare.
Ora, i moderatori sostengono che ogni loro mossa sia monitorata. Quando prendono decisioni sui contenuti, per esempio, devono seguire un documento che cambia in continuazione e che loro chiamano “la bibbia.” E ogni moderatore riceve un “punteggio di qualità.”
“Ti sono concessi quattro o cinque errori al mese—un tasso di fallimento del 2 percento, 98 percento punteggio positivo,” ha detto Chris Gray, un ex moderatore che ha lavorato a Facebook per 11 mesi. “Per cui se arrivi e fai cinque errori nei primi giorni, sei fottuto per il resto del mese, e non fai che pensare a come riguadagnarti quei punti.”
Gray soffre di disturbo da stress post-traumatico (PTSD) in conseguenza al periodo di lavoro come moderatore, e il mese scorso ha fatto causa al social network e a CPL, una delle tante aziende appaltatrici sparse tra USA, Europa e Asia. L’accusa è di aver provocato un “trauma psicologico”, legato alle misere condizioni lavorative e ai materiali estremi visualizzati.
Si prevede che decine, se non centinaia, di moderatori intenteranno cause simili. Una fonte interna allo studio legale Coleman&Partners ha detto a VICE che i documenti saranno depositati alla Corte Suprema di Dublino questo stesso mese.
CPL non ha risposto alle domande di VICE in merito alle accuse, e Facebook ha declinato di commentare sul fatto che i suoi moderatori siano costretti a essere loggati ogni minuto del giorno.
“Il benessere di chi revisiona i contenuti per Facebook è e resterà la nostra priorità assoluta,” ha detto a VICE Drew Pusateri, portavoce di Facebook.
Ma i moderatori non sono dello stesso avviso. E nonostante ci siano a disposizione delle sessioni di terapia, molti moderatori non si sentono liberi di sfruttarle, per via del controllo costante, delle regole che cambiano in continuazione e della pressione per lo standard di qualità.
“Ci sono migliaia di moderatori in UE e tutti stanno lavorando in condizioni critiche per la loro salute mentale e, a nostro avviso, illegali,” ha detto Cori Crider, direttore di Foxglove, gruppo di pressione che fa assistenza nelle cause legali. “Le leggi europee a protezione dei lavoratori sono forti e crediamo che Facebook e il resto dei social media debbano impegnarsi di più per creare un ambiente sicuro.”
Seguire “la bibbia”
Il compito dei moderatori è revisionare e rimuovere i contenuti che i miliardi di utenti nel mondo e gli algoritmi segnalano. La stragrande maggioranza dei contenuti segnalati è relativamente mondana, ma alcuni sono profondamente inquietanti e riguardano abusi sessuali, bestialità e violenza brutale.
Ogni giorno quando un moderatore timbra il cartellino in entrata, riceve un cosiddetto piano di gioco, un programma che delinea quanti contenuti deve controllare e da quali categorie, tra cui discorsi d’odio, molestie, minacce e auto-lesionismo.
Gray dice che CPL fornisce anche istruzioni su quanto tempo ha un moderatore per gestire ogni compito. Le quantità cambiano a seconda del tipo di contenuto, ma Gray dice che in genere è sotto il minuto.
Mentre molti contenuti sono violazioni palesi dei termini della piattaforma e non richiedono tanta energia mentale, altri non sono così chiari, per cui è necessario consultare “la bibbia”, ovvero gli Implementation Standards di Facebook: un documento da 10.000 parole e 24 categorie, divise in tre gruppi: comportamenti dannosi, contenuti sensibili e violazioni legali, stando a una copia pubblicata nel 2018 e vista da VICE.
Stando alle regole, i moderatori possono scegliere se ignorare il contenuto o cancellarlo. Se scelgono di cancellarlo, devono descriverlo in dettaglio e inserire tag relative a molteplici categorie e sotto-categorie. Le informazioni sono poi date in pasto agli algoritmi. Questo significa che, a tutti gli effetti, i moderatori stanno allenando un pezzo di software che potrebbe un giorno sostituirli.
“La bibbia” è una guida utile, ma viene aggiornata ogni due settimane con vaghe generalizzazioni per coprire l’ampia gamma di contenuti pubblicati su Facebook. “Devi avere regole generiche che possano essere applicate facilmente da tutti, in qualsiasi situazione,” ha spiegato Gray.
Eppure, in molti casi, i moderatori non sanno cosa devono fare.
“Capitavano giorni in cui ci mettevamo in 10 a guardare lo stesso schermo, mentre qualcuno di noi scorreva il regolamento su un altro computer, e discutevamo su come applicarlo a un certo video,” ha detto Gray.
E, nella maggior parte dei casi, i moderatori non possono rimbalzare il problema al proprio superiore. Devono prendere una decisione, ma se è quella sbagliata avrà un impatto sul loro punteggio.
Standard di qualità irrealistici
Ogni mese, controllando un campione selezionato di operazioni concluse, un team di revisori determina se un moderatore ha fatto una scelta giusta o sbagliata. Ma i revisori non sono altro che altri moderatori con un punteggio superiore alla media.
I moderatori hanno una possibilità di appello che devono rivolgere agli stessi revisori entro 48 ore—e tutti i moderatori con cui VICE ha parlato hanno detto di essersi appellati per salvaguardare il loro punteggio.
Oltre ad ammonire i moderatori per aver lasciato online un contenuto che andava rimosso o viceversa, tramite questo processo i revisori possono anche penalizzare i moderatori che hanno compiuto la scelta giusta, ma per le ragioni sbagliate.
“Fai cinque errori nei primi giorni e sei fottuto per il resto del mese— non fai che pensare a come riguadagnarti quei punti”
Ma i revisori non sono infallibili e spesso non sanno spiegare il perché delle loro sentenze. “[I revisori] non sanno niente del mercato in cui lavori tu, perché loro vengono da altri paesi e parlando altre lingue,” ha detto Zaicev.
Ma il problema non è solo che Facebook non sa assumere personale adeguato. L’azienda lascia anche che i dettagli personali dei suoi moderatori finiscano nelle mani sbagliate.
Zaicev era tra gli oltre 1.000 moderatori di Facebook le cui identità sono state rivelate per errore alle persone di cui stavano bloccando gli account. Nel caso di Zaicev, le sue informazioni sono state rivelate ai membri della Repubblica Popolare di Doneck (RPD) e della Repubblica Popolare di Lugansk (RPL), due gruppi separatisti filo russi che operano nell’Ucraina dell’est.
Facebook si è scusato con Zaicev e ha promesso di fare di più per proteggere i suoi impiegati—l’ultima delle tante promesse che il social network ha fatto dopo molteplici scandali.
Le politiche di Facebook
Per quanto Facebook insista che le condizioni dei lavoratori sono migliorate, le ultime norme sulla gestione del tempo e lo standard di qualità preteso hanno eroso ulteriormente il tempo che le persone possono usare per alleviare lo stress dopo aver interagito con contenuti traumatici.
Il nuovo strumento di gestione del tempo forza i moderatori a rendere conto di ogni minuto del proprio turno ed è stato implementato in tutte le aziende appaltatrici quest’anno. È così efficiente che se un dipendente si allontana dalla sua postazione, viene sloggato e deve poi spiegare il buco produttivo al proprio manager.
Il sistema rende poi anche più difficile per le persone sfruttare i programmi di sostegno psicologico a disposizione. In molti casi, anziché andare a un’incontro di terapia o di yoga, i moderatori passano il tempo a discutere con i revisori di qualche decisione presa o a controllare l’ultima versione della “bibbia.”
Un moderatore attualmente impiegato ha detto a VICE che chi copre un mercato impegnativo come quello delle regioni anglofone, “non è esattamente incoraggiato” ad approfittare dei servizi per la sua salute, e arrivare in fondo alla giornata senza essere mentalmente esausti è dura.
Il carico di lavoro varia molto da mercato a mercato. I moderatori di paesi come le Filippine e la Tailandia, per esempio, dicono che arrivano a revisionare fino a 1.000 contenuti al giorno, mentre un moderatore in Europa ne vede meno di 150 ma in categorie più difficili, come l’abuso di minori.
I manager non sono sempre in grado di capire quando i moderatori sono in difficoltà, che sia per il contenuto, lo stress, o entrambe le cose.
Un moderatore che ha lavorato a CPL per 14 mesi tra il 2017 e il 2018 ha raccontato a VICE di aver deciso di lasciare l’azienda quando un manager lo ha penalizzato mentre era in preda a un attacco di panico davanti al computer. Aveva appena scoperto che sua madre, che viveva in un altro paese, aveva avuto un ictus ed era scomparsa.
“Un giorno, mentre pensavo che avrei potuto perdere mia madre, il mio team leader, un 23enne senza esperienze lavorative precedenti, ha deciso di mettermi altra pressione addosso dicendomi che avrei potuto perdere il mio lavoro,” ha detto il moderatore, che ha preferito restare anonimo.
Trattati “come criminali”
Quando, alla fine, lo stress costringe i moderatori a lasciare l’azienda, molti hanno paura di parlare contro Facebook o CPL, per via degli accordi di riservatezza (o NDA) che firmano quando prendono servizio. Zaicev ha detto che quando se n’è andato, CPL lo ha costretto a firmare un secondo NDA.
“Mi sono rifiutato di farlo e ho subito intimidazioni,” ha detto. “Dopo molti rifiuti, mi hanno scortato fuori dall’edificio come un criminale prima del mio ultimo turno e prima di poter salutare i colleghi.”
L’azienda avverte anche i dipendenti di non parlare alla stampa. VICE ha visto una copia di una email inviata ai dipendenti di CPL a Dublino nel 2018, che li avvisa di un’inchiesta sotto copertura sull’azienda che sarebbe andata in onda poco dopo su Channel 4. La nota suggeriva delle risposte preconfezionate per rispondere a qualsiasi eventuale domanda gli fosse rivolta. “Puoi rispondere con una frase come: “La sicurezza delle persone che usano Facebook è una delle nostre priorità assolute,” si legge in una parte del documento.
Facebook invita anche i moderatori a rimovere qualsiasi riferimento a Facebook dai loro profili LinkedIn, in caso i giornalisti li contattino per parlare delle controversie, stando a Zaicev.
Facebook ha detto a VICE che questo invito è “per ragioni di sicurezza,” e ha citato la sparatoria ai quartieri generali di YouTube a San Bruno, in California, nell’aprile del 2018.
Nonostante tutto questo, Zaicev è ora uno di decine di moderatori ed ex moderatori che hanno contattato la Coleman Legal Partners a Dublino per intentare un’azione legale contro l’azienda, accusata di non aver fornito un ambiente di lavoro sicuro. A differenza di una recente class action negli Stati Uniti, in Irlanda ogni moderatore deve presentare un’istanza separata.
“Le persone più felici sono le persone lontane da Facebook. Più sei infelice nella vita, più passi tempo su Facebook,” ha detto a VICE un ex moderatore che sta preparando un’azione legale contro il colosso a sua volta. “E noi passavamo tutto il cavolo di giorno su Facebook. Forse abbiamo l’autorità per dire che non fa bene a nessuno.”