Tech

Les conditions de travail infernales des modérateurs de Facebook

wc

Lorsque Valera Zaicev, 33 ans, a commencé à travailler comme modérateur pour Facebook il y a quelques années à Dublin, il savait qu’il allait être exposé à certains des contenus les plus crus et les plus violents d’Internet. Ce qu’il ne savait pas, c’est que l’entreprise allait surveiller chacune de ses pauses pipi. « Les employés doivent pointer quand ils vont aux toilettes et expliquer pourquoi ils ont mis autant de temps. C’est terriblement humiliant », dit-il.

Facebook sous-traite la modération de son contenu à plus de 15 000 employés à travers le monde et les tient en laisse. Lorsque Zaceiv a rejoint la société en juillet 2016, il s’est senti très bien accueilli. Mais il a vite déchanté. Le nombre d’employés dans les bureaux de Dublin a explosé, passant de 120 personnes à plus de 800 en deux ans, et les conditions de travail se sont détériorées.

Videos by VICE

En 2018, l’armée de modérateurs a continué de croître pour atteindre les dizaines de milliers à travers le monde, et Facebook en a profité pour tester un « système de gestion du temps » conçu pour surveiller chaque minute de leur journée – y compris les pauses déjeuner, les « pauses bien-être » dédiées à l’aide psychologique ou au yoga, et même les pauses pipi, selon Zaicev et un autre employé qui n’a pas souhaité être identifié.

Au cours des dernières années, Facebook a fait face à une vague de critiques concernant la façon dont il traite le contenu sensible sur sa plateforme. L’entreprise a dépensé au moins un demi-milliard de dollars pour engager des modérateurs, en plus de l’algorithme qui contrôle déjà ses pages.

En raison de la surveillance réglementaire croissante exercée par les gouvernements du monde entier, le travail de ces modérateurs est essentiel. Ils constituent la première ligne de défense de l’entreprise, mais ils affirment que l’entreprise les paie mal et ne leur fournit pas un soutien adéquat. Il en a résulté une série de problèmes de santé mentale et, le mois dernier, des premiers recours collectifs en Irlande et aux États-Unis pour incapacité à fournir un environnement de travail sain et sécuritaire.

Les modérateurs de Facebook disent que chacun de leurs mouvements est surveillé. Lorsqu’ils prennent des décisions sur le contenu, par exemple, ils doivent suivre les directives d’un document en constante évolution qu’ils appellent la « bible ». Et chaque modérateur reçoit un « indice de qualité ». « Vous avez droit à quatre ou cinq erreurs par mois, soit un taux d’échec de 2 % et un indice de qualité de 98 %, dit Chris Gray, un ancien modérateur de Facebook qui a travaillé pour l’entreprise pendant onze mois. Donc si vous arrivez un mardi ou un mercredi, et que vous faites cinq erreurs, vous êtes mal pour le reste du mois, et tout ce à quoi vous arrivez à penser, c’est comment récupérer vos points. »

Depuis sa mauvaise expérience chez Facebook, Gray souffre du syndrome de stress post-traumatique (SSPT). Le mois dernier, il a intenté un procès devant les tribunaux irlandais contre le réseau social et CPL, une des sociétés avec lesquelles Facebook travaille et qui emploie des milliers de réviseurs de contenu aux États-Unis, en Europe et en Asie. Facebook est accusé de causer un « traumatisme psychologique » à ses employés en raison des mauvaises conditions de travail et du poste en lui-même, qui consiste à visionner des documents difficiles.

Des dizaines, voire des centaines, de modérateurs devraient intenter des poursuites similaires. Selon une source proche du cabinet d’avocats Gray, Coleman & Partners, de nouveaux documents seront soumis à la Cour Suprême de Dublin ce mois-ci.

CPL n’a pas souhaité répondre à nos questions concernant les déclarations faites par les modérateurs actuels ou anciens, et Facebook a refusé de commenter le fait que ses modérateurs consignent chaque minute de leur journée. « Le bien-être des personnes chargées d’examiner le contenu de Facebook est et restera notre priorité absolue », nous dit Drew Pusateri, un porte-parole de Facebook.

Mais selon les modérateurs, ce n’est tout simplement pas le cas. Même si Facebook a mis en place des consultations avec un psychologue, de nombreux modérateurs estiment qu’ils ne peuvent pas en tirer profit en raison de la surveillance constante, des changements de politiques et de la pression exercée pour atteindre les objectifs de qualité. « Il y a des milliers de modérateurs à travers l’Union européenne, et ils travaillent tous dans des conditions dangereuses pour leur santé mentale. Des conditions qui sont, d’après nous, illégales, dit Cori Crider, directrice de Foxglove, un groupe britannique qui aide dans les poursuites judiciaires. Les lois européennes sur la protection des travailleurs sont fortes, et nous pensons que Facebook et les autres sociétés de réseautage social doivent prendre des mesures pour créer un environnement de travail sûr pour les modérateurs. »

Une « bible » des contenus inappropriés

Les modérateurs de Facebook examinent et suppriment les contenus signalés par l’algorithme de la société et par les milliards d’utilisateurs de la plateforme dans le monde entier. La plupart des contenus signalés sont relativement banals, mais d’autres sont profondément dérangeants, comme ceux qui touchent aux abus sexuels, à la bestialité et à la violence brutale.

Chaque jour, lorsqu’ils arrivent au travail, les modérateurs reçoivent ce que l’on appelle un plan de match, un calendrier qui établit la quantité et la catégorie de contenu qu’ils doivent traiter, y compris les discours haineux, le harcèlement et même les menaces d’automutilation.

CPL donne aussi aux modérateurs un temps de traitement moyen, c’est-à-dire la quantité de temps qu’ils sont autorisés à passer sur chaque contenu. Si ce temps varie selon le type de contenu examiné, il est, selon Gray, généralement inférieur à une minute.

Alors que certains contenus constituent des violations évidentes et demandent peu de réflexion, d’autres sont plus subtils et nécessitent de consulter la charte de Facebook, que certains modérateurs appellent « la bible ». Le document de 10 000 mots comprend 24 catégories différentes, réparties en trois groupes : comportements nuisibles, contenus sensibles et violations de la loi, selon un exemplaire que nous avons consulté en mars 2018.

Selon les règles, les modérateurs peuvent choisir d’ignorer le contenu ou de le supprimer. S’ils choisissent de le supprimer, ils doivent décrire le contenu en détail et l’inscrire dans diverses catégories et sous-catégories. L’information est ensuite transmise à l’algorithme de Facebook. Cela signifie que les modérateurs forment eux-mêmes le logiciel qui pourrait un jour les remplacer.

Bien que la « bible » soit un guide utile, elle est mise à jour toutes les deux semaines par de vagues généralisations pour couvrir le large éventail de contenu affiché sur Facebook. « Il faut des règles génériques qui peuvent facilement être appliquées à tout le monde et à toutes sortes de situations, dit Gray. Mais bien souvent, les modérateurs ne savent tout simplement pas quelles mesures prendre. Il y a eu des jours où nous étions dix à regarder un écran et à nous disputer sur la façon d’appliquer la politique à une vidéo ».

Et dans la plupart des cas, les modérateurs n’ont pas la possibilité de faire remonter le problème jusqu’à un employé de Facebook plus expérimenté. Quoi qu’il en soit, ils doivent prendre une décision, et si celle-ci est mauvaise, l’impact se répercute sur leur indice de qualité.

Des indices de qualité hors d’atteinte

Mais les auditeurs ne sont que d’autres modérateurs qui affichent un indice de qualité supérieur à la moyenne.

Les modérateurs peuvent faire appel des décisions des auditeurs auprès des auditeurs eux-mêmes dans les 48 heures. Tous les modérateurs que nous avons contactés ont dit être obligés de faire appel des décisions des auditeurs pour maintenir leur indice de qualité de 98 %.

Les auditeurs notent les modérateurs qui ont pris de mauvaises décisions et ont laissé du contenu sur Facebook qui devrait être supprimé, et vice versa. Mais le processus permet également aux auditeurs de pénaliser les modérateurs qui n’ont pas fait ce qu’il fallait pour les mauvaises raisons.

Seulement, les auditeurs sont loin d’être infaillibles et sont souvent incapables d’expliquer pourquoi ils ont choisi le résultat qu’ils ont choisi. Pour déterminer si un post qui conseillait à un utilisateur de « se suicider » devait rester en ligne ou non, un auditeur n’a pas su donner de réponse définitive, selon les captures d’écran d’une discussion avec un modérateur que nous avons pu voir. « Les auditeurs ne savent rien de votre marché, puisqu’ils viennent de différents pays et parlent différentes langues », déplore Zaicev.

Non seulement la société Facebook n’emploie pas du personnel qualifié pour son processus de modération, mais elle échoue également à protéger les données personnelles de ses modérateurs. Zaicev faisait partie des quelque 1 000 modérateurs de Facebook dont l’identité a été accidentellement révélée à des personnes dont le compte avait été bloqué. Il a ainsi vu ses informations personnelles tomber entre les mains des membres de la République populaire de Donetsk (RPD) et de la République populaire de Lougansk (LPR), deux groupes séparatistes pro-russes opérant dans l’est de l’Ukraine. Facebook s’est excusé auprès de Zaicev et a promis de mieux protéger ses employés – une énième promesse en l’air à la suite de multiples scandales.

Des politiques abusives

La société Facebook affirme qu’elle va améliorer les conditions de travail, mais sa nouvelle politique de gestion du temps et ses exigences actuelles en matière d’objectifs de qualité ont encore réduit le temps que les employés peuvent utiliser pour se détendre après avoir interagi avec du contenu traumatisant.

Le nouvel outil de gestion du temps, qui exige des modérateurs qu’ils consignent chaque minute de leur service, ne fait qu’ajouter à l’environnement déjà stressant. L’outil, qui a été imposé à tous les employés cette année, est si efficace que si un modérateur s’absente de son poste de travail, il est automatiquement déconnecté de ce dernier. Le modérateur doit ensuite expliquer cet écart de production à ses managers.

Le système de gestion du temps rend également difficile pour les modérateurs de profiter des programmes de bien-être qui leur sont proposés et qui pourraient compenser le traumatisme qu’ils vivent quotidiennement. Bien souvent, au lieu d’aller à une consultation psychologique ou à un cours de yoga, les modérateurs finissent par passer leur temps à défendre leurs décisions auprès des auditeurs ou à bachoter la dernière version de la « bible ».

Un modérateur travaillant actuellement pour Facebook explique que les modérateurs qui couvrent des marchés très occupés, comme la région anglophone, ne sont « pas vraiment encouragés » à participer aux activités de bien-être, si bien qu’ils se sentent mentalement épuisés à la fin de la journée.

De plus, la charge de travail varie beaucoup d’un marché à l’autre. Un modérateur dans un pays comme les Philippines ou la Thaïlande, par exemple, doit examiner jusqu’à mille éléments de contenu par jour, tandis qu’un modérateur en Europe va en voir moins de 150 mais dans une catégorie plus difficile, comme l’exploitation des enfants.

Les managers ne remarquent pas toujours quand les modérateurs ont des problèmes, que ce soit à cause du contenu qu’ils voient, du stress qu’ils subissent, ou les deux. Un modérateur qui a travaillé pour CPL pendant quatorze mois en 2017 et 2018 a décidé de quitter l’entreprise après qu’un manager l’a sanctionné parce qu’il avait fait une crise de panique devant son ordinateur. Il venait d’apprendre que sa mère âgée, qui vivait à l’étranger, avait fait un AVC et était portée disparue. « Ça a été le jour le plus stressant de ma vie. J’ai vraiment cru que j’allais perdre ma mère. Et mon chef d’équipe, un jeune homme de 23 ans sans expérience préalable, a décidé de me mettre encore plus sous pression en menaçant de me faire perdre mon emploi », dit le modérateur qui a souhaité rester anonyme.

Des employés traités « comme des criminels »

Lorsque le stress oblige finalement les modérateurs à quitter l’entreprise, beaucoup ont peur de s’exprimer contre Facebook ou CPL en raison des accords de non-divulgation (NDA) qu’ils signent lorsqu’ils commencent à y travailler. Zaicev dit que lorsqu’il a démissionné, CPL l’a forcé à signer un deuxième NDA. « J’ai refusé de signer et on m’a quand même mis la pression, dit-il. Après plusieurs refus, j’ai été escorté hors du bâtiment comme un criminel et je n’ai pas pu dire au revoir à mes collègues. »

L’entreprise défend également à ses employés de parler à la presse. Dans un mail envoyé aux modérateurs de Dublin en 2018 et que nous avons pu consulter, CPL mettait en garde contre un reportage d’infiltration réalisé par Channel 4. Le message suggérait aux employés des réponses préparées. « Vous pouvez répondre par quelque chose comme “La sécurité des utilisateurs Facebook est notre plus grande priorité” », peut-on lire dans le document.

Facebook conseille également aux modérateurs de supprimer toute référence à la société de leur profil LinkedIn, au cas où des journalistes les contacteraient au sujet des controverses, selon Zaicev. La société s’est défendue en disant qu’elle conseillait cela « pour des raisons de sécurité », citant la fusillade au siège de YouTube à San Bruno, en Californie, en avril 2018.

Malgré les pressions exercées par Facebook pour qu’il garde le secret, Zaicev fait maintenant partie des dizaines de modérateurs actuels et anciens qui ont contacté Coleman Legal Partners à Dublin pour intenter une action en justice contre la société pour son incapacité à fournir un environnement de travail sûr. En Irlande, contrairement à un récent recours collectif aux États-Unis, chaque modérateur doit déposer un dossier individuel. « Les gens les plus heureux sont ceux qui se tiennent loin de Facebook. Plus vous êtes malheureux dans la vie, plus vous allez passer du temps sur les réseaux sociaux, dit un ancien modérateur qui prépare une action en justice contre la plateforme. Nous qui avons passé nos journées sur Facebook, nous savons que ce n’est pas bon pour vous. »

VICE France est aussi sur Twitter, Instagram, Facebook et sur Flipboard.