Un tribunal espagnol vient pour la première fois d’assimiler le stress généré par le visionnage et la modération de contenus extrêmes pour le compte de Facebook (groupe Meta) a une maladie professionnelle.
Sur Facebook ou sur Instagram, il y a tout ce que vous voyez, les dernières actualités, les photos de vacances de vos amis, et il y a tout ce que vous ne verrez jamais.
Car pour que vous ne soyez pas exposés à des scènes de tortures, d’automutilations, de décapitations, de suicides, de viols, d’assassinats et pour résumer d’ultraviolence, d’autres personnes, des modérateurs, qui ne sont pas des algorithmes, mais bien des êtres humains ont pour mission de les visionner, de les modérer voire de les supprimer.
Le plus souvent, ces modérateurs ne travaillent pas directement pour Facebook (ou pour sa maison mère le groupe Meta) mais pour des sous-traitants, voire de sous-traitants du groupe Internet américain.
L’un de ces modérateurs, un jeune brésilien aujourd’hui âgé de 26 ans, a travaillé pendant deux ans (de 2018 à 2020) pour CCC Barcelona Digital Services SL, un prestataire local missionné pour filtrer les contenus de Facebook ou Instagram.
Maladie professionnelle
Il souffre aujourd’hui de symptômes d’anxiété sévère, fait des crises de panique, a des sensations d’étouffement, et un rapport médical qui décrit « un état psychopathologique actuel très limitant, même pour les activités quotidiennes ».
Il a porté plainte. Un tribunal espagnol vient de reconnaître que les symptômes dont il souffre aujourd’hui étaient liés à un accident du travail, « le déclencheur unique et indubitable » entrainé par le visionnage huit heures par jour d’images plus atroces les unes que les autres ; des contenus qu’il devait décider, ou non, de supprimer en fonction des paramètres définis par les règles de Meta.
Pour le juge espagnol, dont la décision est susceptible d’appel, le modérateur de contenus a bien été victime d’une maladie professionnelle, comme le révèle dans une longue enquête le quotidien catalan La Vanguardia.
En 2022 CCC Barcelona Digital Services SL, la société qui employait le jeune plaignant avait déjà été condamné par l’inspection du travail à une amende administrative de 40.000 euros pour son manque d’évaluation et des risques psychosociaux pour ces salariés, relève le quotidien économique Les Echos.
Pour le co-fondateur de Facebook, Mark Zuckerberg, cette situation n’est, à tout le moins, pas une découverte.
S’il l’ignorait auparavant, ce dont il est permis de douter, il a été confronté à cette réalité traumatisante lors d’un échange en octobre 2019 avec la parlementaire démocrate de Californie, Katie Porter, à l’occasion d’une audition au Congrès des Etats-Unis.
En Irlande, siège européen de Meta, trente-cinq modérateurs se sont déjà tournés vers la justice pour défendre leurs droits.
En 2022, au Kenya, 43 modérateurs, payés environ 270 euros par mois pour nettoyer le web d’images de tentatives de suicide, de décapitations exercées par des groupes terroristes et autres actes de sévices sexuels ont intenté une action en justice contre Facebook et Sama, l’entreprise sous-traitante chargée de gérer la modération pour l’Afrique subsaharienne, rappelle France Culture.
Les activités de modérations de contenus des réseaux sociaux constituent l’une des faces les plus sombres des grands groupes Internet.
Elle est particulièrement bien documentée dans « Les nettoyeurs du Web » (« The Cleaners« ) un film diffusé il y a quelques mois sur Arte et qu’il est possible de visionner ici en intégralité.