Pour ne pas se mettre les annonceurs à dos et tenter d’endiguer les dérives, YouTube va porter à 10 000, sur l’année 2018, le nombre de modérateurs chargés de contrôler les contenus publiés sur la plate-forme de vidéos en ligne.
En 2017, les internautes auront regardé plus de 4 millions de vidéos par minute sur YouTube (contre 2,78 millions en 2016). Voilà qui donne l’ampleur de la lourde tâche qui revient aux équipes de modération de contenus de la plate-forme de vidéos en ligne (propriété de Google depuis 2006).
Régulièrement critiqué pour son manque d’efficacité en la matière (qu’il s’agisse de contenus pour enfants ou de diffusion d’images violentes ou à caractère terroristes), YouTube entend désormais tout faire pour ne pas se mettre à dos des annonceurs publicitaires de plus en plus sourcilleux sur les conditions de diffusion de leurs campagnes.
Dans un billet posté le 4 décembre la directrice générale de YouTube, Susan Wojcicki, a ainsi tenu à préciser « qu’en 2018, l’objectif était de faire monter à 10 000 le nombre de personnes chargées chez Google de lutter contre les contenus susceptibles de violer les conditions générales d’utilisation des services Google ».
Si le recours aux algorithmes reste d’actualité, Susan Wojcicki ajoute: “il est essentiel pour nous d’avoir recours à des modérateurs humains pour retirer les contenus inappropriés et entraîner nos systèmes d’apprentissage automatique”. Et de fait, installés dans plusieurs pays, issus de différentes nationalités, les membres de cette équipe sont salariés par Google – et non pas sous-traitants.
[wpedon id= »26112″]
Vous avez aimé cet article? NewZilla.NET a besoin de VOUS. Cela mérite une explication. On vous explique tout ICI. Merci pour votre soutien et pour votre fidélité à NewZilla.NET.