Les grandes oreilles de Facebook
Sur Facebook, les contenus illicites sont interceptés aussitôt après publication. C’est un travail colossal, effectué principalement par un algorithme… mais aussi des employés formés à juger les contenus.
A première vue, il s’agit d’un immeuble comme il en pousse dans toutes les grandes villes. Moderne, anonyme, en forme d’ogive, à 500 mètres de la Sagrada Familia au cœur de Barcelone. Ceux qui travaillent ici, au CCC, le Competence Call Canter, sont pourtant soumis aux mêmes règles que les employés du Pentagone, et personne ne pénètre dans les vastes open spaces gardés comme Fort Knox. Nous sommes dans l’un des centres de modération du géant américain Facebook. Depuis Barcelone, des milliers d’employés surveillent tout ce qui circule sur le réseau social pour toute la zone Europe. Ce sont des modérateurs. Entre eux, ils se surnomment les « nettoyeurs » du web. A peu près rien ne leur échappe.
Une analyse humaine
sera toujours plus pertinente
que l’IA pour nuancer.
Facebook n’aime pas beaucoup communiquer sur ses méthodes et outils de modération. On estime qu’ils seraient plus de 30 000 répartis un peu partout dans le monde, chargés d’examiner plusieurs millions de contenus chaque jour. Des femmes et des hommes qui veillent au grain… mais également des machines. En effet, Facebook a mis au point un algorithme jalousement gardé qui ne laisse à peu près rien passer. Une image ou une photo qui n’obéirait pas aux standards de la communauté Facebook sera automatiquement censurée. Le hic étant de savoir ce qui est toléré ou non. Les exemples sont nombreux qui illustrent le fait que des appels à la haine sont passés entre les mailles sans faire frémir l’algorithme… quand la photo d’une poitrine à peine dévêtue a immédiatement été retirée par ce même algorithme qui « ratisse » toutes les images. On cite souvent l’exemple de cette campagne publicitaire de prévention du cancer du sein censurée au prétexte qu’elle montrait un téton, lequel a aussitôt été retiré de Facebook, la machine assimilant cette image à une illustration pornographique. D’où la nécessité d’une analyse humaine qui sera toujours plus pertinente que l’intelligence artificielle quand il s’agit de nuancer.
La tâche est colossale et Facebook peine à tout surveiller. En trois mois, début 2020, on estime que le réseau social a supprimé 22,5 millions de contenus haineux, dont 94,5% repérés par l’algorithme. L’être humain a cette capacité déconcertante à utiliser les réseaux sociaux pour véhiculer la haine, la violence, l’appel au meurtre, les vidéos les plus abominables… et à inventer sans cesse de nouveaux moyens pour contourner les règles. D’où la charte de modération établie par Facebook, un guide confié aux « nettoyeurs » qui n’ont pas l’autorisation de le divulguer. On sait que ce document confidentiel fait 300 pages et qu’il donne des clés à ceux qui décident de l’avenir d’un contenu : accepté ou refusé. Sans autre alternative, mais bien souvent avec des éléments de contextualisation nécessaires. Ce qui est acceptable dans un pays peut ne pas l’être ailleurs, quand il s’agit de discussion politique par exemple, ou de soutien à une cause. L’humain devra trancher entre ce qui peut être publié ou non. Avec un écueil : Facebook reconnaît l’extrême difficulté à s’entendre sur des règles applicables partout dans le monde, dans une démocratie comme dans un pays totalitaire, un pays laïc ou religieux, en guerre ou en paix. C’est le défi que doit relever chaque minute ce réseau social… mondial.