« La Cour suprême de Facebook »
Pourquoi Facebook a-t-il créé ce conseil de surveillance ?
Nous sommes une entité d’autorégulation indépendante et je ne peux donc pas évoquer les motivations de Facebook, mais l’entreprise a déclaré publiquement être favorable à une réglementation accrue. Les membres de ce conseil de surveillance sont attachés à la liberté d’expression et souhaitent davantage de transparence afin que les communautés et les utilisateurs comprennent comment et pourquoi des contenus en ligne sont modérés sur Facebook et Instagram. Nous prenons nos décisions sur la base des normes internationales des droits de l’homme, en tenant compte de l’impact sur les utilisateurs et sur la société, et nous le faisons sans tenir compte des intérêts économiques, politiques ou de réputation de l’entreprise.
Avez-vous des débats entre vous ? En fonction de vos propres impressions ?
Nous venons de milieux, de pays et de cultures qui ne sont pas les mêmes et nous avons des opinions et des croyances différentes, cette diversité est l’une des forces du conseil. Nous remettons régulièrement en question les points de vue des uns et des autres.
C’est notre diversité
qui est l’une des forces
du conseil.
Cela est nécessaire lorsque nous abordons les processus de modération de contenu qui ont un impact sur les milliards d’utilisateurs de Facebook dans le monde. Tous nos débats importants sont consignés et publiés sur notre site web. Et bien que les membres ne soient pas toujours d’accord entre eux, j’ai constaté que chacun d’entre nous prenait des décisions dans le respect de la liberté d’expression et des droits de l’homme.
Comment se protéger des fake news sur les réseaux sociaux ?
Les discours de haine et la désinformation font partie des questions cruciales. Depuis le début de la pandémie de Covid-19 par exemple, notre conseil a recommandé à Facebook de bien définir ce qu’était une « désinformation », et c’est ce qui a été fait. Il s’agissait selon nous d’assurer la sécurité sanitaire des utilisateurs tout en préservant la liberté d’expression. Il est essentiel que Facebook fasse la distinction entre des informations nuisibles, qui doivent être supprimées, et des informations qui constituent un discours public légitime. Facebook ne peut pas lutter de manière adéquate contre la désinformation si ses politiques de modération ne sont pas claires et si elles ne sont pas communiquées correctement aux utilisateurs.
Les algorithmes doivent-ils être seuls à faire ce travail de modération ?
Les outils automatisés constituent une part importante de la modération des contenus mondiaux, mais notre conseil a identifié quelques cas où cela posait un véritable problème. Par exemple, un utilisateur brésilien avait publié des photos montrant des seins de femme. Aussitôt, l’algorithme de Facebook avait supprimé son post qui contrevenait à sa politique en matière « de nudité » au motif que l’on voyait ces poitrines. Or il s’agissait d’une campagne de prévention contre le cancer du sein ! Mais l’algorithme n’avait vu que les photos et pour lui, c’était interdit, c’était un contenu pour adultes. Cela a été corrigé… et nous avons recommandé à Facebook de veiller à ce que les utilisateurs puissent faire appel des décisions automatisées auprès d’un être humain.