Modération : les bonnes résolutions de Facebook pour 2018

En 2017, les 2 milliards d’utilisateurs de Facebook auront publié chaque jour environ 4,75 milliards de contenu.

Parmi ces contenus : appels à la violence, apologie du terrorisme, pornographie… autant de publications qui n’ont pas leur place en public, mais sur lesquels Facebook n’agit que via des algorithmes automatiques ou lorsqu’elle a reçu suffisamment de signalements utilisateurs.

Cette méthode n’est pas sans loupés : en mai dernier, Facebook a par exemple laissé en ligne pendant près d’une journée un live d’un père thaïlandais tuant sa fille de 11 mois .

Facebook promet de s’améliorer en 2018

Face à cette situation, une ONG américaine, ProPublica, a décidé en fin d’année 2017 de prendre à parti Facebook sur 49 contenus sur lesquels la modération de la plateforme n’a pas été à la hauteur : contenus légitimes supprimés par erreur par les algorithmes automatiques de la plateforme, ou contenus non conformes à la charte d’utilisation de la plateforme.

Le résultat ? Facebook a reconnu une erreur sur 22 des contenus, a maintenu sa décision sur 19 autres, et a indiqué sur les 6 derniers contenus n’avaient pas été modérés car ils n’avaient pas été signalés par suffisamment d’utilisateurs.

Justin Osofsky, VP Facebook, a ainsi déclaré : « Nous sommes désolés pour les erreurs que nous avons commises – elles ne reflètent pas la communauté que nous voulons contribuer à bâtir ». Il a également promis d’améliorer les moyens mis en place pour lutter contre les discours de haine, avec un doublement de l’équipe de modérateurs à 20 000 employés en 2018.

Des moyens supplémentaires insuffisants pour améliorer la qualité du contenu sur la plateforme ?

L’accroissement du nombre de modérateurs ne sera peut-être pas suffisant pour résoudre le problème de Facebook concernant sa modération, qui tient également à la difficulté d’établir une charte de modération.

Justin Osofsky a ainsi également déclaré que seuls 66 000 posts sont supprimés chaque semaine, la charte de modération autorisant de laisser en ligne du contenu pouvant être controversé ou de mauvais goût mais ne pouvant pas être qualifié d’incitation à la violence.

En effet, la plateforme a dû établir des règles très strictes pour cadrer la subjectivité des modérateurs, qui conduisent parfois à laisser passer des publications qui, bien que choquantes,  ne correspondant pas aux règles de suppression.

Par exemple, un post utilisant le sarcasme ou la moquerie pour critiquer un groupe de personnes restera en ligne tant qu’il ne contiendra pas un langage explicitement hostile contre ce groupe.

Le Guardian s’est procuré quelques guidelines de modérateurs Facebook illustrant ce problème de charte :

  • Il n’est pas autorisé d’écrire « quelqu’un doit tirer sur Trump », mais il est possible d’écrire « allons frapper des enfants gros »
  • Les photos de maltraitance animale sont autorisées, seules les photos les plus extrêmes pouvant être signalées par des modérateurs comme « perturbantes » avant le début de la vidéo

Il y a donc fort à parier que Facebook doive continuer à travailler en collaboration avec des ONG pour affiner sa charte de modération, afin de mieux cibler le contenu problématique sans pour autant tomber dans la censure.

Sources :

https://www.blogdumoderateur.com/chiffres-facebook/

https://www.propublica.org/article/facebook-enforcement-hate-speech-rules-mistakes

https://www.theguardian.com/news/2017/may/21/revealed-facebook-internal-rulebook-sex-terrorism-violence

Images : Slate, The Guardian

N'hésitez pas à partager cet article !
"Modération : les bonnes résolutions de Facebook pour 2018"

Femme contact

Contactez-nous