La modération automatique des contenus en ligne

La modération de contenu est désormais une étape obligatoire pour toutes marques ou entreprises qui souhaitent mener à bien une stratégie de communication efficace. Afin de contrôler son image de marque sur le web, marques et entreprises n’ont aujourd’hui plus le choix : elles se doivent de sécuriser leurs espaces sociaux.  Alors que le nombre d’interactions sur le web ne cesse d’augmenter, l’engagement sur les réseaux sociaux a bondi de 61% depuis mars 2020 et de ce fait, marques et entreprises se doivent de mettre en place une politique de modération efficace afin de préserver leur e-réputation.    

Qu’est-ce que la modération de contenu ?  

La modération de contenu consiste à gérer les contributions sur un site participatif (type blog ou forum), un réseau ou un média social. Les internautes utilisent de plus en plus les médias et réseaux sociaux afin d’exprimer un avis ou partager une expérience positive comme désagréable. 

Dans un contexte où marques et entreprises cherchent à affirmer un maximum de présence en ligne, le nombre d’interactions peut être très volumineux. Sur Internet, tout va très vite, et il suffit d’un commentaire calomnieux pour entacher votre e-réputation.     

Pourquoi est-il si important de modérer les contenus ?  

Grâce aux UGC (User Generated Content) laissés par les internautes, un site web, un forum ou encore un réseau social se transforme aujourd’hui comme de réels canaux de communication qui permettent aux marques et entreprises de dialoguer, échanger et de comprendre leurs avis sur les produits ou services d’une marque par exemple.  

Ces UGC peuvent être aussi bien des contenus textuels que des photographies, vidéos, liens ou encore du contenus audio et il est important de disposer d’un service de modération efficace car en raison du nombre croissant d’interactions sur le web, les volumétries de données à analyser peuvent être gigantesques. Malheureusement, il arrive parfois que certaines contributions sur les espaces d’échanges ne soient purement malintentionnées, en résulte le comportement de certains internautes qui cherchent à nuire à la réputation d’une marque ou entreprise.  

C’est là qu’intervient le modérateur qui est tenu de contrôler et de filtrer les contenus publiés, analyser et supprimer les UGC qui ne respectent pas les règles préétablies dans votre charte. Nous ne pouvons pas contrôler directement le comportement des internautes déviants (trolls, insultes, fakes news, faux profils, contenus illicites…) mais nous avons la possibilité grâce à notre outil interne dont nous sommes propriétaires, Modératus, de répondre et de modérer des millions de messages par mois et d’avoir un maximum de réactivité grâce aux alertings en temps réel en cas de contenu détecté comme sensible.  

Dans le même temps, la modération de contenu permet à une marque ou entreprise de collecter et d’analyser l’ensemble des avis positifs et négatifs publiés par les clients ou prospects, ce qui constitue une véritable mine d’or d’informations. En analysant le sentiment des consommateurs, marques et entreprises détiennent des insights notables qui leurs permettront d’ajuster les futures actions à mettre en place.  

Pourquoi notre IA est-elle si performante ?  
 

Depuis 2002, nous intervenons sur les espaces communautaires des plus grands acteurs des médias, de la presse écrite et de l’audiovisuel. Au premier janvier 2022, ce sont plus de 98 médias français, belges, espagnols et suisses qui nous font confiance afin de modérer et sécuriser leurs espaces de dialogues sur le web.  

La modération de contenu peut se faire à deux niveaux distincts. Soit grâce à un agent « le modérateur » soit de manière automatisée. En fonction des volumétries de data à traiter, il est clair que l’hybridation (Humain & Intelligence Artificielle) de la modération de contenus peut être avantageuse. Cette automatisation est rendue possible grâce à l’IA, conçue pour identifier les contenus haineux, les insultes et supprimer de manière immédiate l’ensemble des contenus problématiques 

A titre illustratif, chez Netino by Webhelp, ce ne sont pas moins de 130 millions de verbatims qui ont été traités en 2021 sur le pôle « Médias » uniquement. Dans cette masse, 49 millions de ces verbatims ont été acceptés ou refusés grâce à notre IA. En observant de plus près, ce sont finalement plus de 11 millions de commentaires toxiques qui ont été rejetés par notre IA et ce sont plus de 17 millions de commentaires toxiques qui ont été rejetés par un modérateur humain.  

Notre solution de modération repose sur un maillage d’algorithme basé à la fois sur Maillage d’algorithmes basé à la fois sur du pur Machine Learning, du Natural Language Processing et sur des corpus de termes / fragments de phrase détectés par notre système et affinés / enrichis par nos modérateurs. Toutefois, une intelligence artificielle pourra difficilement comprendre la subtilité du langage humain, certaines phrases ou groupes de mots ne veulent plus dire la même chose lorsqu’on les traite sans contexte, nous tenons à souligner que nous pratiquons un picking qualité quotidien. En effet, nos modérateurs humains s’assurent de la cohérence des verdicts émis et met à jour sans cesse l’IA afin de la maintenir pertinente face aux nouvelles expressions et sujets émergents.  

Résultat : 93 % des contenus toxiques sont détectés et rejetés par notre IA avant même l’intervention de l’humain dans la chaine de valeur.   

Partagez l'article
"La modération automatique des contenus en ligne"