Pourquoi l’IA nécessite une action humaine pour modérer ?

Les pages de votre marque requièrent une attention particulière. La sécurité et le respect dans ces zones de dialogue, d’échange, de relation client, sont bien entendu une priorité pour votre image. Une partie de ce vaste nettoyage des commentaires inappropriés est entre les mains des plateformes et de leurs IA veillant au respect de leur charte. Mais ces algorithmes sont loin d’être infaillibles et leur efficacité parfois toute relative est encore loin de supplanter la valeur ajoutée d’une modération humaine. 

Le Covid-19 comme témoin des limites de l’IA

La pandémie aura soulevé bien des problématiques depuis ses débuts, même dans des secteurs inattendus tels que la modération de contenu. L’engagement sur les réseaux sociaux a augmenté de 61% depuis mars 2020, et de fait, la nécessité d’une modération de qualité. 

Durant la crise sanitaire, nombreux sont les modérateurs au service de Facebook, Twitter ou Youtube qui ont été renvoyés chez eux. Le travail ne pouvant être effectué à distance pour des raisons de sécurité, la part des logiciels d’intelligence artificielle a été renforcée. Résultat ? Chez Youtube, onze millions de vidéos supprimées entre avril et juin, soit deux fois plus qu’en temps normal.

Après réexamen des décisions prises par la machine, plus d’une vidéo sur deux a été remise en ligne. Habituellement, ce chiffre est d’une vidéo sur quatre. Du côté de la plateforme de Mark Zuckerberg ou de l’oiseau bleu, un appel au boycott de la part de plusieurs marques dénonçait une modération en dents de scie à l’été 2020. 

L’IA en fait trop ou pas assez. Et à l’heure où les géants des médias sociaux partagent leur volonté de se reposer de plus en plus sur celles-ci, il apparaît clairement que l’humain demeure un rouage indispensable dans la machine. 

L’irremplaçable subtilité de la compréhension humaine

Insultes, discriminations, intimidation, désinformation, harcèlement : des sujets complexes aux manifestations d’une telle diversité qu’il paraît impossible qu’une machine puisse les saisir dans leur intégralité. Pour Réda Aboulkacem, CTO de Netino : « L’IA telle qu’elle est actuellement, même la plus poussée, ne permet pas d’avoir la subtilité d’un humain lorsqu’on modère. » Où s’arrête l’information et où commence le débat ? Où le débat se transforme-t-il en insulte ? Seul un humain saura lire entre les lignes.

Bien que les IA se reposent sur les informations prodiguées par des opérateurs en chair et en os via le DL (deep learning, la technologie permettant l’apprentissage d’un algorithme par la répétition d’une tâche), les codes du langage sur internet évoluent bien plus vite que leur capacité à les assimiler. “Une IA ne va pas détecter toutes les fautes d’orthographe possibles dans une insulte” mentionne Réda Aboulkacem à titre d’exemple. De même, “un humain peut voir qu’une expression est détournée de son sens d’origine avec le but d’avoir un effet négatif. Il sera plus rapide pour alerter d’une nouvelle tendance de trolling que pour éduquer une IA à la reconnaître.” 

Sans oublier que la mise en contexte des termes analysés, l’ironie ou le second degré, sont encore des challenges pour ces technologies. “L‘IA ne pourra probablement jamais détecter un cas spécifique comme la nuance entre un débat houleux entre internautes qui peut mériter une intervention, et une opinion agressive vis-à-vis d’une personnalité publique qui relève du droit à l’expression.” 

Peut-on imaginer un monde où l’IA serait l’unique modérateur du web ? Peut-être. Mais est-ce souhaitable ? Voulons-nous laisser nos espaces de libre expression à des algorithmes ? Chez Netino, technologie et humain travaillent de concert. Si l’IA repère le contenu potentiellement problématique, seul un humain aura la sensibilité et la culture pour donner le coup de marteau final.

La modération, une affaire d’optimisation de la relation client

Laisser la parole à sa communauté est essentiel, cela en maîtrisant les dérives de certains internautes qui pourraient porter atteinte à votre image. Un véritable travail des espaces de dialogue avec votre marque est l’une des clés de la relation de confiance avec le client. “Nous pensons à la qualité avant tout, et cela passe par avoir une charte de modération réfléchie qui laisse la conversation ouverte”, explique Réda Aboulkacem. Mais accepter ou supprimer un commentaire est une chose. Apporter de la valeur ajoutée à la modération est une toute autre paire de manches où le meilleur des bots trouvera ses limites. 


Un modérateur humain porte non seulement la casquette de gendarme dans les échanges entre vos abonnés, il porte aussi celle d’agent de liaison entre le consommateur et vous. Il saura repérer les remarques pertinentes à propos des produits proposés par l’entreprise afin de les remonter. Ceci vous permettant de prendre les dispositions nécessaires dans les meilleurs délais et d’anticiper les bad buzz contrairement à ces entreprises qui ont essuyé une crise à cause d’un manque de modération.

Partagez l'article
"Pourquoi l’IA nécessite une action humaine pour modérer ?"