L’IA au service de la sécurité en ligne : voyons plus loin que les tendances

Avec l’explosion récente des IA telles que Chat GPT, Dall-e ou Midjourney, il était temps qu’on en parle ! Commençons par passer rapidement en revue les poncifs qui envahissent nos flux LinkedIn depuis plusieurs mois déjà. Oui, les modèles de prédiction de textes, générant des images ou même des voix sont impressionnants voir effrayants parfois. Certes, leur usage ne va pas sans de nombreux problèmes éthiques et évidemment, ils contribueront à transformer profondément notre rapport au travail. En revanche, ces outils ne sont pas nouveaux et ils peuvent être particulièrement bienvenus dans certains domaines, notamment l’un que l’on connaît bien : la modération de contenus !

👉 Rien qu’entre mai 2022 et 2023, sur 188 566 955 de contenus postés sur les réseaux sociaux et analysés par Netino by Webhelp, plus de 112 millions ont été traités sans intervention humaine. Parmi eux, l’algorithme a détecté 13% d’appel à la violence, d’insultes, d’arnaques ou de discriminations, ce qui représente tout de même 25 millions de contenus à toxicité haute ou très haute auxquels les internautes et les modérateurs n’ont pas été exposés.

L’aide de l’intelligence artificielle est forcément la bienvenue pour traiter un tel nombre de posts. Celle-ci est particulièrement efficace lors de variations soudaines du nombre de commentaires ou d’événements ciblés. Avec un algorithme capable d’analyser des milliers de contenus en quelques fractions de seconde, les questions de scalabilité ne se posent pas. L’attentat de Christchurch, diffusé en direct sur Facebook en 2019, nous en donne un bon exemple. Il a fallu 17 minutes pour que la vidéo d’un suprémaciste blanc assassinant de sang-froid 51 personnes dans deux mosquées soit supprimée de la plateforme. Ce direct n’a alors été visionnée « que » 4 000 fois, mais le jour d’après ce sont 1,5 millions de vidéos liées à l’attaque qui ont été publiées. Il faut admettre que pour accomplir cette tâche titanesque, qui consistait à détecter les extraits et captures d’écran repostées, les algorithmes se sont montrés bien utiles. Mais cela ne signifie pas pour autant qu’une modération non humaine soit seule suffisante ou même souhaitable.

| La modération ce n’est pas qu’automatique

Les algorithmes permettent de traiter les contenus les plus évidemment contraires aux règles des plateformes, mais dans les cas les plus complexes, ils sont loin d’être performants.

Les discours plus nuancés, ironiques ou dénonçant avec sarcasmes certains contenus choquants requièrent une analyse humaine, comme le soulignait d’ailleurs Arun Chandra, l’ancien vice-président scaled operations de Facebook en 2019 : « Certains propos, par exemple, peuvent être utilisés pour s’en prendre à d’autres utilisateurs, alors qu’ils peuvent également être prononcés pour plaisanter, pour mettre en lumière le sectarisme auquel un utilisateur peut être confronté, ou pour citer des éléments issus de la culture populaire. » L’intelligence artificielle devient un outil vers une modération plus fine et des espaces numériques plus sûrs.

| Bientôt tous remplacé.es ?

L’une des (nombreuses) raisons de craindre ces outils est la supposée destruction massive d’emplois qu’ils engendreraient : une peur compréhensible, mais qu’il s’agirait certainement de nuancer. C’est notamment ce qu’affirme Patricia Vendamin, récemment interrogée par Libération. Cette sociologue spécialiste des évolutions du travail remet ainsi en question des « prévisions alarmistes » qui « inquiètent inutilement » et se sont d’ailleurs par le passé souvent avérées fausses. Elle dénonce également leur caractère déterministe et rappelle avec justesse que c’est avant tout un cadre légal qui déterminera l’impact réel de ces nouveaux outils.

La modération hybride illustre ainsi la manière dont les intelligences artificielles accompagnent et complètent le travail de celles et ceux qui modèrent nos espaces numériques. Plutôt que de se résigner à les voir nous remplacer, L’IA peut être pensée comme un moyen de se débarrasser de tâches répétitives, d’améliorer les conditions de travail et de libérer du temps, luttant ainsi contre une bullshitisation des métiers et une perte de sens du travail qui se fait toujours plus prégnante.


Vous souhaitez en apprendre plus sur notre processus de modération et pourquoi nous misons sur un concept hybride ? Téléchargez notre nouveau livre blanc dés maintenant !

N'hésitez pas à partager cet article !
"L’IA au service de la sécurité en ligne : voyons plus loin que les tendances"

Hey contactez-nous

Contactez-nous

Ce formulaire ne concerne pas les demandes d'emploi ou candidatures spontanées.