Digital Services Act (DSA): lutter contre la désinformation en ligne

Entre l’Information et les réseaux sociaux, c’est une histoire compliquée. Polarisation de l’opinion, bulles de filtres, mise en avant des contenus extrêmes, influence politique… Les algorithmes des diverses plateformes en ligne, afin de retenir votre attention, ont drastiquement modifié la structure de l’espace publique et pas toujours pour le mieux. L’un des grands fléaux numériques de notre temps est sans nul doute la désinformation. Elle n’existe pas qu’en ligne et est loin d’être récente : Sun Tzu préconisait déjà le partage de fausses informations sur les armées ennemies comme moyen de lutte au IVème siècle. Mais depuis la pandémie et grâce aux réseaux sociaux, la désinformation prend une tout autre ampleur. En 2022 sur TikTok, une vidéo sur cinq contenait des fausses informations. Si l’on ne dispose pas d’études sur les autres plateformes, l’on peut néanmoins s’attendre à y trouver des chiffres similaires. Le Digital Services Act (DSA) est-ce la solution ?

| Pourquoi modère-t-on ?

Certaines fake news restent parfaitement anodines : une cuillère n’empêchera certes pas au champagne de perdre ses bulles, mais essayer ne vous causera aucun mal. En revanche, prétendre que les vaccins sont nocifs, qu’il existe un état secret ou que le réchauffement climatique est une illusion, nuit à la démocratie, risque de favoriser les scènes de violences (prise d’assaut du capitole), d’influencer des décisions politiques majeures, ou même d’influer sur l’avenir de l’humanité. Il revient alors aux plateformes numériques de modérer (sans censurer) les milliards de posts, vidéos ou commentaires publiés chaque jour. Une tâche difficile qui revient un peu à chercher une aiguille dans une meule de foin. En effet, avec la mise en place du DSA, l’on a pu découvrir le ratio entre modérateur humain et usagers des grandes plateformes. Chez Tiktok, celui-ci tourne autour des 1 pour 22 000. Chez X (ex-Twitter), on ne trouve qu’un modérateur pour 120 000 usagers. Un manque en partie compensé par un recours à l’intelligence artificielle. Si vous souhaitez en apprendre plus sur la manière dont les plateformes – et les sous-traitants comme Netino 😉 – modèrent les contenus en ligne, nous vous invitons à consulter cet article .

| Du côté de la loi

A l’échelle européenne, le tout jeune texte de loi visant à encadrer la lutte contre la haine en ligne et la désinformation est le Digital Services Act (DSA). Un mot d’ordre : ce qui est illégal hors ligne doit également être illégal en ligne. Entré en vigueur le 25 août 2023 pour les plateformes dépassant les 45 millions d’utilisateurs mensuels (voir les 17 grandes entreprises concernées à ce jour), soit 10% de la population européenne. A compter du 17 février il s’appliquera à toute plateforme ou intermédiaire. Cette « pierre angulaire des réglementations européennes sur le numérique » comme le résume l’avocat Marc Mossé à France Info, prévoit de nouvelles mesures visant à protéger les citoyens sur internet. Les voici :

Plus de transparence

Le Digital Services Act (DSA) exige une transparence accrue quant au fonctionnement des algorithmes utilisés pour proposer des publicités ciblées. Les utilisateurs se verront informés du mode de fonctionnement de ces algorithmes publicitaires, tandis que l’utilisation de données sensibles (origine, opinions politiques, orientation sexuelle…) à des visées publicitaires sera formellement proscrite, sauf en cas de consentement explicite. Les plateformes commerciales (Amazon, Ebay…) auront désormais l’obligation de mieux informer les consommateurs en se renseignant davantage sur leurs vendeurs. Les pratiques frauduleuses et les stratégies visant à induire les utilisateurs en erreur seront-elles aussi prohibées.

Un signalement facilité

Le DSA prévoit également des mesures pour permettre un signalement facilité de tout contenu jugé « illicite ». Les plateformes seront tenues de traiter ces contenus promptement, explications à l’appui. Elles seront contraintes de répondre aux réclamations des utilisateurs dont les comptes ont été suspendus ou résiliés, garantissant ainsi une certaine transparence et responsabilité dans leurs actions. Est également prévue la création de « signaleurs de confiance », désignés par les autorités nationales de régulation, comme l’Arcom en France. Ces signalements auront la priorité dans le traitement des contenus problématiques sur les plateformes. Un titre qui pourrait être attribué à des entités telles que le site gouvernemental Pharos ou diverses associations, renforçant ainsi la collaboration entre acteurs publics et privés dans la modération en ligne.

L’uniformisation des textes de loi

Enfin, le DSA favorise une coopération transfrontalière en établissant un « comité européen des services numériques » qui réunira les régulateurs de chaque pays. Ce comité émettra des recommandations visant à assurer une application uniforme et efficace du DSA. En réunissant les 27, l’Union Européenne renforce drastiquement le caractère contraignant du texte de loi. Les sanctions prévues ne laissent d’ailleurs d’autres choix aux plateformes que de se mettre en règle. En cas de violation du DSA, les entreprises pourront encourir une amende allant jusqu’à 6% de leur chiffre d’affaires, voire comme c’est le cas pour X sous enquête depuis décembre, un bannissement total de l’Union Européenne.

| Dépasser la modération

Le DSA est un premier texte ambitieux et contraignant pour lutter contre la désinformation et l’on ne peut que se réjouir de voir l’Union Européenne se saisir d’un tel enjeu. Toutefois, la réglementation des contenus est une approche difficile et risquée qui peut rapidement empiéter sur la liberté d’expression. Il est en effet encore difficile pour un algorithme de déterminer ce qui relève ou non de la Fake News et les modérateur.ices humains sont loin d’être assez nombreux. Il existe néanmoins un certain nombre de mesures qui permettraient de limiter la prolifération de fausses informations.

S’attaquer aux comportements trompeurs plutôt qu’au contenu

Les acteurs de la désinformation sont multiples et parfois difficilement identifiables : puissances étrangères, politique, groupes indépendants et même parfois les plateformes elles-mêmes. Ils recourent néanmoins à des dispositifs similaires qui peuvent être mieux contrôlés. Une approche plus efficace consisterait ainsi à viser directement l’usurpation d’identité et l’utilisation de bots. En contrôlant voire interdisant cet outil, il y a fort à parier que les fausses informations et les différentes formes de manipulation de l’information circuleraient moins vite.

Formaliser des exigences légales sur la publicité en ligne

Les publicités politiques diffusées en ligne devraient être soumises aux mêmes exigences de publication que celles s’appliquant aux publicités dans les secteurs traditionnels. Les publicités politiques devraient être clairement identifiées comme telles devraient préciser qui les a financées.

Exiger des audits indépendants des entreprises de réseaux sociaux

C’est un peu l’esprit de l’une des mesures du DSA mais au lieu de s’arrêter aux contenus, des audits indépendants sur l’ensemble de la structure pourraient permettre de garantir que les plateformes en ligne respectent leurs propres règles et politiques en matière de désinformation. Des universités ou des ONG pourraient par exemple analyser la manière dont les réseaux sociaux luttent contre la désinformation, la publicité politique et assurer la transparence des algorithmes.

Complexifier le partage de fausses informations

Rappeler aux utilisateurs que les contenus qu’ils partagent peuvent-être de fausses informations pourrait permettre de réduire la prolifération des Fake News. Il s’agirait par exemple de demander aux utilisateurs, lorsque l’algorithme détecte qu’il s’agit d’un sujet à risque, de confirmer leur intention de partager ce contenu en dépit des risques associés à la diffusion de fausses informations. Une approche complémentaire pourrait être celle visant à offrir des cours d’éducation médiatique au collège ou au lycée, développant ainsi l’esprit critique des jeunes et les poussant à vérifier l’information.


Enfin, il convient de ne pas désespérer. Des études montrent que si la désinformation existe à grande ampleur, les Français n’y adhérent pas tant que ça. D’après les auteur.trices, le meilleur moyen de lutter contre les fakes news, reste d’améliorer l’acception des vraies informations : le terreau le plus favorable à la désinformation reste encore et toujours la défiance. Dès lors, revoir le modèle économique des grands médias, transformer les conditions de production de l’information et rétablir la confiance que leur accorde les citoyens est de loin le premier chantier à mener !

N'hésitez pas à partager cet article !
"Digital Services Act (DSA): lutter contre la désinformation en ligne"

Hey contactez-nous

Contactez-nous

Ce formulaire ne concerne pas les demandes d'emploi ou candidatures spontanées.