La modération sur le métavers, quels nouveaux enjeux ?

C’est à l’occasion du Facebook Connect 2021, le rassemblement annuel autour de la réalité virtuelle, le 28 octobre, que Mark Zuckeberg annonçait le changement de nom du groupe “Facebook” en “Méta”. Ce changement de nom est justifié par la volonté de donner un virage stratégique au groupe qui se tourne aujourd’hui vers le métavers (contraction de “méta”, qui fait référence à une vision d’ensemble et du mot “univers”), qui selon son PDG, est la clé et le successeur de l’Internet mobile actuel. 

Mais alors qu’est-ce que le métavers ?  

Conceptualisé en 1992 par Neal Stephenson dans son roman de science-fiction “Le Samouraï virtuel”, le concept de métavers désigne des mondes virtuels dans lesquels il est possible d’interagir avec d’autres utilisateurs grâce à des équipements connectés tels qu’un casque de réalité virtuelle ou encore des gants haptiques capables de restituer les mouvements des joueurs.  

Il est alors demandé à l’utilisateur de se créer un avatar (un double numérique) afin de rejoindre l’expérience. En soi, tout monde virtuel dans lequel un utilisateur est amené à se créer un personnage “fictif”, à son image, est considéré comme un métavers.  

Ainsi, tous les réseaux sociaux et autres forums constituent des métavers dans la mesure où les utilisateurs se réunissent et interagissent sous l’identité numérique en s’accordant à leurs doubles numériques dans un univers parallèle. Afin de rendre l’expérience complètement immersive et nouvelle pour le joueur, le métavers utilise et entremêle deux technologies : celle de la réalité augmentée (AR) et celle de la réalité virtuelle (VR) pour créer cet univers collectif.  

Concrètement, le métavers représente une expérience immersive dans un univers virtuel en trois dimensions dans lequel chacun est matérialisé par un hologramme ou un avatar. 

La modération du métavers 

En termes de volumétrie, la modération du métavers impliquerait de surveiller et contrôler des milliards d’interactions simultanées. Le Directeur des nouvelles technologies de Meta, Andrew Bosworth a lui-même exprimé ses craintes sur ce nouveau défi que représente le métavers et cette nécessité de lui assurer un environnement sain et de bienveillance. Pourtant, selon lui, et malgré le fait qu’il dispose d’importantes ressources comme une enveloppe de plusieurs milliards de dollars par an afin de matérialiser les objectifs du groupe dans ce domaine, la modération serait quasi-impossible. Il énonce même qu’il s’agit là d’une “menace existentielle” 

De plus, l’actualité ne joue pas en faveur de Facebook suite aux révélations de la lanceuse d’alertes Frances Haugen, qui a mis le point sur les difficultés du réseau à contrôler les flux de contenus et garantir la sécurité de ses utilisateurs en luttant contre la haine en ligne et la désinformation.  

Autre point, certaines dérives comportementales ont été signalées et remontées sur plusieurs jeux en ligne (Roblox, Fortnite) qui attire un public majoritairement jeune. Par exemple, la reconstitution de villages inspirée par l’Allemagne Nazie dans le jeu Roblox et/ou la représentation de scènes interdites aux mineurs. Dans ce contexte, il est difficile pour les autorités de retracer et remonter à l’individu qui a eu ce comportement déviant alors que chacun est matérialisé par un avatar. Ainsi, il est également intéressant de savoir qui aura la charge de modérer le métavers, est-ce aux entreprises comme Méta (les développeurs) qui doivent assurer cette mission ou bien est-ce aux gouvernements de gérer cette modération ?  

Comme premier élément de réponse, Andrew Bosworth indique qu’il compte mettre en place des espaces à l’intérieur même du métavers, où les utilisateurs pourront s’ils le souhaitent avoir recours à des “zones de sûreté” permettant de s’“isoler”. Est-ce qu’il y aura des modérateurs “humains” à même le jeu afin de détecter, prévenir, contrôler ou sanctionner les comportements déviants ? Existe-t-il une intelligence artificielle capable de gérer cette mission ? A cette question, Facebook assure “explorer les meilleures utilisations de l’IA” mais “cela est toujours en construction”. L’avocate spécialisée en technologie, Brittan Heller, témoigne son inquiétude face à ce point : “ « En 3D, ce n’est plus du contenu qu’il faut réguler, mais des comportements à part entière »  

Afin de modérer le métavers, Andrew Bosworth, indique qu’il sera nécessaire de mettre en place un système de surveillance dernière génération qui jouera le rôle d’une institution de justice. Elle sera tenue d’appliquer des mesures strictes et fermes, elle avertira et sanctionnera les individus qui ne respectent pas les règles, et pourra jusqu’à les expulser du monde virtuel.  

Partagez l'article
"La modération sur le métavers, quels nouveaux enjeux ?"