L’Intelligence artificielle est intolérante (mais ce n’est pas une fatalité)
Pour entraîner une intelligence artificielle, l’on mobilise un immense ensemble de contenus humains alors, inévitablement, elle apprend nos erreurs. Sexisme, racisme, homophobie… comment faire en sorte que nos assistants numériques évitent de reproduire ces biais dont nous essayons de nous débarrasser ? Quelques réponses au sein de cet article !
| L’IA, un outil du futur toujours en retard sur son temps
En tant que fidèles lectrices et lecteurs de Netino, vous commencez certainement à avoir une assez bonne compréhension de la manière dont sont modérés les espaces numériques qui vous accueillent. Il ne vous aura donc pas échappé que, bien qu’en privilégiant toujours une modération hybride (lien àrtv), le respect du DSA (lien) et l’amélioration des conditions de travail des modérateurs et modératrices, le traitement du flux de contenus immense publié chaque jour en ligne requière l’aide de l’intelligence artificielle.
Petit problème, celle-ci est entrainée sur des corpus de textes humains, parfois datés, qui tendent à offrir une vision un peu rétrograde de la société. Les discriminations de genres et autres stéréotypes racistes, sexistes ou homophobes sont profondément ancrés dans la plus grande part de ce qu’a produit l’humanité et c’est de ces textes qu’apprennent les IA[1].
Google semble essayer de nuancer ce biais, mais pour s’en assurer, il suffisait il y a seulement quelques années de cela de taper « Hommes au travail » et « Femmes au travail » dans la barre de recherche du navigateur. L’on pouvait alors voir d’un côté des hommes en costume employés dans des bureaux ou sur des chantiers, de l’autre, des femmes effectuant le ménage et la cuisine. Des résultats pas franchement progressistes et très loin de représenter la réalité du monde du travail mais qui ont tout de même des conséquences fortes sur la socialisation des individus. Interrogée par l’Obs, l’informaticienne et maître de conférences Isabelle Collet explique ainsi que :
« Quand l’IA travaille à partir des données du passé, les données du futur qu’elles produit sont également biaisées. Ça risque d’invisibiliser les intérêts, les valeurs, les carrières, l’existence même des personnes qui ne sont pas représentées […], par exemple des femmes, par exemple des minorités ethniques. »
Un autre exemple parmi tant d’autres, en 2018 Amazon a essayé de mettre en place une intelligence artificielle chargé du tri des nombreuses candidatures reçues. L’expérience a vite été arrêtée et pour cause, l’algorithme comparaissait les CV reçus en se basant sur ceux d’hommes, ne retenant que ces derniers. Alors, à l’heure où l’intelligence artificielle est omniprésente dans nos quotidiens, comment s’assurer qu’elle respecte la diversité et évite de reproduire des mécanismes de discrimination systémique ? Rassurez-vous, dès lors que l’on souhaite le faire, ce n’est pas si compliqué !
| Comment bien éduquer nos IA ?
L’une des clés réside dans la diversification des données d’entraînement. En effet, pour que l’IA puisse refléter fidèlement la richesse de notre société, elle doit être nourrie d’un corpus représentatif de cette diversité. Cela implique d’intégrer des textes, des images et des contenus provenant de sources variées, représentant un large éventail de cultures, de genres, d’origines ethniques et de perspectives. Mais cela, du fait même de l’essence des contenus dominants, demeure largement insuffisant.
En complément de cette initiative, il est crucial de mettre en place des processus d’audit réguliers pour détecter et corriger les biais potentiels que les données d’entraînement inculquent aux modèles d’IA et ce, avant même qu’ils ne soient déployés. Une sorte de modération des différentes intelligences artificielles permettant d’aiguiller l’IA et de l’entraîner en indiquant si les résultats qu’elle produit sont problématiques ou non. Cela demande des équipes de développement (pourquoi pas accompagnées d’équipes de modération), formées aux questions des différentes discriminations qui sont parfois subtiles, difficilement décelables ou trop ancrées pour être remises en question.
Une fois l’IA déployée, ce travail de formation doit être poursuivi avec l’aide des usagers. Une simple icone permettant de signaler une réponse comme étant offensante ou biaisée permettrait ainsi – et est d’ailleurs déjà mise en place sur de nombreuses plateformes – de faire remonter l’information à celles et ceux qui modèrent et d’améliorer les systèmes en continu. En effet, une IA n’est jamais parfaite et les normes sociales et le langage étant en constante évolution nos assistants numériques doivent être capables de s’adapter en conséquence. Cela nécessite des mises à jour régulières et une attention constante aux changements dans la façon dont les communautés s’expriment en ligne. Cette approche participative, conjuguée à une meilleure transparence des plateformes, renforce également la confiance des utilisateurs dans le processus de modération.
Cette démarche s’accompagne naturellement d’une réflexion sur la composition des équipes de développement et de modération elles-mêmes. En encourageant la diversité au sein de ces équipes, on favorise l’émergence de perspectives variées, essentielles pour identifier et résoudre les problèmes de biais dès les premières étapes de conception. Sur le plan technique, des méthodes algorithmiques de débiaisage sont également développées. Ces techniques, qui visent à réduire les biais en rééquilibrant les données ou en ajustant les poids du modèle pour minimiser les disparités demeurent cependant aujourd’hui insuffisantes.
Bien que le chemin vers une IA véritablement inclusive dans le domaine de la modération soit complexe, les progrès réalisés sont encourageants. En combinant des approches technologiques avancées, une conscience éthique aiguë, et une collaboration étroite entre l’IA, les modérateurs humains et les utilisateurs, il est possible de créer des espaces en ligne plus sûrs, plus équitables et plus inclusifs. Ce processus continu nécessite une vigilance constante mais est essentiel pour façonner un paysage numérique qui évite au maximum de perpétuer les différents mécanismes de discrimination.
[1] Pour en apprendre un peu plus sur le machine learning, un exemple d’un cas extrême dont vous avez probablement déjà entendu parler : Tay, le chatbot de Microsoft devenu en quelques heures raciste, antisémite et complotiste.
N'hésitez pas à partager cet article !
"L’Intelligence artificielle est intolérante (mais ce n’est pas une fatalité)"
Contactez-nous
Ce formulaire ne concerne pas les demandes d'emploi ou candidatures spontanées.