Dans le paysage de l’information en ligne, la question du biais est toujours d’actualité, notamment en ce qui concerne des plateformes comme Wikipedia. Elon Musk, à la tête de la société d’intelligence artificielle xAI, a récemment annoncé le lancement de Grokipedia, un projet visant à concurrencer l’encyclopédie collaborative emblématique. Bien qu’il prétende que cette nouvelle plateforme corrigera les inexactitudes et les préjugés perçus au sein de Wikipedia, des inquiétudes émergent quant à la capacité d’une intelligence artificielle à éviter les mêmes écueils. La question se pose donc : Grokipedia pourra-t-elle réellement surmonter les biais inhérents à ses données d’apprentissage, ou reproduira-t-elle simplement les problématiques déjà observées dans son prédécesseur ?
Grokipedia : Une nouvelle ère de l’information ?
La société d’intelligence artificielle d’Elon Musk, xAI, s’apprête à lancer la version bêta de Grokipedia, une initiative qui vise à rivaliser avec Wikipedia. Musk soutient que ce projet vient répondre à ce qu’il perçoit comme un biais politique et idéologique de Wikipedia. Cependant, des interrogations subsistent quant à la capacité de Grokipedia à éviter les biais qui ont historiquement affecté la plateforme emblématique d’encyclopédie collaborative.
Le biais indéniable de Wikipedia
Depuis sa création en 2001, le débat autour des biais de Wikipedia persiste. Son contenu est rédigé et maintenu par des bénévoles qui citent uniquement des matériaux préexistants, interdisant ainsi la recherche originale. Cette règle, conçue pour garantir la vérifiabilité des faits, signifie que la couverture de Wikipedia reflète inévitablement les biais des médias, de l’académie et d’autres institutions d’où elle s’approvisionne. Par exemple, une étude a révélé qu’une grande majorité d’éditeurs de la version en anglais s’identifie comme masculine, ce qui induit un déséquilibre de genre dans le contenu.
Le problème des participants volontaires
Le biais que l’on peut retrouver sur les plateformes collaboratives émerge souvent de leurs participants plutôt que de politiques descendantes. La participation volontaire introduit ce que les sociologues appellent le biais d’autosélection : les personnes qui choisissent de contribuer partagent généralement des motivations et des valeurs similaires. De la même manière, des initiatives comme Community Notes, la fonctionnalité de vérification des faits sur la plateforme de Musk, s’appuient également sur cette participation volontaire.
La vigilance de Wikipedia face au biais
Malgré ses défauts, Wikipedia demeure l’une des rares plateformes à reconnaître et documenter ouvertement ses limitations. L’neutralité est inscrite comme l’un de ses principes fondamentaux. Bien que le biais y existe, un cadre est établi pour le rendre visible et le corriger. Les articles incluent souvent des perspectives multiples, documentent des controverses, et marquent les affirmations contestées avec des avertissements pour informer les utilisateurs.
Les limites de l’intelligence artificielle
Si Wikipedia se nourrit des biais de ses éditeurs humains, l’IA rencontre un défi similaire à travers les biais de ses données. Les modèles de langage (LLMs) utilisés par Grok, le chatbot de xAI, sont entraînés sur d’énormes ensembles de données collectées sur Internet, y compris des médias sociaux et, bien sûr, Wikipedia. Plusieurs études ont démontré que ces systèmes reproduisent les biais, qu’ils soient de genre, politiques ou raciales, présents dans leurs données d’apprentissage.
Vers une uniformisation des opinions ?
Malgré les affirmations de Musk concernant Grok, ce dernier a déjà été accusé de biais. Une analyse où quatre modèles de langage ont été interrogés sur des questions politiques a révélé que Grok affichait un léger biais envers les idées de gauche. Si le modèle derrière Grokipedia utilise les mêmes données et algorithmes, il est difficile d’imaginer comment une encyclopédie alimentée par l’IA pourrait échapper aux biais attribués à Wikipedia.
L’apport potentiel de l’IA à Wikipedia
Cependant, l’IA pourrait renforcer un projet comme Wikipedia. Des outils d’IA sont déjà utilisés pour détecter la vandalisme, suggérer des citations et identifier des incohérences dans les articles. Une recherche récente a mis en avant comment l’automatisation peut améliorer l’exactitude si elle est employée de manière transparente et sous supervision humaine. L’IA pourrait également faciliter le transfert de connaissances entre différentes versions linguistiques et rapprocher la communauté des éditeurs.
Différences de modèle économique
Une distinction majeure entre Wikipedia et Grokipedia réside dans leur but et leur modèle économique. Wikipedia est gérée par la Wikimedia Foundation à but non lucratif, où la plupart des bénévoles sont motivés par l’intérêt public. En revanche, xAI, X et Grokipedia relèvent d’entreprises commerciales. Bien que les motivations de profit ne soient pas intrinsèquement immorales, elles peuvent déformer les incitations, transformant la crédibilité en une marchandise plutôt qu’un marqueur de confiance.
Les personnes qui perçoivent un biais dans Wikipedia, y compris Musk, pourraient produire un impact plus significatif en encourageant la participation d’éditeurs issus de divers horizons politiques, culturels et démographiques, plutôt qu’en dévaluant le travail des contributeurs humains.
EN BREF
|