La récente étude menée par le Digital Democracy Institute of the Americas révèle que plus de 90 % des notes communautaires soumises sur X, une plateforme désormais emblématique, n’atteignent jamais le public. Ce constat remet en question l’efficacité de ce modèle de modération axé sur la communauté, qui s’illustre par la participation d’utilisateurs bénévoles ajoutant du contenu corrigé ou contextuel à des publications. L’analyse approfondie de près de 1,76 million de notes établit non seulement un panorama alarmant sur la publication de ces contributions, mais souligne également les défis liés au consensus entre les utilisateurs dans un écosystème où la désinformation rôde en permanence.
Une étude récente menée par le Digital Democracy Institute of the Americas (DDIA) met en lumière les limites de la plateforme X en matière de modération communautaire. En effet, plus de 90 % des notes soumises par les utilisateurs, dans le cadre du système de vérification participatif, n’atteignent jamais le public. Cette situation soulève des questions cruciales sur l’efficacité de ce modèle et sur son enjeu de transparence, particulièrement alors que la PDG de X, Linda Yaccarino, a récemment annoncé sa démission après deux ans à la tête de l’entreprise.
Une analyse des notes communautaires
Le DDIA a analysé un ensemble de données publiques comprenant 1,76 million de notes publiées sur X entre janvier 2021 et mars 2025. L’étude souligne le fait que, bien que le modèle de modération basé sur la communauté soit séduisant et soutenu par plusieurs grandes plateformes de technologie comme Facebook et TikTok, sa mise en œuvre souffre d’un manque de consensus parmi les utilisateurs. En effet, la majorité des notes se perdent dans le processus de validation, rendant le système inefficace pour contrer la désinformation.
Le constat d’un faible taux de publication
Selon le rapport, le taux de publication des notes en anglais a chuté de 9,5 % en 2023 à un alarmant 4,9 % au début de 2025. En revanche, les notes en espagnol présentent une légère amélioration, passant de 3,6 % à 7,1 %. Cette disparité entre les langues soulève des questions sur les dynamique de validation des notes au sein de la communauté et sur la capacité du système à traiter efficacement l’afflux d’informations.
Un système en difficulté
Le DDIA note que la croissance du nombre de notes soumises accentue les problèmes de visibilité interne du système. De nombreuses notes demeurent « coincées » et ne sont jamais évaluées par d’autres contributeurs, une étape essentielle pour leur publication. Tandis que le volume de contributions augmente, le système a du mal à s’adapter, entraînant un engorgement qui contredit la promesse d’une plateforme à la fois rapide et scalable.
Les intervenants et leurs motivations
Un fait marquant de l’étude est la découverte d’un compte ressemblant à un bot, conçu pour signaler les arnaques liées aux cryptomonnaies, qui est devenu le contributeur le plus prolifique en langue anglaise. Ce compte a soumis plus de 43 000 notes, mais seulement 3,1 % ont été publiées. Cela soulève des inquiétudes concernant la fiabilité des notes validées et la capacité du système à traiter des informations pertinentes tout en évitant les biais potentiels issus de motivations partisanes.
Les défis face à la désinformation
Le rapport met également en lumière le ralentissement dans le temps nécessaire pour qu’une note soit publiée, un élément crucial dans la lutte contre la désinformation virale. Bien que le temps moyen pour voir une note publiée ait été réduit, passant de plus de 100 jours en 2022 à 14 jours en 2025, cela reste insuffisant face à la rapidité avec laquelle les informations erronées circulent aujourd’hui. Les utilisateurs voient leurs préoccupations autour des contenus nuisibles exposées dans un temps qui ne correspond pas à la réalité dynamique de l’information moderne.
Vers un avenir incertain
À mesure que les plateformes techniques adoptent ce modèle de modération communautaire, il devient impératif de considérer les implications à long terme de cette approche. Bien que certains résultats montrent que les notes communautaires peuvent dissiper certaines fausses informations, l’approche actuelle semble être plus une solution temporaire qu’un remède contre l’erreur. En raison de tensions croissantes autour de la modération de contenu, il est essentiel que les plateformes examinent les méthodes de validation pour s’assurer qu’elles ne sont pas partisanes et restent équitables pour tous les utilisateurs.
EN BREF
|