La modération de contenu sur Facebook se fait trop tard, selon une étude

découvrez notre analyse sur l'étude révélant que la modération de contenu sur facebook intervient souvent trop tard, exposant les utilisateurs à des informations nuisibles. apprenez comment cette lenteur impacte la sécurité en ligne et la responsabilité des plateformes.

La question de la modération de contenu sur Facebook suscite un vif débat, notamment concernant son efficacité et sa rapidité. Une récente étude menée par des chercheurs de l’Université Northeastern met en lumière un écart significatif entre la vitesse à laquelle le contenu est recommandé par l’algorithme de la plateforme et celle à laquelle la modération intervient. Selon cette recherche, les publications sont souvent retirées après avoir déjà atteint une large partie de leur audience prévue, soulevant des interrogations sur le véritable impact de ces mesures de censure et la manière dont elles affectent l’expérience des utilisateurs.

Une récente étude menée par des chercheurs de l’université Northeastern met en lumière un problème majeur concernant la modération de contenu sur Facebook. Selon cette recherche, la retrait des publications violant les normes communautaires intervient trop tard, affectant ainsi l’expérience des utilisateurs. Alors que Facebook utilise la modération pour éviter la diffusion de contenus nuisibles ou illégaux, le décalage entre la rapidité de recommandation de son algorithme et celle de la modération entraîne un manque d’efficacité.

Un décalage néfaste

D’après l’étude, les contenus retirés de Facebook avaient atteint environ 75% de leur audience prévue avant leur suppression. Laura Edelson, professeure adjointe en sciences informatiques, explique que la modération de contenu sur la plateforme n’a que peu d’impact sur l’expérience utilisateur car elle se produit trop tard. La recherche a révélé que les utilisateurs interagissent massivement avec les publications dans les premières 48 heures suivant leur mise en ligne, période durant laquelle la majorité des engagements se produit.

La méthodologie de l’étude

Pour réaliser cette étude, les chercheurs ont analysé plus de 2,6 millions de publications provenant de 17 504 pages d’actualités et de divertissement, couvrant les langues anglaise, ukrainienne et russe. Ils ont suivi ces publications régulièrement, toutes les six heures pour les pages en anglais et toutes les deux heures pour celles en ukrainien et russe, afin d’évaluer leur engagement et de noter les publications supprimées.

Identifications des publications supprimées

Sur les 2,6 millions de publications étudiées, seulement 0,7% en anglais, 0,2% en ukrainien et 0,5% en russe ont été supprimées. Les raisons précises de la suppression n’ont pas été spécifiquement déterminées, mais la majorité des contenus retirés étaient des spams et des contenus trompeurs. Une part importante de la modération des contenus est focalisée sur ce type de publication, comme le clickbait et les fraudes, détournant ainsi l’attention de contenus potentiellement plus nuisibles.

L’importance de l’engagement rapide

Les résultats de l’étude soulignent qu’un post sur Facebook accumule près de 83,5% de son engagement total dans les 48 heures suivant sa publication. Cela signifie que même si des posts nuisibles sont retirés, ils ont déjà eu l’occasion d’interagir avec un grand nombre d’utilisateurs. Cette inefficacité dans la modération suggère qu’il est essentiel d’agir plus rapidement pour réduire l’impact de contenus néfastes.

Proposition d’une nouvelle métrique

Pour évaluer plus efficacement l’impact de la modération, Edelson propose une nouvelle métrique appelée “diffusion prévenue”. Cette méthode utilise des techniques d’apprentissage automatique pour prédire l’engagement potentiel des publications. Cette approche vise à déterminer ce qui se serait passé si les contenus n’avaient pas été supprimés, ouvrant ainsi la voie à une meilleure compréhension de l’efficacité de la modération.

Un besoin d’harmonisation entre algorithmes et modération

Les conclusions de l’étude montrent qu’il est impératif d’harmoniser la vite du filtrage et la rapidité de recommandation des algorithmes de Facebook. Si la plateforme souhaite améliorer l’expérience des utilisateurs à travers la modération de contenu, celle-ci doit s’opérer à la même cadence que les recommandations de l’algorithme. En ce moment, un déséquilibre existe entre ces deux aspects, perturbant ainsi le but de la modération.

Perspectives et recommandations

Les résultats de cette étude interrogent non seulement les pratiques de Facebook mais également celles des autres plateformes sociales. La recherche suggère qu’une révision des stratégies de modération pourrait jouer un rôle crucial dans l’efficacité de la gestion des contenus. En parallèle, des discussions autour de l’utilisation de mécanismes alternatifs de vérification des faits et d’une stricte regulation des contenus en ligne sont nécessaires pour contrer la désinformation.

EN BREF

  • Recherche menée par des chercheurs de l’Université Northeastern
  • Mismatch entre la vitesse de modération de contenu et l’algorithme de recommandation de Facebook
  • 75% du public cible atteint avant le retrait d’un post
  • La modération de contenu est perçue comme inefficace
  • Introduction d’une nouvelle métrique : « diffusion empêchée »
  • Analyse de plus de 2,6 millions de publications Facebook entre juin et août 2023
  • La majorité des engagements proviennent du 1% de contenu le plus engagé
  • 24% à 30% des engagements prévus sont évités par la suppression de publications
  • Slow content moderation et fast feed algorithm créent un déséquilibre
  • Concentration sur le spam, clickbait et fraude dans la modération