Depuis le début de l’année, une enquête a mis en lumière une augmentation alarmante du contenu nuisible à travers les plateformes de Meta, notamment Facebook, Instagram et Threads. Alors que la société a décidé d’abandonner l’intervention des fact-checkers tiers et d’assouplir ses politiques de modération, les utilisateurs rapportent une hausse significative des discours de haine et des violences basées sur le genre. Ce changement de cap semble exacerber les problèmes de sécurité et de libre expression, suscitant une inquiétude croissante parmi les utilisateurs qui se sentent désormais moins protégés face à cette montée de contenu dangereux.
Une récente enquête menée auprès d’environ 7 000 utilisateurs actifs des plateformes de Meta, y compris Instagram, Facebook et Threads, a mis en lumière une augmentation alarmante du contenu nuisible. Depuis la décision de l’entreprise de renoncer à la vérification tierce des faits aux États-Unis en janvier, un climat plus permissif a vu le jour, ce qui a conduit à une recrudescence de discours de haine et d’autres contenus problématiques. Cette étude soulève des questions cruciales sur la sécurité et le bien-être des utilisateurs sur ces plateformes.
Un changement de politique controversé
Au début de cette année, Meta a effectué un revirement significatif dans sa stratégie de modération de contenu. En se basant sur un modèle connu sous le nom de « Community Notes », la société a transféré la responsabilité de la lutte contre la désinformation des vérificateurs de faits à ses utilisateurs. Cette mesure, perçue par certains comme une concession à l’administration conservatrice de Donald Trump, a suscité de vives critiques. La décision de supprimer les vérificateurs de faits a été considérée comme un moyen de protéger la liberté d’expression, mais elle a également ouvert la porte à une augmentation des contenus nuisibles.
Un constat alarmant
Les résultats de l’enquête révèlent des données significatives concernant le climat sur les plateformes de Meta. En effet, un utilisateur sur six a déclaré avoir été victime d’une forme de violence basée sur le genre ou le sexe. De plus, 66 % des répondants ont déclaré avoir été témoins de contenus nuisibles tels que des discours haineux ou violents. Ces chiffres peuvent être interprétés comme un signe inquiétant d’une détérioration des conditions de sécurité pour les utilisateurs, en particulier ceux issus de groupes marginalisés.
Inquiétude croissante parmi les utilisateurs
Les résultats de l’enquête montrent que 92 % des utilisateurs interrogés craignent une augmentation du contenu nuisible sur les plateformes de Meta. Ils expriment un sentiment de vulnérabilité accru, se sentant moins protégés contre les attaques potentielles. En outre, 77 % des répondants ont trouvé qu’ils se sentaient « moins en sécurité » en s’exprimant librement. Cela soulève des préoccupations importantes concernant la capacité des utilisateurs à profiter d’un espace en ligne sûr et inclusif.
La réaction de Meta
Malgré les résultats rendus par l’enquête, Meta a affirmé que les changements effectués en janvier avaient un impact minimal sur l’expérience utilisateur. Dans son rapport trimestriel publié en mai, l’entreprise a déclaré que le taux d’erreurs dans l’application des politiques avait été réduit de moitié. Cependant, les groupes impliqués dans l’enquête ont contesté ces affirmations, soulignant que la réalité des utilisateurs ne reflète pas les données présentées par la société.
Appel à une action rapide
Les organisations derrière cette enquête, telles qu’UltraViolet et GLAAD, ont exprimé leur inquiétude face à cette situation. Elles demandent à Meta d’embaucher un tiers indépendant pour analyser formellement les changements dans le contenu nuisible suscité par les récentes modifications de politiques. Il est impératif que le géant technologique rétablisse des normes de modération de contenu qui assurent la safety des utilisateurs, particulièrement ceux appartenant à des groupes vulnérables.
Un avenir incertain pour les réseaux sociaux
Avec l’évolution rapide des politiques de modération sur des plateformes comme Meta, le paysage des médias sociaux est devenu un terrain de jeu complexe où le contenu nuisible risque de proliférer. La contradiction entre la liberté d’expression et la nécessité de protéger les utilisateurs contre le contenu dangereux devient de plus en plus manifeste. Il reste à voir comment Meta répondra à ces préoccupations et quelles mesures seront mises en place pour assurer un environnement en ligne plus sûr.
EN BREF
|