Des outils de suppression des abus sexuels basés sur l’image face à des vulnérabilités face aux attaques de l’IA générative, selon une étude

découvrez les résultats d'une étude sur les outils de suppression des abus sexuels basés sur l'image et leur efficacité face aux vulnérabilités liées aux attaques de l'ia générative. analyse des défis et des solutions pour protéger les victimes et renforcer la sécurité en ligne.

La lutte contre les abus sexuels basés sur l’image (IBSA) s’appuie de plus en plus sur des outils technologiques conçus pour identifier et supprimer ce contenu nuisible de l’Internet. Cependant, une étude récente a mis en lumière des vulnérabilités majeures de ces outils face aux attaques de l’IA générative. En scrutant les méthodes actuelles, comme le hashing perceptuel, les chercheurs montrent que ces approches, censées garantir la protection de la vie privée, peuvent en réalité être contournées, mettant ainsi en danger des utilisateurs vulnérables. Cette situation soulève des questions critiques sur l’efficacité réelle des technologies existantes et la nécessité de renforcer les mesures de sécurité pour protéger les victimes potentielles.

Une récente étude menée par des chercheurs du Département de la sécurité de l’information de l’Université Royal Holloway à Londres met en lumière les risques majeurs pour la vie privée liés aux technologies conçues pour aider à la suppression permanente des contenus d’abus sexuels basés sur l’image (IBSA). Ces outils, qui visent à protéger les individus contre la diffusion non consensuelle d’images intimes, pourraient s’avérer vulnérables face aux attaques utilisant l’intelligence artificielle générative, exposant ainsi les utilisateurs les plus vulnérables à des risques accrus.

Les méthodes de détection des contenus abusifs

La recherche est principalement centrée sur une technique appelée hashing perceptuel, qui crée des « empreintes digitales » numériques d’images pour détecter le contenu nuisible sans nécessiter le stockage des fichiers originaux. Cette approche est utilisée par de nombreuses plateformes en ligne, notamment les réseaux sociaux, qui maintiennent une liste de hachages pour identifier les images abusives et prévenir leur téléversement.

Des outils tels que « Take It Down », géré par le Centre national pour les enfants disparus et exploités (NCMEC), permettent aux utilisateurs de signaler des cas de contenus abusifs en un seul endroit. Les utilisateurs peuvent y télécharger des hachages perceptuels d’images, qui sont ensuite partagés avec des plateformes partenaires comme Facebook et OnlyFans.

Les vulnérabilités des hachages perceptuels

Cependant, l’étude récente révèle que les hachages perceptuels ne sont pas aussi irréversibles qu’on le croyait. Cette découverte remet en question les garanties de confidentialité que les outils de suppression des abus sexuels basés sur l’image affirment offrir sur leurs pages FAQ. Sophie Hawkes, chercheuse principale, a dirigé une analyse de plusieurs fonctions de hachage perceptuel largement utilisées, incluant PDQ Hash de Facebook et NeuralHash d’Apple, et a trouvé que toutes ces méthodes affichent des vulnérabilités face aux attaques de renversement.

Plus précisément, l’utilisation de l’IA générative par des acteurs malveillants pourrait permettre de reconstruire approximativement le contenu original des images. Hawkes souligne que ces résultats contredisent l’idée que les hachages perceptuels peuvent seuls garantir la confidentialité des images, indiquant qu’ils doivent être traités avec le même niveau de sécurité que les images originales.

Les risques pour les utilisateurs vulnérables

Ces découvertes sont particulièrement inquiétantes, étant donné la nature sensible des contenus abusifs et le fait que les groupes d’utilisateurs visés par ces outils sont souvent ceux les plus vulnérables. Selon les co-auteurs, Dr. Maryam Mehrnezhad et Dr. Teresa Almeida, les dangers posés par les technologies modernes peuvent se manifester de manière complexe. Bien que les risques d’IBSA ne se limitent pas à certaines démographiques, des groupes tels que les enfants sont exposés à des dangers accrus, y compris des dégâts psychologiques et des menaces à leur sécurité.

Réflexion sur les outils actuels et recommandations

Face à ces préoccupations, les chercheurs soutiennent que le design actuel des services comme « Take It Down » est insuffisant et mettent en avant la nécessité de renforcer les mesures de protection des données. Par exemple, l’utilisation de protocoles cryptographiques tels que l’intersection privée d’ensemble (PSI) pourrait permettre un rapprochement sécurisé des hachages sans exposer de données sensibles, garantissant ainsi une solution plus axée sur la confidentialité dans la suppression des contenus nuisibles.

Appel à la vigilance des utilisateurs

Actuellement, les chercheurs conseillent aux utilisateurs d’évaluer attentivement les risques associés au hachage perceptuel et de prendre des décisions éclairées lors de la soumission d’un rapport. En particulier, ils doivent tenir compte des risques liés à la publication de leurs images en ligne, ainsi que de ceux liés à la possibilité que ces images soient reconstruites à partir des valeurs de hachage signalées.

Bien qu’il n’y ait pas de perte significative de confidentialité lors du signalement de hachages d’images déjà partagées en ligne, le signalement proactif pourrait soulever des préoccupations. Suivant un processus de divulgation responsable, les chercheurs ont averti le NCMEC de leurs résultats, les incitant à donner la priorité à la mise en œuvre de solutions plus sécurisées pour garantir la vie privée des utilisateurs.

Promouvoir la transparence des outils de signalement

Les chercheurs plaident également pour une plus grande transparence, afin que les utilisateurs puissent prendre des décisions éclairées concernant l’éventuel compromis entre leur confidentialité et leur sécurité lors de l’utilisation d’outils de signalement basés sur le hachage perceptuel. Selon Dr. Christian Weinert, co-auteur de l’étude, la collaboration entre les concepteurs de technologies, les décideurs, les forces de l’ordre, les éducateurs et surtout, les victimes et survivants d’IBSA, sera cruciale pour mettre en place de meilleures solutions pour tous.

EN BREF

  • Recherche sur la sécurité des pratiques de suppression des matériaux d’abus sexuels basés sur l’image.
  • Focus sur les techniques de hashing perceptuel pour identifier et retirer le contenu abusif.
  • Vulnérabilités des fonctions de hachage aux attaques d’IA générative.
  • Impact sur la vie privée des utilisateurs cherchant à signaler l’abus.
  • Propositions d’améliorations pour renforcer la protection des données.
  • Importance de la transparence dans les outils de signalement des abus.
  • Appel à des efforts collaboratifs pour améliorer la sécurité numérique.