La difficulté croissante pour la police de protéger les enfants de l’exploitation sexuelle en ligne

la police fait face à une difficulté croissante pour protéger les enfants contre l'exploitation sexuelle en ligne, avec les deepfakes, l'ia et la réalité. découvrez les défis actuels et les enjeux majeurs.

L’essor des technologies telles que les deepfakes et l’intelligence artificielle pose un défi de taille à la protection des enfants contre l’exploitation sexuelle en ligne. Entre fiction et réalité, comment les forces de l’ordre parviennent-elles à distinguer le vrai du faux ?

Marc Dubois, rédacteur spécialisé en justice et sécurité, expert dans l’analyse des menaces liées à l’exploitation sexuelle en ligne. Son objectif est d’informer le public sur les défis croissants auxquels la police est confrontée en matière de protection des enfants. Son style de rédaction est à la fois factuel et engageant, mettant l’accent sur l’importance de trouver des solutions face à cette problématique critique.

La montée des technologies de l’IA dans l’exploitation sexuelle en ligne

L’intelligence artificielle (IA), désormais omniprésente dans nos vies quotidiennes, est également de plus en plus exploitée par les criminels. L’une des préoccupations majeures est la capacité de l’IA à produire des images et des vidéos d’exploitation sexuelle d’enfants, qu’il s’agisse de contenu réel ou de deepfakes.
En Australie, le Centre coopératif de recherche en cybersécurité a identifié le pays comme étant le troisième plus grand marché pour le matériel d’abus sexuel en ligne. Les outils numériques permettent aux délinquants de créer et de partager des contenus d’exploitation de manière plus simple et plus rapide qu’auparavant.

Prolifération rapide et large

Le Département de la Sécurité Intérieure des États-Unis parle de la production de matériel d’abus sexuel d’enfants par IA comme étant la création de médias numériques contenant des images sexualisées, en tout ou en partie artificielles, d’enfants.
Les technologies de l’IA permettent de générer des images ou des vidéos contenant de vrais enfants, ou bien d’utiliser des technologies de deepfake. Ces contenus peuvent inclure des techniques telles que le dé-âgisme ou l’exploitation d’images innocentes de personnes pour créer du contenu offensant.

Enquête et statistiques alarmantes

En 2023, une enquête de la Fondation pour la surveillance d’Internet a révélé des statistiques inquiétantes. En l’espace d’un mois, un forum du dark web hébergeait 20 254 images générées par IA. Parmi ces images, 11 108 étaient considérées comme pouvant être criminelles, et 2 562 remplissaient les critères légaux de matériel d’exploitation sexuelle d’enfants.

Impact sur les méthodes policières

Les méthodes traditionnelles de détection de matériel d’exploitation sexuelle d’enfants, basées sur la reconnaissance d’images connues et leur traçage, deviennent insuffisantes face à la prolifération rapide de nouveaux contenus uniques générés par l’IA. La capacité de l’IA à produire des contenus extrêmement réalistes complique encore davantage la tâche des unités d’identification des victimes.

Vers de nouvelles stratégies

Pour lutter contre cette menace, les stratégies émergentes incluent l’utilisation de l’IA elle-même. Les algorithmes de machine learning peuvent être entrainés pour détecter des anomalies subtiles et des motifs spécifiques aux images générées par IA, comme les incohérences dans l’éclairage, la texture ou les traits du visage.

L’importance de la collaboration

Selon l’entreprise Thorn, pour répondre à l’utilisation de l’IA dans le matériel d’exploitation sexuelle d’enfants, il est essentiel que les développeurs et fournisseurs d’IA, les plateformes d’hébergement de données, les réseaux sociaux et les moteurs de recherche collaborent. Ces efforts collaboratifs peuvent aider à minimiser les abus de l’IA.

Initiatives conjointes des entreprises technologiques

En 2024, des entreprises majeures comme Google, Meta et Amazon ont formé une alliance pour lutter contre l’utilisation de l’IA dans la création de ce type de matériel abusif. Les PDG de ces entreprises ont également été interrogés par un comité sénatorial aux États-Unis sur les mesures qu’ils prennent pour prévenir l’exploitation sexuelle des enfants en ligne.
Liste sur les principaux défis et réponses :

  • Défis
    • Production rapide de contenu IA
    • Difficile distinction entre le réel et le faux
    • Prolifération via le dark web

  • Production rapide de contenu IA
  • Difficile distinction entre le réel et le faux
  • Prolifération via le dark web
  • Réponses
    • Utilisation d’algorithmes de machine learning
    • Collaboration entre entreprises technologiques
    • Entraîner des algorithmes pour détecter des anomalies

  • Utilisation d’algorithmes de machine learning
  • Collaboration entre entreprises technologiques
  • Entraîner des algorithmes pour détecter des anomalies
  • Production rapide de contenu IA
  • Difficile distinction entre le réel et le faux
  • Prolifération via le dark web
  • Utilisation d’algorithmes de machine learning
  • Collaboration entre entreprises technologiques
  • Entraîner des algorithmes pour détecter des anomalies