Un groupe de chercheurs, dirigé par le Dr Kevin Butler, a récemment tiré la sonnette d’alarme sur une tendance inquiétante dans le domaine de l’intelligence artificielle: la montée rapide des images explicites générées par l’IA sans le consentement des sujets concernés. Ces outils accessibles et peu coûteux permettent à quiconque de créer des images nudistes réalistes à partir de photos téléchargées, souvent sans aucune vérification d’âge ou de consentement. Ce phénomène, désigné sous le terme SNEACI, expose les risques et les abus émergents liés à cette technologie, touchant particulièrement des individus souvent ciblés sans leur accord.
Une équipe de chercheurs, incluant des experts en informatique de l’Université de Floride, met en lumière une tendance inquiétante : la croissance rapide des images générées par intelligence artificielle (IA) à caractère sexuel explicite, créées sans le consentement des sujets. Ces outils, accessibles et presque sans régulation, permettent de générer des images réalistes à partir de photos téléchargées, ouvrant la voie à des abus graves et à des impacts psychologiques considérables sur les victimes.
Une technologie sans frontières
Les chercheurs, dirigés par Kevin Butler, Ph.D., ont analysé une nouvelle génération d’outils en ligne qui permet aux utilisateurs de créer des images de nudité réalistes en très peu de temps et sans aucune compétence préalable. Butler souligne que « n’importe qui peut faire ça » et que ces services sont souvent offerts de manière anonyme sur le web, sans véritable enforcement des lois relatives à l’âge et au consentement. Cette absence de réglementation soulève des questions éthiques et juridiques majeures.
SNEACI : une nouvelle catégorie d’abus
Pour mieux décrire ce phénomène, l’équipe a introduit le terme SNEACI, qui signifie synthetic non-consensual explicit AI-created imagery. Ce terme, prononcé comme « sneaky » en anglais, souligne la nature secrète et trompeuse de ces pratiques. Patrick Traynor, un autre membre de l’équipe, explique que « SNEACI typifie le fait que beaucoup de ces images sont produites à l’insu des victimes potentielles et souvent de manière très furtive. »
Analyse des sites de nudification par IA
Dans le cadre de leur étude, qui sera présentée au congrès USENIX Security Symposium, les chercheurs ont examiné 20 sites Web dédiés à la nudification par IA. Ces plateformes permettent aux utilisateurs de manipuler des images en moins de quelques secondes, créant des résultats souvent choquants. Contrairement à des logiciels traditionnels comme Photoshop, qui nécessitent habileté et investissement financier, ces services sont rapides et accessibles, allant de gratuits à moins de six cents par image.
Un environnement non régulé
Lors de leur analyse, l’équipe a noté que les femmes sont souvent les principales cibles de ces outils, bien que la technologie ne fasse aucune distinction de genre. Ils ont également constaté qu’il n’existait que sept sites parmi les vingt examinés qui imposaient des conditions d’utilisation stipulant que les sujets des images devaient être majeurs, et encore moins de sites avaient mis en place une vérification d’âge efficace. Butler a noté : « C’est un environnement non régulé. »
Des conséquences sociales et psychologiques
Les conséquences de la diffusion d’images explicites générées par IA ne se limitent pas aux célébrités, même si celles-ci, comme Taylor Swift et Melania Trump, ont été victimes. Butler a cité un cas en Floride où une conseillère municipale a dû démissionner après la circulation d’images compromettantes créées par IA. « Ces images ne sont pas simplement créées pour le divertissement, elles sont utilisées pour embarrasser, humilier et même extorquer les victimes. Le coût psychologique peut être dévastateur », a-t-il ajouté.
Un appel à l’action pour les législateurs
La discussion autour de ces technologies a attiré l’attention des législateurs, incluant une rencontre entre Butler et la représentante américaine Kat Cammack. Cette dernière a identifié le besoin urgent de comprendre la création de ces images et leur impact sur la santé mentale. Elle a déclaré que cette problématique est « essentielle pour mettre un terme à cette tendance dangereuse ». Butler et son équipe cherchent à offrir des informations techniques aux décideurs pour les aider à développer des réglementations plus intelligentes et à appeler à une plus grande responsabilité dans le domaine des technologies de l’IA.
EN BREF
|