L’émergence des deepfakes, ces vidéos générées par intelligence artificielle pouvant imiter des individus avec un réalisme troublant, suscite des inquiétudes croissantes dans divers domaines. En raison de leur capacité à manipuler l’image et le son, les deepfakes soulèvent des questions éthiques et juridiques, tout en présentant des risques tangibles pour la désinformation et la vie privée. Dans ce contexte, un expert analyse cette tendance alarmante et explore les conséquences potentielles de cette technologie sur la société, mettant en lumière les défis qu’elle pose et les mesures nécessaires pour sécuriser l’information à l’ère du numérique.
Qu’est-ce qu’un deepfake et comment est-il créé ?
Les deepfakes tirent leur nom du deep learning, une technique de l’intelligence artificielle qui permet d’analyser des motifs dans d’importantes quantités d’images, de sons et de vidéos. Cette méthode utilise des équations mathématiques complexes simulant les réseaux de neurones du cerveau humain.
En analysant des images de personnes, les ordinateurs identifient des motifs au niveau des pixels, les éléments de base d’une image numérique. Pour l’audio, ils transforment les ondes sonores en représentations visuelles, appliquant ensuite des techniques de reconnaissance pour repérer des motifs similaires à ceux des images. Les deepfakes utilisent ces connaissances pour créer de nouvelles configurations de pixels imitant les traits et la voix d’une personne.
Les applications positives et néfastes des deepfakes
Les deepfakes offrent de remarquables possibilités de communication. Les effets spéciaux dans des films comme « Indiana Jones et le cadran de la destinée » illustrent comment ils peuvent rajeunir numériquement les acteurs. Ils permettent aussi de superposer la tête d’un acteur sur le corps d’un autre, comme vu dans « Free Guy » avec Ryan Reynolds.
Sur YouTube, il existe des chaînes dédiées aux deepfakes de célébrités faisant des choses ordinaires. De plus, les technologies de deepfake sont largement utilisées dans le doublage pour synchroniser les mouvements des lèvres avec la bande audio, rendant l’expérience plus fluide à travers les langues.
Cependant, les deepfakes posent de sérieux problèmes. Ils peuvent compromettre les moyens de subsistance des artistes, en particulier dans l’industrie du doublage. Pire encore, des actrices et des streamers de Twitch ont découvert que leur image avait été utilisée sans leur consentement pour créer des contenus pornographiques.
L’impact des deepfakes dans le domaine politique
Les électeurs doivent être particulièrement vigilants en période d’élection en ce qui concerne les images, vidéos et enregistrements sonores des candidats. Par le passé, des deepfakes ont été utilisés pour manipuler l’opinion publique. Par exemple, un faux message de Joe Biden a été créé pour dissuader les électeurs du New Hampshire de voter, et des images générées par IA de Donald Trump ont été utilisées pour séduire les électeurs noirs.
Sur les réseaux sociaux comme Facebook, TikTok et Instagram, le contenu deepfake peut se propager rapidement et anonymement, rendant particulièrement difficile la vérification des informations.
Parallèlement, certains législateurs commencent à intégrer l’IA pour promouvoir l’accessibilité et l’inclusion, comme en témoignage le discours de la députée Jennifer Wexton utilisant une version de sa voix générée par IA pour souligner l’importance des technologies adaptatives pour les personnes atteintes de troubles neurologiques.
Régulation des deepfakes : défis et solutions
Il n’existe pas encore de réglementation unifiée pour limiter la propagation des contenus deepfake, mais l’UE et les États-Unis commencent à exiger l’étiquetage des images et vidéos créées avec des outils de génération IA. Cette initiative est principalement menée par des entreprises comme Meta sur Instagram et Facebook, ainsi que par des agences de presse.
Toutefois, il est difficile d’établir des lignes directrices fermes, car les outils de manipulation de photos comme Photoshop sont omniprésents. De plus, la formation de l’IA sur des contenus protégés par le droit d’auteur est légale, souvent considérée comme un usage équitable car transformant le contenu en une représentation algorithmique des motifs. Des outils comme Glaze et AntiFake introduisent des perturbations pour protéger les œuvres des artistes, rendant les contenus plus difficiles à deepfaker.
Détection des images et vidéos fausses
Le meilleur détecteur, c’est vous ! La détection automatisée est difficile car ces outils reposent sur les mêmes techniques de reconnaissance de motifs utilisées pour créer des deepfakes. Voici une méthodologie utile, le SILL :
- Stop : Prenez le temps de réfléchir avant de partager ou de réagir à un contenu.
- Investigate : Utilisez des recherches d’image inversées comme Google Lens ou TinEye pour identifier la source originale.
- Look : Repérez les imperfections, comme le flou, les mouvements de caméra incohérents, et les ombres inhabituelles. Les images générées par IA peuvent aussi présenter des anomalies comme un nombre inattendu de doigts.
- Listen : Les voix deepfakées ont souvent un ton monotone, sans les variations de pitch typiques de la voix humaine.
Usage croissant des deepfakes
Positifs | Négatifs |
Effets spéciaux rajeunissants | Compromet les revenus des artistes |
Doublage synchronisé | Contenus pornographiques sans consentement |
Promotion de l’accessibilité | Propagande politique |