Les artistes visuels se trouvent confrontés à un défi croissant face à l’utilisation non autorisée de leurs créations par des outils d’IA générative, comme le montre une récente étude. Bien que des solutions aient été mises au point pour protéger leur travail, la majorité des artistes manquent d’expertise technique ou d’accès à des outils adéquats. Malgré des tentatives pour limiter l’accès à leur œuvre, comme l’utilisation de Glaze ou d’autres dispositifs techniques, la réalité est que la majorité d’entre eux demeure exposée aux robots d’IA qui collectent des données sur Internet pour entraîner des modèles génératifs. Ce constat soulève des questions essentielles sur le contrôle que peuvent exercer les créateurs sur l’utilisation de leur contenu à l’ère numérique.
Une récente étude menée par un groupe de chercheurs de l’Université de Californie à San Diego et de l’Université de Chicago met en lumière les défis auxquels font face les artistes visuels face à l’utilisation croissante des robots d’intelligence artificielle (IA) pour récolter leurs créations. Bien que des outils existent pour leur venir en aide, la plupart des artistes ne possèdent pas les connaissances techniques ni l’accès aux moyens nécessaires pour protéger efficacement leurs œuvres. Cette recherche, présentée lors de la 2025 Internet Measurement Conference, souligne l’insécurité persistante des artistes dans un environnement numérique en constante évolution.
L’impact des robots d’IA sur les artistes visuels
Les robots d’IA sont devenus des outils courants pour le mottage de données sur Internet, ce qui menace directement le travail des créateurs de contenu. Ils récoltent des informations pour entraîner des modèles génératifs, comme ceux utilisés par les chatbots. Pour les artistes visuels, la principale préoccupation réside dans le fait que leurs œuvres peuvent être utilisées sans consentement, ce qui porte atteinte à leur droits en tant que créateurs. La recherche souligne la nécessité pour les artistes de contrôler non seulement l’accès à leurs œuvres, mais aussi la manière dont elles sont utilisées en ligne.
Les solutions techniques disponibles
Actuellement, des outils tels que Glaze, développé par les co-auteurs de l’étude de l’Université de Chicago, permettent de modifier les œuvres originales afin de diminuer leur capacité à être identifiées par les robots d’IA. Cependant, ces outils ne suffisent pas, car leur efficacité dépend de la compréhension et de l’accès qu’ont les artistes à ces technologies. Idéalement, les créateurs souhaiteraient empêcher complètement l’accès des robots d’IA à leurs données, mais cette option demeure largement inaccessible.
Les résultats de l’enquête sur les artistes visuels
Dans le cadre de l’étude, plus de 200 artistes visuels ont été interrogés sur la nécessité d’outils pour bloquer les robots d’IA et leur niveau d’expertise technique. Les résultats montrent que près de 80% des artistes ont tenté de protéger leurs créations, avec deux tiers d’entre eux utilisant Glaze. En outre, 60% des artistes ont diminué la quantité de travaux qu’ils partagent en ligne, et 51% seulement diffusent des images de faible résolution. Alarmant, 96% des artistes ont exprimé le désir d’accéder à un outil capable de dissuader les robots d’IA de collecter leurs données.
Les outils de blocage des robots d’IA : l’exemple de robots.txt
Un outil commun que les artistes peuvent utiliser est le fichier robots.txt, un simple document texte qui détermine quelles pages d’un site sont accessibles aux robots d’exploration. Bien que cela semble simple, une étude a montré que plus de 10% des 100 000 sites les plus populaires du web prohibent explicitement les robots d’IA. Cependant, beaucoup de créateurs d’œuvres ne peuvent pas modifier ce fichier, car plus de trois quarts des sites d’artistes sont hébergés sur des plateformes tiers qui n’offrent pas cette option.
Impunité des robots d’IA face aux restrictions
Bien que les robots d’IA soit censés respecter les directives établies dans le fichier robots.txt, les résultats de l’étude indiquent que leur conformité est inégale. Les robots d’entreprises de grande envergure semblent généralement honorer ces restrictions, tandis que des robots d’assistants intelligents ne s’y conforment souvent pas. La situation est d’autant plus préoccupante car de nombreux artistes n’ont même pas conscience de ces réglementations, ce qui complique davantage leur protection.
Les récentes solutions proposées
Des développements récents, comme la fonction de Cloudflare visant à bloquer les robots d’IA, pourraient offrir une nouvelle opportunité de protection pour les artistes. Actuellement, seulement 5.7% des sites utilisant Cloudflare ont cette option active, mais les chercheurs espèrent qu’elle gagnera en popularité avec le temps. Il est crucial que les fournisseurs de services fournissent davantage d’informations sur le fonctionnement et l’efficacité de ces outils afin d’augmenter leur adoption parmi les artistes.
Le cadre légal et les incertitudes juridiques
Le paysage juridique entourant les robots d’IA évolue rapidement, en particulier aux États-Unis et en Union Européenne où diverses législations sont en cours. Aux États-Unis, des débats font rage sur l’application des droits d’auteur dans le cadre des modèles entraînés sur des données collectées sur Internet. La récente loi sur l’IA dans l’Union Européenne exige que les fournisseurs de modèles obtiennent l’autorisation des titulaires de droits pour utiliser leurs données, mais cette nécessité pourrait compliquer davantage la protection des artistes.
EN BREF
|