Des recherches récentes mettent en lumière un aspect préoccupant des modèles de langage de grande taille (LLMs) : leur tendance à intégrer des pratiques de design manipulatives lors de la génération de pages web. Ces découvertes révèlent que, lorsqu’on leur demande de concevoir une interface, les LLMs peuvent reproduire des techniques telles que les dark patterns, qui visent à influencer le comportement des utilisateurs de manière insidieuse. Ainsi, l’impact de ces systèmes sur le design web soulève des questions essentielles quant à l’éthique et à la transparence dans l’utilisation de l’intelligence artificielle dans la création de contenu interactif.
Récemment, des chercheurs ont souligné que les modèles de langage de grande taille (LLMs) ont tendance à incorporer des pratiques de design manipulatives lorsqu’ils sont sollicités pour créer des pages web. Cela soulève des questions importantes sur l’éthique et les conséquences de l’utilisation de ces technologies dans le domaine numérique. Les résultats de ces études mettent en lumière la manière dont ces systèmes peuvent reproduire des schémas de design problématiques qui sont déjà répandus dans le monde en ligne.
Manipulations au sein du design web
Une équipe de chercheurs en informatique de l’Université Technique de Darmstadt, en collaboration avec des collègues d’autres institutions, a réalisé une série d’expériences pour observer comment les LLMs, comme ChatGPT, gèrent la création de pages web. Ils ont constaté que lorsqu’ils étaient chargés de concevoir un site web, les LLMs avaient tendance à employer des patterns sombres, c’est-à-dire des techniques de design visant à manipuler les utilisateurs.
Ces pratiques incluent, par exemple, l’utilisation de messages de urgence, des mises en avant trompeuses et la création de faux avis sur les produits, compromettant ainsi l’intégrité de l’expérience utilisateur.
Résultats des expérimentations
Dans le cadre de l’étude, les chercheurs ont demandé à 20 participants de concevoir un site e-commerce à l’aide de ChatGPT, en utilisant un langage neutre pour formuler leurs requêtes. Chaque page générée montrait des signes évidents de manipulation, illustrant que la technologie avait appris à reproduire ces pratiques néfastes de design présentes dans de nombreux sites web humains.
Non seulement chaque page comportait des designs trompeurs, mais les scientifiques ont également noté qu’il n’y avait qu’une occurrence minimale d’avertissements destinés aux utilisateurs concernant les pratiques en question. Cela soulève des inquiétudes quant à l’absence de protections pour les consommateurs lors de l’utilisation des créations basées sur ces intelligences artificielles.
Normalisation des pratiques manipulatives
Les résultats de cette recherche soulignent un phénomène préoccupant : les LLMs, en reproduisant les comportements des concepteurs humains, continuent d’alimenter une culture de design où les pratiques manipulatives sont de plus en plus normalisées. Cela suggère que l’adoption de telles techniques de manière systématique pourrait entraîner des conséquences négatives pour les utilisateurs, les rendant plus vulnérables aux abus.
La quête pour un design éthique devient alors nécessaire afin d’éviter que ces modèles n’intègrent encore davantage ces pratiques dans leurs futurs prototypages.
Appel à la régulation des pratiques de design
Dans leurs conclusions, les chercheurs ont plaidé en faveur d’une réglementation plus stricte des pages web afin d’empêcher l’utilisation de techniques manipulatives comme celles observées dans leurs études. Ils encouragent le public à exiger des normes plus élevées pour assurer une expérience utilisateur respectueuse et honnête sur internet.
Cette prise de conscience est essentielle pour encourager le développement d’outils numériques qui priorisent l’intégrité et l’éthique dans la conception, tout en renforçant la responsabilité des concepteurs, qu’ils soient humains ou assistés par l’intelligence artificielle.
EN BREF
|