Dans le contexte actuel où l’intelligence artificielle joue un rôle significatif dans la formation des récits politiques, une récente étude met en lumière la possibilité d’ajuster les modèles de langage de grande taille pour qu’ils reflètent des biais politiques spécifiques. Des chercheurs ont développé un outil, dénommé PoliTune, qui permet de modifier les réponses de ces modèles en fonction de diverses idéologies, soulevant ainsi des questions éthiques cruciales sur l’impact potentiel de ces technologies sur l’opinion publique et le discours démocratique.
Dans un monde où l’intelligence artificielle (IA) influence de plus en plus le discours public et les narrations politiques, une étude récente a mis au jour la possibilité d’adapter des modèles de langage de grande taille (LLM) de manière à promouvoir des biais politiques spécifiques. Ce travail de recherche, mené par une équipe de l’Université Brown, a donné naissance à un outil baptisé PoliTune qui permet de modifier les réponses d’IA afin qu’elles correspondent à des idéologies politiques particulières.
Le cadre de recherche et ses implications
Alors que les modèles de langage jouent un rôle majeur dans la création de contenus en ligne, y compris des articles d’actualités et des discours politiques, la compréhension des biais qui peuvent être insérés dans ces systèmes est cruciale. Selon les chercheurs, ces ajustements peuvent se faire facilement, en manipulant les données d’entraînement utilisées, ce qui soulève d’importantes inquiétudes éthiques concernant l’utilisation de l’IA pour influencer l’opinion publique. En effet, il suffit de quelques modifications pour orienter les réponses d’un modèle de langage vers une tonalité idéologique marquée, qu’elle soit de gauche ou de droite.
Fonctionnement de PoliTune
Le processus derrière PoliTune repose sur une méthode nommée affinage ou fine-tuning, qui permet d’apporter des ajustements mineurs à des modèles couramment utilisés comme LLaMa et Mistral. Par exemple, des ensembles de données provenant de plateformes politiques biaisées peuvent être utilisés pour orienter un modèle vers une perspective particulière. Par cette technique, il est possible d’inculquer un biais sans devoir réinventer complètement le modèle, rendant le processus à la fois rapide et efficace.
Implications pour le discours public
Les chercheurs soulignent que cela pose des questions essentielles sur la manière dont les LLM peuvent être exploités après leur mise à disposition au public. Si des entités, qu’elles soient des organisations ou des individus, peuvent modifier le comportement d’un LLM pour promouvoir un discours partisan, cela pourrait avoir un impact significatif sur la façon dont les informations sont partagées et comprises. Les conséquences de tels ajustements ne se limitent pas aux biais idéologiques, mais touchent également des aspects socio-économiques qui peuvent influencer une vaste gamme de débats publics.
Évaluation des biais politiques
Pour évaluer les effets des ajustements effectués sur les LLM, les chercheurs ont utilisé des méthodes telles que le scoring GPT et l’évaluation via le Political Compass. Ces outils permettent d’analyser et de visualiser comment les réponses données par les modèles se positionnent le long d’un axe politique, allant de l’extrême gauche à l’extrême droite. En utilisant des questions ciblées, comme celles portant sur des partis politiques ou des sujets de société, il devient alors possible de discerner les variations de réponses générées par les modèles en fonction de leur orientation politique.
Perspectives futures
Avec les résultats prometteurs obtenus dans cette phase de preuve de concept, les chercheurs envisagent de tester si les modèles ajustés peuvent réellement influencer les opinions des utilisateurs au fil des interactions. Le but n’est pas de manipuler les préférences politiques, mais plutôt de souligner à quel point il est facile d’orienter un modèle vers des biais spécifiques. À ce stade, l’accent est mis sur la transparence et la sensibilisation des utilisateurs face à ces ajustements potentiels.
En somme, l’étude de l’Université Brown révèle une facette préoccupante des capacités d’adaptation des modèles de langage, mettant en lumière la nécessité d’une vigilance accrue dans la manière dont ces technologies sont déployées dans l’arène publique. Pour une compréhension plus approfondie des biais présents dans les modèles de langage et des stratégies innovantes pour les combattre, il peut également être utile de consulter des travaux supplémentaires sur ce sujet, tels que ceux relatifs aux biais racistes dans les modèles de langage ou les tendances politiques observées.
Plus d’informations :
PoliTune : Analyzing the Impact of Data Selection and Fine-Tuning on Economic and Political Biases in Large Language Models. ojs.aaai.org/index.php/AIES/article/view/31612/33779
EN BREF
|