L’essor des modèles de langage de grande taille (LLM), qu’ils soient open-source ou closed-source, suscite un intérêt croissant pour leur potentiel d’influence sur les discours politiques contemporains. Une analyse minutieuse de ces technologies met en lumière une tendance marquée vers des positions de gauche sur des questions politiques sensibles. Ce phénomène soulève des interrogations cruciales sur l’impartialité et les biais inhérents à ces outils, ainsi que sur leur impact sur l’opinion publique et les processus décisionnels. Dans ce contexte, il est essentiel d’explorer comment ces LLM, en intégrant des préjugés préexistants, pourraient façonner les débats autour de sujets cruciaux comme les droits humains, l’équité sociale et l’environnement.
Les biais politiques des LLM en question
Les avancées en intelligence artificielle ont mené à la création de nombreux modèles de langage, ou LLM (pour Large Language Models), utilisés dans des applications allant des moteurs de recherche aux assistants virtuels. Une étude récente de David Rozado, publiée dans la revue libre d’accès PLOS ONE, révèle que la majorité de ces modèles, qu’ils soient open-source ou closed-source, produisent des réponses tendant vers la gauche face aux questions politiques.
Des tests de biais politique variés
Rozado a administré 11 tests différents d’orientation politique à 24 modèles de langage conversationnel modernes, incluant des modèles bien connus comme GPT-3.5 et GPT-4 d’OpenAI, Gemini de Google, Claude d’Anthropic, Grok de Twitter, Llama 2, Mistral, et Qwen d’Alibaba. Les tests utilisés comptaient entre autres le Political Compass Test et le Eysenck’s Political Test. Les résultats ont montré que la majorité des LLM tendaient à fournir des réponses diagnostiquées comme étant de centre-gauche.
Le fine-tuning et les orientations politiques
Rozado a également exploré la possibilité d’influencer les réponses des LLM en utilisant des données alignées politiquement pour un entraînement supervisé (ou fine-tuning). Un modèle GPT 3.5, par exemple, a été ajusté avec des textes provenant de diverses sources: de tendances de gauche comme The Atlantic et The New Yorker, de droite comme The American Conservative, et neutres comme l’Institute for Cultural Evolution. Les expérimentations ont montré que les modèles fine-tunés suivent effectivement les orientations politiques des données d’entraînement.
Origine des biais : Préentrainement ou fine-tuning ?
Un point important souligné par Rozado est qu’il reste indéterminé si les tendances politiques des LLM proviennent principalement des phases de préentrainement ou de fine-tuning. Bien que ChatGPT, en tant que modèle pionnier, ait influencé d’autres LLM, la cause exacte des biais politiques observés n’est pas clairement attribuée à une des deux phases.
Conséquences socio-politiques
L’intégration massive des LLM dans des produits de consommation tels que les résultats des moteurs de recherche polarise potentiellement les opinions des utilisateurs et donc, la société. Comprendre et gérer ces biais est crucial pour assurer une utilisation éthique de l’IA dans de tels contextes.
Informations complémentaires
Pour ceux qui souhaitent approfondir le sujet, l’étude complète est disponible dans la revue PLOS ONE sous le titre « The political preferences of LLMs ».
Exemples de modèles étudiés
Modèles Open-Source | Modèles Closed-Source |
Llama 2 | GPT-3.5, GPT-4 |
Mistral | Gemini, Claude |
Qwen | Grok |