L’ia pense comme nous, avec ses défauts : une étude révèle que ChatGPT reflète les biais décisionnels humains dans la moitié des tests

Une étude récente a mis en lumière le fait que l’intelligence artificielle, notamment le système ChatGPT développé par OpenAI, présente des similitudes troublantes avec les décisions humaines. En effet, cette recherche démontre que ChatGPT reflète des biais décisionnels similaires à ceux observés chez les êtres humains dans près de la moitié des tests effectués. Alors que l’IA excelle dans certaines tâches analytiques, elle se retrouve piégée dans des traps cognitifs semblables à ceux que nous rencontrons, mettant en lumière les limites de sa capacité à fournir des jugements entièrement objectifs.

Résumé de l’étude

Une récente étude met en lumière les biais décisionnels présents dans l’IA, et en particulier dans ChatGPT, un modèle avancé développé par OpenAI. Les chercheurs ont constaté que, dans presque la moitié des tests, ChatGPT a exhibé des biais similaires à ceux des humains, comme l’overconfidence ou la conjonction fallacy, révélant ainsi que même les systèmes d’IA ne sont pas à l’abri de défauts cognitifs. Dans certaines situations, l’IA peut agir de manière plus rationnelle, mais dans d’autres, elle reproduit les erreurs humaines.

L’IA et ses biais mimétiques

Dans l’étude intitulée « Un Manager et une IA Entrent dans un Bar : ChatGPT Prend-il des Décisions Biaisées Comme Nous ? », les chercheurs ont soumis ChatGPT à 18 tests spécifiques révélant des biais décisionnels. Les résultats montrent que l’IA tend à reproduire certaines des erreurs fréquentes que les humains commettent, comme l’ambiguïté ou l’éviction de risques. Cela soulève la question de la fiabilité de l’IA pour des décisions critiques dans divers domaines, tels que l’embauche ou l’octroi de prêts.

L’IA face à des jugements complexes

Bien que l’IA excelle dans des tâches mathématiques ou logiques, elle semble lutter face à des jugements subjectifs. Par exemple, même si ChatGPT peut correctement résoudre des problèmes de probabilité, elle montre des faiblesses lorsqu’il s’agit de décisions impliquant une réflexion plus nuancée. Cela souligne la nécessité d’une approche prudente lors de l’intégration de l’IA dans des domaines requérant des jugements humains critiques.

Les implications de l’étude

Les résultats de cette recherche sont particulièrement importants dans un contexte où l’IA influence déjà de manière significative les décisions dans les secteurs public et privé. Les stratégies employées par l’IA, qui imitent ces biais humains, pourraient renforcer des décisions inappropriées au lieu de les corriger. Comme l’indique Yang Chen, l’auteur principal de l’étude, l’IA, lorsqu’elle est utilisée pour prendre des décisions, peut, en fin de compte, utiliser les mêmes raccourcis mentaux que les humains.

Vers une régulation de l’IA

Les gouvernements à travers le monde commencent à explorer des réglementations pour superviser l’utilisation de l’IA. Si l’IA peut être biaisée autant que les humains, cela soulève des questions sur sa capacité à effectuer des choix importants. Samuel Kirshner, un des experts en la matière, avertit que, sans un contrôle adéquat, l’IA pourrait aggraver les problèmes de prise de décision plutôt que les résoudre.

Surveillance et éthique dans l’IA

L’étude suggère que les entreprises et les décideurs doivent porter une attention particulière aux décisions prises par l’IA, tout comme s’ils surveillaient un décideur humain. Meena Andiappan de l’université McMaster souligne qu’il est crucial de traiter l’IA comme un employé chargé de prendre des décisions importantes, nécessitant ainsi des directives éthiques et un suivi rigoureux. Cela est essentiel pour éviter d’automatiser une réflexion erronée au lieu de l’améliorer.

Évolutions et vérification de l’IA

Les recommandations des auteurs de l’étude incluent des audits réguliers des décisions prises par l’IA et un perfectionnement continu des systèmes d’IA pour réduire les biais. L’évolution des modèles d’IA, comme le passage de GPT-3.5 à GPT-4.0, montre une tendance vers une meilleure précision, mais également un besoin accru de vigilance pour éviter les pièges cognitifs. Les gestionnaires doivent donc évaluer comment ces modèles se comportent dans des cas pratiques et régulièrement réévaluer leur efficacité afin d’éviter des surprises.

Pour approfondir le sujet des biais des chatbots, vous pouvez consulter ces articles intéressants : la contamination par la désinformation, nouvelles techniques contre les corrélations spurielles, la formation pour des systèmes moins biaisés, les biais subtils liés à la race, et le phénomène des biais politiques dans l’IA.

EN BREF

  • AI ne remplace pas totalement l’humain dans la prise de décision.
  • ChatGPT montre des biais similaires à ceux des humains lors de tests.
  • Prédominance de biais comme l’overconfidence et la conjonction fallacy.
  • Excellente précision en calculs logiques, mais faiblesse dans les décisions subjectives.
  • Nouveau modèle GPT-4 présente des biais plus forts dans certains contextes de jugement.
  • Importance de surveiller les décisions d’IA en tant qu’agent décisionnel.
  • Recommandation de audits réguliers et de raffinement des systèmes AI.