Une étude récente a mis en lumière les similitudes fascinantes entre les modèles de langage multimodaux (LLM) et le cerveau humain en matière de génération de représentations d’objets. En explorant comment ces modèles développent des conceptions d’objets naturels, les chercheurs ont observé des parallèles significatifs entre les embeddings cognitifs des LLM et ceux des humains. Cette découverte pourrait offrir de nouvelles perspectives sur la façon dont nous interprétons la sensibilité et la cognition, ouvrant ainsi la voie à des avancées dans les domaines de la psychologie, de la neurosciences et de l’intelligence artificielle.
Une étude récente menée par des chercheurs de l’Académie chinoise des sciences met en lumière la manière dont les modèles de langage multimodaux (LLM) et le cerveau humain créent des représentations d’objets. En analysant la façon dont ces systèmes traitent des informations visuelles et linguistiques, les scientifiques ont trouvé de remarquables similitudes entre les processus cognitifs humains et les modèles d’intelligence artificielle. Cette recherche ouvre la voie à une meilleure compréhension de l’interaction entre l’IA et la cognition humaine et pourrait avoir des implications importantes pour l’évolution des techniques d’apprentissage automatique.
Les LLM multimodaux : une approche innovante
Les LLM multimodaux, comme ChatGPT, ont révolutionné le domaine du traitement du langage naturel et de la vision par ordinateur. Ces modèles ont été conçus pour analyser et générer non seulement du texte, mais également des images et des vidéos, rendant leur utilisation particulièrement polyvalente. Grâce à cette capacité, ils sont devenus des outils d’expérimentation précieux pour étudier les représentations d’objets et comprendre comment ces représentations sont construites.
Une étude révélatrice sur les représentations d’objets
Les chercheurs se sont concentrés sur deux modèles spécifiques – ChatGPT-3.5 d’OpenAI et GeminiPro Vision 1.0 de Google DeepMind. Ils ont utilisé des tâches appelées « jugements de triplet », où les modèles doivent identifier deux objets parmi un ensemble de trois, ayant des caractéristiques similaires. Cette méthode a permis de rassembler un ensemble de données impressionnant comprenant 4,7 millions de jugements, qui a servi de base pour analyser les dimensions des représentations d’objets.
Résultats mettant en lumière les modèles de LLM
Les résultats montrent que les embeddings de faible dimension obtenus à partir des jugements sont à la fois stables et prédictifs. Ces embeddings, qui représentent des objets selon différentes dimensions, montrent que les modèles parviennent à créer des catégories significatives telles que « animaux » et « plantes ». Ces observations suggèrent que les LLM et les multimodaux organisent les objets de manière comparable à la façon dont le cerveau humain classe et perçoit différentes catégories.
Alignement entre les LLM et l’activité cérébrale humaine
Une autre découverte marquante de cette recherche a été l’alignement entre les embeddings générés par les LLM et les schémas d’activité neuronale dans des zones clés du cerveau humain. Des régions telles que l’aire corpo-extra-striée, l’aire de lieu para-hippocampale, le cortex rétro-splénial et l’aire fusiforme des visages montrent des modèles d’activation qui correspondent aux représentations d’objets des LLM. Ce constat témoigne de similitudes profondes entre l’interprétation des objets par les modèles d’IA et celle des humains, même si ces représentations ne sont pas identiques.
Implications potentielles pour l’IA et la recherche
Les résultats de cette étude ouvrent de nouvelles perspectives sur la façon dont les LLM pourraient être utilisés pour améliorer notre compréhension du fonctionnement du cerveau humain. L’idée que des représentations d’objets de type humain peuvent émerger naturellement chez les LLM après avoir été exposés à de grandes quantités de données suggère que les techniques d’IA pourraient être affinées pour mieux imiter les processus cognitifs biologiques. Cela pourrait non seulement enrichir la recherche fondamentale en psychologie et neurosciences, mais également influencer le développement d’algorithmes d’IA inspirés du cerveau.
Cette recherche illustre l’importance croissante des LLM multimodaux dans l’étude des mécanismes cognitifs humains. En intégrant des approches quantitatives et qualitatives, les chercheurs poursuivent des pistes prometteuses pour explorer les relations entre l’IA et la cognition humaine. Ce faisant, ils contribuent à la formation d’un cadre de recherche qui pourrait écrire le chapitre suivant de l’évolution de l’intelligence artificielle.
Pour en savoir plus sur la manière dont les modèles de langage interprètent les données, consultez des articles complémentaires sur la représentation des données, la reproduction numérique des plumes, et l’élimination des effets dans les scènes sous-marines. Vous pouvez également explorer une approche multiforme pour l’évaluation automatisée et lire sur l’évolution des femmes dans le jeu vidéo.
EN BREF
|