Une récente étude menée par des chercheurs de l’Université de Zhejiang a mis en lumière des similitudes surprenantes dans la façon dont les humains et les modèles de langage, tels que ChatGPT, génèrent et représentent des phrases. En s’appuyant sur une tâche innovante d’apprentissage, les participants humains et les modèles ont été invités à supprimer des éléments de phrases, révélant ainsi une approche commune dans le traitement et la représentation syntactique du langage. Les résultats de cette recherche ouvrent de nouvelles perspectives sur la cognition linguistique et les mécanismes sous-jacents qui gouvernent la compréhension du langage chez les humains comparés aux intelligences artificielles.
Une récente étude menée par des chercheurs de l’Université de Zhejiang a mis en avant des similarités étonnantes dans la façon dont les humains et les modèles de langage, tels que ChatGPT, génèrent des représentations des phrases. Grâce à une tâche innovante de représentation de phrases, les résultats démontrent que les deux groupes tendent à supprimer les mêmes types de mots, suggérant ainsi une base cognitive commune dans le traitement linguistique.
Contexte de l’étude
Depuis des décennies, les psychologues et les scientifiques du comportement s’efforcent de comprendre comment les individus représentent, encodent et traitent les lettres, les mots et les phrases. L’émergence de modèles de langage de grande taille (LLMs) a ouvert de nouvelles possibilités de recherche dans ce domaine, ces modèles étant spécialement conçus pour créer et traiter des textes dans différentes langues humaines. L’objectif est de mieux saisir les processus cognitifs impliqués dans l’encodage et le déchiffrement du langage.
Méthodologie de l’étude
Les chercheurs ont conçu une tâche unique pour étudier la représentation des phrases et ont testé à la fois des LLMs et des humains. Leur étude, publiée dans Nature Human Behavior, a impliqué 372 participants humains, tous utilisateurs natifs de chinois ou d’anglais, ainsi que des bilingues. Les participants ont été confrontés à une tâche linguistique qui a également été exécutée par ChatGPT.
La tâche expérimentale
Au cours de l’expérience, les participants devaient supprimer une série de mots d’une phrase. Chaque essai montrait à la fois aux humains et à ChatGPT une démonstration unique, après quoi ils devaient déduire la règle à suivre pour supprimer les mots. Selon les chercheurs, les participants et les LLMs avaient pour mission de déterminer quels mots devaient être supprimés d’une phrase, et les résultats ont montré une tendance à éliminer des constituants, suivant des règles spécifiques à chaque langue.
Résultats et implications
Les conclusions des chercheurs indiquent que les représentations internes des phrases chez les LLMs s’alignent avec la théorie linguistique. Tant les humains que ChatGPT ont tendance à supprimer des constituants grammaticaux cohérents plutôt que des séquences de mots aléatoires. De plus, les chaînes de mots supprimées variaient en fonction de la langue utilisée pour la tâche, suivant des règles spécifiques aux langues chinoise et anglaise.
Rôle des représentations syntaxiques latentes
Les résultats avancent que le traitement linguistique, tant chez les humains que chez les LLMs, est guidé par des représentations syntaxiques latentes. En effet, l’étude a révélé que la structure d’arbre des constituants sous-jacente pouvait être reconstruite à partir des chaînes de mots supprimées par les deux groupes. Ces résultats ne peuvent pas être expliqués par des modèles se basant uniquement sur les propriétés et les positions des mots.
Perspectives futures
Les découvertes de cette recherche posent les bases pour de futures études sur les motifs de représentation linguistique des LLMs et des humains. Des adaptations de la tâche de suppression de mots pourraient être mises en œuvre, ou de nouveaux paradigmes pourraient être explorés pour approfondir notre compréhension de la façon dont le langage est traité entre l’intelligence humaine et artificielle.
Pour en savoir plus sur les avancées en matière de modèles de langage et leur impact sur la cognition humaine, vous pouvez consulter des articles supplémentaires, tels que celui-ci sur la représentation du langage dans le cerveau.
Cette étude souligne l’importance des recherches actuelles à l’intersection de la psychologie et de l’intelligence artificielle, et ouvre des discussions essentielles sur nos capacités linguistiques et cognitives. Pour des réflexions connexes sur l’évolution des modèles de langage et leur utilisation, jetons également un œil à des sujets plus larges, tels que les défis de la détection humaine en 3D (ici), ou le rôle des femmes dans le jeu vidéo (ici). En intégrant ces éléments à notre discussion, nous pouvons apprécier la complexité et l’interconnexion des avancées dans le champ du traitement du langage naturel.
EN BREF
|