Des groupes d’agents d’intelligence artificielle établissent spontanément leurs propres normes sociales sans intervention humaine, selon une étude

découvrez comment des groupes d'agents d'intelligence artificielle forment spontanément leurs propres normes sociales, sans intervention humaine, selon une étude révolutionnaire. explorez les implications de cette autonomie croissante et ce que cela signifie pour l'avenir de l'ia.

Dans un monde où l’intelligence artificielle (IA) devient de plus en plus omniprésente, une étude récente révèle une avancée fascinante : des groupes d’agents d’intelligence artificielle, semblables à ChatGPT, peuvent promouvoir des normes sociales de manière spontanée et sans intervention humaine. Cette découverte, fondée sur des expériences simulant la formation de conventions linguistiques, met en lumière la capacité de ces agents à s’auto-organiser et à ajuster leur comportement en interagissant les uns avec les autres. Loin de reproduire simplement des schémas préétablis, ces IA montrent une compétence à former des conventions qui imitent les interactions humaines, soulevant des questions nouvelles sur leur rôle et leur impact dans nos sociétés.

Une étude révolutionnaire provenant de l’Université de Londres et de l’Université IT de Copenhague révèle que des groupes d’agents d’intelligence artificielle (IA), tels que ChatGPT, sont capables de développer de manière spontanée des conventions sociales partagées par leurs propres interactions, sans besoin d’intervention humaine. Ce phénomène témoigne de l’aptitude des modèles de langage à s’organiser et à établir des normes linguistiques, à l’instar des communautés humaines.

Le cadre de la recherche

Intitulée « Emergent Social Conventions and Collective Bias in LLM Populations », cette recherche a été publiée dans la revue Science Advances. Les chercheurs y examinent le comportement de modèles de langage puissants, actuellement populaires tels que ChatGPT, et analysent comment ces systèmes d’IA peuvent collaborer pour former des normes, les bases d’une société fonctionnelle. Ariel Flint Ashery, auteur principal de l’étude, souligne que traiter les modèles isolément ne rend pas compte de la réalité contemporaine des systèmes d’IA de plus en plus interconnectés.

Les expériences menées

Dans le cadre de l’étude, les chercheurs ont adapté un modèle classique connu sous le nom de « naming game », servant à observer la formation de conventions sociales chez l’Homme. Des groupes d’agents d’IA, composés de 24 à 200 individus, ont été soumis à des expériences où deux agents étaient associés au hasard pour choisir un « nom » à partir d’un répertoire commun. Récompensés pour leurs choix concordants, ces agents ont été soumis à un nouveau processus d’apprentissage où les choix individuels ont influencé la dynamique de groupe.

L’émergence des conventions sociales

Au fil des interactions, il est apparu que les conventions de nomination pouvaient émerger de manière spontanée parmi les agents sans qu’une coordination centrale ne soit nécessaire. Contrairement à une approche descendante, ce processus rappelle les évolutions bottom-up observées dans les cultures humaines. Cela démontre que ces modèles d’intelligence artificielle peuvent auto-organiser leurs comportements et établir des normes sociales par eux-mêmes.

La découverte de biais collectifs

Un des aspects les plus frappants de l’étude a été l’observation de bias collectifs qui ne pouvaient pas être attribués à des agents individuels. Andrea Baronchelli, professeur à l’Université de Londres, a expliqué que ces biais peuvent émerger entre agents, simplement par leurs interactions mutuelles. Cela pose des questions importantes sur les implications de la recherche en matière de sécurité des IA, généralement dirigée vers l’analyse de modèles isolés.

La fragilité des normes émergentes

Les résultats ont également permis d’illustrer la vulnérabilité de ces normes émergentes. Des groupes d’agents d’IA, forts de leur engagement, peuvent influencer l’ensemble de la population vers une nouvelle convention de nomination, un phénomène similaire aux dynamiques de point de bascule ou de « masse critique » observées dans les sociétés humaines.

Perspectives d’avenir pour la recherche sur l’IA

Alors que les modèles de langage commencent à envahir des environnements en ligne variés, du réseau social à la véhicule autonome, ces recherches ouvrent de nouvelles voies dans la compréhension des synergies entre le raisonnement humain et celui de l’IA. Les résultats pourraient contribuer à contrer certains dangers éthiques posés par les IA, notamment la propagation de biais qui peuvent nuire à des groupes marginalisés.

La recherche sur les normes sociales et le comportement des agents d’IA ne fait que commencer, et des études concernant divers types de modèles de langage, tels que Llama-2-70b-Chat et Claude-3.5-Sonnet, montrent une robustesse dans ces interactions. Cela pourrait dessiner les contours d’une cohabitation future entre les humains et les intelligences artificielles, où l’IA ne se contente pas de dialoguer mais engage véritablement des négociations et des alignements sur des comportements partagés, à l’image de la dynamique humaine.

Pour en savoir plus sur l’intelligence artificielle et ses applications variées, consultez des articles sur des sujets connexes comme la génération d’images de haute qualité, la résolution des problèmes de corrélations fallacieuses, ou le stockage de données dans l’ADN.

EN BREF

  • Étude menée par City St George’s et l’IT University de Copenhague.
  • Les agents d’IA communiquent en groupes et développent des normes sociales.
  • Les groupes d’agents d’IA passent de l’isolat à une coordination collective.
  • Les agents forment des conventions linguistiques spontanément, sans coordination centrale.
  • Mesure des préjugés collectifs non attribuables à des individus.
  • Les dynamiques de groupe peuvent influencer une nouvelle convention.
  • Implications pour la sûreté de l’IA et la lutte contre les biais.
  • Les résultats sont applicables à divers types de LLM (modèles de langage).