L’interaction entre les êtres humains et l’intelligence artificielle (IA) est un phénomène fascinant qui prend une ampleur croissante à mesure que ces technologies deviennent omniprésentes dans nos vies quotidiennes. Lors des phases d’apprentissage, les comportements de l’IA ne sont pas uniquement façonnés par des algorithmes et des données, mais également par les échanges et les influences des utilisateurs qui interagissent avec elle. Ces relations humaines jouent un rôle clé dans le processus d’apprentissage des machines, impactant leur capacité à comprendre, à s’adapter et à évoluer en fonction des attentes et des comportements des utilisateurs. Ainsi, il est crucial d’explorer comment ces interactions façonnent le développement de l’IA et, par ricochet, redéfinissent notre rapport à ces technologies émergentes.
Une récente étude transdisciplinaire, menée par des chercheurs de l’Université de Washington à St. Louis, a révélé un phénomène psychologique inattendu à l’intersection du comportement humain et de l’intelligence artificielle (IA). Lorsque les participants ont été informés qu’ils entraînaient une IA à jouer à un jeu de négociation, ils ont activement ajusté leur propre comportement pour paraître plus équitables et justes. Cette impulsion pourrait avoir des implications importantes pour les développeurs d’IA dans le monde réel.
Motivations derrière l’entraînement de l’IA
Les sujets de l’étude semblaient motivés à entraîner l’IA pour qu’elle soit plus équitable, ce qui est encourageant. Cependant, tous les individus n’ont pas forcément les mêmes intentions. Les développeurs doivent être conscients du fait que les gens modifient intentionnellement leur comportement lorsqu’ils savent qu’il sera utilisé pour entraîner une IA.
Expériences et observations
L’étude a inclus cinq expériences, chacune avec environ 200 à 300 participants. Les sujets ont joué à l' »Ultimatum Game », un jeu de négociation impliquant de petits paiements en espèces avec d’autres joueurs humains ou un ordinateur. Dans certains cas, ils ont été informés que leurs décisions seraient utilisées pour enseigner à un bot IA comment jouer au jeu.
Les joueurs qui pensaient qu’ils entraînaient une IA avaient tendance à rechercher une part équitable du paiement, même si cela leur coûtait quelques dollars. Fait intéressant, ce changement de comportement a persisté même après qu’ils ont été informés que leurs décisions n’étaient plus utilisées pour entraîner l’IA, suggérant que l’expérience de façonner la technologie avait un impact durable sur la prise de décision.
Aspects psychologiques et habit formation
En tant que scientifiques cognitifs, l’intérêt pour la formation des habitudes est élevé. Cette étude fournit un exemple intriguant car le comportement des participants a continué même lorsqu’il n’était plus nécessaire. L’impulsion derrière ce comportement n’est pas entièrement claire ; il est possible que les participants n’aient pas ressenti une forte obligation de rendre l’IA plus éthique, mais aient plutôt exprimé des tendances naturelles à rejeter les offres injustes.
Conséquences pour les développeurs d’IA
Cette étude souligne l’importance de l’élément humain dans la formation de l’IA. La plupart des formations d’IA sont basées sur des décisions humaines. Si les biais humains pendant l’entraînement de l’IA ne sont pas pris en compte, l’IA résultante sera également biaisée. Ces dernières années, nous avons vu de nombreux problèmes découler de ce décalage entre l’entraînement et le déploiement de l’IA.
Par exemple, certains logiciels de reconnaissance faciale sont moins précis pour identifier les personnes de couleur, en partie parce que les données utilisées pour former l’IA sont biaisées et non représentatives.
Perspectives futures
Lauren Treiman, l’auteur principal de l’étude, poursuit des expériences de suivi pour mieux comprendre les motivations et les stratégies des personnes qui forment l’IA. Elle souligne l’importance de considérer les aspects psychologiques en informatique.
Facteurs influençant l’entraînement de l’IA
Facteurs humains | Impact sur l’IA |
Équité et justice | Orientation des décisions pour réduire les biais |
Biais naturels | Risque de transmission de préjugés |
Motivations individuelles | Diversité dans l’apprentissage de l’IA |
Compétences cognitives | Influence sur la formation des habitudes de l’IA |