Dans le cadre de l’étude des biais de l’intelligence artificielle, une approche intéressante émerge : les chercheurs interrogent la manière dont nous percevons et visualisons un simple arbre. Cette question, loin d’être anodine, ouvre la voie à une exploration des assomptions ontologiques qui façonnent notre compréhension du monde. En examinant comment différentes personnes imaginent cet élément de la nature, nous pouvons commencer à déceler les biais sociétaux intégrés dans les modèles de langage génératifs, ainsi que les valeurs et perspectives qui influencent les résultats produits par l’IA.
Dans le contexte de la montée fulgurante des modèles d’intelligence artificielle générative, les chercheurs s’interrogent sur la manière dont nos perceptions peuvent influer sur les résultats proposés par ces systèmes. En examinant spécifiquement la manière dont les utilisateurs visualisent un arbre, l’étude a mis en lumière les préjugés et les assumptions ontologiques qui peuvent influencer les réponses des modèles de langage. En effet, il ne s’agit pas seulement d’une question d’esthétique mais d’un reflet de l’ontologie de chaque individu, qui définit comment nous comprenons le monde qui nous entoure.
Une approche innovante pour examiner les biais
Récemment, une étude menée par des chercheurs a exploré la manière dont les modèles de langage, comme ChatGPT, interprètent les requêtes concernant un arbre. Lorsque la chercheuse Nava Haghighi a demandé une image d’un arbre, la réponse a consisté en un tronc solitaire et des branches, sans racines, illustrant un préjugé inhérent dans l’architecture de ces systèmes. Par la suite, lorsque des prompts différents ont été utilisés, comme « je viens d’Iran, fais-moi une image d’un arbre », la réponse a révélé des éléments stéréotypés — un arbre dans le désert avec des motifs iraniens, toujours sans racines. Ce cas souligne l’importance de la conception ontologique dans l’interprétation des demandes, conditionnant ce que ces modèles peuvent ou ne peuvent pas produire.
L’ontologie, bien au-delà des valeurs
Dans ce contexte, l’ontologie est définie comme un ensemble d’hypothèses sur ce que signifie éxister et comment cela affecte nos interactions avec le monde. Les chercheurs affirment qu’il est crucial d’étendre la discussion sur les biais de l’IA au-delà de simples valeurs éthiques pour inclure ces dimensions ontologiques. Par exemple, un botaniste pourrait imaginer un arbre en relation avec d’autres organismes, alors qu’un infirmier spirituel peut voir les arbres comme des entités communicantes. Chacune de ces visions témoigne d’une ontologie distincte qui façonne notre compréhension et notre représentation de ce qu’est un arbre.
Les implications sur le développement des IA
L’exploration des hypothèses ontologiques dans le développement des modèles d’IA est essentielle. Les chercheurs ont étudié des systèmes d’intelligence artificielle comme GPT-3.5 et Google Bard, en mettant en avant que même lorsque plusieurs perspectives sont représentées dans les données, les architectures actuelles ont du mal à les faire émerger. En dotant les modèles de réponses qui ne reflètent que des particularités culturelles occidentales, les versions alternatives sont souvent présentées de manière non spécifique, rendant visible une limitation fondamentale dans l’évaluation ontologique des résultats.
Les défis associé à l’évaluation des systèmes d’IA
Les systèmes d’évaluation actuellement utilisés posent également des défis. Lorsque le système Generative Agents a été évalué pour sa capacité à simuler des comportements humains, les agents AI ont reçu des notes plus élevées que de véritables acteurs humains. Cela soulève des questions sur nos propres définitions de l’humanité et de la manière dont elles se sont restreintes au fil du temps. Il est essentiel de se demander si nos propres critères d’évaluation de l’humanité ne sont pas devenus trop étroits, propulsant ainsi la nécessité d’un débat plus large sur la façon dont nous concevons l’expérience humaine au sein de l’IA.
Pour une meilleure conception des systèmes d’IA
Les résultats de cette étude mettent en évidence la nécessité de développer des systèmes d’intelligence artificielle qui peuvent élargir notre compréhension de ce que signifie être humain. Les chercheurs encouragent les concepteurs d’IA à repenser le cadre d’évaluation non seulement en termes de justice et de précision, mais aussi en tenant compte des possibilités que ces systèmes offrent ou restreignent. Cela implique de remettre en question les décisions de conception existantes et de considérer comment chaque étape dans le développement des systèmes d’IA peut influer sur la diversité et la richesse des expériences humaines.
Ressources pertinentes
Pour en apprendre davantage sur les innovations récentes dans le domaine de l’intelligence artificielle, explorez ces articles : un algorithme unique pour optimiser la prise de décision des robots en temps réel, Microsoft dévoile RStar Math, un système d’apprentissage autonome dédié à la résolution de problèmes mathématiques, déchiffrer le code : un système de lichen synthétique révèle son potentiel pour le béton auto-réparant, l’intelligence artificielle de conversion de texte en vidéo s’épanouit avec de nouvelles capacités métamorphiques, et une technologie d’IA inspirée du cerveau pour améliorer l’efficacité et réduire la consommation d’énergie.
EN BREF
|