Des chercheurs mettent au point une nouvelle technique de formation visant à rendre les systèmes d’IA moins biaisés socialement

découvrez comment des chercheurs ont développé une technique innovante de formation pour réduire le biais social des systèmes d'ia.

Dans le domaine de l’intelligence artificielle, des chercheurs travaillent activement à développer une nouvelle technique de formation visant à réduire les biais sociaux présents dans les systèmes d’IA. Cette avancée majeure pourrait permettre de rendre ces technologies plus équitables et plus justes en minimisant les préjugés sociaux qui peuvent les influencer. Découvrons ensemble les enjeux et les implications de cette approche novatrice.

Une avancée prometteuse dans la lutte contre les biais des systèmes d’IA

Un groupe de chercheurs de l’Université d’État de l’Oregon, en collaboration avec Adobe, a mis au point une nouvelle technique de formation qui vise à réduire les biais sociaux dans les systèmes d’intelligence artificielle (IA). Cette méthode innovante, baptisée FairDeDup, pourrait transformer la façon dont les IA sont entraînées, en rendant ces systèmes plus justes et équitables.

Le principe de FairDeDup

Le nom FairDeDup est une abréviation de fair deduplication, qui signifie déduplication équitable. La déduplication consiste à éliminer les informations redondantes des ensembles de données utilisés pour l’apprentissage des systèmes d’IA, ce qui permet de réduire les coûts informatiques élevés associés à cette formation. Toutefois, FairDeDup va au-delà de la simple réduction des données répétitives; il intègre également des dimensions humaines définies pour garantir une représentation plus diversifiée et inclusive.

L’importance de la diversité dans les ensembles de données

Les ensembles de données récoltés sur Internet contiennent souvent des biais inhérents à la société. Lorsque ces biais sont intégrés dans les modèles d’IA, ils peuvent perpétuer des idées et comportements injustes. Par exemple, une IA non contrôlée pourrait automatiquement proposer des photos uniquement d’hommes blancs lorsqu’on lui demande une image d’un PDG ou d’un médecin, négligeant ainsi la diversité des professions.

Le processus de pruning

L’algorithme FairDeDup fonctionne en réduisant les jeux de données d’images et de légendes collectées sur le web à l’aide d’un processus appelé pruning (ébranchage). Le pruning consiste à sélectionner un sous-ensemble de données représentatif de l’ensemble du jeu de données. En procédant de manière consciente et informée, le pruning permet de décider quelles parties des données conserver ou éliminer, tout en intégrant des dimensions de diversité.

Un impact sur les différentes formes de biais

FairDeDup ne se contente pas de traiter les biais liés à l’occupation, la race et le sexe; il aborde également ceux relatifs à l’âge, la géographie et la culture. En s’attaquant à ces biais lors de l’élagage des ensembles de données, il est possible de créer des systèmes d’IA plus justes sur le plan social.

Une approche adaptable

Cette nouvelle méthode permet de nudge, c’est-à-dire d’inciter, les systèmes d’IA à adopter un comportement plus juste, en fonction des contextes et des bases d’utilisateurs dans lesquels ils sont déployés. Plutôt que d’imposer une notion préconçue de l’équité, FairDeDup laisse la possibilité aux utilisateurs de définir ce qui est équitable dans leur contexte spécifique, au lieu de se baser sur des ensembles de données à grande échelle.

Implications et perspectives

La présentation de l’algorithme FairDeDup lors de la Conférence sur la vision par ordinateur et la reconnaissance de formes (CVPR) a suscité un grand intérêt. Les implications de cette avancée sont vastes et pourraient conduire à des systèmes d’IA plus économiques, précis et surtout, plus justes. Cette technique représente un pas en avant significatif dans la quête de systèmes technologiques plus éthiques.

Équipe de recherche

Le développement de FairDeDup a été rendu possible grâce à la collaboration entre Eric Slyman, doctorant à l’Université d’État de l’Oregon (OSU), Stefan Lee, professeur assistant à OSU, et les chercheurs d’Adobe, Scott Cohen et Kushal Kafle.

Liste récapitulative

AxeDétail
Nom de la méthodeFairDeDup
PrincipeÉlimination des données redondantes et inclusion de la diversité
TechniquePruning (ébranchage)
Biais traitésOccupation, race, sexe, âge, géographie, culture
CollaborateursOSU et Adobe
PrésentationConférence CVPR