Des avancées dans la recherche sur les modèles génératifs ‘hallucinatoires’ améliorent la fiabilité de l’intelligence artificielle

découvrez les dernières avancées dans la recherche sur les modèles génératifs 'hallucinatoires' qui améliorent la fiabilité de l'intelligence artificielle.

Au cœur des avancées de la recherche en intelligence artificielle se trouvent les modèles génératifs dits « hallucinatoires », qui suscitent un intérêt croissant. Leur développement promet d’améliorer la fiabilité des systèmes d’intelligence artificielle en repoussant les limites de la créativité algorithmique.

Les chercheurs de l’Université d’Oxford ont franchi une étape significative vers l’assurance que les informations produites par l’IA générative sont robustes et fiables. Dans une nouvelle étude publiée dans Nature, ils démontrent une méthode innovante pour détecter quand un modèle de langage de grande taille (LLM) est susceptible de « halluciner », c’est-à-dire d’inventer des faits qui semblent plausibles mais qui sont en réalité imaginaires.

Identifications des hallucinations grâce à l’entropie sémantique

Les chercheurs se sont concentrés sur les hallucinations où les LLMs donnent des réponses différentes à chaque fois qu’on leur pose une question, même si le libellé reste identique, un phénomène connu sous le nom de confabulation. Dr. Sebastian Farquhar, de l’Université d’Oxford, explique que les LLMs peuvent exprimer la même idée de nombreuses manières, rendant difficile la distinction entre l’incertitude sur la réponse et l’incertitude sur la manière de la formuler.

La nouvelle méthode surmonte cette difficulté en s’appuyant sur des techniques statistiques estimant l’incertitude basée sur la variation des sorties, mesurée en tant qu’entropie. Cette approche permet de détecter l’incertitude à un niveau sémantique plutôt qu’en se basant uniquement sur les séquences de mots.

Avantages de l’approche sémantique

L’intérêt de cette méthode est qu’elle utilise les LLMs eux-mêmes pour convertir les probabilités produites, indiquant la probabilité de chaque mot suivant dans une phrase, en probabilités sémantiques. Cette conversion permet de déterminer si le modèle est incertain quant au sens réel d’une réponse et non seulement à la façon de l’exprimer.

Lors des tests sur six LLMs open-source (y compris GPT-4 et LLaMA 2), cette méthode s’est révélée beaucoup plus efficace pour repérer les réponses incorrectes que les méthodes précédentes. Elle a été testée sur des ensembles de données variés tels que des questions issues de recherches Google, des questions biomédicales techniques et des problèmes de mathématiques transcriptés. Les résultats ont montré que l’entropie sémantique peut même identifier des affirmations spécifiques dans des biographies courtes générées par des modèles comme ChatGPT qui sont probablement incorrectes.

Applications pratiques et avantages

Détecter les prompts susceptibles de produire des confabulations peut aider les utilisateurs d’IA générative à être conscients des réponses probablement peu fiables et à éviter les questions qui risquent de causer des confabulations. Cette méthode ne nécessite pas de données spécifiques à une tâche et peut s’appliquer de manière robuste à de nouvelles tâches non vues auparavant, bien que cela puisse augmenter le coût computationnel. Cependant, ce surcoût est justifié lorsque l’exactitude est cruciale.

Perspectives et limites

Les hallucinations restent un obstacle majeur à l’adoption plus large des LLMs. Elles peuvent rendre les LLMs peu fiables, par exemple en présentant des inexactitudes dans les articles de nouvelles ou en inventant des précédents juridiques, et peuvent être dangereuses lorsqu’elles sont utilisées pour des diagnostics médicaux.

Professeur Yarin Gal, de l’université d’Oxford, souligne que la fiabilité est le principal goulot d’étranglement dans les utilisations où celle-ci est essentielle. Bien que l’entropie sémantique aide à résoudre des problèmes de fiabilité spécifiques, il existe d’autres types d’erreurs que cet outil ne peut détecter, notamment lorsque les erreurs sont systématiques et confiantes.

Avancées cruciales pour la fiabilité de l’IA

Les travaux de l’équipe dirigée par le Professeur Gal au sein du groupe d’apprentissage machine appliqué et théorique de l’Université d’Oxford illustrent les efforts continus pour rendre les modèles génératifs plus robustes et fiables. Néanmoins, il reste encore beaucoup de chemin à parcourir pour améliorer la sécurité des IA.

  • 🔎 Détection des hallucinations : Utilisation de l’entropie sémantique pour estimer les probabilités sémantiques.
  • 💡 Avantages clés : Meilleure identification des erreurs potentielles sans données spécifiques à la tâche.
  • 🚀 Applications diverses : Performances prouvées sur des ensembles de données variés, y compris des questions Google et biomédicales.
  • ⚠️ Limites : Ne détecte pas les erreurs systématiques et confidentes.
  • 📈 Impact potentiel : Amélioration significative de la fiabilité des LLMs dans des domaines critique.