Les modèles de langage de grande taille (LLM) présentent des performances impressionnantes, mais souvent, ils peinent à relever des défis nécessitant des compétences de raisonnement complexe. Par exemple, un LLM dédié à la finance peut exceller dans la synthèse de rapports financiers, mais peut échouer à prédire les tendances du marché ou à détecter des transactions frauduleuses. Pour surmonter ces limites, des chercheurs du MIT ont exploré une méthode d’entraînement appelée entraînement pendant le test, qui consiste à ajuster temporairement certains paramètres du modèle lors de son déploiement. En intégrant des exemples spécifiques de tâches durant ce processus, cette technique pourrait multiplier par six l’exactitude de prédiction des LLM dans des domaines complexes, offrant ainsi une opportunité d’amélioration significative de leurs capacités de raisonnement logique.
Les grands modèles de langage (LLM) affichent des performances impressionnantes sur diverses tâches. Cependant, leur efficacité peut être compromise lorsqu’il s’agit de tâches nouvelles et complexes demandant des compétences de raisonnement approfondies. Une étude récente menée par des chercheurs du MIT a révélé qu’une technique d’entraînement, appelée entraînement pendant le test, peut considérablement améliorer les capacités de ces modèles dans des contextes difficiles.
Les limites des modèles de langage actuels
Bien que les LLM soient capables de générer du texte, de répondre à des questions et d’effectuer des résumés, ils peuvent rencontrer des difficultés avec des tâches qui nécessitent un raisonnement logique avancé. Par exemple, un modèle de langage utilisé par une entreprise de comptabilité peut idéalement résumer des rapports financiers, mais il peut être défaillant lorsqu’il s’agit de prédire des tendances de marché ou de détecter des transactions frauduleuses. Ces lacunes soulignent un besoin urgent d’amélioration des performances des LLM sur des tâches exigeantes.
La méthode de l’entraînement pendant le test
La recherche du MIT s’est penchée sur l’utilisation de l’entraînement pendant le test pour surmonter ces difficultés. Cette méthode permet de mettre à jour temporairement certains paramètres internes des modèles lors de leur déploiement. Les chercheurs ont démontré qu’en utilisant des exemples de nouvelles tâches pour ajuster le modèle, on pouvait obtenir des gains de précision pouvant atteindre six fois l’efficacité précédente.
Combiner apprentissage contextuel et entraînement pendant le test
Les utilisateurs de LLM cherchent souvent à améliorer la performance sur une nouvelle tâche par l’apprentissage en contexte. Cela consiste à fournir quelques exemples de la tâche comme données d’entrée, permettant ainsi au modèle d’affiner ses réponses. Toutefois, cette méthode n’est pas toujours efficace pour des problèmes nécessitant un raisonnement complexe. En associant l’apprentissage en contexte à l’entraînement pendant le test, les chercheurs ont réussi à mieux préparer le modèle à des défis importants, en augmentant de manière significative son taux de réussite.
Les résultats des recherches
Les chercheurs ont testé leur approche sur des ensembles de données de référence comprenant des casse-têtes et des énigmes complexes. Les résultats ont révélé des augmenterntion majeures de précision, parfois jusqu’à six fois supérieures à celles observées avec l’apprentissage en contexte seul. Les tâches impliquant des schémas structurés ou utilisant des types de données complètement inconnus ont montré les plus grandes améliorations, soulignant l’efficacité de la méthode dans des domaines difficiles.
Développement de nouvelles compétences
Un aspect essentiel de l’entraînement pendant le test est sa capacité à permettre aux modèles d’acquérir de nouvelles compétences. Contrairement à l’apprentissage en contexte, qui ne fait qu’augmenter légèrement la précision, l’entraînement pendant le test ajuste directement les paramètres du modèle. Cela ouvre la porte à des opportunités où des modèles de langage peuvent apprendre à résoudre des problèmes complexes qui étaient auparavant hors de leur portée.
Perspectives d’avenir
À l’avenir, les chercheurs envisagent de développer des modèles qui peuvent apprendre de manière continue. L’objectif est d’aboutir à des LLM capables de déterminer de manière automatique s’ils doivent utiliser l’entraînement pendant le test ou s’ils peuvent se débrouiller avec l’apprentissage en contexte. Ce type d’automatisation pourrait permettre aux modèles de langage de s’adapter plus efficacement à des situations variées et de relever des défis encore plus complexes.
En parallèle, des initiatives pour protéger les données personnelles et sensibles dans l’entraînement des IA s’intensifient. Des recherches ont été menées sur des méthodes comme l’entraînement adversaire basé sur les ondelettes pour renforcer la cybersécurité ou encore sur des moteurs open source permettant un traitement performant des données sur les dispositifs de l’Internet des objets. Ces avancées dans la protection des données viennent compléter les développements sur l’entraînement pendant le test, assurant un cadre sûr pour l’utilisation des LLM dans le monde réel.
Pour des informations détaillées sur la protection des données et l’utilisation responsable des IA, vous pouvez consulter ces articles : Suspendre l’utilisation des données personnelles, Nouvelle méthode pour protéger les données sensibles, et Apprentissage automatique auto-supervisé.
EN BREF
|