Au cours des dernières années, la quête des chercheurs en intelligence artificielle pour améliorer la performance des grands modèles de langage s’est intensifiée, guidée par l’idée que plus un modèle est entraîné, meilleure sera sa performance. Cependant, des études récentes révèlent qu’un entraînement excessif pourrait avoir des conséquences néfastes, rendant l’ajustement des modèles plus complexe et problématique. Ce phénomène, souvent désigné comme « surentraînement catastrophique », met en lumière un point de saturation au-delà duquel le raffinement des modèles commence à nuire à leur efficacité, suscitant ainsi de nouvelles questions sur l’approche à adopter pour optimiser l’apprentissage machine.
Une équipe de chercheurs en intelligence artificielle, issue d’institutions prestigieuses telles que Carnegie Mellon University, Stanford University, Harvard University et Princeton University, a découvert que l’entraînement excessif des grands modèles de langage (LLM) peut conduire à un ajustement plus compliqué de ces modèles. Leur étude, publiée sur le serveur de préimpression arXiv, met en lumière un phénomène appelé « surentraînement catastrophique » qui pourrait affecter la performance des modèles lorsqu’ils sont soumis à une période de pré-entraînement prolongée.
La quête d’un entraînement optimal
Au cours des dernières années, les chercheurs ont souvent suivi le principe selon lequel plus un modèle est entraîné, meilleure sera sa performance. Cependant, l’étude actuelle suggère qu’il existe un point de retour décroissant lors de l’entraînement des modèles linguistiques. Les chercheurs ont testé deux versions du modèle OLMo-1B avec des quantités d’entraînement différentes, l’une utilisant 2,3 trillions de tokens et l’autre 3 trillions. Les résultats ont montré que celle ayant reçu le plus d’entraînement avait des performances inférieures jusqu’à 3 % lors des évaluations.
Les effets du surentraînement catastrophique
Les chercheurs ont nommé ce phénomène « surentraînement catastrophique« , et indiquent qu’il est lié à ce qu’ils ont décrit comme une « sensibilité progressive« . Cela signifie qu’à mesure que le nombre de tokens augmente, la fragilité du modèle augmente également, rendant plus difficile l’ajustement nécessaire pour des applications spécifiques. Contrairement à ce que l’on pourrait penser, l’ajout de nouvelles données d’entraînement ne garantit pas nécessairement un enrichissement des capacités du modèle.
Analyse de l’impact du bruit sur l’entraînement
Pour tester leur théorie, l’équipe a ajouté du bruit Gaussian à certains modèles et a observé que cela entraînait une détérioration des performances similaire à celle observée précédemment. Ce point de retournement, référencé comme « point d’inflexion« , est un moment critique après lequel une augmentation de l’entraînement entraîne une réduction de la stabilité du modèle. Cela complique l’ajustement efficace des modèles pour des tâches spécifiques.
Conséquences pour le développement futur des LLM
Les chercheurs concluent que les développeurs de modèles de langage doivent dorénavant envisager des estimations sur la quantité d’entraînement nécessaire ou rechercher d’autres méthodes qui permettraient d’effectuer un entraînement supplémentaire sans dépasser ce point critique. Cela soulève la question de la durabilité et de l’optimisation des modèles tout en préservant leur efficience.
Pour les professionnels de l’intelligence artificielle, ces découvertes offrent un nouvel éclairage sur les processus d’entraînement et leurs impacts potentiels. De plus, ces enseignements pourraient inciter à repenser les approches actuelles en matière d’entraînement des modèles, en mettant l’accent sur une adaptabilité pragmatique et une utilisation efficiente des données.
Pour en savoir plus sur l’impact de l’intelligence artificielle dans d’autres domaines, vous pouvez consultez des articles tels que celui-ci ou celui-là, qui explorent des applications variées de l’IA dans des contextes variés.
EN BREF
|