Des chercheurs de l’Université de Toronto ont récemment mis en lumière une vulnérabilité significative au sein des unités de traitement graphique (GPU) qui pourrait gravement compromettre l’intégrité des modèles d’intelligence artificielle. Ce constat s’inscrit dans un contexte où les GPU, essentiels pour l’exécution de services d’apprentissage automatique et d’intelligence artificielle en cloud, sont de plus en plus sollicités. Les scientifiques ont ainsi découvert qu’une attaque, connue sous le nom de Rowhammer, auparavant associée aux unités de traitement central (CPU), peut également avoir des répercussions néfastes sur les mémoires GDDR, utilisées par de nombreux GPU modernes.
Une équipe de chercheurs de l’Université de Toronto a récemment mis en lumière une vulnérabilité préoccupante affectant les unités de traitement graphique, ou GPU. Ce type d’attaque, connu sous le nom de Rowhammer, qui semblait jusqu’ici se limiter aux unités centrales de traitement (CPU), s’est avéré également efficace contre les GPU équipés de mémoire à double vitesse de transfert de données graphique (GDDR). Les implications pourraient s’avérer désastreuses pour les modèles d’intelligence artificielle, causant une chute alarmante de leur précision.
Le mécanisme d’une attaque Rowhammer
Les attaques Rowhammer nécessitent une manipulation astucieuse des cellules de mémoire. En accédant de manière répétée à des lignes adjacentes de cellules, un attaquant peut induire une interférence électrique qui provoque des erreurs dans des régions de mémoire non directement accessibles, permettant potentiellement de contourner des mesures de sécurité. Cette méthode a été exploitée avec succès sur les GPU, et pourrait avoir des conséquences dramatiques sur des applications clés, allant de l’analyse d’images médicales dans les hôpitaux à des systèmes de détection de fraudes dans les banques.
Les impacts sur l’intelligence artificielle
Selon le professeur Gururaj Saileshwar, co-auteur d’une recherche acceptée au USENIX Security Symposium, une attaque réussie pourrait réduire la précision d’un modèle d’intelligence artificielle de 80% à seulement 0,1%. Cette dégradation pourrait compromettre gravement la fiabilité des systèmes qui s’appuient sur ces modèles en temps réel. Imaginez une application de diagnostic médical où un tel déclin de précision pourrait mener à des erreurs de diagnostic critiques.
Les défis posés par la sécurité des GPU
Les utilisateurs de GPU les plus exposés à ces menaces sont ceux qui gèrent des environnements de cloud computing, où plusieurs utilisateurs peuvent accéder simultanément aux mêmes ressources de calcul. Cela signifie qu’un attaquant peut interférer avec les traitements de données d’un autre utilisateur, augmentant ainsi les risques de sécurité. Contraster la sécurité entre CPU et GPU nécessite une compréhension des différences architecturales, notamment des taux de rafraîchissement de mémoire plus rapides et d’une latence mémoire plus lente sur GPU.
La réponse de l’industrie
Face à ce constat alarmant, NVIDIA, un des principaux acteurs sur le marché des GPU, a été informé des découvertes par les chercheurs. En réponse à ces vulnérabilités, la société a suggéré à ses clients d’activer une fonctionnalité de correction d’erreurs (ECC). Cependant, les chercheurs avertissent que cette solution pourrait ralentir les tâches d’apprentissage automatique jusqu’à 10%, et qu’elle pourrait ne pas suffire en cas d’attaques impliquant plusieurs inversions de bits.
Appel à une vigilance accrue
La recherche souligne une nécessité urgente d’augmenter l’attention portée à la sécurité des GPU. Alors que les modèles d’intelligence artificielle continuent d’intégrer des applications critiques dans divers domaines tels que la santé, la finance et la cybersécurité, il est impératif d’identifier et de corriger les vulnérabilités avant qu’elles ne soient exploitées. Des travaux futurs sur les architectures GPU et sur la défense contre de telles attaques seront essentiels pour sécuriser cet élément fondamental de l’infrastructure technologique moderne.
Liens utiles pour approfondir
Pour une compréhension plus approfondie sur la gestion des systèmes d’intelligence artificielle, il est intéressant de consulter des travaux comme ceux sur l’évaluation des systèmes d’IA ou encore l’indépendance numérique du Canada. De plus, des études sur l’identification des attaques adversariales sont également cruciales pour comprendre ces menaces, comme celles présentées dans cette recherche. Enfin, une étude récente aborde la vulnérabilité des plateformes du métavers, qui est tout aussi essentielle dans ce contexte de sécurité croissante.
EN BREF
|