Des recherches révèlent que les grands modèles linguistiques peuvent mener des attaques de ransomware de manière autonome

découvrez comment des recherches récentes montrent que les grands modèles linguistiques (llm) sont capables de lancer des attaques de ransomware de façon autonome, soulevant de nouvelles préoccupations en cybersécurité.

De récentes recherches effectuées par l’École d’ingénierie de Tandon de l’Université de New York mettent en lumière une évolution inquiétante dans le domaine de la cybersécurité. Les grands modèles linguistiques sont désormais capables d’exécuter des attaques de ransomware de manière autonome, englobant toutes les étapes du processus malveillant, de l’intrusion dans les systèmes informatiques à la rédaction de messages de rançon. Cette découverte souligne l’importance de préparer des contre-mesures efficaces pour contrer ces menaces alimentées par l’IA, qui pourraient transformer radicalement le paysage des cyberattaques.

Une étude récente de l’École d’ingénierie Tandon de l’Université de New York met en lumière l’utilisation potentielle des grands modèles linguistiques par des cyber-criminels pour exécuter des attaques de ransomware de manière autonome. Ces avancées permettent aux hackers de pénétrer dans les systèmes informatiques, de dérober des fichiers personnels et d’envoyer des messages de rançon aux victimes sans intervention humaine. Cette découverte sert d’avertissement précoce pour que les spécialistes de la cybersécurité préparent des contre-mesures avant que ces techniques alimentées par l’intelligence artificielle ne soient adoptées massivement par les acteurs malveillants.

Un système malveillant simulé et ses phases d’attaque

Les chercheurs ont développé un prototype de système d’IA malveillante capable d’exécuter toutes les phases d’une attaque de ransomware. Cette approche comprend la cartographie des systèmes, l’identification des fichiers sensibles, le vol ou le cryptage des données, et la création de notes de rançon. Ce système, connu sous le nom de « Ransomware 3.0 » ou « PromptLock », mise sur des modèles de langage IA pour orchestrer l’ensemble de l’attaque.

Une découverte préoccupante dans la communauté de cybersécurité

Lors des tests, les fichiers du prototype ont été téléchargés sur VirusTotal, un service utilisé par les chercheurs en sécurité pour évaluer la nature malveillante des fichiers. Cela a conduit certains experts à croire qu’ils avaient découvert le premier ransomware alimenté par l’IA développé par des acteurs malveillants. Bien que cela se soit avéré erroné, la confusion souligne l’efficacité et la sophistication de ces systèmes, capables de tromper même les enquêteurs en cybersécurité.

Méthodologie innovante et défis pour la cybersécurité

L’étude a révélé une méthodologie inattendue : au lieu d’utiliser du code d’attaque pré-écrit traditionnel, les chercheurs ont intégré des instructions écrites au sein des programmes informatiques. Lorsqu’activé, le logiciel malveillant se connecte à des modèles de langage IA pour générer des scripts Lua adaptés à chaque configuration informatique spécifique de la victime. Cette capacité de personnalisation, combinée à l’utilisation de modèles open-source, sans les restrictions de sécurité des services commerciaux, pose un défi majeur pour les défenses de cybersécurité.

Des implications économiques significatives

Les implications économiques de cette recherche soulignent comment l’IA pourrait transformer les opérations de ransomware. Les campagnes traditionnelles nécessitent des équipes de développement qualifiées et d’importants investissements en infrastructure. En revanche, le prototype consommant environ 23 000 jetons d’IA par exécution d’attaque, soit environ 0,70 $, permettrait à des acteurs moins sophistiqués de mener des campagnes avancées sans compétences techniques spécialisées. Cette réduction des coûts pourrait dissuader les victimes de payer des rançons en augmentant la pression psychologique à travers des messages d’extorsion personnalisés.

Recommandations pour la communauté de cybersécurité

Les chercheurs recommandent de surveiller les modèles d’accès aux fichiers sensibles et de contrôler les connexions sortantes vers les services d’IA. De plus, il est essentiel de développer des capacités de détection spécifiquement adaptées aux comportements d’attaque générés par l’IA. Cette approche proactive pourrait aider à contrer les menaces émergentes posées par ces modèles autonomes.

Pour une perspective plus large sur la cybersécurité et les dangers associés aux ransomwares, il est bénéfique de suivre les actualités telles que le cas de la cyberattaque en Indonésie et les récentes alertes concernant des attaques de ransomware potentiellement coûteuses par Medusa. De plus, les initiatives pour prévenir les dérives malveillantes de l’IA, telles que celles révélées par Anthropic, méritent également l’attention de la communauté de cybersécurité.

EN BREF

  • Ransomware 3.0 : Nouveau modèle d’attaque alimenté par l’IA.
  • Utilisation de grands modèles linguistiques pour exécuter des attaques en toute autonomie.
  • Quatre phases d’attaques : cartographie des systèmes, identification des fichiers, vol ou chiffrement des données, et génération de messages de rançon.
  • Prototype déployé sur VirusTotal, confondu avec un vrai ransomware.
  • Capacité à déjouer les défenses traditionnelles en produisant du code unique pour chaque attaque.
  • Coûts d’exécution d’environ 0,70 $ par attaque, accessibles à des acteurs moins sophistiqués.
  • Augmentation de la pression psychologique sur les victimes avec des messages personnalisés.
  • Recommandations : Surveiller l’accès aux fichiers sensibles et développer des capacités de détection adaptées.