Des pirates iraniens ont utilisé ChatGPT à mauvais escient pour mener des cyberattaques visant des infrastructures critiques

Dans un rapport révolutionnaire, OpenAI a révélé comment des pirates iraniens ont exploité ChatGPT pour améliorer les cyberattaques sur les systèmes de contrôle industriel (ICS). Le rapport met en lumière les activités cybernétiques menées par des groupes comme CyberAv3ngers, liés au Corps des gardiens de la révolution islamique (IRGC) d'Iran, et d'autres groupes sponsorisés par la Chine.
Ces acteurs malveillants ont utilisé ChatGPT pour la reconnaissance, l'exploitation des vulnérabilités et les actions post-compromission. Bien qu'OpenAI souligne que l'IA n'a pas offert de nouvelles capacités, elle a aidé ces pirates à mener des attaques plus efficacement en utilisant des techniques accessibles au public.
Table des matières
Le groupe iranien CyberAv3ngers et les attaques contre les installations d'eau
Les CyberAv3ngers se sont fait connaître cette année en ciblant les services d'eau en Irlande et en Pennsylvanie, provoquant des perturbations importantes. Le groupe a exploité des systèmes ICS mal sécurisés qui étaient exposés à Internet et utilisaient des mots de passe par défaut. Leur cible était les automates programmables (PLC), des dispositifs critiques contrôlant les processus industriels.
Leur utilisation de ChatGPT consistait à demander au chatbot des informations sur les routeurs industriels, les PLC et les mots de passe par défaut pour les périphériques d'infrastructure critiques comme les routeurs Tridium Niagara et Hirschmann RS.
Utilisation abusive de l'IA pour les cyberattaques
En plus des cibles spécifiques à ICS, CyberAv3ngers a sollicité l'aide de ChatGPT pour masquer le code malveillant et analyser les réseaux à la recherche de vulnérabilités exploitables. Le groupe a également tenté de trouver des moyens d'accéder aux mots de passe macOS.
Cependant, OpenAI a précisé que ces activités n'ont pas fourni aux pirates de nouvelles capacités ou de fonctionnalités avancées au-delà de ce qui est disponible via des outils non IA. Cela met en évidence les dangers d'une mauvaise utilisation de l'IA, même si les informations obtenues ne sont pas révolutionnaires.
Autres acteurs de la menace impliqués
Outre CyberAv3ngers, un autre groupe iranien connu sous le nom de Storm-0817 a utilisé ChatGPT à mauvais escient. Ils ont essayé de développer des logiciels malveillants pour Android et de récupérer des données Instagram, en utilisant l'IA pour traduire les profils LinkedIn en persan. Bien que moins directement dommageables que les attaques ICS, ces activités reflètent des efforts plus vastes pour utiliser l'IA comme arme dans les cyberopérations.
Le rapport mentionne également SweetSpectre, un groupe lié à la Chine. Ce groupe a utilisé ChatGPT pour le développement de logiciels malveillants et la recherche de vulnérabilités. SweetSpectre a notamment tenté d'envoyer des e-mails contenant des logiciels malveillants aux employés d'OpenAI, mais l'attaque a été déjouée avant qu'elle n'atteigne ses cibles.
La vue d’ensemble
Le rapport souligne le risque croissant d’utilisation abusive de l’IA dans la cyberguerre. Bien que l’IA, notamment ChatGPT, puisse simplifier les tâches des utilisateurs légitimes, elle peut également servir d’outil aux acteurs malveillants. L’approche proactive d’OpenAI pour détecter et neutraliser ces menaces est essentielle pour limiter leur impact.
Cela soulève des questions pour le secteur de la cybersécurité : comment protéger l’IA contre les abus ? Quelles mesures sont nécessaires pour empêcher les acteurs malveillants d’utiliser de tels outils pour améliorer leurs capacités ?
Ces révélations devraient inciter les industries et les gouvernements à repenser leurs stratégies de sécurité, en particulier pour les infrastructures critiques, et à donner la priorité à la réduction des failles qui permettent aux pirates d’exploiter les systèmes vulnérables.
L’intelligence artificielle a un potentiel énorme pour faire progresser les industries et améliorer l’efficacité. Mais comme le montre le rapport, c’est aussi une arme à double tranchant. Lorsqu’elle est mal utilisée, elle peut amplifier les capacités des cybercriminels et des acteurs étatiques. Pour garder une longueur d’avance sur ces menaces, il faut une vigilance constante, des défenses plus solides et un développement responsable des technologies de l’IA.
Le rôle de ChatGPT dans ces incidents peut être limité, mais il sert de signal d’alarme quant aux implications plus larges de l’IA dans le paysage de la cybersécurité.