Computer Security Microsoft et OpenAI mettent en garde contre les pirates...

Microsoft et OpenAI mettent en garde contre les pirates informatiques des États-nations qui exploitent l'IA pour des cyberattaques destructrices

Microsoft et OpenAI ont émis conjointement un avertissement concernant la menace croissante des pirates informatiques nationaux utilisant l'intelligence artificielle (IA) et les grands modèles de langage (LLM) pour améliorer leurs capacités de cyberattaque. Le rapport identifie des acteurs étatiques liés à la Russie, à la Corée du Nord, à l’Iran et à la Chine qui expérimentent activement les technologies de l’IA pour des cyberactivités malveillantes.

La collaboration entre Microsoft et OpenAI a révélé qu’ils avaient contrecarré les efforts de cinq acteurs affiliés à l’État, perturbant leurs tentatives d’exploiter les services d’IA à des fins destructrices en mettant fin à leurs actifs et à leurs comptes. Selon Microsoft, l'attrait des grands modèles de langage réside dans leur prise en charge du langage naturel, ce qui les rend attrayants pour les acteurs de la menace spécialisés dans l'ingénierie sociale et la communication trompeuse adaptée à des cibles spécifiques.

Bien qu’aucune attaque significative ou nouvelle utilisant des LLM n’ait été observée jusqu’à présent, le rapport souligne que ces acteurs affiliés à l’État explorent les technologies d’IA à différentes étapes de la chaîne de cyberattaque. Les activités vont de la reconnaissance et de l’assistance au codage au développement de logiciels malveillants.

Le groupe d’État-nation russe Forest Blizzard (APT28) aurait utilisé les services OpenAI pour des recherches open source sur les protocoles de communication par satellite et la technologie d’imagerie radar, ainsi que pour des tâches de script. De même, d'autres acteurs de la menace, tels que la tempête de neige émeraude (Kimusky) en Corée du Nord, la tempête de sable pourpre en Iran (chaton impérial) et le typhon charbon de bois (panda aquatique) et le typhon saumon (panda Maverick) ont utilisé les LLM pour des tâches telles que l'identification d'experts, la conduite de recherches. , générant des extraits de code et créant du contenu pour les campagnes de phishing.

En réponse à la menace croissante, Microsoft prend des mesures proactives en formulant un ensemble de principes pour atténuer les risques associés à l'utilisation malveillante d'outils d'IA et d'API par des acteurs étatiques, aux menaces persistantes avancées (APT) et aux manipulateurs persistants avancés (APM). , et les syndicats de cybercriminels. Ces principes incluent l'identification et la prise de mesures contre les acteurs malveillants, la notification aux autres fournisseurs de services d'IA, la collaboration avec les parties prenantes et la garantie de la transparence dans la gestion de ces menaces.

Cette collaboration entre Microsoft et OpenAI souligne la nécessité d'un effort collectif pour établir des garde-fous et des mécanismes de sécurité autour des modèles d'IA , renforçant ainsi l'engagement en faveur d'une utilisation responsable et de la sécurité de l'IA face à l'évolution des cybermenaces.

Chargement...