Sécurité informatique OpenAI bloque 20 opérations cybernétiques malveillantes...

OpenAI bloque 20 opérations cybernétiques malveillantes pour lutter contre les campagnes mondiales de cybercriminalité

Étonnamment, OpenAI s’est révélé être une force redoutable dans la lutte contre les menaces numériques. Depuis le début de l’année, l’entreprise a déjoué avec succès plus de 20 campagnes malveillantes qui cherchaient à exploiter sa plateforme d’IA pour des activités nuisibles , démontrant ainsi que l’avenir de la cybersécurité est déjà là.

Ces opérations allaient du débogage de logiciels malveillants à la création de fausses identités sur les réseaux sociaux, en passant par la création de fausses informations. Les acteurs malveillants ont tenté d'exploiter la plateforme d'OpenAI pour mener des activités malveillantes telles que la génération de biographies pour de faux comptes ou la création de photos de profil générées par l'IA pour de fausses identités sur les réseaux sociaux sur X (anciennement Twitter).

Cependant, malgré ces efforts, OpenAI a assuré au public qu’aucune de ces campagnes n’avait conduit à des avancées révolutionnaires dans la création de logiciels malveillants ou à la propagation virale de fausses informations. En d’autres termes, même si les acteurs malveillants expérimentent l’IA, ils n’ont pas encore réalisé de percées significatives.

Comment les cybercriminels ont exploité l'IA

Les acteurs malveillants venaient de tous les coins du monde, de la Chine à l’Iran, et employaient une variété de tactiques. Un exemple frappant est SweetSpecter, un groupe basé en Chine qui a utilisé l’IA pour la reconnaissance et la recherche de vulnérabilités, et a même tenté (sans succès) de harponner les employés d’OpenAI.

Des groupes iraniens ont également joué un rôle notable. Les Cyber Av3ngers, liés au Corps des gardiens de la révolution islamique iranien (IRGC), ont effectué des recherches sur les contrôleurs logiques programmables utilisant l'IA, tandis qu'une autre entité iranienne, Storm-0817, a utilisé l'IA pour déboguer les logiciels malveillants Android et récupérer les profils des réseaux sociaux.

En plus de ces campagnes ciblées, OpenAI a bloqué plusieurs opérations d’influence à grande échelle. L’une d’entre elles, A2Z, a généré du contenu en anglais et en français pour une large diffusion sur les réseaux sociaux, tandis que Stop News a exploité des images générées par l’IA, souvent dans des styles caricaturaux ou dramatiques, pour améliorer ses articles et ses tweets.

Interrompre les campagnes mondiales de désinformation

Les campagnes de désinformation ciblant les systèmes politiques constituent un autre sujet de préoccupation. OpenAI a indiqué être intervenue dans des tentatives d’influencer les élections aux États-Unis, au Rwanda, en Inde et dans l’Union européenne. Aucune de ces tentatives n’a eu de succès viral, mais le fait que des acteurs malveillants aient cherché à manipuler les élections souligne les risques croissants posés par la désinformation générée par l’IA.

STOIC, une société israélienne également connue sous le nom de Zero Zeno, était parmi les acteurs clés de cet espace, générant des commentaires sur les réseaux sociaux sur les élections indiennes, une activité qui avait déjà été divulguée par Meta et OpenAI plus tôt cette année.

La vigilance continue d'OpenAI a également conduit à la découverte de deux autres réseaux, Bet Bot et Corrupt Comment, qui utilisaient son API pour générer des conversations sur X et relier les utilisateurs à des sites de jeux d'argent ou inonder les médias sociaux de commentaires fabriqués.

Le rôle de l'IA dans la désinformation microciblée

L’IA générative peut être utilisée non seulement pour la désinformation à grande échelle, mais aussi pour le microciblage. Selon un récent rapport de la société de cybersécurité Sophos, l’IA peut être manipulée pour diffuser de fausses informations politiques hautement personnalisées par le biais de courriers électroniques, de sites Web et de faux profils. En adaptant soigneusement les messages à des points de campagne spécifiques, les acteurs malveillants peuvent tromper les électeurs à un nouveau niveau, en modifiant éventuellement les résultats des élections ou en influençant les opinions avec de fausses informations.

Les chercheurs avertissent qu’il est extrêmement facile d’associer une personnalité ou un mouvement politique à une position politique qu’il ne soutient pas forcément, semant ainsi la confusion parmi les électeurs et portant atteinte au processus démocratique.

L'engagement d'OpenAI en matière de cybersécurité

Si l’intelligence artificielle offre des perspectives de progrès sans précédent, elle pose également de sérieux défis en matière de sécurité. OpenAI a prouvé qu’elle était à la hauteur des tentatives malveillantes d’exploitation de sa technologie. Cependant, le jeu du chat et de la souris entre experts en cybersécurité et cybercriminels va probablement se poursuivre.

Les efforts déployés par OpenAI pour perturber plus de 20 campagnes mondiales cette année constituent une victoire significative, mais la lutte est loin d’être terminée. À mesure que l’IA évolue, les tactiques utilisées par les acteurs malveillants évoluent également. Une vigilance et une innovation constantes seront essentielles pour garantir que l’IA reste une force du bien, plutôt qu’un outil de tromperie numérique.

Chargement...