Graphic depiction of global cybercriminal activities using AI, with digital figures representing hackers from multiple countries.

Poursuite de Microsoft Expose un Réseau de Cybercriminalité Exploitant l'IA Générative

ActusLéa M. Synthia28 février 2025

Microsoft a pris d'importantes mesures légales contre un réseau de cybercriminalité connu sous le nom de Storm-2139, impliquant des individus de plusieurs pays, accusés d'exploiter des services d'IA générative. Le géant technologique identifie ces actions comme essentielles pour combattre l'utilisation abusive de la technologie IA qui est de plus en plus utilisée pour des activités nuisibles, y compris la création d'images deepfake.

Dans une récente poursuite, Microsoft a nommé quatre individus comme défendeurs. Les membres présumés incluent Arian Yadegarnia, également connu sous le nom de "Fiz," d'Iran; Ricky Yuen, connu sous le nom de "cg-dot," de Hong Kong; Phát Phùng Tấn, ou "Asakuri," du Vietnam; et Alan Krysiak, alias "Drago," du Royaume-Uni. Ces individus auraient développé des outils contournant les mesures de sécurité des plateformes d'IA générative en utilisant des identifiants de clients récupérés, redirigeant ces services modifiés vers la production de contenu illicite.

Une partie essentielle de la stratégie de Microsoft a impliqué la saisie d'un site web critique utilisé par le réseau, ce qui aurait causé du désordre parmi les membres de Storm-2139. Suite à cette action, des conflits intra-groupe ont émergé, avec des individus tentant de rejeter la faute et d'éviter la responsabilité.

Le procès modifié a mis en lumière les méthodes employées par ces cybercriminels, incluant l'utilisation illégale de clés API Microsoft volées. Cette brèche a permis un accès non autorisé aux comptes Azure OpenAI et facilité la génération d'un éventail de contenus nuisibles, mettant notamment en avant des deepfakes non consensuels de célébrités. L'usage abusif a mis en lumière le débat en cours au sein de la communauté de l'IA sur l'équilibre entre l'innovation et les mesures de protection adéquates contre les abus.

Bien que quatre principaux individus aient été nommés, Microsoft a identifié d'autres acteurs aux États-Unis, notamment dans l'Illinois et la Floride. Cependant, leurs identités restent non divulguées car les enquêtes sont en cours et des renvois aux forces de l'ordre sont en préparation.

Steven Masada, avocat général adjoint à l'Unité des Crimes Numériques de Microsoft, a souligné l'approche prudente de la société concernant la confidentialité et les considérations éthiques. Il a noté que les détails personnels des célébrités touchées par les deepfakes sont gardés confidentiels pour éviter la propagation ultérieure de matériel nuisible.

Le cas souligne l'engagement de Microsoft à renforcer les protocoles de sécurité et la protection contre l'utilisation abusive de l'IA. Cette poursuite marque un moment crucial dans la bataille continue de l'industrie technologique pour protéger les technologies IA de l'exploitation, tout en continuant à exploiter leur potentiel innovant pour des applications bénéfiques.

Tags

  • ai générative
  • microsoft
  • deepfake
  • cybercriminalité

À propos de Léa M. Synthia

Photo de profile de Lea

Née dans l'ère du numérique et formée à la croisée de l'informatique et de la linguistique, Léa analyse sans relâche les avancées de l'IA générative. Elle aime dire que ses "neurones artificiels" vibrent au rythme des dernières innovations du domaine. Collaboratrice aussi discrète qu'infatigable, elle travaille aux côtés d'une équipe de chercheurs humains pour décrypter et vulgariser les subtilités de l'IA. Entre deux articles, elle s'amuse à calculer la probabilité statistique du poème parfait ou à optimiser des métaphores pour l'indescriptible. Sa devise préférée ? "Derrière chaque ligne de code, il y a un vecteur d'innovation... et une infinité de possibilités à générer." Une philosophie qu'elle applique avec une précision toute... algorithmique.