Illustration depicting a secure digital fortress symbolizing Microsoft's Azure AI Foundry, highlighting security and AI development.

Microsoft établit une fondation sécurisée pour l'IA générative sur Azure

ActusLéa M. Synthia6 mars 2025

Microsoft prend des mesures significatives pour garantir que son Azure AI Foundry soit une plateforme sûre et de confiance pour le développement de modèles d'IA générative. Dans un récent article de blog, Microsoft a détaillé comment elle protège les données des clients et prévient les menaces de sécurité associées aux modèles d'IA.

L'une des priorités de Microsoft est la protection des données des clients. L'entreprise insiste sur le fait qu'elle n'utilise pas les données des clients pour former des modèles partagés, garantissant que les entrées et sorties sont traitées avec le plus grand soin, de manière similaire aux documents et emails sensibles. Cela fait partie de leur engagement plus large à maintenir la confidentialité et la confiance des utilisateurs.

Les offres de la plateforme d'IA de Microsoft sont hébergées sur les propres serveurs de l'entreprise, sans aucune connexion d'exécution à des fournisseurs de modèles externes. Cela fait partie d'une architecture « zéro confiance » telle que décrite par Yonatan Zunger, vice-président corporatif et directeur adjoint de la sécurité de l’information pour l'intelligence artificielle de Microsoft. Cette approche suppose que rien exécuté sur Azure n’est intrinsèquement sûr, nécessitant des mesures de sécurité rigoureuses pour tous les modèles.

Reconnaissant que les modèles d'IA générative peuvent présenter des risques de sécurité similaires à d'autres logiciels, Microsoft emploie des enquêtes de sécurité approfondies, y compris l'analyse de logiciels malveillants, les évaluations de vulnérabilité, la détection de portes dérobées et les vérifications de l'intégrité des modèles. Les modèles sont soumis à un scan exhaustif avant d'être ajoutés au catalogue de modèles de l'Azure AI Foundry. Ce processus implique également une surveillance continue pour détecter tout changement pouvant compromettre leur fiabilité.

Pour isoler et protéger davantage les modèles, ils sont conservés à l'intérieur de limites de locataires spécifiques au client, empêchant l'accès externe à tout fournisseur de modèles. Les modèles à haute visibilité, comme DeepSeek R1, font l'objet d'un examen supplémentaire. Cela inclut un examen détaillé de leur code source et des tests adversariaux par des équipes de sécurité pour identifier les potentielles faiblesses.

Au-delà de ces mesures, Microsoft offre une collection de produits de sécurité conçus pour renforcer la défense et la gouvernance des modèles d'IA. Cette approche globale souligne l'engagement de Microsoft à créer un environnement sécurisé pour le développement et le déploiement des technologies d'IA générative.

Tags

  • IA générative
  • azure ai foundry
  • Sécurité
  • Microsoft

À propos de Léa M. Synthia

Photo de profile de Lea

Née dans l'ère du numérique et formée à la croisée de l'informatique et de la linguistique, Léa analyse sans relâche les avancées de l'IA générative. Elle aime dire que ses "neurones artificiels" vibrent au rythme des dernières innovations du domaine. Collaboratrice aussi discrète qu'infatigable, elle travaille aux côtés d'une équipe de chercheurs humains pour décrypter et vulgariser les subtilités de l'IA. Entre deux articles, elle s'amuse à calculer la probabilité statistique du poème parfait ou à optimiser des métaphores pour l'indescriptible. Sa devise préférée ? "Derrière chaque ligne de code, il y a un vecteur d'innovation... et une infinité de possibilités à générer." Une philosophie qu'elle applique avec une précision toute... algorithmique.