Sélection de la langue

Recherche

Bulletin conjoint sur le déploiement sécuritaire des systèmes d’IA

Le Centre de la sécurité des télécommunications (CST) et son Centre canadien pour la cybersécurité (Centre pour la cybersécurité) se sont joints au Artificial Intelligence Security Center (AISC) de la National Security Agency (NSA), à la Cybersecurity and Infrastructure Security Agency (CISA), au Federal Bureau of Investigation (FBI) ainsi qu’aux partenaires internationaux ci-dessous pour publier des conseils de cybersécurité sur le déploiement sécuritaire des systèmes d’intelligence artificielle :

  • L’Australian Cyber Security Centre (ACSC);
  • Le National Cyber Security Centre de la Nouvelle-Zélande (NCSC-NZ);
  • Le National Cyber Security Centre du Royaume-Uni (NCSC-UK);

Les systèmes d’IA constituent des cibles de très grande valeur pour des auteurs de cybermenaces. Les auteures et auteurs de menace parrainés par des États, en particulier, pourraient chercher à s’approprier des systèmes d’IA en vue de dérober des informations sensibles à l’appui de leurs intérêts.

Le déploiement sécuritaire de systèmes d’IA nécessite une installation et une configuration minutieuses, adaptées en fonction de la complexité du système d’IA concerné, des ressources requises pour le sécuriser, et de l’infrastructure utilisée. Les conseils fournis aideront les organisations à déployer et à exploiter de manière sécuritaire des systèmes d’IA conçus et développés par des tierces parties, de la manière suivante :

  • En améliorant la confidentialité, l’intégrité et la disponibilité des systèmes d’IA;
  • En atténuant les vulnérabilités connues des systèmes d’IA;
  • En fournissant des méthodologies et des mesures de contrôle pour détecter et contrer les activités malveillantes, et protéger les systèmes d’IA et les données et services connexes contre ce type d’activités.

Les pratiques exemplaires en matière de sécurité mentionnées dans les conseils constituent des points à prendre en considération sur le plan technique et en matière de gouvernance, pour réaliser ce qui suit :

  • Renforcer les systèmes d’IA fondés sur l’apprentissage machine (IA/AM) contre le vol de données, l’exploitation et les perturbations;
  • Sécuriser l’environnement de déploiement des systèmes d’IA/AM;
  • Valider et protéger les systèmes d’IA;
  • Assurer un déploiement sécuritaire des modèles d’IA.

Sécuriser les systèmes d’IA/AM exige un processus continu d’identification des risques, de mise en œuvre des mesures d’atténuation appropriées, et de surveillance des problèmes. En prenant les mesures décrites dans les conseils fournis, votre organisation pourra réduire de manière importante les risques potentiels.

Veuillez prendre connaissance du bulletin conjoint :

Deploying AI Systems Securely (en anglais seulement)

Signaler un problème ou une erreur sur cette page

Ce site est protégé par reCAPTCHA et les Règles de confidentialité et Conditions de service de Google s'appliquent.

Veuillez sélectionner toutes les cases qui s'appliquent :

Merci de votre aide!

Vous ne recevrez pas de réponse. Pour toute question, contactez-nous.

Date de modification :