Le Centre canadien pour la cybersécurité se joint à l’Australian Cyber Security Centre (ACSC) de l’Australian Signals Directorate (ASD) et aux partenaires internationaux suivants pour fournir des conseils sur l’utilisation sécuritaire des systèmes d’intelligence artificielle (IA) :
- le National Cyber Security Centre de la Nouvelle-Zélande (NCSC-NZ);
- le National Cyber Security Centre du Royaume-Uni (NCSC-UK);
- la Cybersecurity and Infrastructure Security Agency (CISA) et la National Security Agency (NSA) des États-Unis.
Le rapport intitulé Engaging with Artificial Intelligence (en anglais seulement) porte principalement sur l’utilisation sécuritaire des systèmes d’IA. Le rapport présente un aperçu des menaces graves liées aux systèmes d’IA et encourage les organismes à prendre des mesures pour gérer les risques associés à l’utilisation de l’IA. On y retrouve des mesures d’atténuation pour aider les organismes qui utilisent des systèmes d’IA autohébergés et hébergés par des tiers.
Comme tous les systèmes numériques, l’IA compte des possibilités enthousiasmantes et des menaces. Pour tirer parti des avantages de l’IA en toute sécurité, toutes les parties prenantes concernées par ces systèmes, comme les programmeuses et programmeurs, les utilisateurs finaux, les cadres supérieures et supérieurs, les analystes et les spécialistes du marketing, devraient prendre le temps de comprendre quelles menaces s’appliquent à eux et elles et comment ces menaces peuvent être atténuées.
Cette publication aborde certaines menaces répandues liées à l’IA. On ne présente pas ces menaces pour décourager les utilisateurs d’avoir recours à l’IA, mais plutôt pour aider toutes les parties prenantes de l’IA à s’en servir de façon sécuritaire. Cette publication présente des mesures d’atténuation des cybermenaces dont vous pouvez vous servir pour contrer ces menaces liées à l’IA.
Pour en savoir plus sur les menaces liées à l’IA, sur les tactiques des auteures et auteurs de menace, sur la gestion des risques, et sur le développement d’IA sécuritaire, consultez les ressources suivantes :
- Cadre de gestion des risques liés à l’IA (en anglais seulement)
- Lignes directrices pour le développement de systèmes d’IA sécuritaires (en anglais seulement)
- Intelligence artificielle (ITSAP.00.040)
- L’intelligence artificielle générative (ITSAP.00.041)
- Les 10 mesures de sécurité des TI (ITSM.10.089)
- La gestion des risques liés à la sécurité des TI : Une méthode axée sur le cycle de vie (ITSG-33)