Réguler

L’ENISA publie quatre guides sur la cybersécurité et l’IA

Raphaël d'Assignies
11 juin 2023

L’agence de l’Union européenne pour la cybersécurité (ENISA), créée en 2004 (par un règlement européen) et qui conseille et assiste la Commission et les Etats membres et vise à « garantir un niveau élevé commun de cybersécurité en Europe », a publié le 7 juin dernier quatre guides sur les défis les plus importants en matière d’intelligence artificielle et cybersécurité à l’occasion de la Conférence sur la supervision d’une IA sûre et digne de confiance qui s’est tenue à Bruxelles.

Quatre tables rondes ont permis d’aborder des sujets comme les défis techniques en matière de cybersécurité posés par les chatbots, les besoins en matière de recherche et d’innovation ou les considérations relatives à la certification de la cybersécurité des systèmes d’IA.

Le futur règlement sur l’IA nécessitera des standards pour sa mise en œuvre. Or la rapidité de développement actuel de l’IA est incompatible avec le temps d’élaboration des normes et standards. La production de bonnes pratiques qui englobent tout le cycle de vie des projets d’IA est une étape intermédiaire bienvenue pour servir de cadre de référence.

C’est dans cette optique, que l’ENISA a produit un premier guide qui concerne les  bonnes pratiques de cybersécurité pour l’IA.

La principale préconisation est de traiter la cybersécurité des systèmes d’IA comme une approche additionnelle à la gestion de la sécurité de l’information classique pour tenir compte des spécificités de ces technologies. L’ENISA souligne toutefois les nouveaux défis engendrés par l’IA et notamment ses enjeux qui vont au-delà de la technique : transparence, équité, explicabilité…

Il se présente comme un cadre composé de trois couches : fondements de la cybersécurité pour l’IA, cybersécurité spécifique à l’IA et cybersécurité sectorielle pour l’IA et a pour objectif de fournir une approche progressive des bonnes pratiques en matière de cybersécurité afin de garantir la fiabilité des systèmes d’IA.

L’intérêt principal est de balayer un sujet très transversal et de présenter une vue raisonnée et synthétique de l’ensemble des composants avec les enjeux associés. Compte tenu de la prolifération des initiatives cela représente déjà un travail de synthèse colossal.

La partie consacrée aux questionnaires envoyés aux autorités nationales, dans le cadre de l’enquête menée par l’ENISA, fournit un bon aperçu de la situation : tout le monde a conscience des risques et de nombreux projets ont été initiés mais le sujet est très novateur et sa rapidité de développement semble avoir surpris. Vivement l’IA Act pour clarifier la situation !

Le deuxième apport traite de   l’IA et de la recherche en cybersécurité et identifie cinq besoins clés en la matière :

–  des bancs d’essai pour étudier et optimiser les performances des outils et des technologies fondés sur l’intelligence artificielle et utilisés pour la cybersécurité ;

–  le développement d’outils de test de pénétration basés sur l’IA et le ML pour trouver et exploiter les vulnérabilités de sécurité afin d’évaluer le comportement des attaquants ;

–  l’élaboration de cadres normalisés pour évaluer la préservation de la vie privée et la confidentialité des flux d’informations ainsi que le système conçu ;

–  l’élaboration de modèles de formation à l’IA pour les praticiens à l’aide de scénarios du monde réel ;

– la mise en place d’un observatoire de l’IA et des menaces de cybersécurité.

En conclusion de ce guide, l’ENISA annonce l’élaboration d’une feuille de route et la création d’un observatoire de la R&D en cybersécurité et IA.

Enfin, l’ENISA a souhaité mettre en avant les liens qui existent entre sécurité et vie privée, « elles sont intimement liées et tout aussi importantes » par la publication de deux études sur la cybersécurité et de la vie privée dans l’IA : prévision de la demande sur les réseaux électriques et diagnostic par imagerie médicale.

Par ces deux cas d’étude, l’ENISA tente de montrer qu’il est essentiel de trouver un équilibre pour répondre aux diverses exigences tout en révélant que les efforts mis en œuvre pour optimiser la sécurité et la protection de la vie privée « se font souvent au détriment des performances des systèmes ».

Pour mémoire, l’ENISA avait déjà publié en 2021, deux guides techniques. La  première intitulée AI Cybersecurity Challenges – Threat landscape for artificial intelligence dressait un panorama des algorithmes de ML avec le couple  vulnérabilité/menace associé. La seconde, intitulée Securing Machine Learning Algorithms recensait les moyens de sécurisation.