Réguler

La France presse la Commission de faire un effort de simplification sans précédent…

... Et cela concerne notamment le contenu et le calendrier d'application de l'IA Act.

Raphaël d'Assignies
7 février 2025

Dans une note adressée à la Commission européenne, les autorités françaises ont mis l’accent sur la nécessité de simplifier les règles dans des domaines stratégiques, parmi lesquels figure l’intelligence artificielle (IA). Cette note insiste particulièrement sur les ajustements requis pour le Règlement européen sur l’IA (2024/1689), afin de garantir un cadre adapté aux enjeux de compétitivité, tout en préservant les droits fondamentaux.

L’objectif poursuivi par la France est clair : éviter des lourdeurs administratives susceptibles de freiner l’innovation, tout en alignant les mesures sur les réalités du marché et les exigences internationales. Parmi les propositions figurent l’actualisation des critères de risque systémique, la finalisation d’un code de bonnes pratiques pour les fournisseurs de modèles d’IA à usage général et l’adoption d’un modèle de résumé des données d’entraînement.

I. La mise en place des travaux relatifs aux critères de risque systémique

Les modèles d’IA à usage général (IAUG) constituent une nouvelle catégorie dans le règlement européen, soumise à un régime juridique spécifique. Ce cadre réglementaire se trouve renforcé lorsque les modèles les plus puissants présentent des « risques systémiques ». L’AI Act caractérise ces modèles selon une approche fonctionnelle, en évaluant leur polyvalence et leur aptitude à accomplir efficacement un large spectre de tâches diverses. Leur distribution s’effectue principalement via des bibliothèques, des API ou des téléchargements directs, avec la particularité d’être adaptables et destinés à s’intégrer dans des systèmes d’IA plus larges.

Cette catégorie réglementaire s’inspire notamment des grands modèles d’IA générative américains, tels que GPT-3 et GPT-4 d’OpenAI, rendus célèbres par leur intégration dans ChatGPT. La notion de risque systémique associée à ces modèles transcende la simple atteinte aux droits individuels : elle englobe les impacts significatifs susceptibles d’affecter l’ensemble de la société européenne.

Pour qualifier un modèle d’IAUG comme porteur de risques systémiques, le critère déterminant repose sur ses « capacités d’impact élevées ». Cette évaluation technique s’appuie sur une méthodologie détaillée dans l’annexe XIII de l’AI Act, avec une présomption de risque systémique lorsque la puissance de calcul utilisée pour l’entraînement dépasse certains seuils.

Le calendrier réglementaire fixe l’entrée en vigueur du chapitre V, relatif aux modèles à usage général, au 2 août 2025 (article 113). Cette échéance proche nécessite d’engager rapidement les travaux sur la définition des seuils de risques systémiques pour établir un cadre opérationnel avant l’application effective des dispositions.

Dans cette perspective, les autorités françaises soulignent l’urgence d’initier les travaux sur l’établissement ou l’ajustement des seuils, critères et indicateurs permettant d’identifier ces modèles à risque systémique. L’enjeu majeur consiste à concevoir des critères suffisamment flexibles pour s’adapter à l’évolution technologique, tout en garantissant la protection des intérêts fondamentaux de la société européenne.

II. La finalisation urgente du code de conduite en matière d’IA à usage général

La finalisation du code de conduite pour les modèles d’IA à usage général représente une priorité dans le cadre du règlement européen sur l’IA. Ce code, qui vise à offrir un cadre de conformité clair et prédictible, est prévu pour être achevé d’ici au 02 mai 2025. Le processus a démarré le 1er août 2024, suite à l’entrée en vigueur de l’AI Act.

Ce code de bonnes pratiques vise notamment à :

  1. Clarifier les obligations des fournisseurs : en particulier sur les aspects liés à la transparence, à la gestion des risques et à la protection des droits fondamentaux.
  2. Servir d’outil de conformité : en accompagnant les entreprises dans la mise en œuvre des obligations prévues par le règlement.
  3. Aborder la question sensible des droits d’auteur : le code devra également fournir des orientations pratiques concernant l’application équilibrée des règles de protection des droits d’auteur dans le contexte des IA génératives, un enjeu crucial pour garantir à la fois l’innovation et le respect des droits des créateurs.

Bien que les travaux aient commencé, la France insiste sur l’importance de se concentrer sur l’élaboration de ce code, en collaboration avec l’ensemble des parties prenantes, afin de créer un cadre prédictible et cohérent pour les acteurs de l’écosystème européen de l’IA.

III. La simplification des régulations horizontales  : le cas du résumé des données d’entraînement en matière d’IA à usage général.

Le développement d’un modèle standardisé de « résumé suffisamment détaillé » des données d’entraînement, tel que prévu par l’article 53(1)d) de l’AI Act, s’effectue en synergie avec l’élaboration du code de bonnes pratiques. Cette initiative, pilotée par le Bureau de l’IA à travers une démarche consultative, représente un élément fondamental du dispositif de transparence et de protection des droits d’auteur applicable aux fournisseurs de modèles d’IA à usage général.

La consultation menée par le Bureau de l’IA a suscité une forte mobilisation, avec plus de 430 contributions émanant d’un large éventail d’acteurs. Les contours initiaux et les composantes essentielles du modèle ont été soumis à l’examen des participants impliqués dans l’élaboration du code de conduite, lesquels ont pu transmettre leurs observations écrites jusqu’au 31 janvier.

Ce dispositif de documentation des données d’entraînement poursuit trois objectifs majeurs :

Premièrement, il vise à renforcer la transparence en permettant aux parties prenantes, particulièrement aux ayants droit, d’accéder à une vision globale des données d’entraînement, sans pour autant porter atteinte aux secrets d’affaires des entreprises.

Deuxièmement, il cherche à établir un équilibre entre la protection des droits et le développement de l’innovation, en harmonisant les intérêts du secteur culturel avec ceux des jeunes entreprises européennes spécialisées dans l’IA, à l’image de Mistral AI, dont la compétitivité doit être préservée.

Enfin, il ambitionne de minimiser les contentieux en définissant un cadre précis concernant les obligations de transparence incombant aux fournisseurs.

Dans ce contexte, la position française préconise l’adoption d’un modèle de résumé détaillé accessible au public, intégrant pleinement les considérations de propriété intellectuelle, conformément à l’article 53, c du RIA

À la croisée de l’intelligence artificielle et du droit, une newsletter mensuelle pour suivre les transformations du secteur juridique.

Retrouver chaque mois, des actualités et des articles qui explorent deux axes principaux :

  • L’actualité de la legaltech et de l’intelligence artificielle : innovations, outils pratiques et solutions technologiques qui font évoluer le quotidien des professionnels du droit
  • Les enjeux de l’IA juridique : analyses sur la régulation des modèles de langage, questions de propriété intellectuelle, implications éthiques et juridiques de ces technologies émergentes.

Une veille experte et accessible pour rester à la pointe des mutations qui façonnent l’avenir du droit.