Réguler

Quelques cadres de régulation de l’Intelligence Artificielle

Raphaël d'Assignies
8 juin 2023

Les principes de l’OCDE en matière d’IA

En mai 2019, les pays membres de l’OCDE (Organisation de coopération et de développement économique) ont adopté « les Principes sur les IA de l’OCDE ». Ces principes, non contraignants, affirment que les systèmes d’IA devraient être transparents et explicables, fonctionner de manière sûre et sécurisée, disposer de mécanismes de responsabilisation et encourager « une utilisation de l’IA qui soit innovante et digne de confiance et qui respecte les droits de l’homme et les valeurs démocratiques ».

Ces principes sont un peu le point de départ des initiatives politiques en matière d’IA dans le monde. Pour exemple, la définition de l’IA adoptée dans le règlement européen en cours de processus législatif sera celle utilisée par l’OCDE.

Lien :

  • https://www.oecd.org/fr/numerique/intelligence-artificielle
    (…)L’OCDE aide les gouvernements en mettant à leur disposition des mesures et des analyses des incidences économiques et sociales des technologies et des applications liées à l’IA, et en collaborant avec l’ensemble des parties prenantes en vue de recenser les bonnes pratiques utiles à l’action publique.

Le Partenariat mondial sur l’IA ou Global Partnership on Artificial Intelligence (GPAI)

Fondé en 2020 sous l’impulsion de la France et du Canada, le GPAI qui regroupait 15 membres et en accueille aujourd’hui 29, vise à orienter le développement et l’utilisation responsables de l’IA, partager les recherches, favoriser la collaboration internationale en matière de recherche et d’innovation.

En novembre dernier, le sommet annuel du GPAI qui s’est tenu à Tokyo a été l’occasion pour les groupes de travail de présenter l’avancée de leurs travaux autour de quatre thèmes : l’IA responsable, la gouvernance des données, l’avenir du travail et l’innovation et la commercialisation. On peut toutefois regretter que les travaux du GPAI restent discrets et confidentiels.

L’envoyé pour les technologies du Secrétaire général de l’ONU

En 2021, le Secrétaire général de l’ONU a nommé un envoyé pour les technologies. Ses travaux s’inscriront dans un cadre plus large que l’IA, dans le Pacte Numérique Mondial qui sera soumis à l’occasion du Sommet du Futur de l’ONU en septembre 2024.

Par ailleurs, en novembre 2021, les 193 Etats membres de l’UNESCO ont adopté la Recommandation sur l’éthique de l’IA qui « permettra non seulement de protéger mais aussi de promouvoir les droits humains et la dignité humaine, et constituera une boussole éthique et un socle normatif mondial permettant d’instaurer un solide respect de l’État de droit dans le monde numérique ».

Contrairement aux Principes de l’OCDE qui n’engagent que les pays occidentaux, la Recommandation sur l’éthique de l’IA de l’UNESCO a été signée par des pays exclus des débats occidentaux comme la Chine et la Russie ou par de pays émergents. Mais la question se pose de la sincérité de certains pays à respecter leur engagement, la Chine et la Russie par exemple ayant utilisé l’IA pour surveiller des personnes.

Lien :

  • https://www.un.org/techenvoy/fr/content/about –  Site du Bureau de l’Envoyé du Secrétaire général des Nations Unies pour les technologies
    En juin 2019, dans son rapport intitulé « L’ère de l’interdépendance numérique », le Groupe de haut niveau sur la coopération numérique, mis en place par le Secrétaire général, a défini les fonctions que pourraient assumer un futur Envoyé ou une future Envoyée pour les technologies afin de contribuer à consolider la coopération numérique.(…)

La Convention cadre du Conseil de l’Europe

Le CAI, Comité ad hoc sur l’intelligence artificielle, a été créé au sein du Conseil de l’Europe, organisation intergouvernementale de défense des droits de l’homme instituée par le traité de Londres en 1949.

Le CAI a pour mandat de définir « un instrument juridique adéquat sur le développement, la conception et l’application des systèmes d’intelligence artificielle qui se fonde sur les normes du Conseil de l’Europe en matière de droits de l’homme, de démocratie et d’Etat de droit, et est propice à l’innovation, conformément aux décisions pertinentes du Comité des Ministres » pour fin 2023.

Le 2 juin dernier s’est achevée la sixième réunion plénière du CAI au cours de laquelle a été finalisée la première lecture de l’avant-projet de la Convention cadre sur l’intelligence artificielle, les droits de l’homme, la démocratie et l’état de droit.

Lien :

« L’IA act » ou le premier texte législatif au monde sur l’IA

Le 15 juin prochain, le règlement européen établissant des règles harmonisées concernant l’intelligence artificielle entrera dans sa dernière ligne droite législative au Parlement européen. Plus qu’un simple règlement c’est un texte fondateur qui entraînera dans son sillon plus largement l’ensemble des grands acteurs mondiaux de l’IA, puisque les grandes entreprises internationales devront s’y soumettre. D’ailleurs, le patron d’OpenAI, après avoir menacé de quitter l’Europe si le texte était contraignant a fait volte-face.

Après l’adoption en session plénière du Parlement, le texte fera l’objet des discussions (« trilogues ») avec le Conseil.

Mais si l’on peut s’attendre à une adoption du texte dans les prochains mois, son entrée en vigueur n’est semble-t-il pas pour tout de suite.

Le processus d’Hiroshima sur l’IA

Réunies à Hiroshima (Japon) pour un Sommet le 20 mai dernier, les 7 plus grandes puissances mondiales (Etats-Unis, Japon, Allemagne, France, Royaume-Uni, Canada et Italie) ont annoncé la création d’un groupe de travail pour « promouvoir une intelligence artificielle responsable », discuter d’une utilisation responsable des outils et de leurs risques, notamment la désinformation.