Mémo

Legal & GenAI : le mémo du 14 juillet 2023

Raphaël d'Assignies
14 juillet 2023

OpenAI fait face à plusieurs class actions

OpenAI et d’autres sociétés sont attaquées aux Etats-Unis par des recours collectifs concernant leur utilisation des données personnelles et les violations alléguées de la propriété intellectuelle.

Deux arguments – parmi d’autres – retiennent l’attention :

  • les données d’entraînement sont souvent collectées de manière peu transparente et contiennent des données obtenues parfois de manière frauduleuses ;
  • elles contiennent des données personnelles – obtenues sans le consentement des intéressés – qui peuvent ressurgir lors de la phase d’inférence par le biais du phénomène de mémorisation.

On peut parier sur la multiplication de ce type de recours à l’avenir faisant naître d’intéressantes argumentations autour du fair use ou des rapports entre LLM et données personnelles notamment.

L’académie des Grammy Awards publie ses bonnes pratiques en matière d’IA generative

L’académie rappelle des évidences comme le fait que seuls les créateurs humains peuvent être soumis à examen, proposés pour une nomination ou une victoire à un prix ou encore qu’une œuvre qui ne contient aucune création humaine n’est pas éligible. Pour autant, elle ne ferme pas la porte à l’utilisation de l’IA mais elle doit représenter une portion minoritaire de l’œuvre. De même, les créations musicales ne pourront concourir que dans la catégorie concernée par la création humaine, par exemple une oeuvre composée par l’IA mais interprétée par un humain ne pourra concourir que dans la catégorie interprétation. Et inversement.

Après l’alignement, voici le superalignement

Conscientes que la solution actuelle qui consiste à s’appuyer sur un retour humain à la production du modèle n’est pas suffisante dans un contexte où la machine nous dépasse, les équipes d’OpenAI proposent de nouvelles solutions.

L’aspect le plus intéressant est le recours à l’IA comme outil de supervision pour l’humain. Rappelons qu’OpenAI avait publié un papier en juin 2022 sur un modèle capable d’aider un opérateur à évaluer les défauts de résumés automatiquement générés.

OpenAI se donne quatre ans pour pousser plus loin le concept, dans le contexte du superalignement : l’IA pourrait valider d’autres systèmes d’IA, procéder à sa propre auto-critique ou être spécifiquement entraîné pour simuler les pires cas de mésalignement.

40% des universités britanniques déclarent mener des enquêtes pour tricherie à l’aide de chatGPT.

L’engouement pour chatGPT ne se tarit pas chez les étudiants. 40 % des établisements d’enseignement supérieur en Grande-Bretagne ont lancé des enquêtes pour l’utilisation frauduleuse de l’agent conversationnel. Faute de moyens efficaces de détections, la traque réclame encore un minutieux effort humain pour sanctionner les étudiants indélicats.

PoissonGPT : de l’importance de la traçabilité

Dans un récent article, les développeurs de la solution AICert démontrent comment ils ont pu modifier un modèle de langage open-source, GPT-J-6B, pour diffuser de fausses informations tout en restant indétectés par les benchmarks standards. Cela pose le problème crucial de la traçabilité des modèles. Pour y répondre, les auteurs proposent un outil permettant de s’assurer de l’origine et de l’intégrité des modèles. Article plus détaillé à venir.

Sciences et techniques

L’IA pourrait changer notre manière de faire de la science.

C’est le titre d’un article d’Eric Schmidt mais également une réalité concrète comme la découverte d’antibiotiques pour combattre les maladies nosocomiales, contrôler la fusion nucléaire ou élaborer de nouvelles molecules.

Microsoft LongNet augmente la fenêtre de contexte à 1 milliard de tokens

Une équipe de Microsoft propose une approche permettant de traiter jusqu’à 1 milliard de tokens à la fois. Cette possibilité ouvre de nombreuses perspectives comme des raisonnements beaucoup plus complexes ou l’analyse de volumes de documents très important en une seule fois. Imaginez pouvoir auditer 10000 contrats de travail en un prompt !

ChatGPT peut désormais directement exécuter du code

Les utilisateurs de ChatGPT ont désormais accès à l’interpreteur de code à partir de l’interface. Ainsi ChatGPT peut exécuter du code, avec l’accès éventuel aux fichiers que vous aurez téléchargés, fournir de l’aide pour des tâches telles que l’analyse de données, la création de graphiques, l’édition de fichiers et la réalisation de calculs mathématiques.

Cette capacité est loin d’être un gadget et illustre, à nouveau, la capacité d’autonomie des modèles mais également les dérives possibles.

Société

Les luddites 2, le retour

Screenshot from the original Safe Street Rebel TikTok video.

Un groupe d’activistes a lancé à San Francisco une protestation contre les robotaxis Cruise et Waymo baptisée la « Semaine du Cône » après avoir réalisé qu’ils peuvent les désactiver en plaçant un cône de circulation sur le capot d’un véhicule. Cette forme de protestation semble gagner en popularité et rejoint les plaintes des syndicats de taxi.

 

À la croisée de l’intelligence artificielle et du droit, une newsletter mensuelle pour suivre les transformations du secteur juridique.

Retrouver chaque mois, des actualités et des articles qui explorent deux axes principaux :

  • L’actualité de la legaltech et de l’intelligence artificielle : innovations, outils pratiques et solutions technologiques qui font évoluer le quotidien des professionnels du droit
  • Les enjeux de l’IA juridique : analyses sur la régulation des modèles de langage, questions de propriété intellectuelle, implications éthiques et juridiques de ces technologies émergentes.

Une veille experte et accessible pour rester à la pointe des mutations qui façonnent l’avenir du droit.