Simon Associés décrypte le Projet de règlement sur l’intelligence artificielle (Artificial intelligence Act) porté par l’Union européenne
UE : Projet de règlement sur l’intelligence artificielle (Artificial intelligence Act) suite à l’adoption du 14 juin 2023 de la position de négociation du Parlement européen
Pour mémoire : Selon le site officiel du Parlement européen, « les députés européens ont adopté leur position de négociation » le 14 juin 2023 par 499 voix pour, 28 contre et 93 abstentions sur le projet de règlement sur l’intelligence artificielle (Artificial Intelligence Act) après une première proposition par la Commission européenne en avril 2021. La procédure de trilogue débute alors pour établir une législation aboutie d’ici la fin de l’année.
Ce qu’il faut retenir :
Le projet de règlement sur l’intelligence artificielle classe les systèmes d’intelligence artificielle (IA) selon quatre niveaux de risques :
- Unacceptable risk
- High risk
- Limited risk
- Low and minimal risk
Les systèmes interdits (unacceptable risk) comprennent notamment ceux exploitant les groupes de personnes vulnérables pour influencer leur comportement, la notation sous forme de score social par les autorités publiques, la manipulation inconsciente des comportements et l’utilisation de systèmes d’identification biométrique à distance “en temps réel” dans des espaces accessibles au public.
Les trois autres catégories sont les systèmes d’IA à haut risque (high risk), ceux à moyen risque (limited risk) et ceux autorisés (low and minimal risk).
Les systèmes d’IA à haut risque feront l’objet d’un marqueur CE par les autorités nationales tandis que ceux présentant un risque moyen seront soumis à une obligation de transparence. La sanction en cas de non-respect de l’interdiction de certains systèmes peut s’élever jusqu’à une amende à hauteur de quarante millions d’euros ou de 7% du chiffre d’affaires mondial annuel total de la société pour l’exercice précédent lorsqu’il s’agit d’une entreprise.
L’objet du projet de règlement européen est ainsi de réguler l’intelligence artificielle et protéger les libertés fondamentales sans freiner l’innovation. Dans cette perspective, le projet de règlement prévoit des « regulatory sandboxes », espaces contrôlés à destination prioritairement des PME et start-up, leur permettant de mettre à l’essai des technologies innovantes pour une durée limitée.
En parallèle, la Commission a publié le 28 septembre 2022 deux propositions de directives relatives à la responsabilité en matière d’intelligence artificielle. La première vise à adapter à l’ère numérique le régime posé par la directive 85/374/CEE du 25 juillet 1985 sur la responsabilité du fait des produits défectueux. La seconde prévoit un régime juridique en cas de préjudice causé par un système d’intelligence artificielle.
Les travaux de l’Union européenne sur l’Artificial Intelligence Act intègrent également l’intelligence artificielle générative qui produit un contenu en se fondant sur des données préexistantes collectées. A titre illustratif, un groupe de travail sur ChatGPT a été constitué par le Comité européen de protection des données. Les limites de ces systèmes d’IA générative sont effectivement d’ores et déjà apparues. Tel a été le cas de ChatGPT dans l’affaire rapportée par le New York Times le 27 mai 2023 :
Un avocat américain a présenté devant un juge fédéral de l’Etat de New York un mémoire aux termes duquel étaient citées des jurisprudences. Il s’est avéré que ces jurisprudences étaient inexistantes. L’avocat a déclaré sous serment avoir eu recours à ChatGPT, ce système lui ayant confirmé l’existence des jurisprudences citées et leur présence sur des bases de données telles que LexisNexis. Une audience s’est tenue le 8 juin 2023 sur les sanctions. Aux termes d’une ordonnance en date du 22 juin 2023, la United States District Court for the Southern District of New York a notamment prononcé une pénalité de 5.000 dollars devant être versée dans les 14 jours au greffe de la Cour conjointement par Peter LoDuca, Steven A. Schwartz et le cabinet d’avocats Levidow, Levidow & Oberman en application de la Règle 11 (c) (1) des Federal Rules of Civil Procedure.
L’émergence de l’IA générative pose également la problématique du respect des droits d’auteur dès lors que ce type de technologie génère des textes, images, vidéos etc. à partir de données préexistantes. Deux questions principales se posent.
La première est celle de savoir si l’IA peut bénéficier de la protection du droit d’auteur. Une œuvre de l’esprit protégée par l’article L112-1 du Code de la propriété intellectuelle doit présenter un caractère original. La jurisprudence française ne s’est pas encore positionnée sur l’IA générative.
Le 24 décembre 2019, la Chine (tribunal du district de Shenzhen Nanshan) a reconnu la possibilité de protection par le droit d’auteur d’un article généré par le modèle d’IA générative Dreamwriter développé par l’entreprise Tencent.
A l’inverse, aux Etats-Unis, le United States Copyright Office a affirmé le 21 février 2023 que Kris Kashtanova est l’auteure des textes de sa bande dessinée « Zarya of the Dawn » mais que « les images de l’œuvre générées par la technologie Midjourney ne sont pas le fruit d’une création humaine ». Dès lors, le United States Coryright Office retient que le certificat d’enregistrement d’un droit d’auteur pour l’œuvre (« copyright registration for the Work ») qu’il avait initialement délivré à Kris Kashtanova l’a été sur la base d’informations incomplètes. Ainsi, le nouvel enregistrement prendra en considération que « Mme Kashtanova a contribué à cette œuvre, notamment au texte et à la sélection, coordination, et l’arrangement de textes créés par l’auteur et d’œuvres d’art générées par l’intelligence artificielle” .
La seconde difficulté porte sur la possibilité que les contenus générés par ces systèmes d’IA constituent des contrefaçons. A titre illustratif, la base d’images Getty a initié une action en contrefaçon contre Stability AI dont le système d’apprentissage automatique Stable Diffusion qui s’est entrainé sur des images protégées par copyright et sans autorisation. D’autres systèmes comme OpenAI, concepteur de ChatGPT, prévoient dans leurs conditions générales d’utilisation qu’il revient à l’utilisateur de s’assurer qu’il ne porte pas atteinte aux droits d’un tiers.
En France, depuis le 26 novembre 2021, l’article L.122-5-3 (III) du Code de la propriété intellectuelle dispose que « des copies ou reproductions numériques d’œuvres auxquelles il a été accédé de manière licite peuvent être réalisées en vue de fouilles de textes et de données menées à bien par toute personne, quelle que soit la finalité de la fouille, sauf si l’auteur s’y est opposé de manière appropriée, notamment par des procédés lisibles par machine pour les contenus mis à la disposition du public en ligne » (Ordonnance n° 2021-1518 du 24 novembre 2021 complétant la transposition de la directive 2019/790 du Parlement européen et du Conseil du 17 avril 2019 sur le droit d’auteur et les droits voisins dans le marché unique numérique et modifiant les directives 96/9/CE et 2001/29/CE).
Pour approfondir :
La volonté de l’Union européenne de réglementer l’usage de l’intelligence artificielle s’inscrit dans un contexte d’expansion accrue de ce secteur. Alors que l’Union européenne règlemente, certains pays ont depuis plusieurs années entrepris des programmes nationaux de développement de l’IA.
Les Etats-Unis se sont en effet engagés dans un processus de développement massif de l’IA dès la publication le 12 octobre 2016 d’un rapport sur les orientations stratégiques en matière d’intelligence artificielle . Une loi a également été promulguée en 2020 sur l’initiative nationale sur l’IA (National Artificial Intelligence Initiative Act (NAIIA)) et entrée en vigueur le 1er janvier 2021.
De même, la Chine a dès 2017 élaboré un « Plan de développement de nouvelle génération d’IA » dans la perspective de devenir le principal centre d’innovation en matière d’intelligence artificielle d’ici 2030. Le Premier ministre Li Keqiang avait expliqué lors du Congrès national populaire de mars 2018 la place centrale du développement de l’IA.
Le plan de développement met notamment en place des dispositifs de réduction des couts de recherche et développement pour les projets entrepris par des PME et start-up.
La Chine s’est également adaptée à l’IA générative en publiant le 11 avril 2023 son projet de « Mesures administratives pour la gestion des services d’intelligence artificielle générative » établi par la Cyberspace Administration of China (CAC). Le texte a été soumis à une consultation publique et est resté ouvert aux commentaires publics jusqu’au 10 mai 2023 pour une entrée en vigueur prévue en 2023 (article 21 du projet).
La Chine prévoit expressément qu’il convient de respecter de la « moralité sociale, l’ordre public et les bonnes mœurs ». Selon le texte, le contenu crée par l’IA générative doit notamment respecter la propriété intellectuelle, l’éthique commerciale, les intérêts légitimes d’autrui et ne pas générer de contenu discriminatoire. Par ailleurs, il est prévu que les systèmes d’IA doivent prendre les mesures nécessaires pour empêcher la génération de contenu faussé, à l’instar du cas ChatGPT rapporté par le New York Times le 27 mai 2023.
Des initiatives sont enfin prises par des pays tels que le Royaume-Uni. Le premier ministre Rishi Sunak a effectivement fait part lors d’une visite à la Maison Blanche le 7 juin 2023 de la volonté d’accueillir avant fin 2023 le premier Sommet mondial sur l’intelligence artificielle visant à permettre une utilisation et un développement sécurisés de l’IA.
Enfin, le sommet du G7 de 2023 s’est tenu du 19 juin au 21 juin 2023 lors duquel les autorités de protection des données des sept pays (France, États-Unis, Royaume-Uni, Allemagne, Japon, Italie, Canada) ont élaboré un plan d’action en vue d’établir une collaboration sur la protection des données personnelles dans le contexte de l’IA générative.