Rechercher
Fermer ce champ de recherche.

Enjeux & risques juridiques de l’IA et de ChatGPT

par : Térence Cabot (Associé) et Victoria Priest (Avocate)

ChatGPT n’en finit plus de faire parler de lui. Dans une lettre ouverte du 29 mars 2023 (source) plus de 10 000 personnalités, à aujourd’hui, ont appelé de leurs vœux un moratoire sur l’intelligence artificielle (IA), pour demander la suspension immédiate et pendant au moins six mois de « l’entraînement » (machine learning) des systèmes d’IA les plus puissants, comme ChatGPT-4. Les signataires évoquent « des risques majeurs pour l’humanité » et demandent la mise en place de systèmes de sécurité, dont de nouvelles autorités réglementaires dédiées, la surveillance des systèmes d’IA, des techniques pour aider à distinguer le réel de l’artificiel et des institutions capables de gérer « des perturbations économiques et politiques dramatiques en particulier pour la démocratie ». Le 31 mars 2023, l’autorité de protection des données italienne (la Garante per la protezione dei dati personali) a suspendu l’utilisation de ChatGPT en Italie jusqu’à ce que l’outil soit conforme à la réglementation en matière de protection de la vie privée.

Cet outil conversationnel établi à partir d’une IA utilise le deep learning (« apprentissage profond » en français) capable de générer des réponses à des questions, de continuer une conversation ou de générer du texte de manière autonome et particulièrement naturelles. Il est GPT-4, aujourd’hui la version la plus avancée développée par la société américaine OpenAI, spécialisée dans l’IA.

Que cette nouvelle technologie fascine ou effraie, l’enjeu est aujourd’hui de trouver un juste équilibre entre encourager le déploiement de ces innovations et veiller à ce que des garanties adéquates soient en place. En effet, l’usage de ChatGPT soulève de nombreuses problématiques juridiques notamment en matière de gestion des données personnelles, mais également en matière de propriété intellectuelle, et de responsabilité.

Enjeux et risques juridiques en matière de données personnelles

Selon sa politique de confidentialité, ChatGPT affirme respecter la vie privée de ses utilisateurs avec sa conformité aux « California privacy rights »  : « Nous, à OpenAI, L.L.C. (avec nos affiliés, “OpenAI”, “nous”, “notre” ou “nous”) respectons votre vie privée et sommes fortement engagés à garder en sécurité toute information que nous obtenons de vous ou à votre sujet ». Sont énumérés les droits des utilisateurs résidents de l’Etat de Californie, tels que le droit de savoir quelles informations personnelles sont recueillies et comment elles ont été utilisées et divulguées, le droit de demander la suppression de ses informations personnelles, et le droit de ne pas faire l’objet de discrimination dans l’exercice de l’un de ses droits à la vie privée.

En revanche, ChatGPT ne semble pas conforme au Règlement général sur la protection des données (RGPD) et à la loi Informatique et libertés. A titre d’exemple, la politique de confidentialité de ChatGPT ne mentionne pas de nombreuses dispositions protégeant les données personnelles, notamment le droit à la limitation du traitement, le droit la portabilité des données et le droit d’opposition. Les obligations des responsables de traitement de données à caractère personnel ne sont pas non plus mentionnées.

C’est la raison pour laquelle l’autorité italienne en matière de protection des données a suspendu l’usage de ChatGPT en Italie. La Garante Per la Protezione dei Dati Personali, relève l’absence de base légale justifiant la collecte et le stockage de données personnelles et d’information des utilisateurs.En outre, l’autorité italienne met en avant l’absence d’un dispositif de vérification de l’âge, alors que la plateforme est théoriquement interdite aux moins de 13 ans. Elle a donné 20 jours à OpenAI pour cesser les manquements sous peine de se voir infliger une amende de 20 millions d’euros ou jusqu’à 4 % de son chiffre d’affaires annuel.

Le Commissariat à la protection de la vie privée du Canada a également annoncé le 4 avril 2023, qu’il ouvrait procédure à la suite d’une plainte selon laquelle des renseignements personnels avaient été recueillis et communiqués sans consentement. Aux États-Unis, la FTC a été saisie d’une plainte du Center for AI and Digital Policy, spécialisé dans l’éthique de l’IA, lui demandant d’agir contre OpenAI.

En France, plusieurs plaintes ont été déposées devant la CNIL. A la suite de la décision de l’autorité italienne, la CNIL s’est rapprochée de son homologue afin de pouvoir préciser dans les prochains mois le cadre légal applicable à cet outil d’IA, ce qui révèle les incertitudes et risques de cette technologie en matière de droit des données personnelles.

Enjeux et risques en matière de propriété intellectuelle

En tant qu’IA, ChatGPT n’a a priori pas de propriété intellectuelle sur les contenus qu’il produit (données de sortie ou output). En effet, les dispositions applicables en matière de propriété intellectuelle assurent la protection des « droits des auteurs sur toutes les œuvre de l’esprit, quels qu’en soient le genre, la forme d’expression, le mérite ou la destination » (article L. 112-1 du code de la propriété intellectuelle). Or, il est difficile de qualifier ChatGPT d’auteur, dès lors qu’il s’agit d’un outil informatique. Il n’est pas possible de caractériser l’« œuvre de l’esprit » produite, puisque ChatGPT génère du contenu de manière automatique en fonction des données fournies. Se pose la question ainsi de pouvoir distinguer une œuvre originale créée par un auteur pouvant faire l’objet d’une protection.

Cependant, ChatGPT peut être amené à utiliser des contenus (données d’entrée ou input) qui eux sont protégés par des droits d’auteur. Or, toute reproduction, même partielle, sans le consentement de son auteur est illicite (article L. 122-4 du code de la propriété intellectuelle). En outre, dans l’hypothèse où, ChatGPT mettrait à disposition du public des éléments protégés par des droits d’auteur, cette production pourrait être appréhendée dans le cadre de la contrefaçon (article L. 122-4 du code précité).

Selon une récente réponse de la Commission européenne, les exceptions prévues par la directive sur le droit d’auteur pour la fouille de texte et de données pourraient s’appliquer aux IA (Réponse donnée par M. Breton au nom de la Commission européenne, le 31 mars 2023, FR E-000479/2023). Ces exceptions permettent d’extraire des données légalement accessibles au public pour entraîner une IA à moins que l’ayant droit ne s’y oppose. A ce stade, la Commission estime que la création d’œuvres d’art par l’IA ne mérite pas une intervention législative spécifique.

Enjeux et risques en matière de responsabilité

L’utilisateur de ChatGPT peut s’exposer à une violation des conditions générales de ChatGPT. Celles-ci interdisent notamment l’utilisation des « services d’une manière qui porte atteinte, approprie indûment ou viole les droits de toute personne ». En outre, le droit commun de la responsabilité civile pourrait également trouver à s’appliquer, si un utilisateur était à l’origine d’un dommage en raison de la publication ou la diffusion d’un contenu créé, voire d’une utilisation du contenu généré par l’IA pour un but illicite.

Le producteur de contenu d’IA s’expose également à la mise en jeu de sa responsabilité. Ainsi, OpenAI, pour ne prendre que lui, a admis que sa solution présente encore beaucoup de limites et n’est pas exempte d’erreurs possibles. Afin d’apporter un cadre plus précis, une proposition de directive relative à l’adaptation des règles en matière de responsabilité civile extracontractuelle au domaine de l’IA a été publiée par la Commission européenne le 28 septembre 2022. Cette proposition vise à soumettre les systèmes d’IA « à haut risque » à un ensemble d’exigences et d’obligations dans l’Union européenne.

Le 30 mars 2023, le service de recherche du Parlement européen, a publié un document rappelant que les négociations étaient en cours afin de définir un cadre réglementaire pour l’IA dans l’Union européenne. Cependant, entre-temps, des scientifiques ont mis en garde contre toute approche classant les systèmes d’IA comme étant « à haut risque » ou non en fonction de leur objectif prévu, car cela risquerait de créer une faille pour les systèmes « à usage général », tel que ChatGPT.

Alors que la proposition de directive de la Commission européenne ne contenait pas de dispositions spécifiques sur les technologies d’IA « à usage général », le Conseil a proposé qu’elles soient prises en compte. La proposition de directive est toujours en cours d’examen par la commission parlementaire.

Réglementation et innovation

Il est certain que nous ne sommes encore qu’à l’aube d’une évolution juridique nécessaire afin d’appréhender les risques résultants de l’utilisation de ces nouvelles technologies.  

L’utilisation de l’IA avec de nouveaux outils toujours plus impressionnants doit donc être effectuée avec prudence et précaution compte tenu des risques juridiques résultants de conditions d’utilisation encore floue et d’un état du droit encore à préciser pour plus de sécurité juridique.

Cela tout en veillant à ne pas contraindre de manière excessive l’innovation technologique qui doit être bénéfique pour tous.

Balayez de droite à gauche pour voir d’autres actualités.