Face aux inquiétudes de différents pays face à la montée en puissance de ChatGPT, le Conseil européen de la protection des données (CEPD) a annoncé la création d’une « task force » dont la mission est de déterminer si l’intelligence artificielle constitue une réelle menace, notamment pour la vie privée.
Ces dernières semaines, les initiatives locales concernant ChatGPT se multiplient. Il y a tout d’abord l’Italie, qui a décidé de bannir le chatbot, et qui a récemment donné un ultimatum à OpenAI pour éventuellement en rouvrir l’accès si l’entreprise américaine se décide à faire preuve de transparence concernant la manière dont elle utilise les données. De son côté, l’Espagne a également annoncé l’ouverture d’une enquête autour de ChatGPT et de la manière dont l’IA utilise des données récoltées sur Internet sans autorisation. Enfin, en France, le député Eric Bothorel a récemment déposé une plainte après de la CNIL.
Tout cela pour dire que les inquiétudes autour de ChatGPT sont de plus en plus nombreuses en Europe. C’est sans doute la raison pour laquelle le Conseil européen de la protection des données (CEPD), qui rassemble les entités européennes similaires à la CNIL en France, a décidé de prendre le taureau par les cornes.
ChatGPT doit faire face à l’Europe
Dans un communiqué publié le 13 avril dernier, le CEPD explique avoir créé « un groupe de travail sur ChatGPT ». « Les membres du CEPD ont discuté de la récente mesure d’exécution prise par l’autorité italienne de protection des données contre Open AI concernant le service ChatGPT. Le CEPD a décidé de lancer un groupe de travail dédié pour favoriser la coopération et échanger des informations sur d’éventuelles mesures d’exécution menées par les autorités de protection des données », explique la communication de l’organisme, qui se veut plutôt laconique à ce stade.
Le fait est que la multiplication des enquêtes locales, et les inquiétudes associées, sont probablement autant de raisons qui ont poussé le CEPD à se pencher concrètement sur la question à l’échelle européenne. Dans l’immédiat, l’heure n’est pas à l’interdiction de l’intelligence artificielle conversationnelle en Europe, mais à la « coopération » entre les CNIL des 27 pays de l’UE. Il va leur falloir se mettre d’accord sur une réglementation générale en vue de décider de la manière dont l’IA d’OpenAI, et probablement d’autres technologies similaires, vont pouvoir trouver leur place au sein de l’Union européenne.
La principale problématique ici est celle qui tourne autour des données personnelles, et de la manière dont le chatbot les utilise pour répondre aux requêtes des utilisateurs. Il a déjà été pointé du doigt le fait que ChatGPT ne respecte pas les règles du règlement européen relatif à la protection des données personnelles, le RGPD.
Par ailleurs, selon le site Euractiv, le Parlement européen s’apprête à voter une législation sur l’IA à la fin du mois d’avril. Ce cas implique une réglementation générale sur une technologie qui évolue à une vitesse qui semble incontrôlable. L’Europe, comme le reste du monde, doit composer avec cet état de fait, et la tâche s’annonce titanesque et épineuse : c’est sans doute une bonne chose que la question ait été abordée rapidement par les différentes entités concernées.