La question du traitement des données personnelles est une nouvelle fois remise sur le tapis par l’Union Européenne. Cette fois-ci, c’est au tour de ChatGPT de se voir confronter à quelques problèmes vis-à-vis de vos données.
ChatGPT : adieu l’Europe ?
L'Union européenne fait face à un dilemme croissant concernant l'utilisation de l'intelligence artificielle (IA) et ses implications sur la protection des données et la transparence.
La récente déclaration du PDG d'OpenAI, Sam Altman, selon laquelle la société pourrait cesser ses activités dans l'UE en raison de la nouvelle législation sur l'IA en préparation, met en évidence les tensions entre les entreprises technologiques et les régulateurs.
L'une des principales préoccupations de l'UE concerne les modèles de langage tels que ChatGPT et GPT-4, qui pourraient être désignés comme "à haut risque" selon la nouvelle législation. Les régulateurs de l'UE cherchent à établir des règles plus strictes pour encadrer ces modèles afin de garantir la transparence, la responsabilité et la protection des utilisateurs.
Cependant, Sam Altman a exprimé son inquiétude quant à la façon dont la législation est actuellement rédigée, suggérant que les régulations pourraient être trop contraignantes et nuire à l'innovation.
L'une des principales préoccupations des régulateurs est le potentiel de désinformation propagée par l'IA, qui pourrait avoir des conséquences sur les élections et la démocratie. Sam Altman a reconnu ces risques lors d'une récente conférence à l'Université de Londres. Il a souligné la nécessité de mettre en place des mécanismes de régulation appropriés pour prévenir de telles manipulations et garantir la confiance du public dans l'IA.
Des nouvelles mesures vont être prises par OpenAI
Malgré ces préoccupations, OpenAI a pris des mesures pour renforcer la confidentialité des données des utilisateurs. ChatGPT a été mis à jour avec de nouvelles fonctionnalités qui permettent aux utilisateurs de contrôler leurs données, en choisissant si leurs recherches doivent être enregistrées dans l'historique de ChatGPT et si OpenAI peut les utiliser pour améliorer ses modèles. Cette évolution témoigne de la volonté d'OpenAI de répondre aux préoccupations en matière de protection des données et de vie privée.
L'avenir d'OpenAI en Europe reste incertain. Les discussions en cours entre Sam Altman et les régulateurs de l'UE détermineront si l'entreprise peut se conformer aux nouvelles réglementations ou si elle sera contrainte de se retirer du marché européen. Une telle décision aurait un impact significatif sur l'innovation et le déploiement de l'IA en Europe.
Ce débat entre les entreprises technologiques et les régulateurs met en évidence la nécessité d'un équilibre délicat entre l'innovation et la protection des utilisateurs. Alors que l'UE cherche à encadrer l'utilisation de l'IA pour éviter les abus, il est essentiel de trouver des solutions qui soutiennent à la fois le développement technologique et la protection des droits fondamentaux.
Sam Altman, a bien évidemment annoncé que l’activité d’OpenAI ne cherche clairement pas à nuire quoique ce soit en Europe, ni même influencer sur les futures élections aux Etats-Unis. Chacun prêche évidemment sa paroisse dans le but d’obtenir le meilleur arrangement possible.
L’Union Européenne et les spécialistes en cybersécurité sont bien conscients des dangers de ce genre d’IA, avec un modèle de langage très avancé qui rapporte globalement des informations trouvées sur internet sans la moindre recherche éthique. ChatGPT ne “réfléchit” pas dans le sens où l’on pourrait se l’imaginer, il ne faut pas oublier que ce genre d’IA, dénommée “faible” (en opposition à “IA forte” qui a conscience d’elle même), apporte seulement des informations que nous lui fournissons, que ce soit par nos recherches, ou bien via la grande base de données que représente internet.