On peut dire que l’actualité est chaude pour Elon Musk. Ce dernier est encore dans la tourmente avec Grok. L’IA de X a en effet pioché dans les données des utilisateurs de l’Union Européenne et ça n’a pas plu à tout le monde.
Le feuilleton entre l’Union Européenne et X continue de faire des remous. Dans ce nouveau rebondissement, X - anciennement twitter - annonce mettre fin à l’utilisation des données des utilisateurs de l’Union Européenne dans le cadre de l’entraînement de Grok, l’IA de X. Et cette décision a été saluée par l’autorité européenne en lien avec la protection des données personnelles. On pourrait y voir une décision raisonnable de la part de l’entreprise d’Elon Musk, mais c’est tout le contraire.
Retour sur la base : pourquoi les IA ont besoin de données pour s’entraîner
Les systèmes d'intelligence artificielle (IA) fonctionnent grâce à un processus d'apprentissage automatique, qui nécessite de grandes quantités de données pour être efficace. Ces données permettent aux algorithmes d'IA d'identifier des modèles, de faire des prédictions et de prendre des décisions.
Il existe deux types principaux de données utilisées pour l'entraînement des IA :
- Les données supervisées: Ces données sont étiquetées, ce qui signifie qu'elles contiennent des informations sur la classe ou la valeur attendue pour chaque point de données. Par exemple, un ensemble de données supervisé pour la reconnaissance d'images peut contenir des images de chats et de chiens, chacune étant étiquetée comme "chat" ou "chien".
- Les données non supervisées: Ces données ne sont pas étiquetées et les algorithmes d'IA doivent découvrir les modèles et les structures par eux-mêmes. Par exemple, un ensemble de données non supervisé peut contenir des images de différents objets, sans aucune étiquette indiquant ce que chaque objet représente.
La quantité et la qualité des données d'entraînement sont essentielles pour la performance d'un système d'IA. Plus un système d'IA a accès à des données de qualité, plus il sera précis et performant dans l'exécution de la tâche pour laquelle il a été conçu.
Par “facilité”, X a privilégié l’usage de données déjà à portée : celles des utilisateurs du réseau social anciennement appelé Twitter.
Cependant, cela contrevient gravement au Règlement Général sur la Protection des Données (RGPD) en vigueur dans les pays de l’Union Européenne.
Des plaintes dans 9 pays contre X pour utilisation illégale des données personnelles par Grok
Comme nous l'avons vu, l'intelligence artificielle, et plus particulièrement les modèles de langage comme Grok, ont besoin de vastes quantités de données pour apprendre et s'améliorer. Ces données, souvent issues de l'activité en ligne des utilisateurs, permettent aux IA de reconnaître des patterns, de comprendre le langage naturel et d'effectuer des tâches complexes.
Cependant, l'utilisation de ces données soulève de nombreuses questions, notamment en ce qui concerne la protection de la vie privée. Le Règlement général sur la protection des données (RGPD) de l'Union européenne a été mis en place pour encadrer l'utilisation des données personnelles et garantir les droits des individus.
Une procédure lancée dans 9 pays de l’Union Européenne
Or, X, la société mère de Twitter, s'est récemment retrouvée au cœur d'une polémique liée à l'utilisation des données personnelles de ses utilisateurs pour entraîner son modèle d'IA, Grok. Selon une plainte déposée dans neuf pays membres de l'Union européenne (dont la France) par l’association noyb, X aurait collecté et utilisé les données de plus de 60 millions d'utilisateurs sans leur consentement explicite.
Cette pratique est en totale violation avec les principes du RGPD. En effet, le règlement européen dispose que les entreprises doivent obtenir un consentement libre, spécifique, éclairé et univoque de la part des utilisateurs avant de traiter leurs données personnelles. De plus, les entreprises doivent informer les utilisateurs de la finalité de ce traitement et des droits dont ils disposent.
En l’espèce, l’association se base sur le fait que les utilisateurs qui ont consenti pour l’utilisation de leurs données personnelles pour X ne l’ont pas fait pour Grok, qui est une entité tierce. De plus, cela peut également constituer un détournement de finalité. En pratique, cela signifie que si vous êtes ok pour donner accès à vos données pour créer un compte, cela ne veut pas dire que vous êtes d’accord pour être contacté pour de la prospection commerciale.
L’association noyb, à la pointe en matière de défense des droits personnels, se fait fort de faire respecter le RGPD, même aux ténors des réseaux sociaux. Et cette action pourrait déboucher sur une condamnation particulièrement lourde pour la firme d’Elon Musk.
Les risques encourus par les utilisateurs
L'utilisation des données des utilisateurs sans leur consentement peut entraîner de graves conséquences, notamment :
- Atteinte à la vie privée: Les informations personnelles des utilisateurs peuvent être utilisées à des fins non souhaitées, comme le profilage ou la publicité ciblée.
- Usurpation d'identité: Les données personnelles peuvent être utilisées pour créer de fausses identités ou pour commettre des fraudes.
- Discrimination: Les algorithmes d'IA entraînés sur des données biaisées peuvent reproduire et amplifier les discriminations existantes.
Dans le cas de X, il est difficile d'évaluer précisément les préjudices causés aux utilisateurs. Cependant, le fait que les données de millions d'utilisateurs aient été utilisées sans leur consentement constitue une atteinte grave à leur droit à la vie privée.