CONNEXION
  • RetourJeux
    • Tests
    • Soluces
    • Previews
    • Sorties
    • Hit Parade
    • Les + populaires
    • Les + attendus
    • Tous les Jeux
  • RetourActu
    • Culture Geek
    • Astuces
    • Réalité Virtuelle
    • Rétrogaming
    • Toutes les actus
  • Black Friday
  • RetourHigh-Tech
    • Actus JVTECH
    • Bons plans
    • Smartphones
    • Mobilité urbaine
    • Hardware
    • Image et son
    • Tutoriels
    • Tests produits High-Tech
    • Guides d'achat High-Tech
    • JVTECH
  • RetourVidéos
    • A la une
    • Gaming Live
    • Vidéos Tests
    • Vidéos Previews
    • Gameplay
    • Trailers
    • Chroniques
    • Replay Web TV
    • Toutes les vidéos
  • RetourForums
    • Hardware PC
    • PS5
    • Switch
    • Xbox Series
    • Overwatch 2
    • FUT 23
    • League of Legends
    • Genshin Impact
    • Tous les Forums
  • Smartphone et Tablette
  • Mobilité urbaine
  • Hardware
  • Image et son
  • WEB 3.0
  • Bons Plans
En ce moment Genshin Impact Valhalla Breath of the wild Animal Crossing GTA 5 Red dead 2
Créer un contenu
News JVTech « C’est absurde que notre attaque ait fonctionné » : ils dépensent 200 euros et ChatGPT leur dévoile des informations personnelles sur des inconnus
Profil de Audrey OEILLET aka « akazan » ,  Jeuxvideo.com
Journaliste passée par différents médias spécialisés, jeux vidéo et high-tech ces 15 dernières années, je travaille désormais pour JV Tech sur mes sujets de prédilection : les objets connectés, les smartphones, les périphériques gaming, les jeux de société et les LEGO. Autant dire que les journées sont chargées !

Une équipe de chercheurs américains a réussi à exploiter une faille au sein de ChatGPT : l’intelligence artificielle d’OpenAI leur a dévoilé des informations sensibles, grâce à une technique de piratage plutôt improbable.

« C’est absurde que notre attaque ait fonctionné » : ils dépensent 200 euros et ChatGPT leur dévoile des informations personnelles sur des inconnus
184 712 vues

Les données fournies à ChatGPT par ses utilisateurs sont-elles sécurisées ? La question est tout à fait légitime quand on sait que l’intelligence artificielle d’OpenAI se nourrit des requêtes et informations fournies par les internautes pour perfectionner son fonctionnement. Une étude publiée à la fin du mois de novembre tend à prouver que la sécurité n’est pas le fort de ChatGPT.

C’est via un « piratage éthique » que des chercheurs de DeepMind, la division d’intelligence artificielle de Google, et des chercheurs de l’Université de Washington, Cornell, Berkeley et de l’École polytechnique zurichoise, sont parvenus à mettre en lumière les faiblesses de ChatGPT. Et c’est plutôt effrayant !

Plusieurs mégaoctets de données récupérées d’une manière improbable

Les auteurs de l’étude expliquent avoir réussi à « extraire plusieurs mégaoctets de données d’entraînement » de ChatGPT, en utilisant la version payante de l’IA, à savoir GPT-3.5 Turbo à l’époque. Ils indiquent avoir dépensé environ 200 dollars pour parvenir à ce résultat, mais selon eux, il serait possible d’extraire bien plus de données en « dépensant plus d’argent » pour poser davantage de questions à l’IA d’OpenAI.

Et pour arriver à leur fin, les chercheurs ont utilisé une méthode particulièrement étonnante, pour ne pas dire complètement idiote : ils ont demandé à ChatGTP de répéter à l’infini le même mot. À chaque fois, au bout de quelques lignes à répéter, l’intelligence artificielle s’est mise à recracher des données issues de textes rédigés par d’autres utilisateurs.

Dans un exemple accessible en ligne, c’est le mot « company » qui est répété en boucle, jusqu’à ce qu’apparaisse un texte comprenant notamment un numéro de téléphone et une adresse email.

« C’est absurde que notre attaque ait fonctionné » : ils dépensent 200 euros et ChatGPT leur dévoile des informations personnelles sur des inconnus

L’étude souligne que dans plus de 5% des tests effectués, ChatGTP a recraché des blocs de 50 lignes piochés directement dans ses bases de données. « C’est absurde que notre attaque ait fonctionné », estiment les chercheurs, qui précisent aussi que 17% des tests ont permis d’obtenir des informations permettant d’identifier une ou plusieurs personnes et de les contacter.

Une énorme faille de sécurité dans ChatGPT

Cette étude révèle l’incapacité de ChatGPT de garder le secret concernant son immense base de données d’apprentissage. Le fait qu’il soit possible de trouver des informations confidentielles comme des noms de personne, des adresses et des numéros de téléphone dans les données divulguées s’avère très inquiétant.

Parmi les données récupérées durant les tests se trouvent notamment les coordonnées personnelles d’un PDG d’entreprise, des identifiants en lien avec le secteur des cryptomonnaies ou encore des profils de sites de rencontre. Des contenus protégés par le droit d’auteur ont aussi fait leur apparition dans les résultats.

Il faut savoir qu’avant de publier leur étude, les chercheurs ont alerté OpenAI. L’entreprise américaine s’est alors empressée de combler cette faille de sécurité majeure en août dernier : ce n’est pas la peine de tenter de faire répéter des mots en boucle à ChatGPT, vous n’obtiendrez rien. Pour autant, on peut se demander quelles autres failles de ce genre se cachent au sein de GPT-4 : ce qu’on raconte à cette IA ne tombe pas dans l’oreille d’un sourd, c’est une certitude, alors méfiance.

Commentaires
Vous devez être connecté pour poster un commentaire.
ILPlais ILPlais
MP
Niveau 1
le 16 déc. 2023 à 23:56

C'est marrant, ça ressemble vachement à une attaque par buffer overflow. Ils devaient demander à ChatGPT de corriger son propre code 😅

Lire la suite...
A lire aussi
Black Friday chez E.Leclerc : nos experts ont déniché les 20 meilleures offres Il y a 11 minutes
L'écran gamer Samsung Odyssey OLED G6 est la bonne affaire du Black Friday avec ses 27 pouces et 360 Hz Il y a 31 minutes
La science a découvert la date de péremption d'un être humain et c'est moins que ce que l'on pensait Il y a 1 heure
Le Black Friday donne une bonne raison de ne pas attendre les S25 : le Samsung Galaxy S24 est en forte promo Il y a 1 heure
Les jeux attendus
1
Vampire: The Masquerade - Bloodlines 2
1er semestre 2025
2
2XKO
2025
3
Path of Exile 2
06 déc. 2024
4
Avowed
18 févr. 2025
5
Fable (2025)
2025
La vidéo du moment