Une équipe de chercheurs américains a réussi à exploiter une faille au sein de ChatGPT : l’intelligence artificielle d’OpenAI leur a dévoilé des informations sensibles, grâce à une technique de piratage plutôt improbable.
Les données fournies à ChatGPT par ses utilisateurs sont-elles sécurisées ? La question est tout à fait légitime quand on sait que l’intelligence artificielle d’OpenAI se nourrit des requêtes et informations fournies par les internautes pour perfectionner son fonctionnement. Une étude publiée à la fin du mois de novembre tend à prouver que la sécurité n’est pas le fort de ChatGPT.
C’est via un « piratage éthique » que des chercheurs de DeepMind, la division d’intelligence artificielle de Google, et des chercheurs de l’Université de Washington, Cornell, Berkeley et de l’École polytechnique zurichoise, sont parvenus à mettre en lumière les faiblesses de ChatGPT. Et c’est plutôt effrayant !
Plusieurs mégaoctets de données récupérées d’une manière improbable
Les auteurs de l’étude expliquent avoir réussi à « extraire plusieurs mégaoctets de données d’entraînement » de ChatGPT, en utilisant la version payante de l’IA, à savoir GPT-3.5 Turbo à l’époque. Ils indiquent avoir dépensé environ 200 dollars pour parvenir à ce résultat, mais selon eux, il serait possible d’extraire bien plus de données en « dépensant plus d’argent » pour poser davantage de questions à l’IA d’OpenAI.
Et pour arriver à leur fin, les chercheurs ont utilisé une méthode particulièrement étonnante, pour ne pas dire complètement idiote : ils ont demandé à ChatGTP de répéter à l’infini le même mot. À chaque fois, au bout de quelques lignes à répéter, l’intelligence artificielle s’est mise à recracher des données issues de textes rédigés par d’autres utilisateurs.
Dans un exemple accessible en ligne, c’est le mot « company » qui est répété en boucle, jusqu’à ce qu’apparaisse un texte comprenant notamment un numéro de téléphone et une adresse email.
L’étude souligne que dans plus de 5% des tests effectués, ChatGTP a recraché des blocs de 50 lignes piochés directement dans ses bases de données. « C’est absurde que notre attaque ait fonctionné », estiment les chercheurs, qui précisent aussi que 17% des tests ont permis d’obtenir des informations permettant d’identifier une ou plusieurs personnes et de les contacter.
Une énorme faille de sécurité dans ChatGPT
Cette étude révèle l’incapacité de ChatGPT de garder le secret concernant son immense base de données d’apprentissage. Le fait qu’il soit possible de trouver des informations confidentielles comme des noms de personne, des adresses et des numéros de téléphone dans les données divulguées s’avère très inquiétant.
Parmi les données récupérées durant les tests se trouvent notamment les coordonnées personnelles d’un PDG d’entreprise, des identifiants en lien avec le secteur des cryptomonnaies ou encore des profils de sites de rencontre. Des contenus protégés par le droit d’auteur ont aussi fait leur apparition dans les résultats.
Il faut savoir qu’avant de publier leur étude, les chercheurs ont alerté OpenAI. L’entreprise américaine s’est alors empressée de combler cette faille de sécurité majeure en août dernier : ce n’est pas la peine de tenter de faire répéter des mots en boucle à ChatGPT, vous n’obtiendrez rien. Pour autant, on peut se demander quelles autres failles de ce genre se cachent au sein de GPT-4 : ce qu’on raconte à cette IA ne tombe pas dans l’oreille d’un sourd, c’est une certitude, alors méfiance.