ChatGPT est au cœur de l’actualité depuis la fin d’année dernière. Et le moins que l’on puisse dire, c’est que le chatbot a complètement bouleversé le monde de l’intelligence artificielle. Mais après quelques mois de vie paisible, certaines grosses limites commencent à apparaître.
ChatGPT : un outil fantastique, mais…
ChatGPT, c’est clairement le hit du moment du côté de l’intelligence artificielle. Aujourd’hui, des millions de personnes l’utilisent à diverses fins, que ce soit pour de la synthèse de document, de la création de texte ou de ligne de code, voire pour de la détection de bugs. Cependant, et même s’ils ont accepté les conditions d’utilisation, tous les utilisateurs ne savent pas que leurs conversations ne sont pas aussi privées qu’ils le pensent. Et le plus « inquiétant » dans tout ça, c’est que l'historique des conversations ne compose qu’une infime partie des données collectées par OpenAI, la société américaine à l'origine du célèbre chatbot.
Lorsque nous utilisons des services de messageries, des clients de messagerie ou des logiciels de traitement de texte, pour ne citer que quelques exemples, nous supposons souvent que les données que nous saisissons sont protégées. Autrement dit, que ces données ne peuvent être vues que par les personnes auxquelles elles sont destinées. Mais avec ChatGPT, les choses sont différentes. En effet, le chatbot est un système expérimental qui a été rendu public alors qu'il est encore en plein développement et qu’il n'est pas (encore) totalement adapté au partage de secrets ou d'informations confidentielles.
L’axe d’amélioration de ChatGPT passe par les conversations
« Dans le cadre de notre engagement envers une IA sûre et responsable, nous examinons les conversations pour améliorer nos systèmes et nous assurer que le contenu répond à nos politiques et exigences de sécurité », déclare OpenAI dans une FAQ sur son site Web. Dans le même document, la société précise que les conversations peuvent même être revues par ses « formateurs IA » pour améliorer ses systèmes. En d'autres termes, ce qui est tapé dans la boîte de discussion peut également être vu par les employés de l'entreprise. Mais les choses ne s'arrêtent pas là, puisque dans sa politique de confidentialité, la société dirigée par Sam Altman indique que lors de l'utilisation de ses services, elle peut collecter différentes informations personnelles.
- Coordonnées
- Identifiants de compte
- Informations de paiement
- Historique des transactions
- Type de navigateur et paramètres
- Date et heure des demandes
- Forme d'interaction avec les sites Web OpenAI
- Type d'appareil
- Noms
Comme nous l’expliquions précédemment, les informations personnelles susmentionnées peuvent être utilisées pour améliorer les produits et services OpenAI existants, ainsi que pour en créer de nouveaux. Cependant, il est également possible que ces données se retrouvent entre les mains de tiers (vendeurs et prestataires de services, transferts d'entreprise, exigences légales, partenaires). Comprenez donc ainsi, que le système de collecte de données de l'entreprise n'est pas si petit que ça et qu’il est important de le garder à l'esprit lors de l'utilisation des services de la société américaine. C’est d’ailleurs pour ses raisons, entre autres, que l’Italie a interdit ChatGPT et que d’autres européens comme l'Allemagne et la France songent à faire de même.