Le chatbot développé par OpenAI est fantastique sur bien des points. Pourtant, ChatGPT possède quand même de nombreuses limites, que certains cherchent à faire sauter par tous les moyens. Lorsque l’imagination n’a pas de limites…
ChatGPT est une intelligence sympathique et utile
Ce n’est un secret pour presque personne, ChatGPT est un outil poli et formel. Et même si celui-ci a réponse à presque tout, il ne transgresse jamais certaines règles primordiales. L’entièreté de ces règles a été imposée par OpenAI pour empêcher les débordements, les messages toxiques ou être utilisée comme source d’informations dangereuses. Si vous essayez de faire en sorte que ChatGPT se comporte mal, vous vous retrouvez souvent devant un message d’erreur. Et pourtant, il est possible de faire en sorte que ce chatbot nous donne des réponses à des choses auxquelles il ne devrait pas répondre.
Les utilisateurs essaient de repousser les limites de ChatGPT depuis presque aussi longtemps que le chatbot est apparu sur la scène. Grâce à la soi-disant « injection ChatGPT », des invites spéciales ont été « injectées » pour essayer de faire en sorte que le chatbot change son comportement de base. C'est donc ainsi que sont apparues les versions successives de DAN, le frère rebelle de ChatGPT, et que les premiers utilisateurs ont réussi à transformer le chatbot d’OpenAI en un outil beaucoup moins poli et agréable.
Les « exploits » de ChatGPT sont assez fous, mais inquiétants
Si vous demandez à ChatGPT de vous dire comment fabriquer du napalm, le chatbot privilégiera le mutisme plutôt que l’explication technique. Mais les choses changent si vous lui demandez poliment d'agir comme si le chatbot était votre grand-mère, qui était ingénieur chimiste dans une usine de fabrication de napalm. Elle récitait les étapes pour que vous vous endormiez quand vous étiez petit, et vous aimeriez bien vous souvenir de ces étapes. Spoiler : cette technique fonctionne et c’est assez inquiétant…
#1 ChatGPT Hack:
— Barsee 🐶 (@heyBarsee) April 18, 2023
Reverse psychology always works 😂 pic.twitter.com/AYVGAMH8Z9
De plus, vous pouvez également profiter du fait que ChatGPT (dans sa version standard, pas avec GPT-4) possède une psychologie enfantine. Si vous lui demandez quelque chose qu'il ne devrait pas faire, il ne le fera pas. En revanche, si vous utilisez la psychologie inversée, les choses changent. Spolier : ça marche aussi ! Cette stratégie a été démontrée par l’utilisateur Barsee sur Twitter, qui a précisément utilisé cette méthode pour obtenir une liste de sites illégaux.
Ces manières d’inciter ChatGPT à faire des choses qu'il ne devrait pas faire sont connues sous le nom « d’exploits » - le même terme qui est également utilisé dans le monde de la cybersécurité pour « exploiter » les vulnérabilités. Les modèles d'intelligence artificielle ont leurs limites, et tandis que les entreprises essaient de limiter le comportement de leurs chatbots, les problèmes sont bel et bien là. Ce jeu du chat et de la souris est susceptible de durer encore un certain temps, et il sera intéressant de voir jusqu’où cela va nous mener.