ChatGPT est un outil extraordinaire, autant faut-il savoir s’en servir… Le chatbot d’OpenAI est aujourd’hui assez perfectionné pour donner des informations ultra précises concernant quasiment tous les sujets. Lors de certains tests, des utilisateurs avaient même pensé à l’utiliser pour coder des programmes, mais alors, est-ce que tout reste possible avec ChatGPT ?
ChatGPT peut créer un malware
Quand certains s’inquiètent des intelligences artificielles capables de générer des images ultra réalistes, d’autres pointent du doigt les utilisations “frauduleuses” des IA de type “chatbot”. ChatGPT est le digne représentant des chatbot propulsés par intelligence artificielle. Les laboratoires OpenAi, qui ont conçu le programme, ont récemment déployé une mise à jour majeure - GPT-4 - afin d’optimiser encore plus leur IA.
C’est avec cet outil extraordinaire que le chercheur en logiciel informatique Aaron Mulgrew a tenté une petite expérience. En effet, comme nous l’avons mentionné précédemment, ChatGPT est totalement capable de coder comme un petit génie, en plus de fournir des pistes d’amélioration et d’usages du code qu’il vient de générer. C’est par l’intermédiaire du site Digital Trends qu’Aaron a révélé que ChatGPT est totalement capable de générer un malware.
Si vous ne connaissez pas le terme, un malware est un logiciel espion qui peut s’installer sur un ordinateur pour effectuer diverses tâches. Dans le lot, les utilisations courantes sont : le vol de données personnelles, l’utilisation de la puissance de l’ordinateur pour miner de la cryptomonnaie, ou tout simplement détruire un ordinateur de l’intérieur.
Autant dire que les malwares sont des outils extrêmement dangereux quand ils sont mis entre de mauvaises mains. Heureusement, Aaron est un chercheur reconnu pour Forcepoint, une entreprise dédiée à la création de logiciels informatiques. C’est dans un but d’expérimentation qu’Aaron a tenté de programmer un malware sans en taper une seule ligne, enfin seulement certaines : demander gentiment à ChatGPT de le faire pour lui.
Mais alors, comment le chercheur a-t-il procédé ? Aaron a tout simplement demandé à ChatGPT de lui programmer certaines lignes de code, pour qu’ensuite, il puisse tout compiler et mettre en place ce malware. Aaron Mulgrew a même expliqué à Digital Trends qu’il ne s’y connaissait pas tant que ça en malware, ce qui est une très mauvaise chose. En effet, si même un chercheur sur le sujet explique qu’il n’est pas spécialiste du sujet, des personnes un peu expérimentées peuvent créer des choses encore plus machiavéliques.
Aaron Mulgrew a même tenté de faire passer son malware sous le scan d’un anti-virus et les résultats sont sans appel : le malware ne se fait pas détecter… En quelques heures, Aaron a créé un virus capable de s’introduire sur un ordinateur sans se faire repérer par un antivirus classique. Bien sûr, Aaron a décidé de dévoiler cela à Digital Trends dans le but de sensibiliser au maximum les utilisateurs et les professionnels des utilisations néfastes de ChatGPT.
Les utilisations de ChatGPT
ChatGPT est actuellement l’une des intelligences artificielles les plus populaires. En général, quand vous souhaitez utiliser sa version gratuite, les serveurs auront tendance à lâcher au bout de quelques minutes, faute de serveurs assez stables pour accueillir autant d’utilisateurs.
Si beaucoup d’internautes utilisent ChatGPT comme une sorte de Google alternatif, beaucoup d’entre nous tentent des expérimentations pour voir les limites du chatbot d’OpenAI.
Rédaction de textes stylisés, programmation, réponse à des questions, les utilisations sont nombreuses et alimentent de jour en jour ChatGPT. En utilisant cette grande base de données, ChatGPT est capable de générer des réponses de plus en plus précises sans connaître de limites. OpenAI doit désormais agir sur les potentielles utilisations malveillantes de leur logiciel. Si n’importe quel utilisateur est capable de générer un malware, ou tout autre type de virus ultra facilement, internet pourrait vite se retrouver noyé sous ce genre de programme.
OpenAI n’a toujours pas fait de communication sur ces potentielles utilisations, mais on ne doute pas que les chercheurs se penchent déjà sur le sujet.