OpenAI, l’entreprise à l’origine de l’intelligence artificielle ChatGPT, vient d’annoncer avoir formé une équipe dédiée à la gestion des risques liée à la montée en force d’une IA super intelligente. Une démarche qui rapproche de plus en plus la réalité de la science-fiction.
Vous avez déjà vu les films Terminator ? Dans ces derniers, une intelligence artificielle, Skynet, prend conscience d’elle-même et de sa capacité à se tourner vers son créateur : l'homme. Elle détourne alors les réseaux mondiaux et provoque une véritable apocalypse nucléaire sur Terre, avant de créer une armée de robots pour décimer ce qu’il reste de la résistance humaine.
Pendant des décennies, ce scénario catastrophe imaginé par James Cameron n’était que pure science-fiction. Mais aujourd’hui, il semble préoccuper ceux qui sont à l’origine même de l’une des IA les plus populaires du moment : OpenAI, l’entreprise qui a créé ChatGPT.
Superalignment, l’équipe qui veut maîtriser les IA
Cette semaine, OpenAI a annoncé la création de Superalignment, une sorte de « task force » chargée de « piloter et contrôler des systèmes d’IA beaucoup plus intelligents que nous ». Ces systèmes n’existent pas encore, mais selon les prévisions de l’entreprise, ce n’est qu’une question d’années avant que cela soit le cas : cela pourrait arriver d’ici la fin de la décennie actuelle.
« La superintelligence sera la technologie la plus percutante que l’humanité ait jamais inventée et pourrait nous aider à résoudre bon nombre des problèmes les plus importants au monde », déclare l’organisation. « Mais le vaste pouvoir de la superintelligence pourrait aussi être très dangereux et pourrait conduire à la perte de pouvoir de l’humanité ou même à l’extinction humaine. » Skynet, vous voyez ?
Cette équipe de chercheurs sera co-dirigée par le scientifique en chef d’OpenAI Ilya Sutskever et par le responsable de l’alignement du laboratoire de recherche Jan Leike. Actuellement, des recrutements sont en cours pour trouver les chercheurs qui seront capables de répondre à cette épineuse problématique dans les années à venir.
Un constat inquiétant dans un contexte qui évolue vite
« Actuellement, nous n’avons pas de solution pour diriger ou contrôler une IA potentiellement super intelligente et l’empêcher de devenir malveillante », expliquent les deux chefs de file de l’initiative. Un constat qui a de quoi inquiéter, à l’heure où une véritable course a été lancée par de nombreuses entreprises de la Tech, soucieuses de ne pas se faire doubler ce marché au potentiel très lucratif.
De l’aveu d’Ilya Sutskever et de Jan Leike, ce sont aujourd’hui les équipes de modération qui supervisent la progression d’IA comme ChatGPT. « Mais les humains ne pourront pas superviser de manière fiable des systèmes d’IA beaucoup plus intelligents que nous, et donc nos techniques d’alignement actuelles ne seront pas adaptées à la superintelligence. Nous avons besoin de nouvelles percées scientifiques et techniques. »
L’objectif de cette équipe de choc sera de créer « un chercheur d’alignement automatisé », calqué sur le niveau humain, qu’il sera possible de faire évoluer à l’aide de « grandes quantités de calcul » pour « aligner de manière itérative la superintelligence ». Pour atteindre cet objectif, OpenAI va allouer 20% de sa puissance de calcul actuellement sécurisée à cette initiative.
Une régulation « essentielle » selon Sam Altman
Le patron d’OpenAI, Sam Altman, a rencontré plus d’une centaine de législateurs fédéraux américains ces derniers mois, pour évoquer la mise en place d’une règlementation autour des IA. Il admet lui-même qu’une règlementation est « essentielle ». Pour autant, cela n’empêche pas ChatGPT d’être régulièrement pointé du doigt pour ses informations mensongères, ses violations présumées de droits d’auteur et sa capacité à répondre, de manière détournée, à certaines requêtes dangereuses d’utilisateurs.
ChatGPT n’est d’ailleurs pas la seule intelligence artificielle capable de poser problème. Les créations de Midjourney sont de plus en plus réalistes, et elles sont régulièrement utilisées à des fins de désinformation. Nous sommes encore loin de la superintelligence, et pourtant les IA posent déjà de multiples questions éthiques. On peut, effectivement, se demander où tout ça nous mènera dans les années à venir.