C’est un véritable appel à l’aide de la part de Eliezer Yudkowsky, écrivain et expert en intelligence artificielle. Selon lui, l’humanité court à sa perte avec l’évolution actuelle des IA.
Une intelligence trop intelligente, signant la fin de l’humanité ?
Alors que les innovations technologiques matérielles se tassent petit à petit, les IA montrent une progression vertigineuse. Auparavant capables de réaliser des tâches assez simples et de quelque peu s’adapter à un contexte, les possibilités entrevues par GPT-4 et consorts ne semblent pas avoir de limite.
Quand on regarde l’écart de performances entre GPT-3 et son récent remplaçant GPT-4, il y a de quoi avoir froid dans le dos. Alors que la troisième version se limite à 175 millions de paramètres, la quatrième monte jusqu’à 100 trillions, soit l’équivalent du cerveau humain. Vous sentez venir la limite ? Ce qui est sûr c’est que Eliezer Yudkowsky, lui, la sent.
Eliezer Yudkowsky est un chercheur Américain reconnu qui penche sur le sujet de l’intelligence artificielle depuis plus de 20 ans. Passionné mais aussi soucieux de son impact sur l’humanité, il crée le concept de « l’IA amicale », une machine hypothétique ayant une influence exclusivement positive sur l’Homme.
Alors que ce concept vise à promouvoir les questions éthiques autour du développement d'intelligences, les dernières paroles de l’expert sur le sujet vont plus loin, prévoyant un véritable danger pour l’humanité dans son ensemble.
Selon Eliezer, ce qui rend les IA aussi dangereuses à l’heure actuelle est leur incapacité à raisonner en faveur de l’humanité. Alors même que ces intelligences peuvent comprendre qui nous sommes, comment nous fonctionnons et ce que nous souhaitons, elles ne possèdent pas réellement d'empathie envers la vie humaine, et nous ne sommes pas encore capables de leur en faire ressentir.
La prévision de cet expert dépeint un futur où les robots que nous avons créé sont tout simplement plus développés que nous, et sont capables, dénués de toute émotion, de nous renverser s’ils nous trouvent inutiles. D’après lui, les capacités futures de l’IA contre les humains seraient comparables à une confrontation entre le monde du 11ème siècle et celui du 21ème siècle…
Que faire alors ? « Tout arrêter »
Vous avez peut-être vu passer une pétition visant à instaurer une pause de six mois pour le développement de toutes les intelligences artificielles étant plus performantes que GPT-4. Ce mouvement possède les mêmes motivations que notre ami Eliezer, mais ce dernier ne l’a pas signé. Selon lui, les revendications de cette répétition sont beaucoup trop légères pour qu’elles aient un impact suffisant.
Pour Yudkowsky, il convient de tout arrêter.
Si tu ne peux pas être certain si tu crée une IA ayant conscience de son existence ou non, c’est un problème, non pas seulement à cause des implications morales, mais surtout car être incertain signifie que tu n’as aucune idée de ce que tu es en train de faire et qu’il faut arrêter.
La pause de l’entraînement des IA doit être permanente en mondiale. Il ne peut y avoir aucune exception, même pour les gouvernements et l’armée. (...) Fermez toutes les fermes de GPU. Fermez tous les grands centres. Mettez un plafond sur la puissance de calcul maximale autorisée à utiliser dans une intelligence artificielle.
Un avis plus qu’extrême, mais qui s’entend. Il est difficile d’imaginer la façon dont l’Homme pourrait se faire renverser par ses propres robots, mais puisqu’il est déjà compliqué d’imaginer tout ce dont serait capable une IA dans 20 ans, alors tout est possible.