Dans une tribune publiée dans le Time, un expert en intelligence au Machine Intelligence Research Institute s'inquiète fortement des conséquences du développement de l’IA actuellement.
L’intelligence artificielle va-t-elle réaliser les scénarios de fiction ?
Les films qui dépeignent un monde dirigé par les robots sont nombreux. Les experts du monde entier s'inquiètent de plus en plus. Au point même de se demander si nous ne fonçons pas droit dans le mur. Depuis toujours l’intelligence artificielle ne s’approchait pas suffisamment de l’humain pour en faire une véritable menace. Mais aujourd’hui beaucoup de choses ont changé. Les modèles d’IA sont bien plus développés et surtout les progrès avancent de plus en plus rapidement.
Eliezer Yudkowsky, le directeur du Machine Intelligence Research Institute explique ainsi dans une tribune au Time :
Nous ne sommes pas préparés. Nous ne sommes pas sur la bonne voie pour être préparés dans un délai raisonnable. Il n'y a pas de plan. Les progrès dans les capacités de l'IA sont largement en avance sur les progrès de l'alignement de l'IA ou même sur les progrès dans la compréhension de ce qui se passe à l'intérieur de ces systèmes. Si nous faisons cela, nous allons tous mourir
Selon lui, beaucoup de chercheurs sont persuadés que nous allons vers la catastrophe. Pourtant, la plupart n’osent pas le dire publiquement. Cela peut s’expliquer par des conflits d'intérêts ou le simple fait que cela peut les faire passer pour des adorateurs des théories du complot.
Comment éviter la catastrophe des IA ?
Eliezer Yudkowsky, explique ainsi qu’il n’a pas signé la lettre ouverte qui demande un arrêt de 6 mois du développement de toute intelligence artificielle. On retrouve notamment Elon Musk ou Steve Wozniak, cofondateur d’Apple. Mais Eliezer explique que 6 mois ce n’est pas suffisant pour se préparer aux dangers. C’est un arrêt complet qu’il demande.
L’une des solutions si on veut continuer à utiliser des IA puissantes, sera de ne surtout pas les connecter à Internet. Ils restent prudents, car la masse d’information accessible sur le web est colossale. On peut même imaginer une IA pouvoir accéder à des fichiers confidentiels pour nourrir son algorithme.
L’un des aspects importants est aussi de donner une limite de puissance au IA. Au lieu d’utiliser de grands clusters de serveurs toujours plus puissants pour entraîner les IA, il faut les limiter. Il va même jusqu’à ajouter “être prêt à détruire un centre de données escroc par une frappe aérienne.”
Pour lui, l’IA n’a pas de nationalité, elle ne fera pas de distinction entre Étasunien, Chinois, Russe ou Français. Ainsi, si un pays se retrouve à franchir le point de non-retour, il demande à ce que ce soit le monde entier qui s’y attaque.
En lisant la tribune, Eliezer Yudkowsky est extrêmement alarmiste. Au point même de se demander si ce n’est pas trop. La conclusion en est un exemple parfait en finissant par “les enfants n'ont pas choisi cela et n'ont rien fait de mal.” Seul l’avenir nous le dira. Mais si autant d’experts s’en inquiètent, c’est qu’il se passe probablement quelque chose.