Après la sortie du nouveau modèle de langage GPT-4, plusieurs experts, dont Elon Musk, remettent en cause les avancées rapides des systèmes d’intelligence artificielle. Leur lettre ouverte a déjà recueilli plus de 1000 signatures et soulève de nombreux problèmes.
Une lettre ouverte qui pointe du doigt les modèles d’intelligence artificielle
« Nous demandons à tous les laboratoires d'IA de suspendre immédiatement la formation des systèmes d'IA plus puissants que GPT-4 pendant au moins 6 mois. » C'est le message reflété dans la lettre ouverte signée, entre autres, par Elon Musk, Steve Wozniak (co-fondateur d'Apple), Jaan Tallinn (co-fondateur de Skype) et Max Tegmark (MIT). Cette dernière, signée par plus de 1 000 personnalités du monde de la Tech, remet en cause les avancées rapides des systèmes d'intelligence artificielle et plus précisément, ceux qui tendent à avoir des capacités supérieures à celles de GPT-4.
Dans un premier temps, cette lettre précise que le développement des systèmes d’IA peut avoir un profond impact sur notre Histoire. Cependant, les signataires affirment que les créateurs de ces systèmes ne sont, à ce jour, pas capable de comprendre ou de prédire de manière fiable les comportements de ces mêmes systèmes.
Les systèmes d'IA contemporains viennent concurrencer les humains dans les tâches générales, et nous devons nous demander : devrions-nous laisser les machines inonder nos canaux d'information, de propagande et de contrevérité ? Devrions-nous automatiser toutes les tâches ? Devrions-nous développer des esprits non humains qui pourraient un jour nous surpasser ou nous remplacer ? Devons-nous risquer de perdre le contrôle de notre civilisation ? De telles décisions ne doivent pas être déléguées à des dirigeants technologiques non élus.
OpenAI et GPT-4 ont changé beaucoup de choses en très peu de temps
La lettre ne fait pas allusion à une interruption complète du développement de l'IA, mais seulement aux systèmes qui possèdent plus de capacités que GPT-4. Ils demandent « un pas en arrière » dans la course vers « des modèles imprévisibles aux capacités de plus en plus émergentes ». Autrement dit, mettre en pause le développement de capacités de plus en plus supérieures pour commencer à travailler en profondeur sur le contrôle et la fiabilité de ces systèmes.
Au-delà de travailler sur la fiabilité et la sécurité de ces systèmes d'intelligence artificielle, la nécessité de développer de nouveaux protocoles de sécurité partagés entre eux est également mise sur la table. Cela nécessite la création et le respect de certaines normes qui garantissent le bon fonctionnement de ces systèmes. Les signataires mettent aussi en avant une seconde nécessité, qui concerne la création de nouvelles autorités de régulation de l’IA. Ces dernières, selon la lettre ouverte, devraient surveiller et suivre les « systèmes d'IA hautement performants » ainsi que trouver des moyens de distinguer le réel de ce qui a été créé artificiellement.
Cette lettre ouverte à direction de l’IA intervient dans un contexte particulier. Le 27 mars dernier la police européenne a averti que les réseaux criminels peuvent utiliser ces types d'outils à leur avantage. Les effets en matière de désinformation auxquels peuvent servir ces outils sont immenses, et laissent la possibilité aux personnes malintentionnées de créer des textes utilisés pour le phishing ou d'autres pratiques malveillantes. Et les constatations d’Europol viennent, d’ailleurs, corroborer l’une des grosses inquiétudes de la lettre ouverte qui est : « Les systèmes d'IA dotés d'une intelligence humaine compétitive peuvent poser de graves risques pour la société et l'humanité. »