Si l’on pensait que les IA allaient piloter des avions de chasse dans le futur, il était difficile de prévoir que ce serait déjà à l’ordre du jour. Une réalité bien concrète qui soulève de nombreuses questions.
Une IA aux commandes des avions
L'idée d'avions de chasse pilotés par des intelligences artificielles relève souvent de la science-fiction. Pourtant, la réalité semble rattraper la fiction à une vitesse surprenante. L'US Air Force vient de confirmer le succès d'un test opposant une IA à un pilote humain en combat aérien rapproché, plus connu sous le nom de "dogfight".
Cette révélation, faite par la Defense Advanced Research Projects Agency (DARPA), l'agence de recherche du Pentagone, a provoqué de nombreuses questions. La guerre du futur est-elle déjà à nos portes ? L'homme est-il voué à être dépassé par les machines, y compris dans le domaine du combat aérien ?
C'est en décembre 2022 que le programme Air Combat Evolution de la DARPA a débuté ses expérimentations. L'objectif ? Développer une intelligence artificielle capable de piloter un avion de chasse de manière autonome, tout en respectant les protocoles de sécurité stricts de l'armée de l'air américaine.
Un apprentissage continu pour des applications multiples
Après des simulations de combats aériens virtuels, la DARPA a franchi une étape cruciale en installant son système d'IA à bord d'un avion expérimental X-62A. C'est sur la base aérienne d'Edwards en Californie qu'a eu lieu, en septembre 2023, le premier test grandeur nature contre un pilote humain.
Des pilotes de sécurité se trouvaient bien à bord du X-62A avec la possibilité de désactiver l'IA en cas de problème. Cependant, la DARPA assure que cette intervention manuelle n'a pas été nécessaire. L'avion piloté par l'IA s'est mesuré à un F-16 classique, les deux machines effectuant des manœuvres à haute performance et se rapprochant à seulement 600 mètres l'une de l'autre à une vitesse de près de 2000 km/h.
Pour Bill Gray, pilote d'essai en chef à l'école des pilotes d'essai de l'US Air Force, dans les colonnes de The Verge :
Le dogfight était le problème à résoudre pour commencer à tester des systèmes d'intelligence artificielle autonomes dans les airs. Chaque leçon apprise s'applique à toutes les tâches que l'on pourrait confier à un système autonome
En effet, les implications de cette avancée technologique vont bien au-delà du combat aérien rapproché. Les 21 vols d'essai effectués jusqu'à présent et ceux qui se dérouleront tout au long de l'année 2024 serviront à perfectionner l'IA pour d'autres missions.
Vers une course aux armements basée sur l'IA ?
Si les applications potentielles de l'IA dans le domaine militaire sont vastes, elles soulèvent également de sérieuses questions éthiques. Le Pentagone, comme le rapportait le Wall Street Journal l'année dernière, vise à développer des systèmes d'IA pour la défense et pour améliorer sa flotte de drones.
L'idée d'une course aux armements basée sur l'intelligence artificielle est un scénario inquiétant. La décision de déléguer la prise de vie humaine à des machines soulève des questions de responsabilité et de contrôle. Comment s'assurer que ces systèmes d'IA ne tombent pas entre les mauvaises mains ? Comment garantir qu'ils opèrent en respectant les règles strictes du droit international humanitaire ?
L'utilisation de l'intelligence artificielle dans le pilotage d'avions de chasse n'est plus de la science-fiction. Si les avancées technologiques peuvent offrir des avantages stratégiques indéniables, elles doivent s'inscrire dans un cadre éthique et juridique strict. L'enjeu est de taille : garantir la sécurité et le contrôle de ces systèmes d'armement ultra-sophistiqués pour éviter une escalade incontrôlable.