L’intelligence artificielle prend une place de plus en plus importante dans nos vies. Que ce soit via ChatGPT ou la récente mise à jour de Photoshop pour y intégrer de l’IA, il existe de nombreux moyens d’exploiter ces technologies. Mais malheureusement, il y a aussi de très mauvais côtés avec l’IA…
Les limites de l’intelligence artificielle
Malgré une popularité grandissante pour l’intelligence artificielle, nous pouvons d’ores et déjà voir quelques limitations techniques. Aujourd’hui, l’IA est bien représentée, notamment avec ChatGPT, le modèle de chatBot par les laboratoires OpenAI, ou plus récemment, avec l’intégration de l’intelligence artificielle sur Adobe Photoshop.
Bien sûr, il faut voir l’IA comme un outil plutôt qu’un objet qui chercherait à remplacer nos tâches. Si votre travail est facilement remplaçable par l’IA, il faut peut-être se poser des questions sur la pertinence de vos missions. L’humain est capable de chercher, de comprendre et de restituer des informations alors qu’une IA va seulement recracher des informations qu’elle trouve sur internet. De ce fait, l’IA n’est pas à l’abri de dire de grosses bêtises, voire même, de faire de grosses erreurs…
L’émergence des technologies basées sur de l’intelligence artificielle impressionne tout le monde, et ce genre d’outils commence à être utilisé dans de nombreux domaines. Récemment, on a pu voir des projets de gestions administratives gérées par IA, notamment dans les domaines de la santé afin de gérer plus facilement les dossiers des nombreux patients. Mais bien sûr, qui dit nouvelle technologie, dit utilisation militaire…
Ce drone boosté par IA a causé une tragédie…
L’IA telle que nous la voyons aujourd’hui est loin d’être parfaite. Bien que le fantasme de l'IA forte (consciente d'elle-même) existe depuis des décennies, nous en sommes encore bien loin.
Un exemple d’échec de l’IA nous vient tout droit d’un contexte militaire. Le colonel Tucker Hamilton, chef des tests et des opérations technologiques de l’US Force a pris la parole récemment à Londres pour expliquer que l’armée test en ce moment un prototype de drone boosté par IA qui peut identifier et détruire un missile sol-air ennemi.
Même si le drone parvient quasi-parfaitement à remplir son rôle, il a échoué une fois, et cela a coûté très cher… Selon le colonel Hamilton, la prise en main du drone par un humain permet de le commander pour lui dire de seulement identifier les missiles, sans pour autant lancer une procédure de destruction.
Le système a commencé a réaliser que même s’il identifiant la menace, l’opérateur humain lui disait parfois de ne pas éliminer la menace. Alors qu’a-t-il fait ? Il a tué l’opérateur parce que cette personne l’empêchait d’accomplir son objectif.
Selon le colonel Hamilton, qui gère toutes les opérations technologiques de l’US Force, l’IA intégré au drone a pris une décision par lui-même puisqu’il a été avant tout conçu pour détruire les missiles. Donc si un “obstacle” se présente devant lui pour remplir cet objectif, le drone va tenter de le contourner.
La programmation de l’IA en reste encore à ses balbutiements et ce genre d’accidents graves permettent de nous en rendre compte.