Si l’intelligence artificielle ChatGPT peut avoir de nombreux usages utiles, elle peut aussi causer du tort aux personnes qui ne savent pas l’utiliser correctement. Steven Schwartz, un avocat américain, vient d’en faire l’amère expérience.
ChatGPT, le chatbot d’OpenAI, profite d’un battage médiatique sans précédent. Le succès de cette IA n’est plus à démontrer. Par ailleurs, on le sait, elle a mené au développement massif du marché en seulement quelques mois. Aujourd’hui, un grand nombre de professions semblent concernées par l’évolution rapide des IA, et le secteur de la justice en fait partie.
Nous avons eu l’occasion de vous en parler régulièrement ces derniers temps, qu’il s’agisse du chatbot DoNotPay qui a voulu s’inviter au tribunal, en vain, ou bien du juge colombien qui a décidé d’utiliser ChatGPT pour rendre un verdict au cœur de son tribunal. Forcément, dans ce contexte, l’usage des IA dans ce domaine spécifique a donné des idées à certains. Mais pas forcément des bonnes.
L’avocat qui ne savait pas se servir de ChatGPT
Steven Schwartz est un avocat new-yorkais qui travaille au sein du cabinet Levidow, Levidow et Oberman. Comme des centaines de milliers de personnes à travers le monde, il a pensé qu’utiliser ChatGPT dans le cadre de son travail serait une bonne idée pour lui faire gagner du temps, et lui apporter des idées nouvelles. Mais lui qui espérait en tirer bénéfice n’a finalement rencontré que des problèmes en agissant ainsi !
En effet, l’affaire opposait la compagnie aérienne colombienne Avianca à un certain Roberto Mata, un passager prétendant avoir été blesse lors d’un vol vers l'aéroport international John F. Kennedy à New York. Quand la compagnie aérienne a demandé au juge fédéral en charge de rejeter l’affaire, les avocats de Mata, parmi lesquels se trouvait Steven Schwartz, ont déposé un dossier de 10 pages visant à prouver que l’affaire bel et bien être jugée.
Dans le dossier étaient citées de multiples autres cas similaires : Varghese contre China Southern Airlines, Martinez contre Delta Airlines et Miller contre United Airlines. Problème : aucune de ses affaires n’existe réellement. Et pour cause : ChatGPT les a inventées de toutes pièces.
A lawyer used ChatGPT to do "legal research" and cited a number of nonexistent cases in a filing, and is now in a lot of trouble with the judge 🤣 pic.twitter.com/AJSE7Ts7W7
— Daniel Feldman (@d_feldman) May 27, 2023
« Je regrette d’avoir utilisé ChatGPT »
Steven Schwartz a été obligé de réagir et, dans une déclaration publiée la semaine dernière, il a admis avoir utilisé ChatGPT pour « compléter » ses recherches sur l’affaire. Cependant, il n’a pas pris la peine de vérifier les informations données par le chatbot, ajoutant qu’il « ignorait la possibilité que le contenu de ChatGPT puisse être faux ». Il a tout de même associé à sa déclaration des captures d’écran dans lesquelles on voit qu’il a demandé à ChatGPT si ces informations étaient authentiques, ce à quoi l’IA a répondu par l’affirmative. Moralité, il ne faut pas faire confiance au chatbot !
L’avocat a déclaré « regretter d’avoir utilisé ChatGPT », mais cela ne va malheureusement pas l’aider. Le juge en charge de l’affaire a ordonné une audience, qui se déroulera le 8 juin prochain, en vue de discuter des sanctions potentielles que risque Steven Schwartz pour cette « situation sans précédent ». Une preuve supplémentaire qu’une IA ne peut pas remplacer l’humain dans bien des situations complexes.