Face aux récentes affaires dans lesquelles des intelligences artificielles se sont invitées, non sans scandales, dans les tribunaux, un juge américain a pris une décision très ferme en vue de limiter l’impact de ChatGPT et consorts dans les affaires de justice.
Plus nous racontons des histoires associant les IA et la justice, et plus nous nous rendons compte que cette association s’avère au mieux improbable, au pire catastrophique. Il y a, bien sûr, l’histoire du juge colombien qui a utilisé ChatGPT pour rendre un verdict, ce qui n’a pas causé de tort aux différents partis, mais a tout de même été reçu de façon mitigée par les observateurs. Et, plus récemment, il y a aussi l’histoire de Steven Schwartz, un avocat new-yorkais qui a sabordé l’un de ses dossiers en faisant une confiance aveugle à l’intelligence artificielle d’OpenAI.
Cette affaire est d’autant plus grave que l’avocat a réalisé cette démarche sans en parler dans son dossier. Résultat, le juge en charge de l’affaire a découvert la supercherie de lui-même, en constatant que différents points présents dans le dossier avaient été tout simplement inventés de toutes pièces par ChatGPT.
Les IA sont bannies d’un tribunal américain
On imagine que le cas de Steven Schwartz a fait parler de lui dans de nombreux tribunaux. C’est peut-être suite à cette affaire que Brantley Starr, un juge fédéral du Texas, a décidé de prendre des mesures drastiques pour éviter que les IA ne s’invitent dans son tribunal sans qu'il le sache.
Le magistrat a décidé d’y imposer une mesure obligeant tous les avocats qui y comparaissent d’attester « qu’aucune partie du dossier n’a été rédigée par une intelligence artificielle générative », et dans le cas où une IA aurait été utilisée, que le dossier « a été vérifié par un humain ».
« Tous les avocats comparaissant devant la Cour doivent déposer un certificat attestant soit qu’aucune partie du dépôt n’a été rédigée par l’intelligence artificielle générative (telle que ChatGPT, Harvey.AI ou Google Bard), soit que tout langage rédigé par l’intelligence artificielle générative a été vérifié, à l’aide de coupures de presse ou de bases de données juridiques traditionnelles, par un être humain », peut-on lire sur le site du tribunal.
D’aucuns diront qu’une vérification semble être le minimum dans ce genre de situation, mais, une fois encore, le cas de Steven Schwartz prouve que ce n’est pas automatique.
Une décision qui n’a rien d’automatique
Il faut noter que les juges fédéraux américains ont la possibilité d’établir des règles particulières au sein de leurs tribunaux. Cela signifie que la décision de Brantley Starr ne s’applique qu’à son tribunal, et que les autres juges n’ont pas d’obligation particulière autour des intelligences artificielles.
Cependant, face à la montée en puissance des IA, notamment de ChatGPT, on peut s’attendre à ce que les situations de ce genre se multiplient dans les mois et les années à venir. La décision du juge Starr pourrait inspirer d’autres magistrats qui n’ont pas envie de voir des affaires juridiques tombées entre les mains de chatbots, dont les qualifications en la matière sont souvent très douteuses.