ChatGPT, l’intelligence artificielle d’OpenAI, a la réputation de générer très facilement de fausses informations. Cette mauvaise habitude est en train de conduire l’entreprise américaine devant les tribunaux pour une affaire de diffamation.
À force de jouer avec le feu, on finit par se bruler. OpenAI, l’entreprise américaine de ChatGPT, le chatbot le plus célèbre à l’heure actuelle, fait les frais d’un constat qu’elle a préféré ignorer. En effet, cela fait des mois que de nombreux utilisateurs et médias alertent vis-à-vis de l’IA, qui a la fâcheuse habitude d’inventer des faits avec beaucoup d’aplomb.
Il y a peu, c’est un avocat américain qui en a fait les frais : en utilisant ChatGPT pour compléter l’un de ses dossiers, il a truffé celui-ci d’exemples d’affaires judiciaires qui n’existaient tout simplement pas. Malgré ses regrets, Steven Schwartz, c’est son nom, risque désormais de gros problèmes. Mais c’est une autre affaire en lien avec le côté mythomane de ChatGPT qui nous intéresse aujourd’hui.
De fausses informations qui mènent OpenAI au tribunal
Mark Walters, un animateur radio américain, a en effet décidé d’attaquer OpenAI en justice pour diffamation. La raison ? Lorsqu’on l’interroge sur sa personne, l’intelligence artificielle de l’entreprise fait des révélations choquantes, mais surtout complètement fausses. ChatGPT raconte notamment que Mark Walters a fraudé et détourné des fonds d’une organisation à but non lucratif. C’est un journaliste du nom de Fred Riehl qui a fait cette découverte et en a informé l’animateur radio.
Celui-ci a décidé de porter plainte contre OpenAI. Le dossier a été déposé le 5 juin dernier devant la Cour supérieure du comté de Gwinnett en Géorgie. Mark Walters réclame à l’entreprise des dommages et intérêts qui n’ont pas été spécifiés.
Le document de l’affaire, disponible en ligne, explique que le journaliste américain Fred Riehl a demandé à ChatGPT de résumer un document juridique à partir d’un fichier PDF. L’IA a, ainsi, mélangé dans son résumé des informations véridiques et des données totalement fausses. Si Riehl n’avait pas vérifié ces informations et s’en était servi tel quel, la vie de Mark Walters aurait pu en être bouleversée.
Une affaire historique dans le monde de l’IA ?
The Verge, qui fait partie des médias qui relatent l’affaire, évoque la possibilité que le cas Walters contre OpenAI soit le premier en son genre. Une intelligence artificielle attaquée pour diffamation serait donc une première, mais on peut supposer que ce ne sera pas la dernière, compte tenu des erreurs que ChatGPT peut faire lorsqu’il répond aux requêtes des utilisateurs.
Le chatbot affiche tout de même un minuscule message en bas de la page qui permet de l’utiliser : « ChatGPT peut produire des informations inexactes concernant des personnes, des endroits, ou des faits ». Cependant, son créateur, Sam Altman, ne cesse de présenter cet outil comme fiable et sûr. En janvier dernier, interviewé par la chaîne YouTube StrictlyVC, il avait notamment déclaré « Je préférerais de loin que ChatGPT m’apprenne quelque chose plutôt que d’aller lire un livre. » Preuve que, selon lui, l’IA est suffisamment fiable pour être crue.
Cependant, selon un professeur de droit interrogé par The Verge, la requête de Mark Walters a peu de chance d’aboutir à une condamnation. Cela passe notamment par le fait que le plaignant n’a pas fait remonter l’information erronée à OpenAI, et n’a donc pas laissé la possibilité à l’entreprise de corriger l’erreur. Cependant, il n’en reste pas moins que cette affaire ne pourrait être qu’un début dans le monde en pleine construction de l’intelligence artificielle conversationnelle.