L’utilisation de ChatGPT a tendance à se démocratiser et, parfois l’utilisation de l’intelligence artificielle d’OpenAI est maladroite, voire carrément abusive. De nombreux internautes ont compris comment déceler l’usage de ChatGPT dans les articles scientifiques.
On peut tout demander à ChatGPT, mais cela ne signifie pas que l’intelligence artificielle est encline à répondre à toutes les requêtes. Et même quand elle le fait, c’est souvent à sa manière. Ainsi, le début de phrase « Désolé, en tant que modèle de langage… » est une marque de fabrique de la création d’OpenAI : lorsqu’elle ne peut pas répondre à une requête et qu’elle cherche à se justifier, elle commence toujours son message ainsi. Lui arrive aussi de simplement débuter par « En tant que modèle de langage… » avant de continuer à donner une réponse.
Dans les deux cas, ces débuts de phrase trahissent un usage de ChatGPT, et les utilisateurs un minimum impliqués dans leur usage de l’IA devraient la supprimer et même retoucher sa réponse. En pratique, certains ne le font pas du tout, et cela commence clairement à se voir.
Des articles scientifiques écrits par ChatGPT
En début d’année, le site américain The Verge pointait déjà du doigt le fait que cette phrase caractéristique de ChatGPT tend à prouver que l’IA « pollue le Web » en « générant du spam, de fausses critiques et d’autres formes de texte de mauvaise qualité ». Vous pouvez faire l’expérience vous-même, en collant la phrase dans un moteur de recherche pour observer les résultats qui ressortent.
Beaucoup d’internautes l’ont fait et se sont retrouvés confrontés à des résultats très étonnants. Andrew Kean Gao, un étudiant en informatique de Stanford, a spécifiquement ciblé les « articles » scientifiques publiés au sein de Google Scholar, consacré à ce type de publication. Il a exclu les documents évoquant directement ChatGPT, et cela lui a permis de tomber sur des dizaines d’articles dans lesquels des traces d’utilisation de l’IA persistent, sans que « l’auteur » du papier n’ait jugé bon de relire et effacer ces phrases parasites.
PART TWO of #PaperGate!
— andrew gao (@itsandrewgao) August 11, 2023
That #ChatGPT button "Regenerate response" often gets pasted into #Scientific Papers, via @gcabanac!!
A 🧵 of #peerreviewed scientific publications from reputable publishers like @sciencedirect @IEEEorg @ElsevierConnect
First up, a paper on solar… https://t.co/81QcAYPiLt pic.twitter.com/qw9enuOrbs
Des constats similaires peuvent être faits sur d’autres plateformes, comme PubPeer par exemple. De quoi décrédibiliser les auteurs, mais aussi les services qui publient ce genre d’articles, puisque cela démontre qu’aucune vérification n’est faite en amont. Le « Journal of Internet Banking and Commerce », qui affirme relire les publications avant de les valider, a pourtant publié un article clairement rédigé au moins en partie par ChatGPT en janvier dernier.
Les avantages de ChatGPT peuvent être nombreux, mais force est de constater que certains usages empêchent de donner du crédit et de l’intérêt au potentiel de l’intelligence artificielle. Et cela contribue aussi à prouver que de nombreuses personnes préfèrent prendre des risques en distribuant des contenus de très mauvaises qualités, dans des domaines pourtant très sérieux, que de préserver leur savoir. Voilà qui ne devrait pas redorer le blason de la création d’OpenAI.