Si l’explosion de l’intelligence artificielle a considérablement changé la manière dont les personnes s’informent, deux acteurs ont été plus touchés que les autres : Google et Wikipédia. Spoiler : l’IA est plus facilement gérable quand on est un géant de la Tech et non un groupe de bénévoles.
Les temps changent et Wikipédia commence à le comprendre
Les encyclopédies ont été pendant des siècles le domaine absolu d'un petit groupe de savants et d'experts. Eux seuls pouvaient condenser les connaissances humaines dans ces volumes imprimés, mais avec Internet et Wikipédia, tout a changé. En un instant, il est donc devenu possible d'accéder à une encyclopédie ouverte à laquelle n'importe qui pouvait contribuer. À tel point qu’aujourd’hui, Wikipédia est une excellente source d'information - pas toujours parfaite - qui se retrouve menacée par une autre avancée technologique : l’intelligence artificielle - et notamment ChatGPT.
Comme indiqué par Vice, une récente réunion de la communauté Wikipédia a permis de discuter de l'utilisation potentielle des modèles d'IA générative pour aider le travail des éditeurs et gestionnaires de l’encyclopédie en ligne. Cependant, le risque que ces textes générés par des modèles comme ChatGPT contiennent des erreurs - voire des inventions ou des « hallucinations » - est élevé, et cela nécessite une supervision humaine qui pourrait finir par donner plus de travail que de l'éviter.
L’intelligence artificielle est-elle une réelle menace pour Wikipédia ?
Amy Bruckman, professeur et auteur d'un livre sur Wikipédia, a expliqué que le risque « pour Wikipédia est que les gens finissent par baisser la qualité en publiant des choses qui n'ont pas été vérifiées. Je ne pense pas qu'il y ait quelque chose de mal à utiliser (ChatGPT) pour une première ébauche, mais chaque point doit être vérifié ». Les responsables de Wikipédia ont créé un document qui parle des grands modèles de langage (LLM), comme ChatGPT, et de leur application potentielle au travail des éditeurs. Les directives de base sont de ne pas publier de contenu obtenu en demandant à un LLM, bien que ces modèles puissent être utilisés comme « conseillers » dans la rédaction. En revanche, si ces outils sont utilisés, il sera nécessaire de le préciser dans le résumé d'édition de l'article concerné.
Bien qu'il y ait des opposants à l'utilisation de ce type de technologie, les porte-parole de la Wikimedia Foundation ont indiqué dans cet article de Vice comment l'IA représente une opportunité pour aider le travail des bénévoles de Wikipédia - et les projets de la fondation. L'un des porte-parole a même indiqué que « l'IA peut mieux fonctionner en complément du travail que les humains font dans notre projet ». Il semble donc que Wikipédia ne s'oppose pas (ou n'interdise pas) l'utilisation de modèles tels que ChatGPT pour aider à améliorer la plateforme, mais il y a, tout de même, des suspicions de risques connus.