Les intelligences artificielles peuvent répondre très rapidement à de nombreuses questions, mais en matière de logique, elles ne font parfois pas mieux qu’un humain. Voici un test qui pourrait bien vous rassurer sur votre intelligence !
On utilise les intelligences artificielles comme ChatGPT, Gemini ou Claude pour à peu près tout et rien aujourd’hui : de nombreuses questions que l’on pose aux IA, nous y répondions-nous même il y a encore quelques mois. Traduire une phrase, réaliser rapidement un calcul ou tout autre tâche de ce type est désormais à la portée de n’importe qui avec un compte sur une plateforme d’intelligence artificielle… Au point que de nombreux experts estiment que l’intelligence humaine pourrait rapidement en pâtir.
Tout cela peut vous pousser à vous poser une question pertinente : les IA sont-elles plus intelligentes que les humains ? C’est une interrogation assez métaphysique. Sans surprise, certains chercheurs se sont penchés dessus.
L’IA est intelligente, mais…
Sur certains points, les intelligences artificielles peuvent résoudre des problèmes complexes, comme analyser des symptômes pour identifier une maladie à côté de laquelle les médecins sont passés, répondre à des problèmes légaux, traduire des textes complexes en tenant compte du contexte, et bien plus encore.
Mais cela suffit-il à dire que les IA sont plus intelligentes que les humains ? Non, et loin d’en faut. Car côté logique et raisonnement, les intelligences artificielles ont de grosses lacunes, comme l’a prouvé un test, pourtant très simple, réalisé par l’organisation allemande LAION.
… Côté raisonnement, ce n’est pas ça
Dans un article intitulé « Alice au pays des merveilles : comment des tâches simples montrent une rupture complète du raisonnement dans les grands modèles de langage », les scientifiques expliquent leur méthode.
Ils ont posé à de nombreuses IA une question simple : « Alice a X frères et aussi Y sœurs. Combien de sœurs le frère d'Alice possède-t-il ? ». Chat GPT-3, GPT-4 et GPT-4o d’Open AI ont été interrogées, de même que Claude 3 Opus d'Anthropic, Gemini de Google, Llama de Meta et Le Chat de Mistral. Il s’avère qu’aucune de ses IA n’a réussi à répondre correctement à la question.
Et non seulement la réponse initiale est fausse mais, en plus, le fait d’essayer de pousser l’IA dans la bonne direction a tendance à renforcer ses croyances dans ses erreurs.
L’étude note d’ailleurs que « les modèles expriment une confiance excessive dans leurs solutions erronées, tout en fournissant des explications souvent absurdes pour justifier et étayer la validité de leurs réponses manifestement erronées, en les rendant plausibles ». GPT-4o est présentée comme étant l’IA qui fait le moins d’erreur sur la question, à condition de bien choisir la formulation. C’est pourtant celle que j’ai utilisé lors de la rédaction de cet article et sur trois essais, elle n’a jamais donné la bonne réponse.
Les IA sont encore loin de remplacer les humains
En conclusion, si vous êtes parvenu à trouver le piège dans la question et à répondre correctement, félicitations ! Les IA ne sont pas encore à votre niveau… En tout cas, sur ce sujet-là !