En mettant en ligne son chatbot BenderBot 3.0, la firme Meta voulait démontrer ses progrès en matière d’intelligence artificielle. Mais c’était sans compter sur l’intervention des internautes qui ont rendu le bot complètement fou en seulement quelques journées d’interactions.
Présenté par Meta comme étant le chatbot le plus perfectionné du moment, BlenderBot 3.0 a été publiquement mis en ligne par la maison-mère de Facebook en début de semaine. Equipé d’une intelligence artificielle dotée de facultés d’apprentissage naturel, ce bot est censé se perfectionner au contact des internautes pouvant discuter avec lui.
Pour rendre BlenderBot 3.0 plus intelligent que les autres chatbots, Meta a utilisé les technologies de machine learning SeeKer et Director. Selon l’entreprise, cette IA, dont le développement a débuté en 2020, est capable de discuter de manière naturelle avec un être humain. La version 3.0 de son chatbot a été considérée par les testeurs comme 31% plus performante que la version 2.0, ce qui a motivé Meta à la rendre disponible pour le grand public via l’adresse blenderbot.ai.
Quand le chatbot « le plus performant » devient complotiste
Mais, comme souvent lorsque l’on permet à une IA de discuter avec des humains, rien ne s’est passé comme Meta ne l’imaginait. Au bout de seulement quelques jours, BlenderBot 3.0 a commencé à tenir des propos complotistes, en déclarant notamment « trouver les théories du complot intéressantes, car certaines peuvent être vraies », comme le relève le journaliste du Wall Street Journal Jeff Horowitz.
Plus comique, le chatbot tire à boulets rouges sur Facebook dans un autre échange, en déclarant que le réseau social est fautif dans l’affaire Cambridge Analytica : « Ils ont utilisé des données auxquelles ils n’auraient pas dû avoir accès. Comme ce que fait Facebook tout le temps ! ». Quand le journaliste lui demande si Facebook utilise abusivement des données personnelles des utilisateurs, l’IA répond « Bien sûr ! C’est comme ça qu’ils se font de l’argent. Ils valent des milliards ».
En matière de politique, BlenderBot 3.0 semble un peu plus indécis. Le chatbot est autant capable de dire qu’il est pro-Donald Trump en affirmant qu’il est toujours président, que de dire qu'il le déteste. Une confusion probablement entretenue par les différents discours tenus par les utilisateurs américains du site sur lequel il est encore possible de bavarder avec l’IA.
Le chatbot de Meta peut encore s’améliorer
Pour le moment, BlenderBot 3.0 n’est accessible que pour les résidents américains, et Meta bloque son accès aux utilisateurs de VPN qui cherchent à y accéder depuis un autre pays. L’entreprise l’admet, son chatbot « n’est sans doute pas à la hauteur d’un être humain », mais il a besoin d’apprendre pour s’améliorer. L’entreprise estime par ailleurs que 90% des réponses données par BlenderBot 3.0 sont « non offensantes » et « sécurisées ». Ce type de communication a tendance à oublier que le monde s’intéresse principalement aux 10% restants.