Alors que Bard, son intelligence artificielle maison, est en train de prendre du retard dans de nombreux pays du globe, Google met visiblement en garde ses propres employés contre des risques associés aux chatbots. Et cela inclut sa propre solution.
Présentée au monde entier en février dernier, Bard, l’intelligence artificielle que Google espère bien proposer un peu partout au sein de ses services, est en train de prendre du retard en Europe. La raison : la firme de Mountain View n’a pas répondu aux préoccupations de confidentialité de la commission irlandaise de protection des données (DPC), comme nous l’expliquions la semaine dernière.
Et il y a fort à parier que les récentes révélations de Reuters, concernant la manière dont les exécutifs de Google perçoivent les IA, ne donnent pas envie plus que ça aux autorités réticentes de donner le feu vert à Bard pour que le service s’installe dans de nouveaux territoires.
Google se méfie des IA, Bard y compris
L’enquête menée par l’agence de presse révèle qu’Alphabet, la maison-mère de Google, met en garde ses propres employés sur la manière dont ils utilisent les chatbots actuellement disponibles sur le marché. Précisément, les dirigeants et managers de l’entreprise ont conseillé à leurs collaborateurs de ne pas saisir de documents confidentiels ou d’informations sensibles lorsqu’ils échangent avec des IA, y compris lorsqu’il s’agit de Bard.
Pour cette demande, Alphabet s’appuie sur une politique de confidentialité de longue date. Mais cette demande tend aussi à prouver que ce que l’on peut fournir comme information à une intelligence artificielle générative ne tombe pas dans l’oreille d’un sourd. Non seulement cela peut être lu par un humain qui travaille sur l’IA en question, mais en prime, le chatbot est en mesure d’assimile les informations et de les réutiliser ensuite dans d’autres contextes, générant donc un risque de fuite potentiel.
Le code informatique généré par IA également pointé du doigt
Autre recommandation faite par les cadres d’Alphabet aux ingénieurs de Google : éviter d’utiliser directement des morceaux de code informatique générés par les chatbots. Interrogée par Reuters, l’entreprise a estimé que même si Bard pouvait faire des erreurs dans ses suggestions, ces dernières pouvaient tout de même être utiles aux développeurs, à condition de repasser derrière.
Face aux fuites associées à ces demandes effectuées en interne, Google a décidé de faire preuve de transparence : pour les dirigeants, ces recommandations reviennent à admettre les limites de leurs produits liés à l’intelligence artificielle, et il est donc logique que les employés de la firme soient les premiers informés de ce genre de situation.
Il n’en reste pas moins que la communication de Google a de quoi inquiéter les utilisateurs, mais aussi les chiens de garde de la vie privée. A priori, il n’est pas de bon ton de fournir des données trop sensibles à des IA accessibles au public. D’autres entreprises du secteur des technologies ont déjà averti leurs salariés sur ce point : c’est notamment le cas de Samsung, Amazon ou encore Deutsche Bank, affirme Reuters. Apple, qui se fait plus discret sur le sujet, aurait également recommandé à ses employés de laisser les IA de côté.
Selon une étude réalisée par le site Fishbowl en janvier dernier, 43% des professionnels utilisaient cependant ChatGPT ou d’autres outils similaires à l’époque, souvent dans leur dos de leur patron. On imagine que ce pourcentage va aller en grandissant au fil du temps.