L'intelligence artificielle inquiète de plus en plus et les États-Unis comptent bien établir un cadre avec une réunion regroupant les cadres de l'intelligence artificielle. L’objectif est de réguler le développement de l’IA.
Une réunion pour établir un cadre
Les dirigeants du secteur de l’intelligence artificielle sont sous pression pour prendre des mesures concrètes afin d'atténuer les risques potentiels de la technologie. La Maison-Blanche et l'Autorité de la concurrence ont émis des avertissements ces derniers jours, appelant les entreprises à veiller à la sécurité de leurs produits et à travailler ensemble pour minimiser les effets négatifs de l'IA.
Mais au-delà des alertes, c’est une réunion entre l’administration Biden et les géants de l’IA qui se tient le 4 mai. Les dirigeants d'Alphabet, donc Google, de Microsoft, d'Anthropic et d'OpenAI sont invités à discuter de ses questions autour de l’encadrement de l’intelligence artificielle. Un sujet essentiel qui inquiète de plus en plus au point même de rassembler les acteurs majeurs du milieu.
L'invitation envoyée aux dirigeants des entreprises mentionne les risques liés au développement actuel à court terme de l'IA et les mesures à prendre pour atténuer ces risques. Joe Biden s'attend à ce que les entreprises concernées veillent à ce que leurs produits soient sûrs avant de les mettre à la disposition du public.
Ce qui est difficilement envisageable étant donné que les modèles d’intelligence artificielle reposent sur l’utilisation intensive pour s'améliorer. Il faut qu’une grande variété de personnes se servent des algorithmes pour qu'ils puissent apprendre. Ce qui est assez incompatible au début avec la possibilité d’avoir un outil stable et fiable disponible pour le public.
Sauvegarder les emplois face à l’IA
Il n’y a pas que le Gouvernement qui s'inquiète, l’autorité américaine de la protection des consommateurs, la FTC, a émis des recommandations pour les entreprises qui développent des IA génératives. L’un des points importants est que les entreprises ne devraient pas licencier leurs employés pour implémenter l’IA dans leur processus. Même ça n’a pas empêché IBM d’exprimer publiquement le remplacement de près de 8000 employés par une IA . Un encadrement permettrait de faire passer ce genre d’action de problématique éthique à des implications légales.
En fin de compte, l'IA est un domaine en constante évolution qui doit être réglementé pour minimiser les risques potentiels. Les États-Unis font un premier pas vers une réglementation. L’Union européenne devrait très certainement suivre.