C’est le grand débat actuellement : comment identifier les contenus générés par une intelligence artificielle. La solution proposée est loin de satisfaire et pourrait même avoir un effet néfaste sur Internet.
Un rendez-vous essentiel pour le développement de l’IA
Lors d'un événement à la Maison-Blanche, le président des États-Unis, Joe Biden a annoncé une initiative majeure pour assurer la sécurité de la technologie de l'intelligence artificielle.
Plusieurs grandes entreprises qui développent leur IA, dont OpenAI, Amazon, Microsoft, Google ou même Meta, se sont engagées volontairement à prendre des mesures visant à rendre la technologie IA plus sûre et responsable. Car le but est de réglementer cette technologie émergente en raison de ses préoccupations croissantes concernant son potentiel perturbateur.
L'initiative vise à instaurer un niveau de transparence bien plus important dans l'utilisation de l'IA en développant un système de "filigrane", pour toutes les formes de contenu généré par cette technologie. Ce filigrane permettra ainsi aux utilisateurs de savoir quand l'IA a été utilisée, facilitant la détection des contenus de type fake news, tels que des images ou des audios manipulés, qui pourraient induire en erreur ou manipuler les masses.
Sauf que le filigrane apporte un véritable problème. Chaque IA serait ainsi fichée, ce qui pourrait permettre par exemple à Google d’autoriser ou non certaines IA. Une possibilité de plus pour le géant américain d’exercer son monopole.
Les USA essayent de rattraper leur retard réglementaire
Le gouvernement américain est conscient du retard par rapport à l'Union européenne en matière de réglementation de l'IA. Il s'efforce ainsi de combler cet écart en travaillant sur une législation bipartite spécifiquement dédiée à cette technologie. L'UE a déjà adopté des règles exigeant que les systèmes IA divulguent le contenu généré par l'IA, distinguent les images "deep-fake" des vraies et garantissent l'absence de contenus illégaux.
En dehors de la sécurité et la transparence, les entreprises impliquées ont également pris des engagements concernant la protection de la vie privée des utilisateurs. Avec le développement rapide de l'IA, il est essentiel de prendre des mesures pour lutter contre les préjugés et éviter toute discrimination envers certains groupes. Ces entreprises envisagent également d'orienter leur expertise en IA vers des problèmes scientifiques de grande envergure, notamment dans la recherche médicale et la lutte contre le changement climatique. C’est le cas par exemple de l’IA d’Elon Musk .
Cette annonce constitue une avancée majeure dans le domaine de l'intelligence artificielle et pourrait influencer la manière dont cette technologie est développée, même en Europe. La collaboration entre les géants de la Tech et le gouvernement américain offre un nouvel espoir pour un avenir où l'IA peut être mise au service du bien commun tout en évitant ses dérives potentielles.