SORA, la nouvelle intelligence d’OpenAI capable de réaliser des vidéos, pourrait accepter la nudité au sein de ses créations. Pour les experts en sécurité, cette perspective est effrayante, et elle est même très dangereuse.
Les premiers rendus réalisés par SORA, la nouvelle intelligence artificielle d’OpenAI, n’ont pas manqué de faire parler d’eux. Pour le moment accessible à un tout petit nombre de développeurs et de créateurs de contenu, cette IA a la capacité de créer des mises en scène en vidéo simplement à partir de texte. « Sora est capable de générer des scènes complexes avec plusieurs personnages, des types de mouvement spécifiques, et des détails précis sur le sujet et l’arrière-plan », déclarait OpenAI en février dernier dans un billet de blog.
Après le texte avec ChatGPT et l’image avec Dall-E, OpenAI pourrait donc révolutionner le terrain de la vidéo créée simplement avec quelques lignes de texte. Et forcément, les possibilités d’un tel système interpellent les cinéastes et autres créateurs de contenus audiovisuels, mais pas seulement.
Et si SORA était plus « libérée » que les autres IA d’OpenAI ?
C’est bien connu, ChatGPT et Dall-E sont des IA un peu prudes, qui refusent généralement de traiter des demandes en lien avec certains sujets. La sexualité et la nudité font partie de ceux pour lesquels des garde-fous ont été mis en place. Et forcément, beaucoup de personnes se demandent s’il en sera de même pour SORA lorsque l’IA sera disponible pour le grand public, probablement dès cette année.
Interrogée par Gizmodo, Mira Murati, la directrice technologique d’OpenAI, a répondu à la délicate question : sera-t-il possible de réaliser des scènes mettant en avant de la nudité avec SORA ? Sans entrer beaucoup dans les détails, Mira Murati a indiqué que cette possibilité n’était pas à exclure, même si elle n’est « pas sûre » à ce stade.
« Vous pouvez imaginer qu’il existe des cadres créatifs dans lesquels les artistes pourraient vouloir avoir plus de contrôle sur ça. En ce moment, nous travaillons avec des artistes, des créateurs de différents domaines pour déterminer ce qui est utile, le niveau de flexibilité que l’outil devrait fournir », explique-t-elle.
La porte ouverte à une nouvelle forme de cybercriminalité
Même si ces déclarations sont très floues, elles interrogent de nombreux experts, notamment du côté de l’AI Policy Institute, un organisme américain en charge de « canaliser les préoccupations du public vers une réglementation efficace » vis-à-vis de l’intelligence artificielle. « OpenAI a une décision difficile à prendre à ce sujet », explique le fondateur de l’AIPI, Daniel Colson. « car pour le meilleur ou pour le pire, la réalité est que probablement 90 % de la demande de vidéos générées par l’IA concernera la pornographie. »
Et pas n’importe quelle pornographie : une pornographie où il sera potentiellement possible d’intégrer n’importe qui. La problématique n’est pas difficile à cerner lorsqu’on a en tête les nombreux deepfakes qui mettent la tête de célébrités sur des images X. Le site Wired évoquait l’arrestation de collégiennes en Floride, accusées d’avoir créé de toutes pièces des nudes de l’une de leur camarade de classe à l’aide d’une IA, pour alimenter son harcèlement scolaire.
Ainsi, les experts estiment que si SORA permet d’utiliser de la nudité dans les créations, ce sera la porte ouverte à des détournements dangereux : des mises en scène de personnes non consentantes, notamment. Pour eux, nous pourrions faire face à un nouveau niveau de cybercriminalité, avec de fausses sextapes élaborées pour faire chanter des personnes et leur extorquer de l’argent. Selon Jason Hogg, l’ancien directeur mondial de la société de cybersécurité Aon Cyber, estime que le monde entier pourrait bientôt faire face à « un tsunami de cybercriminalité » et il invite les pays tels que les États-Unis à légiférer sans tarder sur le sujet.
Sans nul doute, la nouvelle création d’OpenAI n’a pas fini de faire couler de l’encre, et paradoxalement, cela lui fait une belle publicité au passage.