Le projet d’intelligence artificielle de Nvidia, nommé ACE, se dévoile un peu plus à travers une démonstration technique lors du CES 2024.
Le CES 2024 est l’occasion pour chacun de venir présenter ses prouesses technologiques et l’intelligence artificielle n’y échappe pas. Le constructeur Nvidia a décidé de réaliser, lors du salon, une démo technique de ACE (Avatar Cloud Engine), son IA qui permet d'améliorer le réalisme des PNJ dans les jeux vidéo. À travers cet outil, il est possible de discuter plus ou moins naturellement avec les personnages qui ne sont pas contrôlés par des joueurs via un micro. Ce n’est pas vraiment une surprise quand on sait qu’en ce moment, l’intelligence artificielle devient de plus en plus populaire auprès du grand public.
L’outil Nvidia permet de créer des PNJ plus réalistes. Lors de la démonstration, le public a pu s’adresser à Nova et à un un chef de restaurant de ramen. Après la question, il faut compter une petite seconde pour recevoir une réponse. Chaque personnage peut être paramétré pour parler plusieurs langues, comme l’anglais ou l’espagnol, et ce sont les développeurs qui fournissent les données, plutôt actuelles en général, pour les intégrer aux dialogues. Les PNJ peuvent aussi ressentir différentes humeurs que l’on peut deviner à travers l'expression de leurs visages et leur façon de parler. À noter parfois quelques légers bugs. Une avancée qui annonce un ajout majeur dans le futur pour le jeu vidéo.
Un progrès inquiétant ?
Lors de ce JV Fast, la rédaction s'est demandée comment cette technologie allait être mise à profit. Nvidia a déjà annoncé des partenariats avec certains studios majeurs comme Ubisoft, miHoYo (qui s'occupe de Genshin Impact et de Honkai : Star Rail), NetEase Games, Inworld ou encore le géant Chinois Tencent. ACE semble plein de promesses, mais il semble compliqué pour l’instant de remplacer l’expertise de vrais professionnels.
Même si les studios y ont accès depuis déjà quelques mois, il semble que ce soit un vrai casse-tête de s’habituer à cette technologie nouvelle. L'intérêt est d’associer l’expertise humaine avec l’IA et former les employés pour qu’ils puissent l’utiliser plus facilement et naturellement. Peut-être que c’est aussi aux programmeurs de fixer des limites à leurs propres technologies, quand on sait que l’intelligence artificielle de Nvidia peut elle-même générer une animation et une synchronisation labiale en fonction de la phrase prononcée. Si vous vous posez la question de savoir quelles limites doivent être imposées à l’IA pour ne pas prendre le pas sur l’expertise humain, Panthaa et Anagund vous donne un début de réponse dans ce JV Fast.