L’intelligence artificielle s’invite partout, et désormais, sur vos ordinateurs ! Les PC portables disponibles dès aujourd’hui disposent de fonctionnalités spécialement conçues pour l’IA. Mais quel est le composant à privilégier si vous voulez réellement utiliser l’IA en profondeur ?
Carte graphique ou processeur pour utiliser l’IA ?
L'ère de l'intelligence artificielle sur PC est bien arrivée, portée par les technologies NVIDIA RTX et les processeurs Snapdragon et Ryzen AI.
Pour évaluer les performances des tâches accélérées par l'IA, il est important de comprendre les nouvelles mesures de performance. Contrairement aux joueurs de PC qui mesurent souvent les performances en images par seconde (FPS), les performances de l'IA nécessitent des métriques différentes, telles que les TOPS (trillions d'opérations par seconde) et les tokens par seconde.
Les TOPS mesurent la performance brute d'un composant en termes de capacités de traitement. Par exemple, la gamme de PC Copilot+ de Microsoft inclut des unités de traitement neuronal (NPU) capables de réaliser plus de 40 trillions d'opérations par seconde.
Cependant, des tâches d'IA plus exigeantes nécessitent des performances supérieures. Les GPU NVIDIA RTX se distinguent avec des performances inégalées : le GPU GeForce RTX 4090 offre plus de 1 300 TOPS, nécessaires pour des applications complexes comme la création de contenu numérique assistée par l'IA, la super résolution IA dans les jeux, ou la génération d'images à partir de descriptions textuelles.
Les cartes graphiques RTX sont particulièrement adaptées aux modèles de langage de grande taille (LLM) grâce à leur grande mémoire vidéo dédiée (VRAM), aux cœurs Tensor, et aux logiciels optimisés comme TensorRT-LLM. En effet, les RTX peuvent embarquer jusqu'à 24 Go de VRAM, ce qui est crucial pour traiter des lots de données volumineux. Les cœurs Tensor, des accélérateurs d'IA dédiés, permettent d'accélérer considérablement les opérations intensives en calcul requises par les modèles d'apprentissage profond.
La génération d'images via des modèles comme Stable Diffusion est un autre domaine où les GPU RTX brillent. En utilisant un GPU RTX, la création et l'affinage d'images à partir d'instructions textuelles peuvent être réalisées beaucoup plus rapidement qu'avec un processeur (CPU) ou même un NPU. Par exemple, les utilisateurs de l'extension TensorRT pour l'interface Automatic1111 peuvent générer des images jusqu'à deux fois plus vite qu'avec une implémentation non optimisée pour TensorRT.
Les processeurs et leur rôle dans l'IA
Bien que les GPU soient souvent mis en avant pour les tâches d'IA, les processeurs jouent également un rôle essentiel.
Les unités de traitement neuronal (NPU), comme celles intégrées dans les processeurs modernes, sont spécialisées dans les opérations d'IA, telles que les multiplications matricielles et d'autres opérations d'apprentissage profond. Par exemple, les processeurs équipés de NPU, comme ceux des systèmes Qualcomm Snapdragon ou Intel avec Copilot+, peuvent atteindre 40 à 45 TOPS.
Ces composants sont hautement optimisés pour effectuer des calculs spécifiques à l'IA de manière efficace, bien qu'ils n'aient pas la polyvalence des GPU.
Les NPU sont conçus pour maximiser l'efficacité en utilisant des précisions inférieures (INT8, INT4) par rapport aux GPU, qui peuvent fonctionner à des précisions variées (FP32, FP16).
Cela permet aux NPU d'optimiser la consommation d'énergie tout en offrant de bonnes performances pour des tâches spécifiques. Les GPU, avec leur capacité à gérer une large gamme de tâches, y compris les opérations graphiques et l'IA, affichent des nombres de TOPS beaucoup plus élevés grâce à leur architecture parallèle.
Avant l'arrivée des NPU, les GPU étaient les leaders incontestés dans le domaine de l'IA locale. NVIDIA, avec ses architectures CUDA et Tensor Core, a dominé la formation et l'inférence des modèles d'apprentissage automatique. Ces GPU ont non seulement alimenté les PC mais aussi les serveurs de centres de données, permettant une formation à grande échelle des modèles de deep learning.
Les premiers NPU ont été introduits par Huawei et Apple, améliorant énormément les performances et l'efficacité énergétique des calculs d'IA dans les smartphones.
Par exemple, le Kirin 970 de Huawei et l'A11 Bionic d'Apple ont apporté des avancées majeures dans la reconnaissance faciale et les traductions en temps réel sans impact significatif sur la batterie.