La GTC 2023 de NVIDIA a débuté avec la présentation de nouveaux produits, partenaires, innovations et logiciels. Pour vous donner une idée de l’étendue des annonces, la keynote a duré 78 minutes. Quatre nouvelles plateformes ont été dévoilées, chacune optimisée pour un type spécifique de charge de travail d’inférence IA générative et des logiciels spécialisés.
Ces plateformes combinent la gamme complète de logiciels d’inférence de NVIDIA avec les derniers processeurs NVIDIA Ada, Hopper et Grace Hopper. Deux nouveaux GPU, le NVIDIA L4 Tensor Core GPU et le H100 NVL GPU, ont été lancés aujourd’hui.
Le NVIDIA L4 pour la vidéo IA offre une performance vidéo alimentée par l’IA 120 fois supérieure à celle des CPU, avec une efficacité énergétique 99 % meilleure. Le L4 fonctionne comme un GPU universel pour pratiquement toutes les charges de travail, offrant des capacités améliorées de décodage et de transcodage vidéo, de diffusion en continu, de réalité augmentée, de vidéo IA générative, et plus encore.
Le GPU NVIDIA Ada Lovelace L4 Tensor Core offre une accélération universelle et une efficacité énergétique pour les applications vidéo, IA, bureaux virtualisés et graphiques dans les entreprises, le cloud et en périphérie. Grâce à la plateforme IA de NVIDIA et à son approche complète, le L4 est optimisé pour l’inférence à grande échelle pour un large éventail d’applications IA, telles que les recommandations, les assistants avatars IA vocaux, l’IA générative, la recherche visuelle et l’automatisation des centres de contact.
Le L4 est l’accélérateur NVIDIA le plus efficace pour un usage généraliste, et les serveurs équipés de L4 offrent une performance vidéo IA jusqu’à 120 fois supérieure et 2,7 fois plus de performance IA générative par rapport aux solutions CPU, ainsi que plus de 4 fois la performance graphique par rapport à la génération précédente de GPU. Le NVIDIA L4 est un format polyvalent, écoénergétique, à simple emplacement et de faible encombrement, ce qui le rend idéal pour les déploiements à grande échelle et les sites en périphérie.
Le NVIDIA L40 pour la génération d’images est optimisé pour la création d’images 2D, vidéo et 3D avec graphismes et IA. La plateforme L40 sert de moteur à NVIDIA Omniverse, une plateforme de construction et d’exploitation d’applications métaverse dans le data center, offrant 7 fois la performance d’inférence pour la diffusion stable et 12 fois la performance d’Omniverse par rapport à la génération précédente.
Le GPU NVIDIA L40 offre une informatique visuelle haute performance pour le data center, avec des capacités graphiques, de calcul et d’IA de nouvelle génération. Basé sur l’architecture NVIDIA Ada Lovelace, le L40 exploite la puissance des derniers cœurs RT, Tensor et CUDA pour offrir des performances de visualisation et de calcul pour les charges de travail exigeantes des data centers.
Le L40 offre un débit amélioré et des capacités de traçage de rayons et d’ombrage simultanés qui améliorent les performances du traçage de rayons et accélèrent les rendus pour la conception de produits et les flux de travail en architecture, ingénierie et construction. Le GPU L40 fournit un support matériel pour la parcimonie structurelle et le format TF32 optimisé, permettant des gains de performance immédiats pour un apprentissage plus rapide des modèles d’IA et de science des données. Les capacités graphiques améliorées par l’IA, notamment DLSS, offrent une résolution mise à l’échelle avec de meilleures performances dans certaines applications.
La grande mémoire GPU du L40 permet de gérer les applications et les charges de travail gourmandes en mémoire telles que la science des données, la simulation, la modélisation 3D et le rendu avec 48 Go de mémoire GDDR6 ultra-rapide. La mémoire est allouée à plusieurs utilisateurs avec le logiciel vGPU pour répartir les grandes charges de travail entre les équipes de création, de science des données et de conception.
Conçu pour les opérations de data center d’entreprise 24×7 avec un matériel et des composants écoénergétiques, le NVIDIA L40 est optimisé pour être déployé à grande échelle et offrir des performances maximales pour diverses charges de travail de data center. Le L40 comprend un démarrage sécurisé avec la technologie de racine de confiance, offrant une couche de sécurité supplémentaire, et est conforme à la norme NEBS niveau 3 pour répondre aux normes des data centers.
Le NVIDIA H100 NVL pour le déploiement de grands modèles de langage est idéal pour déployer des LLM massifs comme ChatGPT à grande échelle. Le nouveau H100 NVL est équipé de 94 Go de mémoire avec accélération du moteur Transformer et offre jusqu’à 12 fois plus de performances d’inférence pour GPT-3 par rapport à la génération précédente A100 à l’échelle du data center.
Le H100 NVL basé sur PCIe avec pont NVLink utilise le moteur Transformer, NVLink et 188 Go de mémoire HBM3 pour offrir des performances et une mise à l’échelle optimales dans les data centers. Le H100 NVL prend en charge les grands modèles de langage jusqu’à 175 milliards de paramètres. Les serveurs équipés de GPU H100 NVL augmentent les performances du modèle GPT-175B jusqu’à 12 fois par rapport aux systèmes NVIDIA DGX A100 tout en maintenant une faible latence dans les environnements de data center à contraintes énergétiques.
NVIDIA Grace Hopper pour les modèles de recommandation est idéal pour les modèles de recommandation de graphes, les bases de données vectorielles et les réseaux neuronaux de graphes. Avec la connexion NVLink-C2C de 900 Go/s entre le CPU et le GPU, Grace Hopper peut offrir des transferts de données et des requêtes 7 fois plus rapides que PCIe Gen 5.
Le superprocesseur NVIDIA Grace Hopper est un processeur accéléré révolutionnaire conçu dès le départ pour les applications d’intelligence artificielle à grande échelle et de calcul haute performance (HPC). Le superprocesseur offrira des performances jusqu’à 10 fois supérieures pour les applications traitant des téraoctets de données, permettant aux scientifiques et chercheurs d’atteindre des solutions inédites pour les problèmes les plus complexes du monde.
Le superprocesseur NVIDIA Grace Hopper combine les architectures Grace et Hopper en utilisant NVIDIA NVLink-C2C pour offrir un modèle de mémoire cohérente CPU+GPU pour les applications accélérées d’IA et de HPC. Grace Hopper comprend une interface cohérente de 900 gigaoctets par seconde (Go/s), est 7 fois plus rapide que PCIe Gen5 et offre une bande passante de mémoire système agrégée 30 fois supérieure au GPU par rapport à NVIDIA DGX A100. En plus de cela, il exécute toutes les piles logicielles et plateformes NVIDIA, y compris le NVIDIA HPC SDK, NVIDIA AI et NVIDIA Omniverse.
Les modèles modernes de systèmes de recommandation nécessitent des quantités importantes de mémoire pour stocker les tables d’incorporation. Les tables d’incorporation contiennent des représentations sémantiques pour les éléments et les caractéristiques des utilisateurs, ce qui permet de fournir de meilleures recommandations aux consommateurs.
En général, ces incorporations suivent une distribution de loi de puissance pour la fréquence d’utilisation, car certains vecteurs d’incorporation sont plus fréquemment utilisés que d’autres. NVIDIA Grace Hopper permet des pipelines de systèmes de recommandation à haut débit qui stockent les vecteurs d’incorporation les plus fréquemment utilisés dans la mémoire HBM3 et les vecteurs d’incorporation restants dans la mémoire LPDDR5X de plus grande capacité. L’interconnexion NVLink C2C fournit aux GPU Hopper un accès à large bande à leur mémoire LPDDR5X locale. Parallèlement, le système de commutation NVLink étend cela pour fournir aux GPU Hopper un accès à large bande à toute la mémoire LPDDR5X de tous les superprocesseurs Grace Hopper du réseau NVLink.
Je suis Samuel Le Goff, à la tête de Menow.fr et père de deux enfants. À 38 ans, je navigue dans l’univers de l’informatique depuis plus de 14 ans, me spécialisant récemment dans le contenu high-tech et le gaming. Ma mission ? Partager des conseils pratiques et des insights en technologie, avec une touche d’honnêteté et d’authenticité, comme si je m’adressais à des amis.