Menow
Menu
  • 🚀 Actualité Geek
  • 🎮 Gaming
  • 💰 Crypto
  • 💻 Informatique
  • 📱Smartphones
  • 📺 TV & Son
  • 🔍 Digital
Menu

NVIDIA lance la GTC 2023 en présentant de nouveaux produits et innovations

Posté le 11 mai 20239 avril 2023 par Samuel

La GTC 2023 de NVIDIA a débuté avec la présentation de nouveaux produits, partenaires, innovations et logiciels. Pour vous donner une idée de l’étendue des annonces, la keynote a duré 78 minutes. Quatre nouvelles plateformes ont été dévoilées, chacune optimisée pour un type spécifique de charge de travail d’inférence IA générative et des logiciels spécialisés.

Ces plateformes combinent la gamme complète de logiciels d’inférence de NVIDIA avec les derniers processeurs NVIDIA Ada, Hopper et Grace Hopper. Deux nouveaux GPU, le NVIDIA L4 Tensor Core GPU et le H100 NVL GPU, ont été lancés aujourd’hui.

Le NVIDIA L4 pour la vidéo IA offre une performance vidéo alimentée par l’IA 120 fois supérieure à celle des CPU, avec une efficacité énergétique 99 % meilleure. Le L4 fonctionne comme un GPU universel pour pratiquement toutes les charges de travail, offrant des capacités améliorées de décodage et de transcodage vidéo, de diffusion en continu, de réalité augmentée, de vidéo IA générative, et plus encore.

Le GPU NVIDIA Ada Lovelace L4 Tensor Core offre une accélération universelle et une efficacité énergétique pour les applications vidéo, IA, bureaux virtualisés et graphiques dans les entreprises, le cloud et en périphérie. Grâce à la plateforme IA de NVIDIA et à son approche complète, le L4 est optimisé pour l’inférence à grande échelle pour un large éventail d’applications IA, telles que les recommandations, les assistants avatars IA vocaux, l’IA générative, la recherche visuelle et l’automatisation des centres de contact.

Le L4 est l’accélérateur NVIDIA le plus efficace pour un usage généraliste, et les serveurs équipés de L4 offrent une performance vidéo IA jusqu’à 120 fois supérieure et 2,7 fois plus de performance IA générative par rapport aux solutions CPU, ainsi que plus de 4 fois la performance graphique par rapport à la génération précédente de GPU. Le NVIDIA L4 est un format polyvalent, écoénergétique, à simple emplacement et de faible encombrement, ce qui le rend idéal pour les déploiements à grande échelle et les sites en périphérie.

Le NVIDIA L40 pour la génération d’images est optimisé pour la création d’images 2D, vidéo et 3D avec graphismes et IA. La plateforme L40 sert de moteur à NVIDIA Omniverse, une plateforme de construction et d’exploitation d’applications métaverse dans le data center, offrant 7 fois la performance d’inférence pour la diffusion stable et 12 fois la performance d’Omniverse par rapport à la génération précédente.


Le GPU NVIDIA L40 offre une informatique visuelle haute performance pour le data center, avec des capacités graphiques, de calcul et d’IA de nouvelle génération. Basé sur l’architecture NVIDIA Ada Lovelace, le L40 exploite la puissance des derniers cœurs RT, Tensor et CUDA pour offrir des performances de visualisation et de calcul pour les charges de travail exigeantes des data centers.

A lire :   12 stratégies détaillées pour augmenter Le CPC AdSense

Le L40 offre un débit amélioré et des capacités de traçage de rayons et d’ombrage simultanés qui améliorent les performances du traçage de rayons et accélèrent les rendus pour la conception de produits et les flux de travail en architecture, ingénierie et construction. Le GPU L40 fournit un support matériel pour la parcimonie structurelle et le format TF32 optimisé, permettant des gains de performance immédiats pour un apprentissage plus rapide des modèles d’IA et de science des données. Les capacités graphiques améliorées par l’IA, notamment DLSS, offrent une résolution mise à l’échelle avec de meilleures performances dans certaines applications.

La grande mémoire GPU du L40 permet de gérer les applications et les charges de travail gourmandes en mémoire telles que la science des données, la simulation, la modélisation 3D et le rendu avec 48 Go de mémoire GDDR6 ultra-rapide. La mémoire est allouée à plusieurs utilisateurs avec le logiciel vGPU pour répartir les grandes charges de travail entre les équipes de création, de science des données et de conception.

Conçu pour les opérations de data center d’entreprise 24×7 avec un matériel et des composants écoénergétiques, le NVIDIA L40 est optimisé pour être déployé à grande échelle et offrir des performances maximales pour diverses charges de travail de data center. Le L40 comprend un démarrage sécurisé avec la technologie de racine de confiance, offrant une couche de sécurité supplémentaire, et est conforme à la norme NEBS niveau 3 pour répondre aux normes des data centers.

Le NVIDIA H100 NVL pour le déploiement de grands modèles de langage est idéal pour déployer des LLM massifs comme ChatGPT à grande échelle. Le nouveau H100 NVL est équipé de 94 Go de mémoire avec accélération du moteur Transformer et offre jusqu’à 12 fois plus de performances d’inférence pour GPT-3 par rapport à la génération précédente A100 à l’échelle du data center.

Le H100 NVL basé sur PCIe avec pont NVLink utilise le moteur Transformer, NVLink et 188 Go de mémoire HBM3 pour offrir des performances et une mise à l’échelle optimales dans les data centers. Le H100 NVL prend en charge les grands modèles de langage jusqu’à 175 milliards de paramètres. Les serveurs équipés de GPU H100 NVL augmentent les performances du modèle GPT-175B jusqu’à 12 fois par rapport aux systèmes NVIDIA DGX A100 tout en maintenant une faible latence dans les environnements de data center à contraintes énergétiques.

NVIDIA Grace Hopper pour les modèles de recommandation est idéal pour les modèles de recommandation de graphes, les bases de données vectorielles et les réseaux neuronaux de graphes. Avec la connexion NVLink-C2C de 900 Go/s entre le CPU et le GPU, Grace Hopper peut offrir des transferts de données et des requêtes 7 fois plus rapides que PCIe Gen 5.

A lire :   Xiaomi prépare le lancement du Redmi Note 13R Pro : Un smartphone plein de promesses

Le superprocesseur NVIDIA Grace Hopper est un processeur accéléré révolutionnaire conçu dès le départ pour les applications d’intelligence artificielle à grande échelle et de calcul haute performance (HPC). Le superprocesseur offrira des performances jusqu’à 10 fois supérieures pour les applications traitant des téraoctets de données, permettant aux scientifiques et chercheurs d’atteindre des solutions inédites pour les problèmes les plus complexes du monde.

Le superprocesseur NVIDIA Grace Hopper combine les architectures Grace et Hopper en utilisant NVIDIA NVLink-C2C pour offrir un modèle de mémoire cohérente CPU+GPU pour les applications accélérées d’IA et de HPC. Grace Hopper comprend une interface cohérente de 900 gigaoctets par seconde (Go/s), est 7 fois plus rapide que PCIe Gen5 et offre une bande passante de mémoire système agrégée 30 fois supérieure au GPU par rapport à NVIDIA DGX A100. En plus de cela, il exécute toutes les piles logicielles et plateformes NVIDIA, y compris le NVIDIA HPC SDK, NVIDIA AI et NVIDIA Omniverse.

Les modèles modernes de systèmes de recommandation nécessitent des quantités importantes de mémoire pour stocker les tables d’incorporation. Les tables d’incorporation contiennent des représentations sémantiques pour les éléments et les caractéristiques des utilisateurs, ce qui permet de fournir de meilleures recommandations aux consommateurs.

En général, ces incorporations suivent une distribution de loi de puissance pour la fréquence d’utilisation, car certains vecteurs d’incorporation sont plus fréquemment utilisés que d’autres. NVIDIA Grace Hopper permet des pipelines de systèmes de recommandation à haut débit qui stockent les vecteurs d’incorporation les plus fréquemment utilisés dans la mémoire HBM3 et les vecteurs d’incorporation restants dans la mémoire LPDDR5X de plus grande capacité. L’interconnexion NVLink C2C fournit aux GPU Hopper un accès à large bande à leur mémoire LPDDR5X locale. Parallèlement, le système de commutation NVLink étend cela pour fournir aux GPU Hopper un accès à large bande à toute la mémoire LPDDR5X de tous les superprocesseurs Grace Hopper du réseau NVLink.

Samuel

Samuel Le Goff, alias SamuGuru, est un fervent adepte de l’innovation et des nouvelles technologies. Passionné par l’intelligence artificielle, la réalité virtuelle, l’impression 3D et les drones, il explore également les objets connectés et les start-ups prometteuses. Amoureux de science-fiction, SamuGuru partage ses trouvailles, réflexions et analyses sur son blog, tout en invitant ses lecteurs à débattre et échanger sur les tendances futuristes qui façonnent notre monde.

REJOIGNEZ NOTRE NEWSLETTER
Et soyez averti chaque fois que nous publions une nouvelle information.

Articles récents

  • WhatsApp Beta sur Android : Test de partage de photos et vidéos en haute définition sur les statuts
  • Choisir le chargeur idéal pour votre smartphone Galaxy : Guide pratique
  • Attendus en 2024 : Les nouveaux Garmin Fenix 8, Epix 3, et Forerunner 65, Avec plus de nouveautés à venir !
  • Realme présente le GT5 Pro : un nouveau produit phare Android abordable et performant
  • 5 conseils pour tirer parti de l’IA et sécuriser votre emploi
  • Mise à Jour de sécurité de décembre 2023 pour les Samsung Galaxy S23 débloqués
  • Samsung Galaxy A54 vs Redmi Note 12 Pro : Lequel choisir ?
  • Xiaomi MIUI 14 : Entre bugs et promesses de correctifs imminents
  • Redmi Watch 3 : Les 12 caractéristiques qui font toute la différence !
  • Xiaomi teste actuellement la nouvelle HyperOS pour Redmi 12 et Redmi 12 5G
  • Contact
  • La rédaction
  • Mentions légales
  • Confidentialité
  • Plan du site

Thématiques

Android Garmin goo HyperOS iPhone jeux Montre connectée PlayStation Redmi Samsung Smartphone WhatsApp Xiaomi
  • Fond d'écran swag
  • Boussole en ligne
  • Mirillis action
  • Crypto-monnaies prometteuses en 2025
  • MiniGPT-4
  • Smodin
  • Presse-Papier Samsung
  • Ctqui
  • Google Trad
Menow.fr 2023. Tous droits réservés
Gérer le consentement aux cookies
Pour offrir les meilleures expériences, nous utilisons des technologies telles que les cookies pour stocker et/ou accéder aux informations des appareils. Le fait de consentir à ces technologies nous permettra de traiter des données telles que le comportement de navigation ou les ID uniques sur ce site. Le fait de ne pas consentir ou de retirer son consentement peut avoir un effet négatif sur certaines caractéristiques et fonctions.
Fonctionnel Toujours activé
Le stockage ou l’accès technique est strictement nécessaire dans la finalité d’intérêt légitime de permettre l’utilisation d’un service spécifique explicitement demandé par l’abonné ou l’internaute, ou dans le seul but d’effectuer la transmission d’une communication sur un réseau de communications électroniques.
Préférences
Le stockage ou l’accès technique est nécessaire dans la finalité d’intérêt légitime de stocker des préférences qui ne sont pas demandées par l’abonné ou la personne utilisant le service.
Statistiques
Le stockage ou l’accès technique qui est utilisé exclusivement à des fins statistiques. Le stockage ou l’accès technique qui est utilisé exclusivement dans des finalités statistiques anonymes. En l’absence d’une assignation à comparaître, d’une conformité volontaire de la part de votre fournisseur d’accès à internet ou d’enregistrements supplémentaires provenant d’une tierce partie, les informations stockées ou extraites à cette seule fin ne peuvent généralement pas être utilisées pour vous identifier.
Marketing
Le stockage ou l’accès technique est nécessaire pour créer des profils d’internautes afin d’envoyer des publicités, ou pour suivre l’internaute sur un site web ou sur plusieurs sites web ayant des finalités marketing similaires.
Gérer les options Gérer les services Gérer {vendor_count} fournisseurs En savoir plus sur ces finalités
Voir les préférences
{title} {title} {title}