Résumé de l’actualité : Les nouvelles bibliothèques de calcul accéléré offrent des accélérations d’un ordre de grandeur et réduisent la consommation d’énergie et les coûts dans le traitement des données, l’IA générative, les systèmes de recommandation, la conservation des données par l’IA, le traitement des données, la recherche 6G, la physique de l’IA et bien plus encore. Ils comprennent :
- Applications LLM : NeMo Curator, pour créer des ensembles de données personnalisés, ajoute la curation d’images et Nemotron-4 340B pour la génération de données synthétiques de haute qualité
- Traitement des données : cuVS pour la recherche vectorielle pour créer des index en quelques minutes au lieu de quelques jours et un nouveau moteur GPU Polars en version bêta ouverte
- IA physique : pour la simulation physique, Warp accélère les calculs avec une nouvelle API TIle. Pour la simulation de réseau sans fil, Aerial ajoute davantage de formats de carte pour le traçage de rayons et la simulation. Et pour la simulation sans fil au niveau des liens, Sionna ajoute une nouvelle chaîne d’outils pour l’inférence en temps réel
Les entreprises du monde entier se tournent de plus en plus vers le calcul accéléré NVIDIA pour accélérer les applications qu’elles exécutaient initialement uniquement sur des processeurs. Cela leur a permis d’atteindre des accélérations extrêmes et de bénéficier d’incroyables économies d’énergie.
À Houston, CPFD fabrique des logiciels de simulation informatique de la dynamique des fluides pour les applications industrielles, comme son logiciel Barracuda Virtual Reactor qui aide à concevoir des installations de recyclage de nouvelle génération. Les installations de recyclage du plastique exécutent le logiciel CPFD dans des instances cloud alimentées par le calcul accéléré NVIDIA. Grâce à une machine virtuelle accélérée par GPU CUDA, ils peuvent faire évoluer et exécuter efficacement des simulations 400 fois plus rapidement et 140 fois plus efficacement en termes d’énergie qu’en utilisant une station de travail basée sur un processeur.

Une application de visioconférence populaire sous-titre plusieurs centaines de milliers de réunions virtuelles par heure. Lors de l’utilisation de processeurs pour créer des sous-titres en direct, l’application peut interroger un modèle d’IA de reconnaissance vocale alimenté par transformateur trois fois par seconde. Après la migration vers les GPU dans le cloud, le débit de l’application est passé à 200 requêtes par seconde, soit une accélération de 66 fois et une amélioration de l’efficacité énergétique de 25 fois.
Dans les foyers du monde entier, un site Web de commerce électronique connecte chaque jour des centaines de millions d’acheteurs aux produits dont ils ont besoin à l’aide d’un système de recommandation avancé alimenté par un modèle d’apprentissage profond, fonctionnant sur son système de cloud computing accéléré NVIDIA. Après être passé des CPU aux GPU dans le cloud, il a atteint une latence considérablement inférieure avec une accélération de 33x et une amélioration de l’efficacité énergétique de près de 12x.
Avec la croissance exponentielle des données, l’informatique accélérée dans le cloud devrait permettre des cas d’utilisation encore plus innovants.
Le calcul accéléré NVIDIA sur les GPU CUDA est un calcul durable
NVIDIA estime que si toutes les charges de travail d’IA, HPC et d’analyse de données qui s’exécutent encore sur les serveurs CPU étaient accélérées par GPU CUDA, les centres de données économiseraient 40 térawattheures d’énergie par an. Cela équivaut à la consommation d’énergie de 5 millions de foyers américains par an.
Le calcul accéléré utilise les capacités de traitement parallèle des GPU CUDA pour effectuer des tâches bien plus rapidement que les processeurs, améliorant ainsi la productivité tout en réduisant considérablement les coûts et la consommation d’énergie.
Bien que l’ajout de GPU à un serveur uniquement CPU augmente la puissance maximale, l’accélération GPU termine les tâches rapidement et entre ensuite dans un état de faible consommation. L’énergie totale consommée par le calcul accéléré par GPU est nettement inférieure à celle des processeurs à usage général, tout en offrant des performances supérieures.

Au cours de la dernière décennie, l’informatique NVIDIA AI a atteint une efficacité énergétique environ 100 000 fois supérieure lors du traitement de grands modèles de langage. Pour mettre cela en perspective, si l’efficacité des voitures s’améliorait autant que NVIDIA a amélioré l’efficacité de l’IA sur sa plate-forme informatique accélérée, elles obtiendraient 500 000 miles par gallon. C’est suffisant pour aller et revenir sur la Lune avec moins d’un gallon d’essence.
En plus de ces améliorations spectaculaires de l’efficacité des charges de travail d’IA, le calcul sur GPU peut atteindre des accélérations incroyables par rapport aux processeurs. Les clients de la plate-forme de calcul accéléré NVIDIA exécutant des charges de travail sur des fournisseurs de services cloud ont constaté des accélérations de 10 à 180 fois sur une gamme de tâches réelles, du traitement des données à la vision par ordinateur, comme le montre le graphique ci-dessous.

Alors que les charges de travail continuent d’exiger une puissance de calcul exponentielle, les processeurs ont du mal à fournir les performances nécessaires, créant un écart de performances croissant et entraînant une « inflation des calculs ». Le graphique ci-dessous illustre une tendance pluriannuelle selon laquelle la croissance des données a largement dépassé la croissance des performances de calcul par watt de processeurs.

Les économies d’énergie réalisées grâce à l’accélération GPU libèrent des coûts et de l’énergie qui autrement auraient été gaspillés.
Grâce à ses énormes économies d’efficacité énergétique, l’informatique accélérée est une informatique durable.
Les bons outils pour chaque travail
Les GPU ne peuvent pas accélérer les logiciels écrits pour les processeurs à usage général. Des bibliothèques logicielles d’algorithmes spécialisées sont nécessaires pour accélérer des charges de travail spécifiques. Tout comme un mécanicien disposerait d’une boîte à outils complète, allant d’un tournevis à une clé pour différentes tâches, NVIDIA propose un ensemble diversifié de bibliothèques pour exécuter des fonctions de bas niveau telles que l’analyse et l’exécution de calculs sur les données.
Chaque bibliothèque NVIDIA CUDA est optimisée pour exploiter les fonctionnalités matérielles spécifiques aux GPU NVIDIA. Ensemble, ils englobent la puissance de la plateforme NVIDIA.
De nouvelles mises à jour continuent d’être ajoutées à la feuille de route de la plateforme CUDA, s’étendant à divers cas d’utilisation :
Candidatures LLM
Conservateur NeMo donne aux développeurs la flexibilité de créer rapidement des ensembles de données personnalisés dans des cas d’utilisation de grands modèles de langage (LLM). Récemment, nous avons annoncé que des fonctionnalités allant au-delà du texte seraient étendues à une prise en charge multimodale, y compris la curation d’images.
ODD (génération de données synthétiques) augmente les ensembles de données existants avec des données générées synthétiquement de haute qualité pour personnaliser et affiner les modèles et les applications LLM. Nous avons annoncé Nemotron-4 340B, une nouvelle suite de modèles spécialement conçus pour SDG qui permet aux entreprises et aux développeurs d’utiliser les sorties de modèles et de créer des modèles personnalisés.
Applications de traitement des données
cuVS est une bibliothèque open source pour la recherche vectorielle et le clustering accélérés par GPU qui offre une vitesse et une efficacité incroyables dans les LLM et la recherche sémantique. Le dernier cuVS permet de créer de grands index en quelques minutes au lieu d’heures, voire de jours, et de les rechercher à grande échelle.
Polaires est une bibliothèque open source qui utilise des optimisations de requêtes et d’autres techniques pour traiter efficacement des centaines de millions de lignes de données sur une seule machine. Un nouveau moteur GPU Polars alimenté par la bibliothèque cuDF de NVIDIA sera disponible en version bêta ouverte. Il offre des performances jusqu’à 10 fois supérieures à celles du processeur, apportant ainsi les économies d’énergie du calcul accéléré aux praticiens des données et à leurs applications.
IA physique
Chaînedestiné à la simulation et aux graphiques GPU hautes performances, contribue à accélérer le calcul spatial en facilitant l’écriture de programmes différenciables pour la simulation physique, la perception, la robotique et le traitement géométrique. La prochaine version prendra en charge une nouvelle API Tile qui permet aux développeurs d’utiliser des cœurs Tensor dans les GPU pour les calculs matriciels et de Fourier.
Aérien est une suite de plates-formes informatiques accélérées qui comprennent Aerial CUDA-Accelerated RAN et Aerial Omniverse Digital Twin pour la conception, la simulation et l’exploitation de réseaux sans fil pour les applications commerciales et la recherche industrielle. La prochaine version comprendra une nouvelle extension d’Aerial avec davantage de formats de carte pour le lancer de rayons et des simulations avec une plus grande précision.
Sionna est une bibliothèque open source accélérée par GPU pour les simulations au niveau liaison des systèmes de communication sans fil et optiques. Grâce aux GPU, Sionna réalise une simulation plus rapide de plusieurs ordres de grandeur, permettant une exploration interactive de ces systèmes et ouvrant la voie à la recherche sur les couches physiques de nouvelle génération. La prochaine version comprendra l’intégralité de la chaîne d’outils nécessaire à la conception, à la formation et à l’évaluation de récepteurs basés sur un réseau neuronal, y compris la prise en charge de l’inférence en temps réel de ces récepteurs neuronaux à l’aide de NVIDIA TensorRT.
NVIDIA propose plus de 400 bibliothèques. Certains, comme CV-CUDA, excellent dans le pré- et post-traitement des tâches de vision par ordinateur courantes dans les vidéos générées par les utilisateurs, les systèmes de recommandation, la cartographie et la vidéoconférence. D’autres, comme cuDF, accélèrent les trames de données et les tables centrales aux bases de données SQL et aux pandas de la science des données.

Beaucoup de ces bibliothèques sont polyvalentes (par exemple, cuBLAS pour l’accélération de l’algèbre linéaire) et peuvent être utilisées sur plusieurs charges de travail, tandis que d’autres sont hautement spécialisées pour se concentrer sur un cas d’utilisation spécifique, comme cuLitho pour la lithographie informatique sur silicium.
Pour les chercheurs qui ne souhaitent pas créer leurs propres pipelines avec les bibliothèques NVIDIA CUDA-X, NVIDIA NIM offre un chemin simplifié vers le déploiement en production en regroupant plusieurs bibliothèques et modèles d’IA dans des conteneurs optimisés. Les microservices conteneurisés offrent un débit amélioré dès le départ.
Les performances de ces bibliothèques sont augmentées par un nombre croissant de fonctionnalités d’accélération matérielles qui offrent des accélérations avec une efficacité énergétique la plus élevée. La plate-forme NVIDIA Blackwell, par exemple, comprend un moteur de décompression qui décompresse les fichiers de données compressés en ligne jusqu’à 18 fois plus rapidement que les processeurs. Cela accélère considérablement les applications de traitement de données qui doivent accéder fréquemment aux fichiers compressés stockés comme SQL, Apache Spark et pandas, et les décompresser pour les calculs d’exécution.
L’intégration des bibliothèques spécialisées accélérées par GPU CUDA de NVIDIA dans les plates-formes de cloud computing offre une vitesse et une efficacité énergétique remarquables sur un large éventail de charges de travail. Cette combinaison génère d’importantes économies pour les entreprises et joue un rôle crucial dans l’avancement de l’informatique durable, en aidant des milliards d’utilisateurs s’appuyant sur des charges de travail basées sur le cloud à bénéficier d’un écosystème numérique plus durable et plus rentable.
En savoir plus sur L’informatique durable de NVIDIA efforts et consultez les Calculateur d’efficacité énergétique pour découvrir les économies potentielles d’énergie et d’émissions.
Voir avis concernant les informations sur les produits logiciels.