Cœurs Tensor avec NVIDIA Volta

La nouvelle génération du Deep Learning

Le GPU NVIDIA® Tesla® V100 est accéléré par Volta, une nouvelle architecture à hautes performances qui délivre des innovations révolutionnaires. Ses multiprocesseurs de flux offrent un rendement énergétique jusqu’à 50% plus important que l’architecture NVIDIA® PascalTM de génération précédente, avec des gains significatifs pour les calculs FP32 et FP64. La plus importante innovation de l’architecture Volta réside dans ses cœurs Tensor.

Une avancée décisive pour l’entraînement et l’inférence

Spécifiquement conçus pour les workflows Deep Learning, les cœurs NVIDIA Tensor fournissent une puissance sans précédent dans les applications d’entraînement (jusqu’à 12 fois plus de performances TFlops) et d’inférence (jusqu’à 6 fois plus). Cette capacité-clé permet de tripler les performances de calcul par rapport aux solutions de génération précédente. 

Les 640 cœurs NVIDIA Tensor du Tesla V100 fonctionnent sur une matrice 4x4, et les chemins de données associés ont été conçus de manière à augmenter le rendement des opérations en virgule flottante avec une efficacité énergétique incomparable.

Optimisation des performances et du rendement

Deep Learning Training in Less Than a Workday

L’architecture NVIDIA Volta est équipée de 640 cœurs Tensor, exécutant chacun 64 opérations FMA en virgule flottante par cycle d’horloge. Les applications d’entraînement et d’inférence IA bénéficient par conséquent d’une puissance brute sans précédent (jusqu’à 125 TFlops). Les développeurs peuvent ainsi exécuter des calculs FP16 en précision mixte avec une accumulation FP32, tout en profitant de performances jusqu’à 3 fois plus élevées que sur les workflows Deep Learning de génération précédente et d’une convergence réseau exceptionnelle. Cette accélération significative des performances de calcul est l’une des principales innovations de la technologie Tensor. Les projets Deep Learning peuvent désormais être traités en quelques heures, ce qui constitue une avancée décisive.

47X Higher Throughput than CPU Server on Deep Learning Inference

Pour l’inférence, Tesla V100 offre des performances 3 fois plus importantes que les GPU de génération précédente et s’avère jusqu’à 47 fois plus rapide qu’un serveur uniquement basé sur le traitement CPU. Ces gains de performance significatifs sont réalisés en grande partie grâce aux cœurs Tensor de calcul en précision mixte, qui exploitent la plateforme programmable NVIDIA TensorRT pour l’accélération d’inférences.

Accélération significative des performances de calcul

Consultez notre dossier pour en savoir plus sur les cœurs Tensor et l’architecture NVIDIA Volta.