GPU NVIDIA TESLA V100 À CŒURS TENSOR

Le premier GPU Tensor Core

Bienvenue dans la nouvelle ère de l’IA

Les volumes exponentiels de données recèlent des informations pouvant révolutionner des industries entières, des nouveaux systèmes personnalisés de traitement du cancer à la prévision des catastrophes naturelles en passant par les systèmes de synthèse vocale pour assistants personnels.

NVIDIA® Tesla® V100 à cœurs Tensor, le GPU pour Data Center le plus avancé au monde, a été conçu pour accélérer les workflows IA, HPCscience des données et le rendu graphique. Accéléré par l’architecture NVIDIA Volta et équipé de 16 Go ou de 32Go de mémoire dédiée, le Tesla V100 délivre les performances de 100 CPU au sein d’un seul GPU - ce qui permet aux chercheurs et aux ingénieurs de relever des défis auparavant irréalisables.

Exécutez des charges de travail IA et HPC dans un environnement virtuel avec des fonctionnalités avancées de sécurité et de gestion grâce au logiciel NVIDIA Virtual Compute Server (vCS). 

AI Training

Entraînement IA

De la reconnaissance vocale aux systèmes de synthèse pour assistants personnels virtuels en passant par la détection des voies de circulation et les modèles de conduite pour véhicules autonomes, les chercheurs relèvent aujourd’hui des projets de plus en plus complexes grâce à l’intelligence artificielle. La résolution de ces défis nécessite d’entraîner des modèles avancés de Deep Learning dans des délais toujours plus courts.

Avec ses 43 000 cœurs Tensor, Tesla V100 est le tout premier GPU à faire tomber la barrière des 100 TOPS (téra-opérations par seconde) de performances Deep Learning. La technologie d’interconnexion  NVIDIA NVLink™ de seconde génération permet de connecter des GPU V100 multiples à plus de 160 Go/s pour déployer les serveurs de calcul les plus puissants au monde. Tous ces modèles, qui auraient nécessité des semaines entières de calcul avec les précédents systèmes, peuvent désormais être traités en quelques jours seulement. Cette accélération significative des procédures d’entraînement permet d’accomplir de tout nouveaux projets grâce aux technologies IA.

AI Inference

Inférence IA

Pour nous proposer les informations, les services et les produits les plus pertinents qui soient, les entreprises du secteur Hyperscale s’attachent à exploiter le plein potentiel de l’intelligence artificielle. Répondre aux nombreuses demandes des utilisateurs n’en reste pas moins un défi de taille. Les entreprises Hyperscale les plus importantes estiment par exemple qu’il leur faudrait doubler leur capacité en Data Center si l'ensemble de leurs utilisateurs passaient trois minutes par jour à utiliser un service de reconnaissance vocale.

Le GPU Tesla V100 pour serveurs Hyperscale a été conçu pour offrir un maximum de performances avec les racks Hyperscale existants. Avec l’IA en son cœur, un seul rack 13 KW de serveurs équipés de GPU Tesla V100 peut fournir les mêmes performances d’inférence que 30 racks de serveurs CPU. Cette avancée significative en termes de rendement et d’efficacité énergétique va contribuer à accélérer l’avènement des services IA.

High Performance Computing

Calcul haute performance (HPC)

Le calcul haute performance (HPC) est un pilier de la science moderne. De la prévision météorologique à la recherche énergétique en passant par le développement de nouveaux médicaments, les chercheurs utilisent aujourd’hui des systèmes complexes pour simuler et interagir avec le monde qui nous entoure. L’intelligence artificielle fait avancer les applications HPC en permettant aux chercheurs d’analyser des volumes de données plus importants, mais aussi de collecter de précieuses informations auparavant indécelables.

Le GPU Tesla V100 a été conçu pour la convergence des applications HPC et IA. Il offre une plateforme avancée qui excelle aussi bien dans le calcul numérique pour les simulations scientifiques que dans l’analyse de données pour la recherche de nouvelles informations. En associant des cœurs Tensor et CUDA au sein d’une architecture unifiée, un seul serveur équipé de GPU Tesla V100 peut remplacer des centaines de serveurs CPU génériques afin d’accélérer durablement les workflows IA et HPC. Tous les chercheurs et les ingénieurs peuvent désormais déployer des systèmes de supercalcul IA pour accomplir leurs projets les plus ambitieux.

 

GPU DATA CENTER

data-center-tesla-v100-nvlink-625-ud@2x

NVIDIA TESLA V100 POUR NVLINK

performances ultimes pour le Deep Learning

data-center-tesla-v100-pcie-625-ud@2x

NVIDIA TESLA V100 POUR PCle

polyvalence exceptionnelle pour tous les workflows HPC

NVIDIA Tesla V100 SPÉCIFICATIONS

 

Tesla V100 pour NVLink

Tesla V100 pour PCIe

Tesla V100s pour PCIe

PERFORMANCE
avec NVIDIA GPU Boost

DOUBLE PRÉCISION
7,8 TeraFLOPS

SIMPLE PRÉCISION
15,7 TeraFLOPS

Deep Learning
125 TeraFLOPS

DOUBLE PRÉCISION
7 TeraFLOPS

SIMPLE PRÉCISION
14 TeraFLOPS

Deep Learning
112 TeraFLOPS

DOUBLE PRÉCISION
8.2 TeraFLOPS

SIMPLE PRÉCISION
16.4 TeraFLOPS

Deep Learning
130 TeraFLOPS

BANDE PASSANTE D’INTERCONNEXION
Bidirectionnelle

NVLink
300 Go/s

PCIe
32 Go/s

PCIe
32 Go/s

MÉMOIRE
CoWoS stackée HBM2

CAPACITÉ
32/16 Go HBM2

BANDE PASSANTE
900 Go/s

CAPACITÉ
32 Go HBM2

BANDE PASSANTE
1134 Go/s

PUISSANCE
Consommation Maximale


300 WATTS


250 WATTS

PROFITEZ DE NOTRE OFFRE D’ESSAI GRATUIT

Les accélérateurs GPU les plus rapides au monde pour les workflows HPC et Deep Learning.

OÙ ACHETER ?

Trouvez un partenaire NVIDIA pour le calcul accéléré via le Réseau de partenaires NVIDIA (NPN).