NVLink Fabric

Traitement multi-GPU avancé

Maximizing System Throughput

OPTIMISATION DU RENDEMENT SYSTÈME

La technologie NVIDIA® NVLink améliore les performances d’interconnexion en fournissant une bande passante plus élevée, un plus grand nombre de liens et une meilleure évolutivité pour les configurations système multi-GPU et multi-GPU/CPU. Un seul GPU NVIDIA Tesla® V100 peut ainsi prendre en charge jusqu’à six liens NVLink pour une bande passante totale de 300 Go/s – soit 10 fois plus qu’avec le standard PCIe 3. Des serveurs comme le tout nouveau système NVIDIA DGX-1 exploitent le plein potentiel de ces technologies en vous offrant davantage d’évolutivité avec une accélération significative des workflows d’entraînement Deep Learning.

ACCÉLÉRATION SIGNIFICATIVE DES COMMUNICATIONS GPU VERS GPU

Grâce à la puissance incomparable de l’architecture NVIDIA Pascal, les configurations NVLink avec Tesla V100 ont permis d’augmenter le débit de 20 à 25 Go/s dans chaque direction. Les communications GPU vers CPU et GPU vers GPU s’en trouvent accélérées, notamment pour les serveurs DGX-1V avec Tesla V100.

Tesla V100 avec NVLink : connexions GPU vers GPU et GPU vers CPU
Connexion de huit accélérateurs Tesla V100
DES PERFORMANCES SANS PRÉCÉDENT

DES PERFORMANCES SANS PRÉCÉDENT

NVIDIA NVLink peut délivrer jusqu’à 31% de performances additionnelles par rapport aux serveurs dotés d’une configuration similaire. Sa bande passante élevée et sa latence réduite permettent de déployer des workflows Deep Learning de nouvelle génération et d’adapter les performances de calcul à l’évolution de vos besoins.

NVSWITCH: OPTIMISATION DE LA CONNECTIVITÉ NVLINK

Les limites de bande passante du standard PCIe ne permettent plus de répondre convenablement aux évolutions récentes des systèmes multi-GPU. Un nouveau modèle d’interconnexion multiprocesseur, plus rapide et plus évolutif, est donc devenu nécessaire pour gérer convenablement les workflows Deep Learning.

Même si la technologie NVLink représente une importante avancée technologique pour interconnecter jusqu’à 8 GPU et accélérer les performances de calcul, elle ne permet pas de connecter des GPU additionnels pour assurer une communication directe à vitesse maximale. Pour faire passer les performances des workflows Deep Learning au niveau supérieur, il faut recourir à une topologie GPU à même d’interconnecter un plus grand nombre de GPU avec une bande passante optimisée.

Première architecture de commutation sur nœud à prendre en charge un total de 16 GPU interconnectés sur un seul nœud de serveurs, NVIDIA NVSwitch délivre des communications simultanées entre les huit paires de GPU à une vitesse exceptionnelle de 300 Go/s. Ces 16 GPU interconnectés peuvent par ailleurs être utilisés en tant qu’accélérateur à grande échelle avec un espace mémoire unifié de 0,5 téraoctet et une puissance de calcul pouvant atteindre 2 pétaflops.

NVSwitch Chart Speedup