Tesla

POWER NEW LEVELS OF USER ENGAGEMENT
Boost throughput and responsive experiences in deep learning inference workloads.
Boost throughput and responsive experiences in deep learning inference workloads

ACCÉLÉRER L'INFÉRENCE DU DEEP LEARNING

Alors que nous entrons dans une nouvelle ère de l'intelligence artificielle (IA), le Deep Learning permet d'améliorer de façon surhumaine la précision des tâches complexes que nous effectuons au quotidien. Le discours interactif, la vision informatisée et les analyses prédictives ne sont que quelques domaines dans lesquels les modèles de Deep Learning reposant sur les GPU ont démontré des résultats incroyables, auparavant considérés comme impossibles.

Lorsque les réseaux neuronaux modernes sont déployés sur des CPU pour l'inférence, les services basés sur l'IA sont incapables de fournir la réactivité nécessaire pour l'engagement de l'utilisateur. Les accélérateurs GPU NVIDIA® Tesla® P40 et P4 vous apportent la solution idéale, dans la mesure où ils sont conçus pour offrir le meilleur rendement et la meilleure réactivité pour les charges d'inférence de Deep Learning. Ils s'appuient sur l'architecture NVIDIA Pascal™ pour fournir des performances d'inférence 60 fois plus élevées que les CPU, pour une réactivité en temps réel même dans les modèles de Deep Learning les plus complexes .

 

ACCÉLÉRATEURS D'INFÉRENCE NVIDIA TESLA

Deep Learning Inference Latency

Deep Learning Inference Throughput

 
NVIDIA Tesla P40

RENDEMENT MAXIMAL POUR L'INFÉRENCE DE DEEP LEARNING

L'accélérateur Tesla P40 a été conçu pour délivrer un rendement maximal pour l'inférence de Deep Learning. Avec des performances d'inférence atteignant 47 TOPS (téra-opérations par seconde) par GPU, un seul serveur équipé de huit GPU Tesla P40 peut remplacer plus de 100 serveurs équipés uniquement de CPU.

Pdf
Fiche technique Tesla P40 (PDF – 166KB)
 

ULTRA-EFFICACITÉ DU DEEP LEARNING POUR LES SERVEURS SCALE-OUT

Le Tesla P4 accélère tout type de serveur Scale-Out en fournissant 40 fois plus d'efficacité énergétique qu'un serveur équipé uniquement de CPU.

Pdf
TFiche technique Tesla P4 (PDF – 164KB)
Tesla P4
 

CARACTÉRISTIQUES ET AVANTAGES DE L'ACCÉLÉRATEUR DE DEEP LEARNING

Ces GPU permettent des prédictions plus rapides, qui permettent à leur tour des expériences utilisateur extraordinaires pour les applications de l'IA.

 
Un rendement 100 fois supérieur pour gérer des volumes de données exponentiels

Un rendement 100 fois supérieur pour gérer des volumes de données exponentiels

Le volume de données généré quotidiennement sous forme de journaux de capteurs, d'images, de vidéos et d'enregistrements, est ingérable économiquement avec des CPU. Les GPU à architecture Pascal améliorent considérablement le rendement pour le déploiement des charges de Deep Learning et extraient l'intelligence à partir de cette avalanche de données. Un serveur doté de huit GPU Tesla P40 peut remplacer 100 serveurs basés uniquement sur des CPU pour les charges de Deep Learning, c'est pourquoi on peut obtenir un meilleur rendement à des coûts d'acquisition inférieurs.

 
Un moteur de décodage dédié pour les nouveaux services vidéo basés sur l'intelligence artificielle.

Un moteur de décodage dédié pour les nouveaux services vidéo basés sur l'intelligence artificielle.

Les GPU Tesla P4 et P40 peuvent analyser jusqu'à 39 flux vidéo HD en temps réel, alimentés par un moteur de décodage dédié à accélération matérielle, associé à l'inférence des cœurs NVIDIA CUDA®. En intégrant le Deep Learning au pipeline vidéo, les clients peuvent offrir aux utilisateurs de nouveaux services vidéo innovants et intelligents.

Efficacité exceptionnelle pour des serveurs Scale-Out à faible consommation

Efficacité exceptionnelle pour des serveurs Scale-Out à faible consommation

Le GPU Tesla P4 ultra-efficace accélère les serveurs Scale-Out à densité optimisée grâce à sa configuration compacte et à sa faible consommation (50/75 W). Il fournit 40 fois plus d'efficacité énergétique que les CPU pour les charges d'inférence de Deep Learning. Ainsi, les utilisateurs de l'architecture HyperScale peuvent évoluer au sein de leur infrastructure existante et suivre la croissance exponentielle de la demande pour les applications basées sur l'IA.



 
Faster Deployment With NVIDIA TensorRT™ and DeepStream SDK

Déploiement plus rapide avec NVIDIA TensorRT™ et DeepStream SDK

NVIDIA TensorRT est un moteur d'inférence de réseaux neuronaux de haute performance pour le déploiement de la production d'applications Deep Learning. Il comprend une bibliothèque créée pour optimiser les modèles de Deep Learning pour le déploiement de la production, en prenant des réseaux neuronaux entraînés, en général des données de 32 bits ou 16 bits, et en les optimisant pour les opérations INT8 à précision réduite. NVIDIA DeepStream SDK tire parti de la puissance des GPU Pascal pour décoder et analyser simultanément les flux vidéo.

 

SPÉCIFICATIONS DE PERFORMANCES POUR LES ACCÉLÉRATEURS NVIDIA TESLA P40 ET P4

 
  Tesla P4, pour des serveurs Scale-Out ultra-efficaces Tesla P40, pour des serveurs à rendement d'inférence maximale
Performances en simple précision 5.5 TeraFLOPS 12 TeraFLOPS
Opérations INT8 à nombres entiers 22 TOPS* 47 TOPS*
Mémoire GPU 8 Go 24 Go
Bande passante mémoire 192 Go/s 346 Go/s
Interface système Configuration compacte PCI Express Configuration compacte PCI Express à double port, pleine hauteur
Alimentation 50 W/75 W 250 W
Moteur vidéo d'accélération matérielle 1 x moteur de décodage, 2 x moteurs d'encodage 1 x moteur de décodage, 2 x moteurs d'encodage

*Téra-opérations par seconde avec Boost Clock désactivé

FICHES TECHNIQUES NVIDIA TESLA P40 ET P4

Pdf
Pdf
Fiche technique Tesla P4 (PDF – 164KB)
 
 

COMMANDEZ LES NVIDIA TESLA P40 ET P4 AUJOURD'HUI

Les GPU Tesla P40 et le P4 sont maintenant disponibles pour l'inférence de Deep Learning.

OÙ COMMANDER

 
CUDA et Calcul par le GPU

Le calcul par le GPU, c'est quoi ?
Principes du calcul par le GPU
Programmation GPU
Architecture Kepler
Cloud Computing
Contactez-nous

Présentation de CUDA
Showcase CUDA
Formation CUDA
CUDA Courses Calendar
Centres de recherche CUDA
Centres d’enseignement CUDA

Applications GPU

Applications GPU Tesla
Études de cas Tesla
Directives OpenACC
Offre d’essai GPU Tesla

GPU Tesla pour serveurs
et stations de travail

Pourquoi choisir Tesla ?
Solutions Tesla pour serveurs
Solutions Tesla pour
stations de travail

Plateforme de développement intégrée
Acheter GPU Tesla

Infos et actualités Tesla

Documentation Tesla
Fonctions logicielles Tesla
Outils de développement de logiciels
NVIDIA Research
Alertes Tesla

NVIDIA en ligne

NVIDIA Blog Blog NVIDIA

Facebook Facebook

Twitter Twitter

Twitch Twitch

YouTube YouTube