CONTENEURS DEEP LEARNING

DÉMARREZ AVEC NVIDIA GPU CLOUD ET AMAZON EC2

NVIDIA GPU Cloud (NGC) est une plateforme Cloud accélérée par GPU qui vous permet de déployer rapidement les meilleurs frameworks de Deep Learning, directement sur site ou dans le Cloud avec Amazon Elastic Compute Cloud (Amazon EC2) dès aujourd’hui et avec d’autres fournisseurs ultérieurement.

Voir la vidéo >

TROIS RAISONS DE CHOISIR NVIDIA GPU CLOUD

  1. L’INNOVATION POUR TOUTES LES INDUSTRIES

    Les ingénieurs et les chercheurs peuvent profiter très rapidement de toute la puissance des technologies IA de NVIDIA grâce à l’architecture GPU la plus puissante au monde et des conteneurs logiciels optimisés pour le Deep Learning et accessibles dans le Cloud. Les technologies IA de NVIDIA permettent d’accomplir des projets d’une grande complexité : accélérer la détection et le traitement des maladies infectieuses, réduire les accidents de la route, trouver des imperfections dans les infrastructures critiques, développer de nouvelles perspectives commerciales à partir de gros volumes de données, et bien plus encore. De l’automobile à la santé en passant par la finance, toutes les industries peuvent profiter des solutions IA de NVIDIA à haut degré d’innovation.
  2. NE LAISSEZ AUCUNE PLACE À L’APPROXIMATION

    Grâce à NVIDIA GPU Cloud, les chercheurs en intelligence artificielle peuvent désormais accéder à des conteneurs à hautes performances spécialement optimisés pour les principaux frameworks de l’industrie comme TensorFlow, PyTorch ou MXNet. Ces frameworks pré-intégrés et accélérés par GPU - qui incluent toutes les dépendances nécessaires comme l’environnement d’exécution CUDA, des bibliothèques NVIDIA et un système d’exploitation dédié - ont été conçus, testés et certifiés par NVIDIA pour les instances Amazon EC2 P3 avec NVIDIA Volta et les stations NVIDIA DGX-1™ et NVIDIA DGX™. Les utilisateurs sont ainsi débarrassés des intégrations logicielles chronophages et fastidieuses, et peuvent par conséquent se concentrer sur la résolution de projets auparavant irréalisables.
  3. ACCESSIBLE SUR N’IMPORTE QUELLE PLATEFORME

    Notre catalogue de conteneurs logiciels optimisés pour le Deep Learning est accessible gratuitement pour tous les utilisateurs avec les fournisseurs éligibles de services Cloud et les systèmes NVIDIA DGX™. La conteneurisation garantit une excellente portabilité des projets de Deep Learning à travers de multiples environnements, ce qui permet de réduire les coûts d’exploitation traditionnellement associés aux workflows IA. Les développeurs et les chercheurs qui travaillent en local sur des stations NVIDIA DGX, les entreprises qui utilisent des systèmes NVIDIA DGX-1 pour Data Center et les professionnels qui exploitent des GPU NVIDIA dans le Cloud peuvent aujourd’hui accéder à un ensemble d’outils harmonisés et optimisés. Grâce à NGC, les chercheurs peuvent accélérer la maintenance informatique de manière significative afin d’accroître leur productivité, de faire de nouvelles découvertes et d’obtenir des résultats décisifs grâce au Deep Learning.
Download the NGC Deep Learning Frameworks Brief

TÉLÉCHARGEZ LA PRÉSENTATION DES FRAMEWORKS NGC POUR LE DEEP LEARNING

Obtenez plus d’informations sur les principaux frameworks de Deep Learning optimisés par NGC. Démarrez dès aujourd’hui avec NGC et des frameworks à hautes performances comme TensorFlow, PyTorch, MXnet, Theano, Caffe2 ou Microsoft Cognitive Toolkit (CNTK).

FOIRE AUX QUESTIONS

  • Quels sont les avantages de l’enregistrement à NGC ?

    L’enregistrement vous donne accès gratuitement à un catalogue complet de conteneurs logiciels entièrement intégrés et optimisés pour le Deep Learning. 

  • Qui peut accéder aux conteneurs sur NGC ?

    Les conteneurs sont accessibles à tous les utilisateurs ayant enregistré un compte NGC. Le compte permet de télécharger et d’utiliser, sur les plateformes compatibles, les dernières versions de nos conteneurs logiciels spécialement optimisés pour l’accélération GPU.

  • En quoi consistent les conteneurs logiciels pour le Deep Learning ?

    Chaque conteneur comprend l’environnement logiciel NGC pour le Deep Learning ainsi qu’une pile de logiciels pré-intégrés et optimisés pour le Deep Learning sur les GPU NVIDIA. Les conteneurs incluent par ailleurs un système d’exploitation Linux, l’environnement d’exécution CUDA, les bibliothèques requises et le framework sélectionné (NVCaffe, TensorFlow, etc.). Ces composants ont été conçus pour fonctionner immédiatement et conjointement sans configuration complémentaire.

  • Quels frameworks sont disponibles sur NGC ?

    Le registre de conteneurs NGC inclut des versions accélérées par GPU des principaux frameworks de l’industrie : NVCaffe, Caffe2, Microsoft Cognitive Toolkit (CNTK), Digits, MXNet, PyTorch, TensorFlow, Theano, Torch, CUDA (pour développeurs).

  • Où exécuter les conteneurs ?

    Les conteneurs ont été conçus, testés et certifiés par NVIDIA pour les instances Amazon EC2 P3 avec NVIDIA Volta et les systèmes de la gamme NVIDIA DGX. D’autres fournisseurs de services Cloud seront prochainement pris en charge.

  • Puis-je exécuter des conteneurs NGC sur mon PC avec une carte graphique Titan Xp ou GeForce 1080 Ti ?

    Oui. Nos Conditions d’utilisation autorisent l’exécution des conteneurs NGC pour le Deep Learning sur un PC de bureau équipé d’une carte graphique à architecture Pascal ou Volta.

  • Comment utiliser les conteneurs sur Amazon EC2 ?

    NVIDIA a créé une image-machine Amazon (AMI) gratuite appelée "NVIDIA Volta Deep Learning AMI for NGC", directement disponible sur le Marché AWS. Cette AMI contient un environnement spécialement optimisé pour l’exécution des frameworks de Deep Learning disponibles dans le registre de conteneurs NGC. Il vous suffit de créer une instance de l’AMI puis d’y importer le framework désiré à partir de NGC afin d’exécuter instantanément vos tâches de Deep Learning. D’autres AMI de Deep Learning sont disponibles sur le Marché AWS, mais elles n’ont pas été testées ni optimisées par NVIDIA.

  • Quelle est la fréquence de mise à jour des conteneurs et des frameworks ?

    Des mises à jour sont proposées chaque mois. Les conteneurs de NGC tirent parti du programme de recherche et de développement mené par NVIDIA en collaboration avec les équipes d’ingénierie de chaque framework, de manière à fournir les meilleures performances possibles. Les ingénieurs de NVIDIA optimisent continuellement l’environnement logiciel avec des mises à jour mensuelles qui garantissent un excellent retour sur investissement.

  • Quelle est l’assistance fournie par NVIDIA ?

    Tous les utilisateurs de NGC peuvent accéder aux forums de développement NVIDIA DevTalk https://devtalk.nvidia.com/. Ces forums regroupent une vaste communauté d’experts du Deep Learning et du développement GPU (clients, utilisateurs, partenaires et collaborateurs de NVIDIA).

  • Pourquoi NVIDIA fournit ces conteneurs ?

    NVIDIA cherche à accélérer l’avènement des technologies IA en fournissant aux chercheurs et aux développeurs un accès simplifié à des frameworks de Deep Learning accélérés par GPU et optimisés pour une utilisation en local sur des stations de travail équipées de GPU NVIDIA ou dans le Cloud avec des solutions de calcul Volta.

  • L’accès aux conteneurs est gratuit, mais les ressources de calcul le sont-elles ?

    L’accès au registre de conteneurs, entièrement gratuit, est soumis au respect de nos Conditions d’utilisation. Chaque fournisseur de services Cloud propose cependant une tarification spécifique pour ses solutions de calcul accéléré.

ACCÉDEZ À DES FRAMEWORKS DE DEEP LEARNING À HAUTES PERFORMANCES AVEC NGC