TESLA

  • CUDA ET CALCUL PAR LE GPU
  • APPLICATIONS GPU
  • GPU POUR SERVEURS ET STATIONS DE TRAVAIL
Outils de gestion pour Data Center
Applications et outils à la pointe de l'industrie accélérés par NVIDIA.
Outils de gestion pour Data Center.  Applications et outils à la pointe de l'industrie accélérés par NVIDIA.

TECHNOLOGIE DE CONTENEURS DOCKER À BASE GPU

Mesophere

Gérez vos applications accélérées par GPU au niveau Data Center.

La plateforme de calcul accéléré NVIDIA Tesla prend désormais en charge Apache Mesos, un gestionnaire populaire de ressources distribuées pour la planification d'applications au niveau Data Center.

Les accélérateurs GPU Tesla sont désormais considérés comme des ressources natives de premier niveau dans Apache Mesos et dans les frameworks associés comme Marathon et Chronos. Un ensemble complet d'applications peuvent désormais se partager en parallèle des ressources GPU à haute densité via une infrastructure commune.

Manage Accelerated Applications at Data Center Scale
 
 

Optimisation des performances d'application

Le partitionnement dynamique des GPU assure une allocation efficace des ressources d'application. En délivrant aux applications des ressources GPU à haute densité, Mesos garantit une utilisation plus rationnelle des ressources avec des performances d'application plus rapides.

Simplicité opérationnelle

Les applications accélérées par GPU peuvent désormais être déployées sur un cluster commun et partager des ressources entre elles, aussi sur bien sur site que dans le Cloud. Les opérations au niveau Data Center sont grandement simplifiées car il n'y a plus besoin d'assurer la maintenance de clusters multiples et indépendants.

 
 
 

Haute disponibilité des données

Les applications accélérées par GPU bénéficient désormais d'une tolérance intégrée aux pannes et des fonctions d'auto-correction dans Mesos qui améliorent la fiabilité globale.

Les frameworks Marathon et Chronos offrent de nombreux avantages aux applications accélérées par GPU :

  • Support via Marathon des opérations longue durée avec les API REST (démarrage, arrêt et mise à l'échelle).
  • Support via Chronos des opérations par lots à base Cron.
  • Haute disponibilité des données avec la capacité d'exécuter un nombre variable d'instances d'ordonnanceur.
  • Fonctionnalités de découverte de service, d'équilibrage de charge et de vérification d'état.
  • Interface Web.
  • Support Docker natif.

Liens utiles

Apache Mesos

 

Blog Mesos

 
 
 
 
 
 
 
CUDA et Calcul par le GPU

Le calcul par le GPU, c'est quoi ?
Principes du calcul par le GPU
Programmation GPU
Architecture Kepler
Cloud Computing
Contactez-nous

Présentation de CUDA
Showcase CUDA
Formation CUDA
CUDA Courses Calendar
Centres de recherche CUDA
Centres d’enseignement CUDA

Applications GPU

Applications GPU Tesla
Études de cas Tesla
Directives OpenACC
Offre d’essai GPU Tesla

GPU Tesla pour serveurs
et stations de travail

Pourquoi choisir Tesla ?
Solutions Tesla pour serveurs
Solutions Tesla pour
stations de travail

Plateforme de développement intégrée
Acheter GPU Tesla

Infos et actualités Tesla

Documentation Tesla
Fonctions logicielles Tesla
Outils de développement de logiciels
NVIDIA Research
Alertes Tesla

NVIDIA en ligne

NVIDIA Blog Blog NVIDIA

Facebook Facebook

Twitter Twitter

Twitch Twitch

YouTube YouTube