Back

Second Generation Transform and Lighting (T&L)

 
 
Le réalisme en temps réel 


Le GPU autorise un niveau de réalisme qui était jusqu'à présent impossible si l'on ne possédait pas les super-ordinateurs d'hier valant plusieurs millions de francs. Les personnages animés évoluant sur un GPU sont désormais détaillés et réels, ils présentent des expressions faciales complexes et des mouvements fluides. Leur monde peut maintenant être luxuriant de vie organique (arbres, buissons, plantes) et contenir de nombreux détails d'architecture et de structure, que nous considérons tout à fait normaux dans le monde réel.

Dans l'ère de l'avant GPU, les murs des bâtiments et des pièces contenaient le moins de détails possibles, ce qui entraînait un vide 3D. Ce vide sera maintenant comblé par le GPU grâce à des détails du monde réel : meubles, appareils, lumières, éléments de consommation, vêtements et véhicules réalistes… En résumé, le monde du GPU approchera ce que nous voyons dans le monde réel.
Qu’est-ce qu’un GPU ?
GPU est l’abréviation de « Graphics Processing Unit » ou Unité de traitement du graphisme. Un GPU constitue un processeur à puce unique, équipé des moteurs de transformation, éclairage, configuration/détourage des triangles et rendu ; il est capable de produire un minimum de 10 millions de polygones par seconde.

Comment fonctionne le Transform & Lighting?

La transformation et l'éclairage (Transform and lighting ou T&L) constituent les deux premières étapes sur les quatre qui sont calculées par un GPU dans le pipeline graphique 3D. Elles sont lourdes en calculs et contiennent un ensemble d'instructions mathématiques très spécifiques réalisées des milliards de fois par seconde et ce afin d'effectuer le rendu d'une scène.
Pour appréhender le rôle du T&L, il est utile de disposer d'une compréhension générale de la totalité de la procédure de création des graphiques 3D, en commençant par l'application en elle-même.

Le rôle du moteur de transformation
L’action de transformation régit le degré de précision avec lequel les développeurs logiciels créent la mosaïque de leurs objets 3D, le nombre d’objets qu’ils peuvent placer dans une scène ainsi que l’ampleur de la complexité du monde 3D. La création de mosaïque est l’action qui consiste à convertir des lignes courbes en une série de segments s’approchant de la courbe d’origine. Les images ci-dessous présentent un exemple simple d’une sphère mise en mosaïque à différents degrés.
 

Chacune des images ci-dessus représente la même sphère, mais l’image tout à fait à droite est de loin la plus réaliste des trois ; elle a été morcelée avec cinq fois plus de polygones que la sphère tout à fait à gauche. Ceci signifie qu’elle nécessite cinq fois plus de puissance de transformation que celle de gauche. Ceci peut ne pas paraître important pour une seule sphère, mais les scènes 3D typiques d’aujourd’hui nécessitent des centaines, voire des milliers d’objets devant partager la capacité de transformation et d’éclairage de l’unité centrale ; pour cette raison, les développeurs logiciels doivent réaliser un partage préalable des tâches de procédure. Avec la transformation, une scène devant se dérouler dans la jungle peut comporter de nombreux arbres et buissons.

Désormais, chaque arbre de la jungle peut contenir des milliers de polygones. Le GPU libérant l’unité centrale de la charge du calcul des transformations, les scènes riches englobent des objets intriqués qui, non seulement apparaissent véridiques, mais bougent comme leurs équivalents du monde réel. En outre, objets et personnages se montrent complexes et peuvent apparaître en plus grand nombre dans chaque scène. Ceci ne peut être possible qu’avec la transformation intégrée, uniquement présente sur les GPU GeForce 256 et GeForce2 GTS.
L’œil humain est en fait beaucoup plus sensible aux changements de luminosité qu’aux changements de couleur. Ainsi, les effets d’éclairage profitent mieux des capacités naturelles de l’œil humain, ce qui signifie qu’une image bénéficiant d’effets d’éclairage communiquera au spectateur un nombre d’informations plus important, et ce dans le même délai. Ceci est essentiel dans toutes les applications 3D utilisées pour les loisirs, l’éducation, la science, la médecine ou l’analyse de données.

Eclairage diffus contre éclairage spéculaire

L’éclairage est divisé en deux catégories principales : diffus et spéculaire. L’éclairage diffus prend pour hypothèse que la lumière frappant un objet s’éparpille dans toutes les directions de manière égale, afin que la luminosité de la lumière réfléchie ne dépende pas du tout de la position du spectateur. Par exemple, lorsque le soleil est à son zénith, la lumière se répand de toutes parts. Un éclairage spéculaire est différent en ce qu’il dépend de la position du spectateur ainsi que de la direction de la lumière et de l’orientation de l’objet éclairé. Par exemple, le faisceau d’une torche réfléchira différemment un étang et un brin d’herbe. L’éclairage spéculaire capture les propriétés de miroir d’un objet afin d’obtenir des effets tels que la réflexion et la brillance.

Les points spéculaires se déplacent sur l’objet si le spectateur ou l’objet bougent par rapport à la source lumineuse. Pour cette raison, ils ne peuvent être ni pré-calculés ni statiques. Dans une scène 3D, l’éclairage spéculaire est particulièrement utile pour deux effets : le mappage du déplacement et la création de l’apparence des différentes matières.
L’éclairage spéculaire est également important pour plaquer différentes matières sur des objets, dans une scène en 3D. Une chemise en soie présente un aspect différent d’une chemise en coton, même si elles sont toutes deux de même couleur. En réalité, l’une des différences majeures réside dans la manière dont les deux matières réfléchissent la lumière, capturée par l’éclairage spéculaire. Cet éclairage, associé au bump mapping, crée des objets plus réalistes car ils affichent les propriétés visuelles des matières réelles.

Seul un GPU équipé d’un moteur d’éclairage matériel dédié peut prendre en charge l’éclairage spéculaire, sans subir de perte importante de performance. Même si les développeurs peuvent utiliser le bump mapping pour certains effets d’éclairage spéculaire, ils devront recalculer les modèles d’environnement dans une scène si le spectateur se déplace. Ceci constitue une opération longue, à moins que le matériel graphique ne prenne en charge le cube environment mapping.
Key Features

 
 
FacebookTwitterGoogle+LinkedInPinterest