Revue des cartes NVIDIA GeForce RTX 2080 et RTX 2080 Ti

Cela fait plus de deux ans que NVIDIA a lancé son architecture GPU Pascal sur le marché et qu’elle a, à toutes fins pratiques, ouvert la voie en matière de performances graphiques dans les jeux 3D au cours de cette période. Lorsque les cartes vidéo basées sur Pascal (série 10) ont été lancées dans les magasins, une architecture différente de 14 / 16 nm FinFet et une réduction significative de la consommation d'énergie pour des performances égales ou supérieures ont été constatées. Aujourd'hui marque la sortie de la dernière carte vidéo et de l'architecture de NVIDIA dans les GPU RTX basés sur Turing. La famille RTX se composera initialement de RTX 2070, RTX 2080 et RTX 2080 Ti. Contrairement aux versions précédentes, les consommateurs pourront se procurer le RTX 2080 et le produit phare actuel RTX 2080 Ti lors du lancement, le RTX 2070 étant disponible peu de temps après.

Turing dévoilé

L’architecture de Turing, qui, selon NVIDIA, constitue le plus important bond en une décennie, est fabriquée sur le processus de fabrication 12 nm FFN (FinFet NVIDIA) de TSMC et comprend plusieurs nouvelles fonctionnalités, dont une nouvelle architecture de processeur, le Turing SM (Streaming Multiprocessors). améliore considérablement l'efficacité de l'ombrage et permet d'obtenir une amélioration de la performance 50 en% par CUDA Core par rapport à Pascal.

En plus des nouveaux SM, NVIDIA a intégré des cœurs de tenseurs, unités d’exécution spécialisées conçues pour exécuter les opérations tenseur / matrice, fonctions de calcul essentielles utilisées dans Deep Learning. Avec cet ajout, une nouvelle forme de super échantillonnage baptisée Deep Learning Super Sampling (DLSS) est alimentée par ces noyaux de tenseurs. Selon NVIDIA, DLSS "exploite un réseau de neurones profonds pour extraire les caractéristiques multidimensionnelles du rendu obtenu et associe intelligemment les détails de plusieurs images pour créer une image finale de haute qualité". DLSS utilise moins d'échantillons d'entrée que les techniques d'anti-aliasing traditionnelles (telles que TAA) et évite les goulots d'étranglement auxquels elles sont confrontées, ce qui permet d'améliorer les performances par rapport aux méthodes traditionnelles.

L'accélération du lancer de rayons en temps réel a également trouvé sa place dans la puce de Turing et permet à un GPU unique de restituer des jeux et des modèles professionnels complexes dotés d'ombres, de réflexions et de réfractions physiquement précises, produisant ainsi une image plus photoréaliste à l'écran. Cette capacité est fournie par les nouveaux noyaux de traçage de rayons (RT) de Turing qui accélèrent le traçage de rayons et sont exploités par des systèmes et interfaces en dehors de la technologie de traçage de rayons de NVIDIA. Des API telles que Microsoft DXR, NVIDIA OptiX et Vulkan utilisent le traçage de rayons afin de fournir une expérience de traçage de rayons en temps réel. Bien que les scènes entières ne soient pas restituées de la sorte, la pixellisation générera toujours la quasi-totalité de ce qui est affiché à l'écran, mais les développeurs implémenteront les fonctionnalités sur une petite partie de l'image à l'aide de quelques rayons et des vides remplis avec le dénoiseur de NVIDIA. . Nous avons déjà vu quelques mises en œuvre impressionnantes de cela, dans Battlefield V par exemple, que la performance soit maudite.

Enfin, Turing sera la première architecture GPU à prendre en charge la nouvelle mémoire GDDR6. GDDR6 est le successeur du GDDR5X de dernière génération et aurait une meilleure efficacité énergétique de 20% ainsi qu'une largeur de bande efficace supérieure de 50%. Outre GDDR6, de nouvelles méthodes de compression de la mémoire ont également été conçues pour augmenter la bande passante et les performances. NVIDIA continue de craindre l’alternative plus coûteuse (dans l’espace grand public) de HBM2, qui semble être une bonne décision compte tenu du fait que AMD et NVIDIA prendront en charge GDDR6.

Qu'est-ce-que tout cela veut dire? Cela signifie que les consommateurs disposeront d'une carte vidéo remarquablement plus rapide et plus efficace dotée de nouvelles technologies conçues pour améliorer la qualité d'image grâce aux nouvelles méthodes de AA et d'accélération matérielle du rayon, ainsi que de performances améliorées par rapport à la dernière génération. Être à la pointe de la technologie et à la pointe de la technologie présente des inconvénients, notamment en ce qui concerne les prix. Les nouvelles cartes ont une augmentation de prix significative par rapport à la génération précédente.

Ci-dessous, nous verrons plus en détail les nouvelles implémentations ainsi que les performances des tests dans notre suite de tests GPU mise à jour. Poursuivez votre lecture pour voir comment la carte a fonctionné et voir si les cartes vidéo RTX devraient être les prochaines sur votre liste d'achats de mises à niveau.

Turing en détail

Turing TU102, TU104 et TU106
Les GPU Turing auront trois morceaux de silicium, le TU102 complet, le GPU le plus performant de la gamme Turing, ainsi que les GPU TU104 et TU106. Ces dernières sont des versions réduites et se retrouvent dans d’autres produits tels que RTX 2080 et RTX 2070.

TU102

TU102 contient six grappes de traitement graphique (GPC), des grappes de traitement de texture 36 (TPC) et des multiprocesseurs de diffusion en continu 72. Chacun des GPC comprend un moteur de trame dédié et six TPC, chaque TPC incluant deux SM. A l'intérieur de chaque SM se trouvent des cœurs 64 CUDA, huit cœurs de tenseur, un fichier de registres 256 KB, quatre unités de texture et la mémoire 96 KB de L1 / shared pouvant être configurée pour diverses capacités en fonction des charges de travail graphiques ou de calcul. Une implémentation complète du GPU TU102 comprend les cœurs 4,608 CUDA, les cœurs 72 RT, les cœurs tenseur 576, les unités de texture 288 et les contrôleurs de mémoire 12 32 bits GDDR6 (total, 384 bits). Chaque contrôleur de mémoire est relié à huit ROP et à la mémoire cache 512 du cache L2. Le GPU TU102 contient un total de ROP 96 et le cache 6144 KB du cache L2. Le nouveau GPU utilise le NVLink en pleine capacité avec deux liaisons x8 fournissant 50 Go / s dans chaque direction (100 Go / s au total).

TU104

La puce TU104 comporte six GPC et 48 SM. Comme le TU102, chaque GPC comprend un moteur de trame dédié et six TPC, chaque TPC contenant deux MS. Le TU104 (RTX 2080) est doté de noyaux 3072 CUDA, 48 RT et 368 Tensor. Il prend également en charge NVLink mais, contrairement à son grand frère, un x8 NVLink est inclus, fournissant 25 Go / s de bande passante dans chaque direction (50 Go / s au total). Ce GPU sera présent dans les produits GeForce et Quadro (RTX 2080 et Quadro RTX 5000).

TU106

Le dernier est le GPU Turing 106. Ce GPU qui sera utilisé dans le RTX 2070 sera expédié en octobre 2018. Cette matrice contient la plupart des nouvelles fonctionnalités de l’architecture de Turing, notamment les cœurs RT et les cœurs Tensor. RTX 2070 est basé sur l’implémentation complète de ce GPU. Il contient trois GPC, 36 SM et huit contrôleurs de mémoire 32 bits (total 256 bits). Dans chaque GPC, il y a une unité de trame et six TPC. Le processeur graphique complet TU106 comprend des cœurs 2304 CUDA, des cœurs tenseur 288 et des cœurs 36 RT. NVLink est introuvable sur ce GPU et ne supporte pas SLI. NVIDIA semble posséder ces fonctionnalités pour les cartes haut de gamme, contrecarrant le rêve de certains utilisateurs d'obtenir des performances de battement supérieures à moindre coût.

Architecture multiprocesseur en continu (SM)

L'architecture Turing intègre un grand nombre des fonctionnalités introduites dans l'architecture Volta GV100 SM, notamment une planification de threads indépendante similaire à Volta, ainsi que la prise en charge de l'exécution simultanée des opérations FP32 et INT32. Turing implémente une modification majeure des chemins de données d'exécution principaux - les charges de travail de shader modernes utilisent un mélange d'instructions arithmétiques pour FP avec des instructions plus simples, telles que des ajouts d'entiers pour l'adressage et l'extraction de données, et une comparaison en virgule flottante. Dans les conceptions de shader précédentes, les données mathématiques en virgule flottante étaient inactives lorsque les instructions non GP-math étaient exécutées. Turing ajoute une deuxième unité d'exécution parallèle à côté de chaque cœur CUDA afin qu'il soit capable d'exécuter ces instructions en parallèle avec des calculs flottants.

Les charges de travail graphiques traditionnelles partitionnent la mémoire partagée 96 KB L1 / en mémoire partagée en tant que KB 64 de RAM dédiée au shader graphique et KB pour 32 pour le cache de texture et pour enregistrer la zone de débordement du fichier. Les charges de travail de calcul, en revanche, peuvent diviser la KB 96 en mémoire partagée 32 KB et en cache 64 KB L1, ou en mémoire partagée 64 KB et en cache 32 KB L1.

Le SM de Turing introduit également une nouvelle architecture unifiée pour la mémoire partagée, L1 et la mise en cache de texture. La conception unifiée permet au cache L1 d'exploiter les ressources, d'augmenter sa bande passante cible de 2x par TPC par rapport à Pascal et de prendre de l'ampleur lorsque les allocations de mémoire partagée n'utilisent pas toute la capacité.

Dans l’ensemble, NVIDIA indique que les modifications apportées au SM permettent à Turing d’obtenir une amélioration en% du rendement 50 des performances fournies par cœur CUDA.

Noyaux de tenseurs

Les cœurs de tenseurs ont été introduits pour la première fois dans le GPU Volta GV100, mais Turing inclut une version améliorée de ces cœurs. La conception du noyau de tenseur Turing ajoute des modes de précision INT8 et INT4 pour l'inférence de charges de travail pouvant tolérer une quantification. FP16 est également totalement pris en charge pour les charges de travail nécessitant une précision supérieure.

Les cœurs Tensor sont ce qui permet d’apporter un apprentissage approfondi en temps réel aux applications de jeu. Les TC accélèrent les fonctionnalités basées sur l'IA de NVIDIA NGX Neural Services, qui peuvent améliorer les graphiques, le rendu et d'autres types d'applications côté client. Parmi les exemples de ces fonctionnalités, on citera le DLSS (Deep Learning Super Sampling), AI InPainting, AI Super Rez et AI Slow-Mo.

Les cœurs de Turing Tensor fourniraient une accélération significative des opérations sur la matrice et seraient utilisés pour les opérations d'inférence et la formation en profondeur, en plus des nouvelles fonctions graphiques neuronales.

Pour les joueurs, le DLSS semble être le plus intéressant, car il permet de conserver la même qualité d’image tout en améliorant les performances en raison du traitement appliqué au DLSS dans les cœurs Tensor. Le seul bémol, DLSS n’est supporté que par quelques jeux, mais il est probable que de plus en plus incorporera la technologie avec le temps. NVIDIA mentionne un total de jeux 25 en cours de développement:

  • Ark: Survival Evolved
  • Coeur atomique
  • Intrépide
  • Final Fantasy XV
  • Terres fracturées
  • Hitman 2
  • Îles de Nyne: Battle Royale
  • Justice (Ni Shui Han)
  • JX3
  • Mechwarrior 5: Mercenaries
  • Les champs de bataille de PlayerUnknown
  • Remnant: des cendres
  • Sérieux Sam 4: Planet Badass
  • Shadow of the Tomb Raider
  • L'arène de la forge
  • Nous Happy Few
  • Darksiders 3
  • Délivre-nous la lune: Fortuna
  • Craignez les loups
  • Hellblade: Sacrifice de Senua
  • KINETIK
  • Avant-poste zéro
  • Les morts-vivants d'Overkill
  • ÉCUME
  • Stormdivers

Traceurs de rayons

Au centre de l'accélération du traçage de rayons basée sur le matériel de Turing se trouve un noyau de traçage de rayons (RT) inclus dans chaque multiprocesseur de streaming. Les cœurs RT accélèrent le traçage des rayons en temps réel avec NVIDIA mettant en œuvre une approche hybride entre le rastérisation et le traçage des rayons. En utilisant cette méthode, la pixellisation est utilisée là où elle est la plus efficace, tandis que le lancer de rayons est utilisé là où il offre le plus d'avantages visuels / visuels par rapport à la pixellisation. Par exemple, réflexions, réfractions et ombres.

Les cœurs RT accéléraient deux opérations importantes dans le traçage des rayons, la traversée de la limite de volume liée, et les tests d'intersection de rayons à triangles. BVH fonctionnera maintenant sur le noyau RT au lieu des noyaux CUDA, qui sont ensuite libérés pour d'autres fonctions.

Le logiciel joue ici un rôle essentiel, RTX étant pris en charge par NVIDIA OptiX, Microsoft DirectX pour le lancer de rayons et Vulkan RT. Les API fournissent un cadre pour les applications de traçage de rayons avec un processus similaire à la programmation de jeux DirectX. En substance, le moteur de jeu fournit des données d'objet, génère des directions de rayon et des points de départ, puis reçoit des informations sur le rayon lui-même. Le reste du processus, tel que la planification GPU, l'inversion d'objet, la gestion de la mémoire et les optimisations matérielles sont gérés par la bibliothèque. Cela réduirait considérablement la charge de travail du développeur.

NVIDIA a également fourni une liste de jeux qui comportera un traçage de rayons en temps réel, avec d'autres à venir:

  • Assetto Corsa Competizione
  • Coeur atomique
  • Battlefield V
  • Le contrôle
  • Engagé
  • Mechwarrior 5: Mercenaries
  • Metro Exodus
  • Shadow of the Tomb Raider
  • Justice (Ni Shui Han)
  • JX3
  • Projet DH

Options de Lentilles Supplémentaires

Comme les limites de temps empêchent d’entrer dans les détails, nous avons énuméré ci-dessous plusieurs autres caractéristiques de l’architecture Turing tirées des livres blancs NVIDIA:

Ombrage de maille - L’ombrage des mailles fait progresser l’architecture de traitement de la géométrie de NVIDIA en proposant un nouveau modèle de shader pour les étapes d’ombrage des sommets, des pavés et des géométries du pipeline graphique, permettant des approches plus souples et plus efficaces du calcul géométrique. Ce modèle plus flexible permet, par exemple, de prendre en charge un ordre de grandeur plus d'objets par scène, en déplaçant le principal goulot d'étranglement des performances du traitement de la liste d'objets du processeur vers des programmes d'ombrage de maille GPU hautement parallèles. L'ombrage de maillage permet également de nouveaux algorithmes pour la synthèse géométrique avancée et la gestion de la limite de détection d'objets.

Ombrage à taux variable (VRS) - VRS permet aux développeurs de contrôler le taux d'ombrage de manière dynamique, en omettant une fois par seize pixels ou huit fois par pixel. L'application spécifie le taux d'ombrage en combinant une surface à taux d'ombrage et une valeur par primitive (triangle). VRS est un outil très puissant qui permet aux développeurs de nuancer plus efficacement, en réduisant le travail dans les régions de l'écran où une ombrage en résolution complète ne procurerait aucun avantage en termes de qualité d'image visible, et donc en améliorant la cadence. Plusieurs classes d’algorithmes basés sur VRS ont déjà été identifiées. Elles peuvent varier le travail d’ombrage en fonction du niveau de détail du contenu (ombrage adaptatif du contenu), de la vitesse de déplacement du contenu (ombrage adaptatif du mouvement) et des applications de réalité virtuelle, de la résolution de l’objectif et de la position de l’œil ( Rendu fové).

Ombrage de texture - Avec l'ombrage d'espace de texture, les objets sont ombrés dans un espace de coordonnées privé (un espace de texture) enregistré dans la mémoire, et les shaders de pixels effectuent un échantillonnage à partir de cet espace au lieu d'évaluer directement les résultats. Grâce à la possibilité de mettre en mémoire cache les résultats d’ombrage dans la mémoire et de les réutiliser / rééchantillonner, les développeurs peuvent éliminer le travail d’ombrage en double ou utiliser différentes méthodes d’échantillonnage qui améliorent la qualité.

Rendu multi-vues (MVR) - MVR étend puissamment le protocole SPS (Single Pass Stereo) de Pascal. Alors que SPS permettait le rendu de deux vues communes, à l'exception d'un décalage X, MVR permettait le rendu de plusieurs vues en une seule passe, même si les vues étaient basées sur des positions d'origine ou des directions de vue totalement différentes. L'accès s'effectue via un modèle de programmation simple dans lequel le compilateur élimine automatiquement le code indépendant de la vue, tout en identifiant les attributs dépendants de la vue pour une exécution optimale.

Fonctions d'apprentissage en profondeur pour les graphiques - NVIDIA NGX ™ est le nouveau cadre graphique neuronal basé sur l’apprentissage en profondeur de la technologie NVIDIA RTX. NVIDIA NGX utilise des réseaux de neurones profonds (DNN) et un ensemble de «services neuronaux» pour exécuter des fonctions basées sur l'IA qui accélèrent et améliorent les graphiques, le rendu et d'autres applications côté client. NGX utilise les cœurs Turing Torsor de Turing pour les opérations d’apprentissage approfondi et accélère la transmission de la recherche sur l’apprentissage approfondi de NVIDIA directement à l’utilisateur final. Les caractéristiques comprennent NGX DLSS (Deep Learning Super-Sampling) de très haute qualité, le remplacement d’image avec contenu conforme à AI InPainting, le ralenti fluide de très haute qualité AI Slow-Mo et le redimensionnement intelligent de la résolution AI Super Rez.

Fonctions d'apprentissage en profondeur pour Inference - Les GPU Turing offrent des performances d’inférence exceptionnelles. Les cœurs Turing Torsor, ainsi que les améliorations constantes apportées aux bibliothèques TensorRT (infrastructure d'inférence d'exécution de NVIDIA), CUDA et CuDNN, permettent aux GPU Turing d'offrir des performances exceptionnelles pour les applications d'inférence. Les cœurs de tenseurs Turing ajoutent également une prise en charge des opérations de matrice INT8 rapides pour accélérer de manière significative le débit d'inférence avec une perte de précision minimale. Les nouvelles opérations sur matrice INT4 de faible précision sont désormais possibles avec les cœurs Turing Torsor et permettront la recherche et le développement de réseaux neuronaux sous-bits 8.

NVIDIA NVLink de deuxième génération - Les GPU Turing TU102 et TU104 intègrent l'interconnexion haute vitesse NVIDIA de NVIDIA afin de fournir une connectivité fiable à bande passante élevée et à faible temps de latence entre des paires de GPU Turing. Avec une bande passante bidirectionnelle pouvant atteindre 100GB / s, NVLINK permet à de nombreux workloads personnalisés de se répartir efficacement sur deux GPU et de partager la capacité de mémoire. Pour les charges de travail liées au jeu, la bande passante accrue de NVLINK et son canal dédié inter-GPU offrent de nouvelles possibilités pour le SLI, telles que de nouveaux modes ou des configurations d'affichage à résolution supérieure. Pour les charges de travail importantes, y compris les applications de traçage de rayons professionnelles, les données de scène peuvent être réparties dans la mémoire tampon d'images des deux GPU, offrant ainsi jusqu'à 96 Go de mémoire tampon d'image partagée (deux GPU 48 Go Quadro RTX 8000), et les demandes de mémoire sont automatiquement acheminées par le matériel vers le GPU correct en fonction de l'emplacement de l'allocation de mémoire.

Sous-système de mémoire haute performance GDDR6 - Turing est la première architecture GPU à prendre en charge la mémoire GDDR6. GDDR6 constitue la prochaine grande avancée dans la conception de mémoires DRAM GDDR à bande passante élevée. Les circuits d'interface mémoire GDDR6 dans les GPU Turing ont été entièrement repensés en termes de vitesse, d'efficacité énergétique et de réduction du bruit, atteignant les taux de transfert 14 Gbps à 20% d'efficacité énergétique améliorée par rapport à la mémoire GDDR5X utilisée dans les GPU Pascal.

USB-C et VirtualLink - Les GPU Turing incluent un support matériel pour USB Type-C ™ et VirtualLink ™ 4. VirtualLink est un nouveau standard ouvert du secteur développé pour répondre aux besoins en puissance, en affichage et en bande passante des casques VR de nouvelle génération via un seul connecteur USB-C. En plus d'alléger les problèmes de configuration présents dans les casques VR actuels, VirtualLink apportera la VR à davantage de périphériques.

Vidéo et moteur d'affichage - La demande des consommateurs pour des écrans de résolution supérieure continue d’augmenter chaque année. Par exemple, la résolution 8K (7680 x 4320) nécessite quatre fois plus de pixels que 4K (3820 x 2160). Les joueurs et les passionnés de matériel souhaitent également des écrans avec des taux de rafraîchissement plus élevés et une résolution plus élevée afin de bénéficier d'une image la plus fluide possible. Les GPU Turing comprennent un tout nouveau moteur d’affichage conçu pour la nouvelle vague d’affichages, prenant en charge des résolutions plus élevées, des taux de rafraîchissement plus rapides et le HDR. Turing prend en charge le DisplayPort 1.4a, permettant une résolution 8K à 60 Hz, et intègre la technologie VESA 1.2 de compression du flux (DSC), offrant une compression plus élevée sans perte visuelle.

Les GPU Turing peuvent piloter deux écrans 8K à 60 Hz avec un câble pour chaque écran. La résolution 8K peut également être envoyée via USB-C. Le nouveau moteur d'affichage prend en charge le traitement HDR de manière native dans le pipeline d'affichage. Les GPU Turing comprennent une unité de codeur NVENC améliorée qui ajoute la prise en charge du codage H.265 (HEVC) 8K au format 30 FPS. NVIDIA indique que le nouvel encodeur offre jusqu'à% d'économies en débit sur 25 pour HEVC et jusqu'à x% en économies sur H.15.

Caractéristiques

Le tableau ci-dessous présente les spécifications des nouveaux GPU basés sur Turing ainsi que de la génération précédente, GTX 1080 Ti, à des fins de comparaison.

Spécifications NVIDIA Turing GTX 1080 Ti / RTX 2070 / RTX 2080 / 2080 Ti
Modèle GPU1080 GTX TiRTX 2080 TiRTX 2080RTX 2070
ArchitecturePascalturing
Cœurs de CUDA3584435229442304
Noyaux de tenseursNA544368288
RT CœursNA684836
Horloge de base du GPU (MHz)
Référence / Fondateurs Ed.
1480/14801350/135015151410
GPU Boost Clock (MHz)
Référence / Fondateurs Ed.
1582/15821545/163518001620/1710
Taille et type de mémoire tampon de trame11 GB GDDR5X11 GB GDDR68 GB GDDR6
Interface de mémoire352 bits352 bits256 bits
Horloge de mémoire (débit de données)11 Gbps14 Gbps
Bande passante mémoire (Go / sec)484616448448
ROPs88886464
Unités de texture224272245144
Taux de remplissage de texture (Gigatexels / sec)354.4/354.4420.2/444.7314.6/331.2233.3/246.2
GigaRays / secN/D10 GR / s8 GR / s6 GR / s
Calculer (TFLOPs)11.313.410.17.5
L2 Taille du cache3 MB6 MB4 MB
TDP * (Watts)
Référence / Fondateurs Ed.
250 / 250W250 / 260W215 / 225W175 / 185W
Nombre de transistors (milliards)1218.613.610.6
Die Taille (mm²)471754545445
Processus de fabrication16 nm FinFet12 nm FinFet
Prix ​​- PDSF (référence / fondateurs)$699999 $ / 1199 $699 $ / 799 $

GPUz

Comme toujours, nous appelons GPUz pour confirmer certaines spécifications et vitesses d'horloge. On dirait que les rideaux correspondent aux draps, donc tout va bien ici. J'ai contacté GPUz et leur ai demandé s'ils ajouteraient des champs pour les nouveaux noyaux NVIDIA. On m'a dit jusqu'à ce que cela devienne plus populaire, c'est douteux, bien que ce soit sur l'onglet avancé.

GPUz - RTX 2080GPUz - RTX 2080 Ti

Emballage de vente au détail et accessoires

L'emballage de vente au détail des cartes Founder's Edition est nouveau et unique. La garniture est rectangulaire avec une glissière en haut, par opposition à la «boîte coulissante dans la boîte» à laquelle nous sommes habitués. Le recto de la boîte affiche la marque GeForce RTX bien en évidence dans le coin inférieur gauche, ainsi que le numéro de modèle situé en dessous. La couleur de la boîte ressortira sur les tablettes des magasins grâce à son design et à un jeu de couleurs gris et vert contrastant NVIDIA.

Rencontrez les NVIDIA RTX 2080 et RTX 2080Ti

NVIDIA GeForce RTX 2080 et RTX 2080 Ti

En ouvrant la boîte, les nouvelles cartes sont bien calées dans une mousse dense gris foncé / noir. Une autre pièce d’isolation en mousse découpée sur mesure se trouve à l’intérieur du dessus de la boîte, ce qui permet à la carte de bouger avec un minimum de mouvement dans l’emballage. Les accessoires fournis, un adaptateur DP / DVI et un guide de démarrage rapide, sont insérés dans leur propre section de mousse, dissimulés à l’extérieur d’un onglet qui se bloque pour faciliter le retrait de la boîte.

RTX 2080RTX 2080 Ti

Regarder de plus près

Notre premier aperçu montre un changement de conception assez spectaculaire pour les nouvelles cartes RTX. La coque angulaire de type soufflante a été remplacée par une configuration à deux ventilateurs plus traditionnelle. Elle est également plus stylée. L'extérieur des ventilateurs est recouvert d'un revêtement gris tandis qu'entre les ventilateurs se trouve un noir avec le modèle GPU écrit verticalement.

Afin de refroidir plus efficacement le processeur graphique, les deux ventilateurs axiaux sont alimentés par un moteur triphasé destiné à limiter les bruits de vibration. Ils sont équipés de pales de ventilateur 13 qui devraient déplacer plus d’air sans tourner plus vite, tout en maintenant le bruit. L'air est principalement évacué par le haut et le bas de la carte, contrairement à la soufflante de la génération précédente, qui expulsait la majeure partie de l'air chauffé du boîtier.

RTX 2080RTX 2080 Ti
RTX 2080 Offset 1RTX 2080 Offset 2
RTX 2080 BasPlaque arrière RTX 2080 Ti

La plaque arrière ne sert pas uniquement à des fins esthétiques, mais elle est également fonctionnelle en utilisant des coussinets thermiques pour établir un contact avec les points chauds sur le circuit imprimé et transmettre cette charge thermique à la plaque arrière. Les pads refroidissent l’arrière des bits d’alimentation ainsi que la mémoire GDDR6.

Sorties - 3x DP, 1x HDMI, 1x USB Type-C

Les cartes 2080 et 2080 Ti Founders Edition utilisent trois sorties Displayport 1.4a prenant en charge une résolution maximale de 8K à 60 Hz à partir d’un seul câble (avec DSC 1.2). Les utilisateurs trouveront également un connecteur HDMI 2.0b unique (prenant en charge HDCP 2.2) et un connecteur VirtualLink (USB Type-C) conçus pour les casques de réalité virtuelle de nouvelle génération ou autres applications à bande passante élevée.

RTX 2080 - 8 + PCIe à broches 6RTX 2080 Ti - Double PCIe 8-Pin

Pour alimenter les cartes, le GTX 2080 avec son 225 W TDP utilise un connecteur PCIe 8 et un connecteur PCIe 6 capables de relier jusqu'à 300 W entre les deux câbles d'alimentation PCIe (150 W + 75 W). et le logement PCIe (75 W). Cela devrait permettre une marge de manœuvre importante pour l'overclocking tout en respectant les spécifications des connexions d'alimentation. Le 2080 Ti, quant à lui, utilisera deux connecteurs PCIe à broches 8 pour un total de 375 W offrant des capacités d'alimentation conformes aux spécifications. Comme le RTX 2080, cela permettra une marge de sécurité importante sans être en dehors des spécifications.

Connecteur NVLink

Plus tôt dans la revue, nous avons mentionné que NVLink faisait son entrée dans la gamme de cartes grand public (lire: Cartes Quadro de la série non professionnelle). La bande passante disponible pour la communication entre cartes atteint jusqu'à 100 Go / s avec le 2080 Ti. La bande passante accrue permet de nouveaux modes SLI ainsi que des configurations d'affichage de résolution supérieure. Cela pourrait peut-être soutenir une recrudescence du SLI car la technologie n’a pas eu beaucoup de succès sur le marché au cours des deux dernières années.

RTX 2080 PCBRTX 2080 Ti PCB
RTX 2080 à l'arrière du circuit impriméRTX 2080 Ti Dos du circuit imprimé

Le retrait du refroidisseur et de la plaque arrière de la chambre de vapeur redessinés consistait à retirer environ une douzaine de vis 2, ce qui expose ensuite la carte. Nous pouvons voir les gros noyaux cachés sous des applications très libérales de pâte thermique, le RTX 2080 ayant le plus grand nombre que j'ai vu. Nous pouvons également repérer la mémoire GDDR6 sur les deux cartes ainsi que deux configurations d'alimentation différentes.

RTX 2080 - Phase Power 8 + 2 (GPU + mémoire)RTX 2080 Ti - Phase Power 10 + 3 (GPU + mémoire)

Les cartes ont des bits de fourniture de puissance mieux conçus dans le but de fournir une alimentation plus stable au GPU et à la mémoire conformément à NVIDIA. Les deux cartes utilisent une alimentation iMon DrMOS dotée d’un nouveau système de gestion dynamique de l’alimentation capable de surveiller le courant plus rapidement (moins d’une milliseconde), ce qui permet à l’alimentation de mieux contrôler l’alimentation fournie au GPU. Cela permet à l'alimentation de fournir une plus grande marge de puissance pour un overclocking amélioré. Les MOSFET iMON peuvent activer / désactiver les phases d'alimentation en fonction de la charge ou maintenir des opérations efficaces lors de situations à faible charge, telles que les périodes d'inactivité.

MOSFET et bouchons (OnSemiconductor)Micron GDDR6

L’édition RTX 2080 Founders possède un système de phase 10 dans une configuration 8 + 2, dont huit sont dédiés au GPU et les deux autres à la mémoire GDDR6. Le 2080 Ti utilise une configuration de phase 13 avec des phases 10 pour le GPU et trois prévues pour la mémoire. Le MOSFET OnSemiconductor utilisait des modules SPS (Smart Power Stage) et pouvait atteindre la valeur 70 A (@ 25 ° C). Ils fournissent à la fois la surveillance de l'alimentation (courant) et de la température. Du côté de la mémoire, la capture d'écran de GPUz et la photo indiquent que les circuits intégrés Micron sont utilisés dans ces exemples. Etant donné que GDDR6, contrairement à GDDR5X, sera adopté à la fois par AMD et NVIDIA, nous devrions voir différentes marques sur les cartes à venir.

TU104 de RTX 2080TU102 de RTX 2080 Ti

Dernier point, mais non le moindre, quelques photos du TU104 et le décès de TU102. Le TU102 présent dans le RTX 2080 Ti mesure 754 mm² tandis que le TU2080 du RTX 104 est 554 mm². Ceci comparé aux dimensions réduites du 1080 Ti à 471 mm² et du 1080 à 345 mm². Même avec le retrait du processus, l’ajout des nouveaux noyaux RT et Tensor le rend beaucoup plus volumineux que Pascal.

Système de test et méthodes de référence

Notre système de test est basé sur la dernière plate-forme Intel traditionnelle, Z370, et utilise le processeur i7-8700K 6c / 12t. Le processeur est overclocké à 4.7 GHz sur tous les cœurs / threads avec le cache défini sur 4.3 GHz. Les vitesses d'horloge utilisées fournissent une bonne base pour minimiser les limitations du processeur sur nos titres, en particulier lorsque vous utilisez des résolutions plus basses, et devraient pouvoir être atteintes avec un bon refroidisseur d'air ou supérieur. La mémoire DRAM est configurée dans une configuration 2 × 8 GB à 3200 MHz avec des synchronisations CL15-15-15-35-2T, une solution intermédiaire offrant un compromis entre performance et coût.

Composants du système de test
Carte mèreASRock X370 Taichi
CPUIntel i7 8700K @ Cache 4.7 GHz / 4.3 GHz
CPU CoolerEVGA CLC 240
Mémoire2 × 8 GB X. 3200 MHz G.Skill Trident Z CL15-15-15-35
SSDToshiba OCZ TR200 480 GB (OS + Applications)
AlimentationEVGA 750W G3
Carte vidéoNVIDIA RTX 2080 et RTX 2080Ti (pilotes 411.51)

Merci à EVGA pour fournir le refroidisseur de processeurs CLC 240 et l’alimentation 750 W G3 pour refroidir et alimenter le système, G.Skill pour le Trident Z DRAM, et Toshiba OCZ pour les disques SSD 480 GB TR200 utilisant le système d’exploitation, les tests de performance et les jeux. Grâce à l'aide de nos partenaires, nous sommes en mesure de créer des systèmes de test adaptés afin d'atténuer toute différence constatée entre l'utilisation de matériels différents. Cela permet à plusieurs réviseurs situés à différents endroits d'utiliser le même système de test et de comparer les résultats sans variables supplémentaires.

Vous trouverez ci-dessous les tests que nous exécutons avec une brève description des paramètres. Depuis la dernière mise à jour, nous avons apporté des changements importants en ajoutant quelques nouveaux titres et en supprimant certains des jeux plus anciens. Plus de détails peuvent être trouvés dans le Article sur la procédure de test du GPU que nous avons mis à jour avec nos derniers repères.

  • UL 3DMark Time Spy - Paramètres par défaut
  • UL 3DMark Fire Strike (Extreme) - Paramètres par défaut
  • Shadow of the Tomb Raider - DX12, préréglage «le plus élevé» (ajoutera RTX lorsqu'il aura été corrigé)
  • La division - DX12, Ultra préréglage, VSync désactivé
  • Cendres de la singularité: escalade - DX12, prédéfini Crazy, concentré sur le processeur graphique
  • Far Cry 5 - Ultra par défaut
  • F1 2018 - Les valeurs par défaut très élevées, TAA et x16 AF, piste Australie, affichent le compteur FPS
  • World of Tanks: Encore Benchmark - Ultra par défaut
  • Benchmark Final Fantasy XV - Défauts élevés

Benchmarks synthétiques

Notre premier ensemble de références provient de Underwriters Laboratories, qui a racheté Futuremark à 2014. Plus tôt dans 2018, un changement de marque a eu lieu et depuis ce temps, Futuremark est maintenant UL. Les repères n'ont pas changé, juste le nom. Nous avons choisi de nous en tenir à 3DMark Fire Strike (Extreme) et 3DMark Time Spy car ces tests donnent aux utilisateurs une bonne idée des performances des titres modernes.

3DMark Time Spy est un benchmark DX12 conçu pour Windows 10 PC. Il prend en charge les nouvelles fonctionnalités de l'API, telles que le calcul asynchrone, le multi-adaptateur explicite et le multi-threading, et s'exécute à la résolution 2560 × 1440. 3DMark Fire Strike (Extreme) est un test basé sur DX11 qui, selon UL, indique que les graphiques sont rendus avec une complexité et des détails bien au-delà des autres tests et jeux DX11. Cette référence s'exécute sous 1920 × 1080.

À noter dans ce graphique. Les valeurs de pourcentage GTX 1070Ti et GTX 1080 que nous voyons sont basées sur les résultats / pourcentage RTX 2080 en tant que référence. Les résultats / pourcentage GTX 1080Ti sont basés sur les résultats stock RTX 2080 Ti.

Dans les résultats de Fire Strike, nous voyons le score 2080 de l'édition du fondateur 12575. Ce résultat le place près de 18% plus rapidement qu'un EVGA GTX 1080 FTW2 sorti de son usine. Si l’on compare directement les fondateurs aux fondateurs, cet écart augmenterait de quelques / plusieurs pour cent. Ici, la différence entre RTX 2080 et RTX 2080Ti est presque de 21%. Le RTX 2080 Ti marque ici un 15203 impressionnant, dépassant le 1080 Ti qu’il remplace par plus de 8%. Cet écart est plus petit que ce à quoi on pourrait s'attendre, mais il est dû au 1080 Ti overclocké utilisé, ainsi qu’au benchmark fonctionnant à la résolution 1080p où le processeur devient un facteur important pour permettre à des cartes aussi puissantes d’étirer leurs jambes.

Les résultats de Time Spy indiquent que RTX 2080 marque 10496, ce qui est presque plus rapide que 25% plus rapide que le GTX 1080 overclocké utilisé pour les tests. Le RTX 2080 Ti marque ici 12456, qui est environ X% plus rapide que le GTX 19 Ti overclocké. Je m'attendrais à ce que cette valeur soit plus proche de 1080% ou plus lorsque l'on compare les fondateurs aux fondateurs.

Benchmarks de jeu

Passons maintenant aux points de repère du jeu, nous avons mis à jour notre suite de tests afin d’intégrer des titres plus modernes. Finis GTA V, Crysis 3 et Rise of the Tomb Raider, qui ont été remplacés par Shadow of the Tomb Raider, World of Tanks: référence enCore, F1 2018, référence Fantasy XV, et Far Cry 5. Nous avons conservé The Division et Ashes of the Singularity (bien que nous ayons mis à jour AOT: Escalation). Les jeux doivent fournir une bonne vision de la performance globale, car beaucoup d’entre eux sont des jeux DX12.

Malheureusement, nous ne pourrons pas tester certaines fonctionnalités de DLSS, car nous rencontrons des problèmes de téléchargement du fichier (utilisation de NVIDIA pour le trier). Ray Tracing ne sera également pas testé ici car aucun des titres que nous avons actuellement ne prend en charge la technologie. À l’avenir, SoTR l’aura avec de nombreux autres titres, ce qui nous permettra de revenir en arrière le cas échéant.

Les résultats ci-dessous sont tous dans 1920x1080p, ce qui faussera la perception des cartes lorsque celles-ci seront comparées aux autres cartes avec une résolution aussi «basse». RTX 2080 et RTX 2080 Ti n'étaient pas destinés au jeu 1080p, mais à des résolutions supérieures, en particulier à 4K. Ces résultats se trouvent vers la fin de cette section.

World of Tanks: Encore / F1 2018

Notre monde de réservoirs: La référence enCore indique le stock RTX 2080 gérant presque le 229 FPS dans ce titre. Cela le place autour du 40 FPS plus qu’un GTX 1080 et fait partie du 3 FPS du Asus Strix 1080 Ti OC utilisé, un résultat impressionnant. Le RTX 2080 Ti frappe au-dessus du 263 FPS tout en battant le 1080 Ti au-dessus du 21 FPS.

F1 2018 indique ici que RTX 2080 atteint le 157 FPS alors que le RTX 2080 Ti gère le 194 FPS. C’est 37 et 32 FPS plus rapide que les 1080 et 1080 Ti que nous avons testés.

Clairement, les deux cartes n'auront pas de problème sur ces jeux avec les réglages activés, capables de gérer facilement un moniteur 144 Hz.

Far Cry 5 / La Division

Dans Far Cry 5, RTX 2080 gère la moyenne de 133 FPS avec RTX 2080 Ti à 144 FPS. La différence entre les cartes de la dernière génération et les nouvelles unités de Turing est relativement faible en raison de la faible résolution.

Passant à The Division, le RTX 2080 a atteint le 130 FPS tandis que le 2080 Ti a atteint le 160 FPS. Là encore, les écarts deviennent plus importants à mesure que la résolution augmente. On peut retenir que le RTX 2080 tient bien dans cette résolution avec un 1080 Ti overclocké.

Ombre de la tombe Raider / Final Fantasy XV

Les résultats de Shadow of the Tomb Raider montrent que le RTX 2080 frappe le 123 FPS avec le 2080 Ti dont la moyenne est une moyenne. Là encore, le RTX 143 suit le 2080 Ti pendant que le 1080 Ti s’enfuit avec le spectacle. Même à la résolution la plus basse, 2080 dépasse de plus de 2080% de plus que le GTX 26.

Dans le test de référence de Final Fantasy XV, nous n’avons pas pu tester DLSS avec ce titre, le téléchargement s’est avéré difficile dès le départ. Quoi qu’il en soit, les tests montrent ici que le RTX 2080 atteint 110 FPS avec le 2080 Ti dépassant le 130 FPS. Le RTX 2080 a en fait battu le 1080 Ti dans ce repère car il se démarque encore une fois avec le RTX 2080 Ti volant sous les projecteurs et prenant la fuite. DLSS ne devrait que rendre ces espaces plus grands et les cartes basées sur Turing prenant en charge DLSS s'exécutent beaucoup plus rapidement.

Cendres de la singularité: escalade

Notre dernier test de jeu à la résolution (maintenant douloureusement basse) de 1080p est Ashes of the Singularity: Escalation. Ici, le RTX 2080 a atteint presque le 83 FPS, le grand frère 2080 Ti atteignant presque le 102 FPS. Là encore, le RTX 2080 est suspendu à un 1080 Ti.

Résultats 2560 × 1440 et 4K UHD

Comme nous l’avons déjà dit, NVIDIA ne commercialise pas ces cartes pour 1080p, mais notamment pour les résolutions supérieures. À cette fin, nous avons testé sur 2560 × 1440 ainsi que sur les résolutions 4K UHD.

Au lieu de continuer à donner à votre roue web une séance d’entraînement, nous nous sommes permis de combiner tous les résultats du jeu en un seul graphique afin que les utilisateurs puissent voir la différence entre les cartes. Sur ce graphique, le 1080 FTW2 et le Strix GTX 1080 Ti OC ainsi que les deux cartes RTX ont été utilisés pour visualiser l’écart générationnel qui les sépare.

Ici, nous pensons que RTX 2080 dépasse clairement le 1080 overclocké et qu’il est incroyablement proche du 1080 Ti overclocké, même plus rapide dans Final Fantasy. Le 2080 Ti fonctionne nettement plus rapidement dans tous les tests que le 1080 Ti surclocké à hauteur d'environ 17% moyenne alors que le RTX 2080 est en moyenne 24% plus rapide dans ces titres. Encore une fois, cet écart augmentera de quelques / plusieurs pour cent en raison de l'overclocking d'usine sur la carte de la série GTX.

Le graphique 4K a laissé tomber le GTX 1080, car ce n’est clairement pas une carte 4K avec ces paramètres. Ici, nous pouvons voir que le RTX 2080 suit de près le 1080 Ti overclocké dans SoTR, le Far Cry 5, le F1 2018 et le FF XV assez proches des stocks. L'overclocking permettra de combler les lacunes et de surpasser le 1080 Ti dans la plupart des cas. La RTX 2080 Ti, en revanche, est l'histoire ici. Cette carte est officiellement une carte compatible 4K UHD atteignant 59 FPS + pour tous les titres en utilisant les paramètres les plus élevés que nous avons actuellement dans les jeux. Il bat le GTX 1080 Ti overclocké. Un overclocking et une comparaison de cartes similaires permettraient d’obtenir une distance encore plus grande par rapport au GTX 1080 Ti.

Globalement, la RTX 2080 est une carte 4K assez performante, semblable à la dernière génération de GTX 1080 Ti. Certains sacrifices de qualité d’image devront être faits pour atteindre cette moyenne magique 60 FPS. La RTX 2080 Ti est cependant là même avec nos réglages élevés. Si vous souhaitez utiliser 4K chez 60 FPS, vous ne devez pas chercher plus loin que RTX 2080 Ti. C'est ici, enfin. Et avec la baisse du prix des moniteurs 4K UHD, ceci pourrait être la prochaine résolution majoritaire du jeu sur PC au cours des prochaines années.

Overclocking

Nous arrivons enfin à ma partie préférée, l’overclocking. NVIDIA a ajouté une nouvelle fonctionnalité à un scanner bien nommé, NVIDIA Scanner, associé à une interface EVGA Precision redessinée.

Le scanner NVIDIA permet aux utilisateurs d'appuyer simplement sur un bouton dans un logiciel (dans ce cas, le Precision X1 d'EVGA) et de regarder le système trouver automatiquement un bon overclock. Cette automatisation peut faire perdre beaucoup de temps aux utilisateurs qui overclockent manuellement leurs cartes. Le processus repose sur une boucle de rétroaction bidirectionnelle utilisant l'API de scanner NV, un algorithme de test et une charge de travail NVIDIA. Cela ressemble à des tests de stabilité dans le BIOS (de bas niveau). Le processus de test selon NVIDIA ne devrait pas prendre plus de minutes que 20. Sur RTX 2080 et 2080 Ti, cela a pris un peu moins de minutes 10. Une fois cette opération terminée, la pente est mise à jour sur la nouvelle courbe trouvée par le scanner NV.

NVIDIA a également rendu les cartes FE un peu plus favorables à l'overclocking. Bien qu'il existe toujours des limites de puissance en place, la limite du BIOS d'usine est nettement supérieure à celle que nous avons vue par le passé. Les limites de puissance habituelles sur les cartes FE ne permettent pas aux utilisateurs d’aller au-dessus de 10% (à prendre ou à prendre). Toutefois, les deux GPU autorisent une augmentation de la puissance jusqu’à X%. En outre, NVIDIA a intégré une alimentation plus robuste sur les cartes FE afin d’envoyer une alimentation plus importante et plus propre au GPU et à la mémoire. Le compte de phase, bien qu'important, ne signifie pas grand chose sans avoir des pièces spécifiées solides provenant du contrôleur de tension (iMON DrMOS) et des MOSFET utilisés. Mais il semblerait que NVIDIA ait renforcé son jeu pour fournir un peu plus de marge d’overclocking.

Les captures d'écran ci-dessous proviennent du logiciel Precision X1 d'EVGA, doté des fonctions d'overclocking «à un bouton». Le logiciel fonctionne pendant un moment et crache un numéro sur le côté gauche. C'est un score qui ne semble pas être en corrélation avec les vitesses d'horloge maximales, mais il est «proche». Par exemple, dans 2080 Ti, le résultat était + 145. Après avoir appliqué les résultats, GPUz a signalé une horloge de base 1419 (provenant de 1350), inférieure à 100 MHz. Amplification de l’horloge augmentée de 1635 à 1704 MHz avec une vitesse d’horloge de base réelle de 1960 MHz.

EVGA Precision X1 - PrincipalFan Control
TempératuresRésultat du scanner NV

Le scanner NV fait un très bon travail pour trouver les vitesses d'horloge maximales du noyau. S'il restait de la viande sur les os pour les deux cartes, il n'y en avait pas beaucoup. En remarque, le scanner ne règle pas la mémoire du tout et cela devra être un processus manuel. Globalement, le scanner NV a fait un travail solide sur le noyau et constituera une valeur ajoutée pour ceux qui souhaitent overclocker mais ne veulent pas mettre le temps nécessaire pour tester les vitesses d'horloge. Quelques minutes 10 rapides, puis quelques autres jeux de mémoire, on peut trouver le maximum de ces cartes assez rapidement.

Repousser les limites - RTX 2080Repousser les limites - RTX 2080 Ti

Pour l'overclocking manuel, les résultats présentés par le scanner sont déjà très proches de l'augmentation de la limite de puissance 23 et flirtent avec la limite de température 83 en effectuant de petits ajustements de la pente du ventilateur. Le réglage manuel de la vitesse du ventilateur abaissera les températures et augmentera également les bacs de suralimentation. À cette fin, nous avons réussi à dépasser le RTX 2080 à + 129 sur le curseur, ce qui a permis d'obtenir des vitesses d'horloge de base 1644 (base) / 1929 (amplification) / 2055 MHz (réelles). Après ajustement manuel de la mémoire, nous avons pu obtenir 8226 MHz (à partir de 7000 MHz) en utilisant une valeur + 1227 sur le curseur. Le 2080 Ti a pu atteindre + 1422 (base) / 1707 (amplification) / 1935 MHz (réel). Nous avons pu régler les vitesses de la mémoire sur 8104 MHz (à partir de 7000 MHz) en utilisant + 1104 sur le curseur. Pour les deux cartes, tout dépassement de cette valeur entraînerait une baisse de la vitesse du cœur, car la limite de puissance était atteinte. Une grande partie de cela passé et nous avons vu des artefacts à l'écran, nous avons donc atteint la limite de nos tests.

Températures et consommation électrique

Les RTX 2080 et 2080 Ti ont apporté des modifications importantes à leur système de refroidissement, notamment le passage d’un ventilateur unique à l’utilisation de deux ventilateurs axiaux plus grands. En plus du remplacement du ventilateur, le radiateur utilise une grande chambre de vapeur à «double capacité» avec un contact direct avec une plaque de base dans laquelle plusieurs caloducs sont intégrés.

Selon NVIDIA, le résultat est une carte de course plus froide et plus silencieuse. Les ventilateurs sont assis au repos sur 40% et sont pratiquement inaudibles autour des autres ventilateurs du système (2). Bien que nous n’ayons pas pu tester les niveaux de bruit à ce moment-là, lors du jeu, les ventilateurs ont augmenté un peu, mais ils n’étaient pas du tout forts. Une fois que les fans ont dépassé la marque% 70, il est probable que les utilisateurs remarquent leur profil de bruit. Il s’agit sans aucun doute d’une amélioration par rapport à la configuration des ventilateurs soufflants simples des générations précédentes.

RTX 2080 est spécifié pour être un 225 W dans l’édition du fondateur que nous avons entre les mains. Ce système, associé à notre système de test (i7-8700K fonctionnant sous 4.7 GHz 1.2 V), permet au système de fonctionner à un pic de 384 W au mur tout en testant nos deux jeux (Shadow of the Tomb Raider et F1 2018). Après avoir exécuté le scanner et l'overclocking du NV, l'utilisation de l'alimentation est passée à 400 W dans SoTR et 416 W à F1 2018. Grâce à cela, une alimentation de qualité 550-650 W fera fonctionner la nouvelle RTX 2080 sans problème.

Le RTX 2080 Ti a utilisé un peu plus de puissance que le RTX 2080 lors de nos tests, ce qui nous a permis d’obtenir une lecture de puissance maximale avec le GPU aux heures de stock du 392 W. C’est environ huit watts de plus qu’une carte qui peut utiliser environ moins le 25. Je m'attendais à ce que la propagation soit un peu plus. Lors de l'overclocking du 2080 Ti via NV Scanner, notre puissance maximale a grimpé jusqu'à 419 W au mur.

Le nouveau refroidisseur a maintenu la température sous contrôle et silencieux sur les deux cartes pendant les tests. Les deux ventilateurs axiaux déplacent une bonne quantité d’air qui évacue les parties supérieure et inférieure (emplacement PCIe) de la carte. La courbe de ventilateur par défaut penche du côté des performances silencieuses tout en maintenant les températures sous la température cible par défaut de 84 ° C lors de nos tests. J'imagine que les sessions de jeu plus longues verront la température monter un peu, mais elle serait facilement atténuée par de petits ajustements dans la courbe des ventilateurs. Globalement, le nouveau refroidisseur est plus esthétique que le style de la soufflante et son nouveau dissipateur thermique, sa plaque de base et sa chambre thermique permettent de garder la carte au frais dans notre environnement de test et devraient également en faire autant chez les utilisateurs.

Conclusion

Alors, que pensons-nous des nouvelles cartes NVIDIA basées sur Turing? Mes amis, c'est compliqué et cela dépend de la façon dont vous voyez deux facteurs. Une chose que nous n'avions pas mentionnée jusqu'à présent (bien que figurant dans les spécifications) était le prix. Le coût pour un Geforce RTX 2080 fonctionnera $ 699 pour la carte de référence ou $ 799 pour l’édition Founders. La RTX 2080 Ti commence à $ 999 pour le modèle de référence et à $ 1199 pour la Founders Edition (FE) que nous avons testée.

Contrairement aux FE de la génération précédente que nous avons testés, les cartes Turing ont un système de fourniture d’énergie et de refroidissement plus robuste que les cartes de référence / FE de génération précédente, c’était plutôt une situation «assez bonne». En substance, comparées aux cartes de référence, les cartes NVIDIA Founders présentent une légère augmentation de la vitesse d’horloge, un peu comme les cartes partenaires. La différence réside dans une meilleure gestion thermique grâce au nouveau dissipateur thermique et à la chambre à double vapeur ainsi qu’aux ventilateurs axiaux jumeaux. Que ce soit ou non cela vaut la peine par rapport à un modèle de référence, c'est à l'utilisateur qui procède à l'achat.

Mais tout ne concerne pas l'overclocking. Le Turing a mis au point plusieurs nouvelles fonctionnalités du matériel qui, lorsqu'un logiciel est rattrapé, peuvent être énormes, tant sur le plan des performances que de l'amélioration de la qualité de l'image lors de la lecture du lancer de rayons. Mais c’est là le problème… cette nouvelle façon de faire des développeurs va-t-elle s’imposer et obliger AMD à prendre en charge le traçage des rayons et l’ajout de cœurs Tensor? Seul le temps nous le dira. Mais il est clair que NVIDIA essaie de mener cette accusation et a tout fait pour le faire. Nous reviendrons dans le passé une fois que nous aurons pu faire fonctionner DLSS dans FF XV et que SoTR est corrigé pour voir quels seront les résultats.

La proposition de valeur par rapport à la dernière génération de cartes n’est clairement pas la même. Par exemple, nous avons constaté des améliorations significatives des performances du GTX 980 Ti à celui du GTX 1080 Ti (à hauteur de 30% ou plus) avec un prix en hausse de seulement 50 $. Dans ce cas, nous constatons que les gains de performances globaux (sans RT ni DLSS) se situent dans la plage% 20. Cependant, le prix a augmenté de 300 $ ou presque 40% sans les mesures de performance dans ALL TITLES pour le sauvegarder. Nous verrons des augmentations significatives avec DLSS dans les jeux qui l'utilisent, mais le traçage de rayons, une technologie à ses balbutiements, ralentira réellement les choses par rapport aux cartes ne disposant pas du matériel nécessaire pour la prendre en charge. Le compromis positif ici est de bien meilleures ombres, réfractions et réflexions (qualité d'image en général), mais il pose la question aux acheteurs potentiels si elle "en vaut la peine". Ceux qui aiment le meilleur du meilleur sont gagnants. Rien sur le marché ne peut rivaliser avec RTX 2080 ou RTX 2080 Ti. Vous voulez 4K UHD à ~ 60 FPS. Le RTX 2080 Ti est votre seul choix de carte - le premier choix de carte unique à cette résolution avec les paramètres Ultra.

Comme on peut le constater, cela dépend vraiment de l'angle sous lequel vous approchez la carte pour déterminer si elle vaut la peine d'être achetée. S'il est dans la tête de l'acheteur, il doit assister à une augmentation des performances et du prix 1: 1 comme par le passé, ce n'est tout simplement pas la carte pour cette personne. Toutefois, si l’on peut voir la forêt à travers les arbres et jouer en particulier certains des titres populaires qui feront l’objet de la nouvelle technologie, qui feront l’objet du traçage des rayons et de la technologie DLSS, la proposition de valeur est tout à fait différente. Pour ceux sur la bulle, comme avec AMD et Vulkan et toutes ses promesses, il peut être avantageux d'attendre et de voir comment le paysage se dégage avec des jeux soutenant les capacités de la carte. Mais encore une fois, du point de vue des performances pures, rien n’est plus rapide sur le marché que le RTX 2080 Ti. Et si DLSS en fait assez de titres en peu de temps, il n’ya pas de recul.

 

Revue des cartes NVIDIA GeForce RTX 2080 et RTX 2080 Ti est un poste de: Overclockers - La communauté informatique de performance