NVIDIA GeForce RTX 2080 og RTX 2080 Ti Review

Det har været over to år siden NVIDIA frigjorde sin Pascal GPU-arkitektur på markedet, og det har i al væsentlighed ført til vejen i grafikytelsen i 3D-spil i løbet af den tid. Da Pascal-baserede videokort (10-serien) ramte butikshylderne, markerede den en særdeles forskellig arkitektur i 14 / 16 nm FinFet og en betydelig reduktion af strømforbruget til samme eller større ydelse. I dag markeres udgivelsen af ​​NVIDIAs nyeste videokort og arkitektur i de Turing-baserede RTX-GPU'er. RTX-familien vil i første omgang bestå af RTX 2070, RTX 2080 og RTX 2080 Ti. I afvigelse fra tidligere udgivelser vil forbrugerne kunne få fat i RTX 2080 og nuværende flagskib RTX 2080 Ti ved lanceringen med RTX 2070 til rådighed kort tid senere.

Turing afsløret

Turing-arkitekturen, som NVIDIA siger er det største spring fremad i et årti, er fremstillet på TSMCs fremstillingsproces 12 nm FFN (FinFet NVIDIA) og indeholder flere nye funktioner, herunder en ny processorarkitektur, Turing SM (Streaming Multiprocessors) siges at levere et dramatisk boost i skygge effektivitet, der kan opnå en 50% forbedring i præstationen pr. CUDA Core sammenlignet med Pascal.

Ud over de nye SM'er har NVIDIA integrerede Tensor-kerner, der er specialiserede udførelsesenheder designet til at udføre tensor / matrix-operationerne - de grundlæggende beregningsfunktioner, der anvendes i Deep Learning. Med denne tilføjelse drives en ny form for Super Sampling, kaldet Deep Learning Super Sampling (DLSS), af disse Tensor Cores. NVIDIA siger, at DLSS "udnytter et dybt neuralt netværk til at udtrække multidimensionale egenskaber i det gengivne scener og intelligent kombinere detaljer fra flere rammer for at konstruere et højkvalitetsfinale billede". DLSS bruger færre inputprøver end traditionelle anti-aliasingteknikker (såsom TAA) og undgår de flaskehalse, de står over for, hvilket muliggør forbedret ydeevne over de traditionelle metoder.

Real-Time Ray Tracing acceleration har også fundet sin vej ind i Turing-chipen og gør det muligt for en enkelt GPU at gøre spil og komplekse professionelle modeller, der har fysisk nøjagtige skygger, refleksioner og refraktioner, hvilket giver et mere fotorealistisk billede på skærmen. Denne evne er tilvejebragt af Turing's nye Ray Tracing (RT) -kerner, der fremskynder strålesporing og udnyttes af systemer og grænseflader uden for NVIDIAs strålesporingsteknologi. API'er som Microsoft DXR, NVIDIA OptiX og Vulkan udnytter strålesporing for at levere en real-time ray tracing oplevelse. Selvom hele scener ikke gengives som dette, vil der stadig blive genereret tæt på alt hvad der vises på skærmen ved rasterisering. Udviklerne implementerer funktionerne på en lille del af billedet med nogle få stråler og hulrummet er udfyldt med NVIDIAs denoiser . Vi har set et par imponerende implementeringer af dette allerede, i Battlefield V for eksempel er performance hit forbandet.

Sidst, men ikke mindst, vil Turing være den første GPU-arkitektur til understøttelse af den nye GDDR6-hukommelse. GDDR6 er efterfølgeren til den sidste generations GDDR5X og siges at have bedre effektivitet ved 20% samt 50% højere effektiv båndbredde. Sammen med GDDR6 er nye metoder til hukommelseskomprimering også designet til at øge båndbredden og ydeevnen. NVIDIA fortsætter med at vige væk fra det dyrere (i forbrugerrummet) alternativet i HBM2, som virker som et godt træk i betragtning af både AMD og NVIDIA vil understøtte GDDR6.

Hvad betyder alt dette? Det betyder, at forbrugerne får et særligt hurtigere og mere effektivt videokort med nye teknologier, der er designet til at forbedre både billedkvalitet gennem nye metoder til AA og hardware accelereret strålesporing, samt forbedret ydeevne overordnet i sidste generation. At være blødende kant og føre en teknologi push kommer med ulemper, nemlig i priser. De nye kort har en betydelig prisstigning i forhold til den foregående generation.

Nedenfor vil vi gå nærmere i detaljer om de nye implementeringer samt testresultater i vores opdaterede GPU test suite. Læs videre for at se, hvordan kortet udføres, og se om RTX-videokortene skal være næste på din indkøbsliste med opgraderinger.

Turing i detaljer

Turing TU102, TU104 og TU106
Turing GPU'er vil have tre stykker silicium, den fulde TU102, den højeste præstation af GPU på Turing-linjen, samt TU104 og TU106 GPU'erne. Sidstnævnte er nedskalede versioner og finde vej ind i andre produkter ned i stakken, såsom RTX 2080 og RTX 2070.

TU102

TU102 indeholder seks grafikbehandlingsklynger (GPC'er), 36 Texture Processing Clusters (TPC'er) og 72 Streaming Multiprocessors (SMs). Hver GPC indeholder en dedikeret rastermotor og seks TPC'er, hvor hver TPC inkluderer to SM'er. Indenfor hver SM er 64 CUDA Cores, otte Tensor Cores, en 256 KB-registreringsfil, fire tekstur-enheder og 96 KB of L1 / delt hukommelse, der kan konfigureres til forskellige kapaciteter afhængigt af grafikken eller beregne arbejdsbyrder. En komplet implementering af TU102 GPU omfatter 4,608 CUDA Cores, 72 RT Cores, 576 Tensor Cores, 288 Texture-enheder og 12 32-bit GDDR6 memory controllers (384-bits total). Vedhæftet til hver hukommelsescontroller er otte ROP'er og 512 KB af L2 cache. TU102 GPU indeholder i alt 96 ROP'er og 6144 KB af L2 cache. Den nye GPU anvender NVLink i sin fulde kapacitet af to x8-links, der giver 50 GB / sek i hver retning (100 GB / sek total).

TU104

TU104-chip'en har seks GPC'er og 48 SM'er. Ligesom TU102 indeholder hver GPC en dedikeret rastermotor og seks TPC'er med hver TPC, der indeholder to SM'er. TU104 (RTX 2080) sports 3072 CUDA kerner, 48 RT kerner og 368 Tensor kerner. Den understøtter også NVLink, men i modsætning til sin storebror er en x8 NVLink inkluderet, der giver 25 GB / sek båndbredde i hver retning (50 GB / sek total). Denne GPU findes i både GeForce og Quadro produkter (RTX 2080 og Quadro RTX 5000).

TU106

Sidst er Turing 106 GPU. Denne GPU, som vil blive brugt i RTX 2070 skibene i oktober 2018. Denne dør indeholder de fleste af de nye funktioner, der findes i Turing-arkitekturen, herunder RT-kernerne og Turing Tensor-kernerne. RTX 2070 er baseret på den fulde implementering af denne GPU. Den indeholder tre GPC'er, 36 SM'er og otte 32-bit memory controllere (256-bit total). Inden for hver GPC er der en raster enhed og seks TPC'er. Den fulde TU106 GPU har 2304 CUDA kerner, 288 tensor Cores og 36 RT kerner. NVLink findes ikke på denne GPU og understøtter ikke SLI. NVIDIA synes at være ved at holde disse funktioner til high-end kortene imod nogle brugere drømme om flagskibsskydning præstationer til lavere omkostninger.

Streaming Multiprocessor (SM) Arkitektur

Turing-arkitekturen indeholder mange af de funktioner, der introduceres i Volta GV100 SM arkitekturen, herunder uafhængig trådplanlægning svarende til Volta samt understøttelse af samtidig gennemførelse af FP32 og INT32 operationer. Turing implementerer en større ændring af kernekrævelsesdatabaserne - typiske moderne shader-arbejdsbyrder bruger en blanding af FP-aritmetiske instruktioner med enklere instruktioner som heltal tilføjer til adressering og hentning af data, og sammenligning af flydende punkt. I tidligere shader-design sættes de flytende punktmatematiske data i tomgang, når instruktionerne uden GP-matematik kører. Turing tilføjer en anden parallel udførelsesenhed ved siden af ​​hver CUDA-kerne, så den kan udføre disse instruktioner parallelt med flydende matematik.

Traditionelle grafiske arbejdsbelastninger partitionerer 96 KB L1 / delt hukommelse som 64 KB med dedikeret grafisk shader RAM og 32 KB til teksturcache og registrer filafspilningsområde. Beregne arbejdsbyrder kan på den anden side opdele 96 KB til 32 KB delt hukommelse og 64 KB L1 cache eller 64 KB delt hukommelse og 32 KB L1 cache.

Turing's SM introducerer også en ny samlet arkitektur til delt hukommelse, L1 og tekstur caching. Det samlede design gør det muligt for L1-cachen at udnytte ressourcer, øge dens båndbredde med 2x pr. TPC sammenlignet med Pascal, og gør det muligt at vokse større, når delte hukommelsesallokeringer ikke bruger hele kapaciteten.

Samlet set nævner NVIDIA ændringerne i SM, at Turing opnår 50% forbedring i leveret ydelse pr. CUDA-kerne.

Tensorkerner

Tensorkerner blev først introduceret i Volta GV100 GPU, men Turing indeholder en forbedret version af disse kerner. Turing Tensor Core-design tilføjer INT8 og INT4-præcisionstilstande til indledning af arbejdsbelastninger, der kan tolerere kvantisering. FP16 understøttes også fuldt ud for arbejdsbelastninger, der kræver højere præcision.

Tensor-kernerne er det, der gør det muligt at bringe i real-time dyb læring til spil applikationer. TC'erne fremskynder de AI-baserede funktioner i NVIDIA NGX Neural Services, der kan forbedre grafik, rendering og andre typer applikationer på klientsiden. Nogle eksempler på disse funktioner omfatter Deep Learning Super Sampling (DLSS), AI InPainting, AI Super Rez og AI Slow-Mo.

Turing Tensor-kernerne siges at give en signifikant speedup til matrixoperationer og bruges til inference-operationer og dyb læringstræning ud over nye neurale grafikfunktioner.

For spillere synes DLSS at være den mest interessante med evnen til at opretholde samme billedkvalitet, men alligevel bringe ydeevne på grund af den måde DLSS behandles gennem Tensor Cores. Den ene advarsel, DLSS understøttes kun af et par spil, men det er sandsynligvis mere, at det vil inkorporere teknologien som tiden går videre. NVIDIA nævner i alt 25-spil, der i øjeblikket er under udvikling:

  • Ark: Overlevelse Evolved
  • Atomic Heart
  • Dauntless
  • Final Fantasy XV
  • Fractured Lands
  • Hitman 2
  • Islands of Nyne: Battle Royale
  • Retfærdighed (Ni Shui Han)
  • JX3
  • Mechwarrior 5: Mercenaries
  • PlayerUnknown's Battlefields
  • Rester: Fra Asen
  • Alvorlig Sam 4: Planet Badass
  • Tomb Raider skygge
  • Forge Arena
  • Vi lykkelige få
  • Darksiders 3
  • Lever os Månen: Fortuna
  • Frygter ulverne
  • Hellblade: Senuas offer
  • KINETIK
  • Outpost Zero
  • Overkill's The Walking Dead
  • SCUM
  • Stormdivers

Ray Tracing Cores

I centrum af Turing's hardwarebaserede strålesporing acceleration er en Ray Tracing (RT) Core, som er inkluderet i hver Streaming Multiprocessor. RT-kernerne fremskynder real-time ray tracking med NVIDIA implementering af en hybrid tilgang mellem rasterisering og ray tracking. Ved hjælp af denne metode anvendes rasterisering, hvor den er mest effektiv, mens ray tracing anvendes, hvor det giver de mest øjen-candy / visuelle fordele i forhold til rasterisering. For eksempel refleksioner, refraktioner og skygger.

RT Cores plejede at fremskynde to vigtige operationer inden for strålesporing, Bounding Volume Hierarchy Traversal og stikprøve-til-trekant krydsningstestning. BVH vil nu køre på RT kerne i stedet for CUDA kernerne, som derefter frigøres til andre funktioner.

Software spiller en afgørende rolle her, hvor RTX understøttes af NVIDIA OptiX, Microsoft DirectX til ray tracking og Vulkan RT. API'erne giver en ramme for ray-traced applikationer med en proces svarende til DirectX-spilprogrammering. I det væsentlige giver spilmotoren objektdata, genererer stråleretninger og udgangspunkt, og modtager derefter information tilbage på selve strålen. Resten af ​​processen, som f.eks. GPU-planlægning, objektreversering, hukommelsesstyring og hardwareoptimeringer håndteres af biblioteket. Dette siges at reducere mængden af ​​arbejde på udviklerens side betydeligt.

NVIDIA gav også en liste over spil, der vil indeholde real-time ray tracing med mere på vej:

  • Assetto Corsa Competizione
  • Atomic Heart
  • Slagmarken v
  • kontrol
  • hyret
  • Mechwarrior 5: Mercenaries
  • Metro Exodus
  • Tomb Raider skygge
  • Retfærdighed (Ni Shui Han)
  • JX3
  • Projekt DH

Yderligere funktioner

Tidsbegrænsninger forhindrer at gå ind i alt mere detaljeret, herunder nedenfor har jeg nævnt flere funktioner i Turing-arkitekturen fra NVIDIA-hvidbøgerne:

Mesh Shading - Mesh-skygger fremmer NVIDIAs geometribehandlingsarkitektur ved at tilbyde en ny skyggemodel til vertex-, tessellations- og geometriske skyggestadier i grafikrørledningen, der understøtter mere fleksible og effektive metoder til beregning af geometri. Denne mere fleksible model gør det muligt for eksempel at understøtte en størrelsesorden flere objekter pr. Scene ved at flytte nøgleflaskehalsen for objektlisteforarbejdning fra CPU'en og til meget parallelle GPU-mesh-skyggeprogrammer. Mesh shading muliggør også nye algoritmer til avanceret geometrisk syntese og objekt LOD management.

Variabel Rate Shading (VRS) - VRS gør det muligt for udviklere at styre skyggehastigheden dynamisk, skygge så lidt som en gang pr. Seksten pixel eller så ofte som otte gange pr pixel. Programmet angiver skyggesats ved hjælp af en kombination af en skyggefrekvensoverflade og en per-primitiv (trekant) værdi. VRS er et meget kraftfuldt værktøj, der gør det muligt for udviklere at skygge mere effektivt, hvilket reducerer arbejdet i områder på skærmen, hvor fuld opløsningsskygge ikke giver nogen synlig billedkvalitet, og dermed forbedrer billedhastigheden. Flere klasser af VRS-baserede algoritmer er allerede blevet identificeret, hvilket kan variere skyggearbejde baseret på indholdsniveau af detaljer (Content Adaptive Shading), indholdshastighedshastighed (Motion Adaptive Shading) og til VR-applikationer, objektivopløsning og øjenposition ( Foveated Rendering).

Texture-Space Shading - Med skygger i tekstur-pladser skygges objekter i et privat koordinatrum (et teksturrum), der er gemt i hukommelsen, og pixel shaders eksempler fra dette rum i stedet for at evaluere resultater direkte. Med evnen til at cache skyggeresultater i hukommelsen og genbruge / genprøve dem, kan udviklere fjerne dobbelt skyggearbejde eller bruge forskellige prøveudtagningsmetoder, der forbedrer kvaliteten.

Multi-View Rendering (MVR) - MVR udvider kraftigt Pascal's Single Pass Stereo (SPS). Mens SPS tillod gengivelse af to visninger, der var almindelige undtagen for en X-forskydning, tillader MVR at gengive flere visninger i et enkelt pass, selvom visningerne er baseret på helt forskellige oprindelsesstillinger eller se retninger. Adgang er via en simpel programmeringsmodel, hvor kompilatoren automatisk ser ud til at se uafhængig kode, mens identificere visningsafhængige attributter for optimal udførelse.

Deep Learning Features for Graphics - NVIDIA NGX ™ er den nye dyb learning-baserede neurale grafik ramme af NVIDIA RTX Technology. NVIDIA NGX anvender dybe neurale netværk (DNN'er) og sæt af "Neural Services" til at udføre AI-baserede funktioner, der accelererer og forbedrer grafik, gengivelse og andre applikationer på klientsiden. NGX anvender Turing Tensor-kernerne til dyb læringsbaserede operationer og fremskynder levering af NVIDIA dyb læringsforskning direkte til slutbrugeren. Funktionerne omfatter ultrahøj kvalitet NGX DLSS (Deep Learning Super-Sampling), AI InPainting-indholdsbeskyttet billedudskiftning, AI Slow-Mo meget høj kvalitet og glat slow motion og AI Super Rez smart opløsning resizing.

Deep Learning Features for Inference - Turing GPU'er leverer exceptionel præstationspræstation. Turing Tensor Cores, sammen med løbende forbedringer i TensorRT (NVIDIA's run-time inferencing framework), CUDA og CuDNN biblioteker, giver Turing GPU'er mulighed for at levere fremragende præstationer til inferencing applikationer. Turing Tensor Cores tilføjer også understøttelse af hurtige INT8 matrix operationer for at accelerere signifikant gennemstrømning betydeligt med minimal tab i nøjagtighed. Nye nøjagtige INT4 matrix operationer er nu mulige med Turing Tensor Cores og vil muliggøre forskning og udvikling i sub 8-bit neurale netværk.

Anden generation NVIDIA NVLink - Turing TU102 og TU104 GPU'er indbygger NVIDIAs NVLink ™ højhastighedsforbindelse for at give en pålidelig, høj båndbredde og lav latency-forbindelse mellem par af Turing GPU'er. Med op til 100GB / sek bidirektiv båndbredde muliggør NVLINK mange tilpassede arbejdsbelastninger til effektivt at opdele på tværs af to GPU'er og dele hukommelseskapacitet. For spilbelastninger giver NVLINKs øgede båndbredde og dedikeret inter-GPU-kanal nye muligheder for SLI, som f.eks. Nye tilstande eller konfigurationer med højere opløsning. Ved store hukommelsesarbejdsbelastninger, herunder professionelle strålesporingsapplikationer, kan scene data opdeles på tværs af rammebufferen i begge GPU'er, der tilbyder op til 96 GB af delt rammebufferhukommelse (to 48 GB Quadro RTX 8000-GPU'er), og hukommelsesforespørgsler omdirigeres automatisk. af hardware til den korrekte GPU baseret på placeringen af ​​hukommelsesallokering.

GDDR6 højtydende hukommelsessystem - Turing er den første GPU-arkitektur til understøttelse af GDDR6-hukommelse. GDDR6 er det næste store fremskridt i GDDR DRAM-hukommelsesdesign med høje båndbredder. GDDR6-hukommelseskredsløbskredsløb i Turing GPU'er er blevet fuldstændigt omdesignet for hastighed, effektivitet og støjreduktion, hvilket giver 14 Gbps-overførselshastigheder ved 20% forbedret effektivitet sammenlignet med GDDR5X-hukommelse, der anvendes i Pascal GPU'er.

USB-C og VirtualLink - Turing GPU'er omfatter hardware support til USB Type-C ™ og VirtualLink ™ 4. VirtualLink er en ny åben industristandard, der udvikles til at opfylde kravene til strøm, display og båndbredde for næste generations VR-headset via et enkelt USB-C-stik. Ud over at lette installationsproblemerne i dagens VR-headset vil VirtualLink bringe VR til flere enheder.

Video og Display Engine - Forbrugerens efterspørgsel efter skærme med højere opløsning fortsætter med at stige med hvert år der går. For eksempel kræver 8K-opløsning (7680 x 4320) fire gange flere pixels end 4K (3820 x 2160). Spillere og hardwareentusiaster ønsker også skærme med højere opdateringshastigheder ud over højere opløsning for at opleve det bedst mulige billede. Turing GPU'er inkluderer en helt ny displaymotor designet til den nye bølge af skærme, der understøtter højere opløsninger, hurtigere opdateringshastigheder og HDR. Turing understøtter DisplayPort 1.4a, der giver 8K-opløsning ved 60 Hz og omfatter VESAs DLC 1.2-teknologi, der giver højere kompression, der er visuelt tabløs.

Turing GPU'er kan køre to 8K-skærme ved 60 Hz med et kabel til hver skærm. 8K-opløsning kan også sendes via USB-C. Den nye displaymotor understøtter HDR-behandling indbygget inde i displayrørledningen. Turing GPU'er omfatter en forbedret NVENC-encoder-enhed, der tilføjer understøttelse af H.265 (HEVC) 8K-kode på 30 FPS. NVIDIA oplyser, at den nye encoder giver op til 25% bitrate besparelser for HEVC og op til 15% besparelser for H.264.

Specifikationer

Tabellen nedenfor viser specifikationerne for nye Turing-baserede GPU'er samt den foregående generation, GTX 1080 Ti til sammenligning.

NVIDIA Turing GTX 1080 Ti / RTX 2070 / RTX 2080 / 2080 Ti Specifikationer
GPU Model 1080 GTX Ti RTX 2080 Ti RTX 2080 RTX 2070
arkitektur Pascal Turing
CUDA Cores 3584 4352 2944 2304
Tensorkerner NA 544 368 288
RT Cores NA 68 48 36
GPU-baseur (MHz)
Reference / Founders Ed.
1480 / 1480 1350 / 1350 1515 1410
GPU Boost Clock (MHz)
Reference / Founders Ed.
1582 / 1582 1545 / 1635 1800 1620 / 1710
Rammerbufferhukommelsesstørrelse og type 11 GB GDDR5X 11 GB GDDR6 8 GB GDDR6
Memory Interface 352-bit 352-bit 256-bit
Hukommelsesur (datahastighed) 11 Gbps 14 Gbps
Hukommelsesbåndbredde (GB / sek) 484 616 448 448
ROPs 88 88 64 64
Texture Units 224 272 245 144
Texturfyldningsfrekvens (Gigatexels / sec) 354.4 / 354.4 420.2 / 444.7 314.6 / 331.2 233.3 / 246.2
GigaRays / sec N / A 10 GR / s 8 GR / s 6 GR / s
Beregn (TFLOP'er) 11.3 13.4 10.1 7.5
L2 Cache-størrelse 3 MB 6 MB 4 MB
TDP * (Watts)
Reference / Founders Ed.
250 / 250W 250 / 260W 215 / 225W 175 / 185W
Transistor Count (milliarder) 12 18.6 13.6 10.6
Die Størrelse (mm²) 471 754 545 445
Manufacturing Process 16 nm FinFet 12 nm FinFet
Pris - MSRP (Reference / Founders) $ 699 $ 999 / $ 1199 $ 699 / $ 799

GPUz

Som altid kalder vi op GPUz for at bekræfte nogle af specifikationerne og urets hastigheder. Ser ud som gardinerne matcher arkene, så alt er okay her. Jeg nåede ud til GPUz og spurgte, om de ville tilføje felter til de nye NVIDIA kerner, og fik at vide, indtil det bliver mere populært, det er tvivlsomt, selvom det kan være på den avancerede fane.

GPUz - RTX 2080 GPUz - RTX 2080 Ti

Detailemballage og tilbehør

Detailpakken til Founder's Edition-kort er nyligt designet og ret unikt. Pakningen er rektangulær med et glidestykke fra toppen i modsætning til 'udklapningsboksen', som vi er vant til. På forsiden af ​​boksen vises GeForce RTX branding fremtrædende i nederste venstre hjørne sammen med modelnummeret under det. Farven på boksene stikker ud på butikshylder med dens design og et kontrastfarve grå og NVIDIA-grønt farveskema.

Mød NVIDIA RTX 2080 og RTX 2080Ti

NVIDIA GeForce RTX 2080 og RTX 2080 Ti

Åbning af kassen afslører de nye kort, der sidder tæt i mørkegrå / sort tæt skum. Inde i toppen af ​​boksen er et andet stykke skræddersyet skum isolering, så kortet sidder med minimal bevægelse inde i emballagen. Det medfølgende tilbehør, en DP til DVI adapter og Quick Start guide, sidder i deres eget afsnit af skummet, der er skjult uden for en fane, der holder op for at lette boksen.

RTX 2080 RTX 2080 Ti

Et nærmere udseende

Vores første udseende viser en temmelig dramatisk designændring for de nye RTX-kort. Borte er blæserformet vinkelformet skal udskiftet med en mere traditionel dual fan opsætning og er også mere konservativt stylet. Ydersiden af ​​fansen er dækket af grå beklædning, mens mellem fansen er en sort sammen med GPU-modellen skrevet lodret.

I et forsøg på at afkøle GPU mere effektivt, drev de dobbelte aksiale ventilatorer en trefasemotor beregnet til at begrænse vibrationsstøj. De er udstyret med 13 fan blades, som skal flytte mere luft uden at snuble hurtigere, og holde støjen nede. Luften er primært opbrugt ud af toppen og bunden af ​​kortet i modsætning til den tidligere generations blæser, der blæste det meste af den opvarmede luft ud af sagen.

RTX 2080 RTX 2080 Ti
RTX 2080 Offset 1 RTX 2080 Offset 2
RTX 2080 Bund RTX 2080 Ti Backplate

Bagpladen er ikke kun til æstetiske formål, men er også funktionel ved hjælp af termiske puder til at komme i kontakt med hot spots på printkortet og skure denne varmelast på bagpladen. Padsne køler bagsiden af ​​strømafgivelsesbitserne samt GDDR6-hukommelsen.

Udgange - 3x DP, 1x HDMI, 1x USB Type-C

Både 2080- og 2080 Ti Founders Edition-kortene bruger tre Displayport 1.4a-udgange, der understøtter op til 8K-opløsning ved 60 Hz fra et enkelt kabel (med DSC 1.2). Brugere finder også en enkelt HDMI 2.0b-stik (understøtter HDCP 2.2) og et VirtualLink-stik (USB Type-C), der er designet til næste generations Virtual reality-headset eller andre applikationer med højbåndsbredde.

RTX 2080 - 8 + 6-pin PCIe RTX 2080 Ti - Dual 8-Pin PCIe

For at få strøm til kortene bruger GTX 2080 med sin 225 W TDP en 8-stik og en 6-pin PCIe-stik, der kan levere op til 300 W mellem de to PCIe-strømkabler (150 W + 75 W) og PCIe slot (75 W). Dette bør give rigeligt strømforbrug til overclocking, mens du stadig er i spec på strømforbindelserne. 2080 Ti vil derimod bruge to 8-pin PCIe-stik til i alt 375 W i spec-power-funktioner. Ligesom RTX 2080, vil dette give mulighed for masser af hovedrum uden at være ude af specifikationen.

NVLink-stik

Tidligere i anmeldelsen nævnte vi NVLink, der gik ind i forbrugerlinjen af ​​kort (læs: Ikke-professionelle serier Quadro-kort). Med det kommer rigelige mængder båndbredde til kommunikation mellem kortene, op til 100 GB / sec i 2080 Ti. Den øgede båndbredde giver mulighed for nye SLI-tilstande samt skærmens konfigurationer med højere opløsning. Måske kan dette understøtte en SLI-genopblussen, da teknologien virkelig ikke har haft en betydelig trækkraft på markedet i løbet af de sidste par år.

RTX 2080 PCB RTX 2080 Ti PCB
RTX 2080 tilbage af PCB RTX 2080 Ti Tilbage af PCB

Aftagning af den nyindrettede dampkammerkøler og bagplader bestod i at fjerne omkring 2 dusin skruer i alt, hvilket derefter udsætter brættet. Vi kan se de store kerner gemt under meget liberale anvendelser af termisk pasta, RTX 2080 har mest, jeg har set. Vi kan også se GDDR6-hukommelsen på begge kort samt to forskellige strømafgivelseskonfigurationer.

RTX 2080 - 8 + 2 Phase Power (GPU + Hukommelse) RTX 2080 Ti - 10 + 3 Phase Power (GPU + Hukommelse)

Kortene har bedre designet strømafgivelsesbit med det formål at levere mere stabil strøm til GPU og hukommelse i henhold til NVIDIA. Begge kort benytter en iMon DrMOS-strømforsyning, som har et nyt dynamisk strømstyringssystem, der muliggør hurtigere strømovervågning (sub millisekund), der gør det muligt for strømforsyningen at styre strømstyrken bedre i GPU'en. Dette giver strømforsyningen mulighed for at give mere strøm til hovedrummet til forbedret overclocking. IMON MOSFET'erne er i stand til at aktivere / deaktivere strømfaser afhængigt af belastning eller for at opretholde effektiv drift under lave belastningsforhold som f.eks. I tomgang.

MOSFETs og Caps (OnSemiconductor) Micron GDDR6

RTX 2080 Founders Edition har et 10-fasesystem i en 8 + 2-konfiguration med otte dedikeret til GPU'en og de to andre til GDDR6-hukommelsen. 2080 Ti bruger en 13 fase opsætning med 10 faser til GPU og tre slated for hukommelsen. OnSemiconductor MOSFET brugte Smart Power Stage (SPS) moduler og vurderet op til 70 A (@ 25 ° C). De giver både strøm (nuværende) og temperaturovervågning. På hukommelsessiden kan vi se fra både GPUz-skærmbilledet og det billede, som Micron IC'er anvendes i disse prøver. Da GDDR6, i modsætning til GDDR5X, vil blive vedtaget af både AMD og NVIDIA, skal vi se forskellige mærker på kort ned ad vejen.

TU104 fra RTX 2080 TU102 fra RTX 2080 Ti

Sidst, men ikke mindst, er et par skud af TU104 og TU102 dørene selv. TU102 fundet i RTX 2080 Ti måle 754 mm², mens RTX 2080's TU104 er 554 mm². Dette sammenlignet med den mindre størrelse af 1080 Ti ved 471 mm² og 1080 ved 345 mm². Selv med processen krymper, gør tilsætningen af ​​de nye RT og Tensor kerner det meget større end Pascal.

Testsystem og benchmarkmetoder

Vores testsystem er baseret på den nyeste mainstream Intel platform, Z370, og bruger i7-8700K 6c / 12t CPU. CPU'en er overklokket til 4.7 GHz på alle kerner / tråde med cache indstillet til 4.3 GHz. De anvendte klokkeslæthastigheder giver en god base for at minimere eventuelle begrænsninger, som CPU'en kan have på vores titler, især når du bruger de lavere opløsninger, og skal være opnåelige med en god luftkøler eller bedre. DRAM er i en 2 × 8 GB-konfiguration ved 3200 MHz med CL15-15-15-35-2T-tidspunkter, som er et middel i vejen, der afbalancerer ydelse og omkostninger.

Testsystemkomponenter
Bundkort ASRock X370 Taichi
CPU Intel i7 8700K @ 4.7 GHz / 4.3 GHz Cache
CPU køler EVGA CLC 240
Hukommelse 2 × 8 GB G.Skill Trident Z 3200 MHz CL15-15-15-35
SSD Toshiba OCZ TR200 480 GB (OS + applikationer)
Strømforsyning EVGA 750W G3
video Card NVIDIA RTX 2080 og RTX 2080Ti (411.51 drivere)

Tak går ud på EVGA for at give CLC 240 CPU Cooler og 750 W G3 Power Supply afkølet og strømforsyne systemet, G.Skill for Trident Z DRAM, og Toshiba OCZ for 480 GB TR200 SSD'er lagring kører OS, benchmarks og spil. Med vores partnere hjælper vi med at opbygge matchende testsystemer for at afhjælpe eventuelle forskelle mellem forskellige hardware. Dette gør det muligt for flere korrekturlæsere på forskellige steder at bruge det samme testsystem og sammenligne resultater uden yderligere variabler.

Nedenfor er de tests, vi kører med en kort beskrivelse af indstillingerne. Vi har foretaget nogle væsentlige ændringer siden sidste opdatering tilføjede et par nye titler og droppe nogle af de ældre spil. Flere detaljer kan findes i GPU-testprocedureartikel som vi har opdateret med vores seneste benchmarks.

  • UL 3DMark Time Spy - Standardindstillinger
  • UL 3DMark Fire Strike (Extreme) - Standardindstillinger
  • Tomb Raider skygge - DX12, "Højeste" forudindstillet (vil tilføje RTX, når det er blevet patchet)
  • divisionen - DX12, Ultra forudindstillet, VSync off
  • Aske af singulariteten: eskalering - DX12, Crazy forudindstillet, GPU-fokuseret
  • Far Cry 5 - Ultra standardindstillinger
  • F1 2018 - Meget høje standardindstillinger, TAA og x16 AF, Australien spor, viser FPS tæller
  • Tanks verden: Encore Benchmark - Ultra standardindstillinger
  • Final Fantasy XV Benchmark - Høj standardindstillinger

Syntetiske benchmarks

Vores første sæt benchmarks hagler fra Underwriters Laboratories, der overtog Futuremark tilbage i 2014. Tidligere i 2018 opstod et rebrand og siden dengang er Futuremark nu UL. Benchmarkene er ikke ændret, bare navnet. Vi valgte at holde fast i 3DMark Fire Strike (Extreme) og 3DMark Time Spy, da disse tests giver brugerne en god ide om præstationer på moderne titler.

3DMark Time Spy er et DX12 benchmark designet til Windows 10 Stk. Den understøtter nye API-funktioner såsom asynkron beregning, eksplicit multi-adapter og multi-threading og kører ved 2560 × 1440 opløsning. 3DMark Fire Strike (Extreme) er en DX11 baseret test, som UL siger, at grafikken er gengivet med detaljer og kompleksitet langt ud over andre DX11 benchmarks og spil. Dette benchmark kører ved 1920 × 1080.

Bemærk i denne graf. De GTX 1070Ti og GTX 1080-procentværdier, vi ser, er baseret på RTX 2080-resultaterne / procentdelen som basislinje. GTX 1080Ti resultater / procentdel er baseret på lager RTX 2080 Ti resultater.

I Fire Strike-resultaterne ser vi grundlæggerens udgave 2080-score 12575. Dette resultat placerer det tæt på 18% hurtigere end en meget overclocked ud af fabrikken EVGA GTX 1080 FTW2. Hvis man skal sammenligne grundlæggerne direkte med grundlæggerne, vil dette hul vokse med få / flere procent. Her er forskellen mellem RTX 2080 og RTX 2080Ti næsten 21%. RTX 2080 Ti scorer et kæmpe 15203 her, der slår ud 1080 Ti det erstatter med over 8%. Det kløft er mindre, end mange ville forvente, men skyldes den overclocked 1080 Ti, der bruges, samt benchmarken kører ved 1080p-opløsningen, hvor CPU'en bliver en væsentlig faktor i at lade sådanne kraftige kort strække deres ben.

Time Spy-resultaterne har RTX 2080 scoring 10496, som er næsten 25% hurtigere end den overclocked GTX 1080, der bruges til testning. RTX 2080 Ti scorer 12456 her, som er omkring 19% hurtigere end den overklockede GTX 1080 Ti. Jeg forventer, at værdien skal være tættere på 25% eller mere, når man sammenligner grundlæggerne med grundlæggerne.

Gaming Benchmarks

Når vi går videre til spil benchmarks, har vi opdateret vores test suite for at bringe mere moderne titler i mixen. Borte er GTA V, Crysis 3 og Rise of the Tomb Raider, som blev erstattet med Tomb Raider, Tanks World: enCore benchmark, F1 2018, Final Fantasy XV benchmark og Far Cry 5. Vi holdt divisionen og aske i singulariteten (selvom vi opdaterede til AOTS: Escalation). Spillene skal give et godt overblik over den samlede præstation, da mange af disse er DX12-spil.

Desværre vil vi ikke være i stand til at teste nogle af DLSS-funktionerne, da vi har problemer med at downloade filen (arbejder med NVIDIA for at få det sorteret). Ray Tracing vil heller ikke blive testet her som ingen af ​​de titler, vi har, understøtter i øjeblikket teknologien. I fremtiden vil SoTR få det sammen med mange andre titler, så vi vil ringe tilbage, når det er relevant.

Resultaterne nedenfor er alle i 1920x1080p som vil skævke opfattelsen af ​​kortene, når de sammenlignes med de andre med opløsningen så lav. RTX 2080 og RTX 2080 Ti var ikke beregnet til 1080p gameplay, men til højere opløsninger, især 4K. Disse resultater findes i slutningen af ​​dette afsnit.

Verden af ​​Tanke: Encore / F1 2018

Vores verden af ​​tanke: enCore benchmark viser lager RTX 2080, der administrerer næsten 229 FPS i denne titel. Dette sætter den omkring 40 FPS mere end en GTX 1080 og er inden for 3 FPS fra Asus Strix 1080 Ti OC, der er en imponerende visning. RTX 2080 Ti rammer over 263 FPS på lager, mens du slår 1080 Ti over 21 FPS.

F1 2018 viser RTX 2080 når 157 FPS her, mens RTX 2080 Ti styrer 194 FPS. Dette er 37 og 32 FPS hurtigere end 1080 og 1080 Ti vi har testet imod.

Det er klart, at begge kort ikke har et problem på disse spil med indstillingerne cranked, der nemt kan håndtere en 144 Hz skærm.

Far Cry 5 / Divisionen

I Far Cry 5 styrer RTX 2080 133 FPS-gennemsnittet med RTX 2080 Ti ved 144 FPS. Forskellen her mellem de sidste genkort og de nye Turing-enheder er ret lille på grund af den lave opløsning.

Går videre til Divisionen nåede RTX 2080 om 130 FPS, mens 2080 Ti ramte 160 FPS. Igen bliver hullerne større, da opløsningen øges. Vi kan tage væk herfra, og RTX 2080 hænger godt ind i denne opløsning med en overklokket 1080 Ti.

Shadow of the Tomb Raider / Final Fantasy XV

Skyggen af ​​Tomb Raider-resultaterne har RTX 2080, der rammer 123 FPS med 2080 Ti-middelværdien 143 FPS. Her igen holder RTX 2080 op med 1080 Ti, mens 2080 Ti løber væk med showet. Selv ved den lavere opløsning er 2080 over 26% hurtigere end GTX 1080.

I Final Fantasy XV-benchmarket kunne vi ikke teste DLSS med denne titel, da downloading viste sig at være svært fra get-go. Uanset hvad, viser testen her RTX 2080, der rammer 110 FPS med 2080 Ti, der går over 130 FPS. RTX 2080 slog faktisk 1080 Ti i denne benchmark som det står med RTX 2080 Ti igen at stjæle spotlighten og løbe væk med ting. DLSS bør kun gøre disse huller større, og de Turing-baserede kort, der understøtter DLSS, kører så meget hurtigere.

Aske af singulariteten: eskalering

Vores sidste spiltest ved den (nu smertefuldt lave) 1080p-opløsning er Ashes of Singularity: Escalation. Her ramte RTX 2080 næsten 83 FPS sammen med storebror 2080 Ti, der nåede næsten 102 FPS. Her er RTX 2080 igen hængende med en 1080 Ti.

2560 × 1440 og 4K UHD resultater

Som vi sagde før, markedsfører NVIDIA ikke disse kort til 1080p, men især højere opløsninger. Til dette formål testede vi ved 2560 × 1440 samt 4K UHD-opløsninger.

I stedet for at fortsætte med at give dit webhjul en træning, har vi taget frihed til at kombinere alle spilresultaterne i en graf, så brugerne er i stand til at se forskellen mellem kortene. I denne graf blev 1080 FTW2 og Strix GTX 1080 Ti OC og begge RTX-kort brugt til at se generationsgabet mellem dem.

Vores take away her er RTX 2080 tydeligt overgår den overclocked 1080 og er utrolig tæt på den overclocked 1080 Ti endda kører hurtigere i Final Fantasy. 2080 Ti kører klart hurtigere i alle test end den overclocked 1080 Ti til melodien omkring 17% gennemsnit, mens RTX 2080 i gennemsnit er 24% hurtigere i disse titler. Igen vil dette hul vokse med få / flere procent på grund af fabrikkens overklokkning på GTX-serien kort.

4K-grafen faldt GTX 1080, da det klart ikke er et 4K-kort ved disse indstillinger. Her kan vi se RTX 2080 holde op med den overclocked 1080 Ti i SoTR, Far Cry 5, F1 2018 og FF XV tæt tæt på lagerhastigheder. Overclocking lukker eventuelle huller og overgår 1080 Ti i de fleste tilfælde. RTX 2080 Ti, derimod, er historien her. Dette kort er officielt et 4K UHD-kort, der når 59 FPS + på tværs af alle titler ved hjælp af de højeste indstillinger, vi i øjeblikket har i spilene. Det slår ud overclocked GTX 1080 Ti. Overclocking og sammenligning af lignende kort ville give en endnu større afstand over GTX 1080 Ti.

Samlet set er RTX 2080 et ret kompatibelt 4K-kort, der ligner den sidste generation GTX 1080 Ti. Nogle billedkvalitetsoffer skal foretages for at nå det magiske 60 FPS gennemsnit. RTX 2080 Ti er dog lige der selv med vores høje indstillinger. Hvis du gerne vil 4K ved 60 FPS, skal brugerne ikke se længere end RTX 2080 Ti. Det er her endelig. Og med prisen på 4K UHD-skærme kommer ned, kan det være næste flertalsbeslutning i PC-spil i løbet af de næste par år.

Overclocking

Endelig kommer vi til min yndlingsdel, overklockingen. NVIDIA har tilføjet en ny funktion i en passende navngivet NVIDIA Scanner sammen med en nydesignet EVGA Precision-grænseflade.

NVIDIA Scanner giver brugerne mulighed for blot at trykke på en knap i software (i dette tilfælde EVGA's Precision X1) og se, at systemet automatisk finder et godt overklok. Denne automatisering kan afkorte meget tid for brugerne manuelt at overklokke deres kort. Processen er baseret på en tovejs feedback loop ved hjælp af NV scanner API, en test algoritme og en NVIDIA arbejdsbyrde. Dette ligner i-BIOS (lavt niveau) stabilitetstest. Testprocessen ifølge NVIDIA bør ikke tage længere tid end 20 minutter. På både RTX 2080 og 2080 Ti tog det en smule under 10 minutter. Når den er færdig, opdateres hældningen til den nye kurve, som NV scanneren fandt.

NVIDIA gjorde også FE-kortene lidt mere venlige mod overclocking. Mens der stadig er strømbegrænsninger på plads, er fabriks-BIOS-grænsen især højere end vi tidligere har set. Typiske strømbegrænsninger på FE-kort må ikke lade brugerne gå over 10% (give eller tage), men begge GPU'er tillader en 23% -forøgelse i strømmen. Derudover har NVIDIA indarbejdet en mere robust strømforsyning på FE-kortene for at sende mere og renere strøm til GPU og hukommelse. Faseantal, mens det er vigtigt, betyder ikke meget uden at have fast specificerede dele fra spændingsregulatoren (iMON DrMOS) og MOSFET'erne. Men det ser ud til, at NVIDIA har styrket deres spil for at give lidt mere overklokkende hovedrum.

Skærmbillederne nedenfor er fra EVGAs Precision X1-software, som har 'one-button' overclocking-muligheder. Softwaren kører et stykke tid og spytter et nummer på venstre side. Det er en score og synes ikke at korrelere med højeste clockhastigheder, men det er 'tæt'. For eksempel i 2080 Ti var resultatet + 145. Efter at have anvendt resultaterne rapporterede GPUz 1419 base ur (fra 1350), mindre end 100 MHz. Boost ur opvokset fra 1635 til 1704 MHz med en faktisk kernehastighed på 1960 MHz.

EVGA Precision X1 - Main Fan Kontrol
Temperaturer NV Scanner Resultat

NV Scanner gør et ret godt stykke arbejde med at finde kerneens maksimale klockhastighed. Mens der var noget kød tilbage på knoglen til begge kort, var der ikke meget. Som en sidebesked justerer scanneren slet ikke hukommelsen, og det skal være en manuel proces. Samlet set har NV scanneren gjort et solidt job på kernen og vil være en værditilvækst for dem, der gerne vil overklokke, men ikke ønsker at indstille den tid, det tager at teste clockhastigheder. Et hurtigt 10-minut og derefter et par flere spil med hukommelse, man kan finde maksimum i disse kort ret hurtigt.

Skubber grænserne - RTX 2080 Skubber grænserne - RTX 2080 Ti

Til manuel overclocking er resultaterne, som scanneren kom på, allerede meget tæt på 23% strømbegrænsningsforøgelsen og flirtet med temperaturbegrænsningen 83 ° C, hvilket gør små justeringer til blæserhældningen. Indstilling af blæserhastigheden manuelt vil sænke temperaturerne og øge boostbinerne også. Til dette formål lykkedes det os at udstyre RTX 2080 på + 129 på skyderen, hvilket gav 1644 (base) / 1929 (boost) / 2055 MHz (actual) kerneklokkehastigheder. Efter manuelt at justere hukommelsen kunne vi opnå 8226 MHz (fra 7000 MHz) ved hjælp af en + 1227-værdi på skyderen. 2080 Ti kunne nå + 1422 (base) / 1707 (boost) / 1935 MHz (actual). Vi kunne indstille hukommelseshastighederne til 8104 MHz (fra 7000 MHz) ved hjælp af + 1104 på skyderen. For begge kort vil alting forbi dette forårsage kernens hastighed at falde, da det ramte strømgrænsen. Meget forbi det, og vi så artefakter på skærmen, så vi har faktisk nået grænsen i vores test.

Temperaturer og strømforbrug

RTX 2080 og 2080 Ti har foretaget nogle betydelige ændringer i deres kølesystem, herunder flytningen fra en enkelt blæserblæser til at bruge to større aksiale ventilatorer i stedet. Sammen med ventilatorskiftet bruger heatsink et stort "Dual Capacity" dampkammer med direkte kontakt til en bundplade, hvor der er flere varme rør indlejret.

Resultatet her ifølge NVIDIA er et køligere og mere støjsvage løbekort. Fanerne sidder ved 40% i tomgang og er næsten uhørlige omkring andre systemfansere (2). Mens vi ikke kunne teste støjniveauet på dette tidspunkt, da vi spillede, blev fansen lidt op, men var slet ikke højt. Når fansne kommer forbi 70% -mærket eller det er, når brugerne sandsynligvis vil opdage deres støjprofil. Det er uden tvivl en forbedring fra den enkelte blæserventilopsætning af tidligere generationer.

RTX 2080 er angivet som en 225 W i grundlæggerens udgaveformular, som vi har i vores hænder. Dette kombineret med vores testsystem (i7-8700K, der kører ved 4.7 GHz 1.2 V), kommer systemet ind i en top af 384 W på væggen under test af vores to spil (Shadow of the Tomb Raider og F1 2018). Efter at have kørt NV Scanner og overclocking, sprang strømforbruget til 400 W i SoTR og 416 W i F1 2018. Med det vil en 550-650 W strømforsyning med held køre den nye RTX 2080 uden problem.

RTX 2080 Ti brugte lidt mere strøm end RTX 2080 i vores test, hvilket gav en maksimal effektaflæsning med GPU'en på lagerklokker af 392 W. Dette er omkring otte watt mere end et kort, der kan bruge omkring 25 W mindre. Jeg havde forventet spredningen til at være lidt mere. Når vi overclockede 2080 Ti gennem NV Scanner, hoppede vores topkraft op til 419 W ved væggen.

Den nye køler holdt temperaturerne under kontrol og ro på begge kort under testen. De dobbelte aksiale ventilatorer flytter en hel del luft, der udstråler kortets øverste og nederste (PCIe slot). Standardfladerkurven læner sig på siden af ​​stille overførslen, mens temperaturen stadig ligger under standardmåltemperaturen for 84 ° C under testen. Jeg kan forestille mig, at længere spillesessioner vil se, at temperaturen går lidt op, men det vil let blive mildnet af små justeringer i fankurven. Alt i alt ser den nye køler ud bedre end blæserens stil, og den nye køler, bundplade og termokammer gør et godt stykke arbejde ved at holde kortet køligt i vores testmiljø og skal gøre det samme i brugernes hjem.

Konklusion

Så hvad synes vi om NVIDIAs nye Turing-baserede kort? Mine venner, det er kompliceret og afhænger af, hvordan du ser et par faktorer. Én ting vi ikke nævner indtil nu (opført i specifikationerne selv) var prisen. Omkostningerne til en Geforce RTX 2080 vil køre brugere $ 699 for referencekortet eller $ 799 for Founders Edition. RTX 2080 Ti starter ved $ 999 for referencemodellen og $ 1199 for Founders Edition (FE), vi testede.

I modsætning til tidligere generations FE'er, som vi har testet, har Turing-kortene et mere robust strømforsyningssystem og afkøling, mens tidligere generationens reference / FE-kort, det var mere en "god nok" situation. I virkeligheden har NVIDIA Founders Cards i sammenligning med referencekorterne en lille stigning i ur hastighed, ligesom board partner-kort. Forskellen er bedre termisk styring på grund af den nye heatsink og dual dampkammer sammen med twin aksial fans. Hvorvidt det er værd at præmien over en referencemodel er op til den bruger, der foretager købet.

Men det handler ikke kun om overclocking. Turing bragte bordet flere nye funktioner i hardwaren, som når software fanger op, hvis software fanger op, kan være enorm på både et præstationsniveau og bedre billedkvalitet, når man taler ray tracing. Men det er sagen ... vil denne nye måde at gøre ting på udvikler side tage fat på og tvinge AMD til at reagere med hardware support af ray tracing og tilføje Tensor Cores? Kun tiden vil fortælle på den forside. Men det er klart NVIDIA forsøger at lede denne afgift og har gået alt ved at gøre det. Vi vil cirkulere tilbage i tiden, når vi er i stand til at få DLSS til at arbejde i FF XV og SoTR er patched for at se, hvad disse resultater vil være.

Værdiforslaget versus den sidste generation af kort er klart ikke det samme. For eksempel oplevede vi betydelige præstationsforbedringer fra GTX 980 Ti til GTX 1080 Ti (til melodien 30% eller mere), mens prisen går op på blot $ 50. I dette tilfælde ser vi generelle præstationsgevinster (uden RT eller DLSS) sidder i 20% -området. Prisen er dog øget $ 300 eller næsten 40% uden præstationsmålingerne i ALLE TITLER for at sikkerhedskopiere den. Vi vil se betydelige stigninger med DLSS i spil, der bruger det, men ray tracing, en teknologi i sin barndom, vil faktisk bremse tingene ned i forhold til kort, der ikke har hardware til at understøtte det. Den positive afvigelse her er meget bedre skygger, refraktioner og refleksioner (billedkvalitet generelt), men det stiller spørgsmålet til potentielle købere, hvis det er 'det værd'. Dem, der elsker det bedste af det bedste, det er en hands-down vinder. Der er intet på markedet, der kan konkurrere med RTX 2080 eller RTX 2080 Ti. Du vil have 4K UHD på ~ 60 FPS, RTX 2080 Ti er dit eneste enkeltkort valg - det første enkeltkort valg i den opløsning med Ultra indstillinger.

Så som man kan se, afhænger det virkelig af, hvilken vinkel du nærmer dig kortet for at afgøre, om det er noget værd at købe. Hvis det er i køberens hoved, skal de se en 1: 1-stigning i ydelse og pris som tidligere, det er simpelthen ikke kortet for den pågældende person. Men hvis man kan se skoven gennem træerne og især spiller nogle af de populære titler, der kommer ud, som vil indeholde ray tracing og DLSS teknologi, er værdiprofilen en helt anden historie. For dem på boblen, som med AMD og Vulkan og alle sine løfter, kan det være til gavn for en ventetid og se tilgang til at se, hvordan landskabet ryster ud med spil, der understøtter kortets evner. Men igen, fra et rent præstationssynspunkt, er der intet hurtigere på markedet nu end RTX 2080 Ti. Og hvis DLSS gør det til nok titler på kort tid, så ser vi ikke tilbage.

NVIDIA GeForce RTX 2080 og RTX 2080 Ti Review er en post fra: Overclockers - Performance Computing Community

Efterlad en kommentar