Nvidia deler nogle Infiltrator 4K DLSS benchmarks

Nvidia har udgivet en blogindlæg beskriver hvor dybt lærende teknologi "Gør Turings grafik skrig". Interessant nok snakker posten specifikt om, hvordan Deep Learning Super Sampling, eller DLSS, giver en "Spring fremad" i grafikbehandling på Turing, da den kører på GPU's Tensor-kerner, hvilket letter byrden på CUDA-kernerne. DLSS erstatter effektivt TAA (Temporal Anti-Aliasing) og derudover er det hævdede at levere bedre kvalitet.

Blogindlægget henviser til Nvidia CEO Jensen Huangs tale på GTC i Europa i sidste uge.

"Hvis vi kan oprette en neurale netværksarkitektur og et AI, der kan udlede og kan forestille os visse typer pixels, kan vi køre det på vores 114 teraflops af Tensor Cores, og som følge heraf øger ydeevnen, mens der produceres smukke billeder. Nå, det har vi gjort med Turing med computergrafik. "

I DLSS genereres nogle pixels af shaders, men andre er 'forestillet' via AI. Et sammenlignende præstationsdiagram, som Nvidia håber demonstrerer breakthoughen blev delt som nedenfor.

Kommentering af diagrammet pralede Nvidia CEO "I hver serie er Turing GPU to gange præstationen". Men denne erklæring passer ikke helt overens med tallene. Det ville have været nyttigt for diagrammet at inkludere FPS målinger af de nye RTX-kort, der kører TAA, og sans-AA type udglatning i disse 4K demoer - men det ville have gjort diagrammet er ganske større og mindre effektivt for Huangs punkt.

Ifølge småprintet blev 4K-benchmarkene taget med maksimalt indstillede opkald og alle GameWorks-effekter aktiveret. Resten af ​​pc-systemet blev konfigureret med en Core i9-7900X 3.3GHz CPU, med 16GB Corsair DDR4-hukommelse, Windows 10 (v1803) 64-bit og v416.25 Nvidia-drivere.

Oprindelig artikel

Efterlad en kommentar

Dette websted bruger Akismet til at reducere spam. Lær, hvordan dine kommentardata behandles.