Alle de nye grafikkortene i RTX 20-serien er basert på Nvidias Turing-arkitektur.

Guide Nvidia Turing-arkitekturen

Alle de nye grafikkortene i RTX 20-serien er basert på Nvidias Turing-arkitektur. (Foto: Anders Brattensborg Smedsrud, Tek.no)

Nvidias RTX-kort åpner en ny æra for 3D-grafikk

Bli med på vårt dypdykk i den nye teknologien.

Det er nå mindre enn en uke til Nvidia lanserer de nye grafikkortene i RTX 20-serien. Først ut blir RTX 2080 Ti og RTX 2080. Disse ventes å bli henholdsvis verdens kraftigste og nest kraftigste grafikkort når de blir tilgjengelig 20. september. Litt senere, i oktober, følger RTX 2070.

RTX 20-serien er bygget rundt en ny arkitektur kalt Turing. Dette er etterfølgeren til Nvidias to år gamle Pascal-arkitektur, som driver dagens GTX 10-serie.

GTX 10- og RTX 20-serien vil sameksistere i en periode fremover der sistnevnte blir alene om å støtte en ny teknologi kalt strålesporing, eller ray tracing, som skal gi oss hittil usett realisme i spill der den støttes. Selvsagt i tillegg til forbedret ytelse. 

Den nye RTX-serien er langt dyrere enn GTX-serien den avløser. Prisene strekker seg fra 6400 kroner for RTX 2070, via 8300 kroner for RTX 2080 og til 11 500 kroner for toppkortet RTX 2080 Ti. De dyreste modellene av toppkortet ligger tett opptil 15 000 kroner, noe som er nesten dobbelt så dyrt som dagens GTX 1080 Ti kan handles for. Tankene om ytelsen og nytteverdien til de nye kortene kan forsvare prisøkningen, eller i alle fall deler av den, skal vi imidlertid spare til testresultatene foreligger neste uke. 

Mens vi venter koster vi heller på oss et lite innblikk i de viktigste nyhetene for Turing-arkitekturen, som altså ikke bare (som så mange ganger før) danner grunnlaget for høyere ytelse – men først og fremst nye effekter og kraftig økt realisme.

Se sammenligningen av GTX- og RTX-kortene lenger ned i saken!

Dette er nytt i Turing

Det er de nye grafikkbrikkene basert på Turing-arkitekturen som er selve stjernen i RTX-kortene. Nvidia mener selv Turing er det største arkitektoniske spranget på over et tiår. Turing skiller seg fra forgjengeren Pascal ved at den kommer med flere maskinvarebaserte akseleratorer og benytter en ny hybrid-renderingmodell som kombinerer strålesporing i sanntid, rasterering, kunstig intelligens og simulering. Dette skal ifølge Nvidia gjøre RTX-kortene i stand til å levere økt realisme og «filmaktige» opplevelser i spill.

Under dette ligger endringer som inntil 50 prosent høyere ytelse per CUDA-kjerne (streamingprosessor) sammenlignet med Pascal, samt et system for å utnytte det nye GDDR6-minne som er raskere og 20 prosent mer energieffektivt enn forrige generasjon GDDR5X-minne. Takket være Turings forbedrede komprimeringsalgoritmer vil det imidlertid være mulig å overføre mer informasjon mellom GPU og minne enn hva den rene økningen i spesifikasjoner skulle tilsi. Faktisk opererer Nvidia med inntil 50 prosent høyere minnebåndbredde for RTX 2080 Ti versus GTX 1080 Ti med GDDR5X-minne.

Det er i hovedsak disse sistnevnte forbedringene som skal være med å øke ytelsen i dagens spill rett ut fra startblokken. De fleste andre teknologiene Turing kommer med må det nemlig bygges inn støtte for i spillene for å utnyttes. Mens dette vil gjøres for en del av dagens spill er det først og fremst nye titler som vil optimaliseres for dem.

RTX-serien får eksklusive grafikkteknologier:
Dette er spillene du kan oppleve dem i »

Får dedikerte Tensor- og RT-kjerner

Slik ser de nye grafikkbrikkene basert pa Turing-arkitekturen ut.

Turing-brikkene er nå produsert med en krympet fabrikasjonsprosess kalt 12 nanometer FinFET Nvidia. I forhold til Pascal-brikkene, som ble produsert med en større 16 nanometer FinFET-prosess, gir dette plass til flere transistorer uten at brikken må bli større. Når Turing-brikkene likevel har vokst i størrelse med inntil 60 prosent i forhold til den største Pascal-brikken er dette fordi Nvidia som nevnt har implementert flere maskinvarebaserte akseleratorer som spiser av plassen.

Egne Tensor-kjerner i Turing-brikken ligger nemlig parate for å støtte avanserte nevrale nettverk. Disse skal akselerere kunstig intelligens for alt fra oppførselen til NPC-er i spill til nye bildeeffekter som DLSS, som vi kommer tilbake til. Nvidia ser også for seg at Tensor-kjernene kan utnytte kunstig intelligens til å forstå når noen jukser i spill.

Tensor-kjernene kan brukes til sa mangt.

Helt sentrale i Turing-arkitekturen er også de såkalte RT-kjernene. Disse er grunnen til at Nvidias RTX-kort skal kunne gi oss det som beskrives som «den hellige gral» for rendering av datagrafikk, nemlig strålesporing, eller «ray tracing» som det heter på originalspråket. 

RT-kjernene er dedikerte til strålesporing-operasjoner og gjør unna kalkulasjoner og simuleringer som trengs for å simulere lyseffekter betydelig raskere enn om dette skulle emuleres i programvare eller kjøres på dagens maskinvare. I praksis kan derfor ikke dagens GTX-kort utnytte denne teknikken da de mangler dedikerte RT-kjerner.

Strålesporing – en ny tidsalder for 3D-grafikk

Strålesporing er en av de aller viktigste og også eksklusive teknologiene som er bygget inn i grafikkort basert på Turing-arkitekturen. Med strålesporing får vi mer realistiske miljøer, materialer og objekter i spill – med skygger, lyssetting, lysbryting og refleksjoner som simuleres i sanntid.

Det er lett a se hva stralesporing bidrar med i Battlefield V til venstre, med refleksjoner i billakken og gaten. I Tomb Raider til hoyre svever figurene ved fontenen over bakken uten riktig skyggelegging, noe stralesporing fikser.

Vi har allerede sett flere eksempler på hvordan strålesporing kan implementeres i spill. For eksempel kan omgivelser reflekteres i store butikkvinduer på gaten eller i den skinnende lakken på en mørk bil mens den passerer. Med strålesporing tipper vi at vi får se flere speil i spill også, da speilbilder for første gang kan se naturtro ut. I Battlefield V så vi dessuten hvordan små og store sølepytter på bakken viste refleksjonene til utbombede bygninger og flammene som sto ut av dem. Tilsvarende endret de regnvåte brostengatene totalt karakter når granater gikk av og badet dem i oransje og røde lys. 

At strålesporing vil være med å endre spillgrafikk for alltid er det ingen tvil om, ettersom den gjør det mulig for spillskapere å simulere effekter som ikke er mulig kun med dagens «Shadow-mapping», som bransjen har brukt for å «lure» oss de siste tiårene. Det store spørsmålet, som vi ikke får svar på med det første, er hvor stor innvirkning strålesporing får på ytelsen og bildeflyten i spill som benytter seg av det. 

Men, Nvidia har i alle fall vært ganske snedige i måten de har implementert strålesporing i sine Turing-GPU-er. Strålesporing-algoritmen, som altså skal finne ut hvordan lys og skygger, refleksjoner og lysbryting med mer skal oppføre seg i et miljø fullt av hindringer, terreng og lignende, fungerer nemlig i revers fra hvordan de fleste tror.

Stralesporing i Turing fungerer ved at straler skytes ut fra ditt synspunkt for a se om de treffer lyskilder. Ikke omvendt, som ville gitt en umulig og ikke minst irrelevant mengde straler a holde rede pa.

I stedet for å spore lysstråler fra selve lyskilden (som sola eller lamper i taket) tilbake til øynene til karakteren din i spillet, kastes heller stråler i revers. De sendes fra kameraet (din synsvinkel) gjennom en slags 2D-ramme inn mot 3D-verdenen og deretter tilbake til lyskilden (e).   

Denne «bakvendte» sporingen er mye mer effektiv enn å skulle spore alle stråler som sendes ut i alle retninger fra en eller flere lyskilder rett og slett fordi det kun er lysstrålene som vil passere gjennom 2D-rammen og nå øynene dine fra 3D-verdenen som er relevant for å rendere scenen du ser.

Noen stråler når øynene dine fra lyskilder direkte, andre blokkeres av trær eller andre objekter i scenen (og skaper da skygger!), mens mange stråler brytes med objekter som vegger, vesker eller eksempelvis damp før de når øynene dine. 

Det som også er helt unikt for strålesporing er at strålene som skytes inn i en scene og brytes av overflaten til andre objekter, påvirkes av både materiale og form slik at både farge og lysstyrke endres før strålen fortsetter videre inn i miljøet. 

Om lys treffer en brunbeiset panelvegg vil eksempelvis lyset som brytes og senere spretter tilbake fra treveggen til miljøet rundt få en varmere og dusere tone enn om lyset hadde truffet en mørk steinvegg eller et gulv av granitt som absorberer med lys. Om lysstråler går gjennom et akvarium, eller et glass med vann for den saks skyld, kan strålene som bryter med vannet endre retning og ta med seg et kjøligere lys inn på varm parkett. Og ettersom alt skjer i sanntid vil skyggene som kastes selvsagt påvirkes av tiden på døgnet når sola vandrer over himmelen og sender fra seg både direkte og indirekte lys inn i scenen.

Se forskjellen på hvordan lyset kan simuleres realistisk med strålesporing, fremfor «lures til» med dagens Shadow Mapping.

Hvor mange stråler som sendes ut fra «kameraperspektivet» og ut i en scene vil i stor grad påvirke hvor realistisk den oppfattes, men selvsagt også hvor hardt RT-kjernene må jobbe. Her må altså spillutviklerne finne en balanse og det blir svært spennende å finne ut hvor godt strålesporing skalerer mellom de tre kortene i RTX-serien, hvor antall RT-kjerner varierer kraftig.

Revolusjonerende kantutjevning (DLSS)

Ingen AA til venstre, med AA til høyre.

I dagens spill renderes bilder av GPU-en før de gjerne sendes gjennom en etterbehandlingsprosess for å jevne ut visuelle feil før du får se dem. Denne prosessen kombinerer for eksempel informasjon fra tidligere bilder eller nabopiksler i samme bilde, eller kan til og med være basert på gjetninger om bevegelsesretning i en serie bilder.

Den største «feilen» bransjen har forsøkt å hanskes med er såkalt Anti Aliasing, eller kantutjevning, hvor objekter som ikke består av vann- eller loddrette, men heller kurvede eller vinklede linjer, ser hakkete ut. Nærmest som de er omkranset av små trappetrinn. Det finnes to typer teknikker for å jevne ut linjer og former i spill, ved siden av å øke skjermoppløsningen. 

Enten kan du be grafikkortet rendere hele scenen i en høyere oppløsning enn skjermen din støtter, for så å nedskalere bildet før det vises (såkalt Super Sampling), eller du kan endre bildet etter at det er tegnet gjennom etterbehandling, eller Post Processing, som vi nevnte i starten. 

Det er likevel en del problemer med dagens løsninger. Det er vanskelig å jevne ut kanter samtidig som man bevarer detaljer og skarphet i bildet, særlig om man ønsker å gjøre dette effektivt, uten å spise for mye systemressurser. 

Basert på kunstig intelligens

Nvidia har jobbet med en ny type kantutjevning som skal løse problemet med de problematiske kantene i 3D-spill over lengre tid. Nå, takket være Turing-arkitekturens Tensor-kjerner og deres store nevrale nettverk kan selskapet ha truffet blink med det de har døpt DLSS, eller Deep Learning Super Sampling.

Disse to utjevningsteknikkene skal vare omtrent like presise, men der SSx64 vil knele maskinen din skal DLSSx2 flyte som smør.

DLSS, som altså er basert på kunstig intelligens, skal ifølge Nvidia levere bilder med mindre ujevnheter og større skarphet, sammen med færre artefakter, enn noen annen kantutjevningsteknikk. For ikke å snakke om at den skal være lynrask og svært lite ressurskrevende. 

Fordi DLSS har ovd pa utjevning i hvert spill pa en superdatamaskin kan den legge inn feilkorrigering for a unngå artefakter som sett hos TAA-teknikken til venstre.

Nvidia snakker faktisk om at spill som drar nytte av DLSS for kantutjevning vil se inntil dobbelt så høy ytelse sammenlignet med om de hadde benyttet mindre presise og mer tradisjonelle kantutjevningsteknikker. For eksempel mener Nvidia at et RTX 2080 Ti kan oppleves som inntil dobbelt så kraftig som et GTX 1080 Ti i spill hvor førstnevnte benytter DLSS og sistnevnte mer tradisjonelle TAA for kantutjevning. 

DLSSx2 skal vare mer effektiv, og som vi ser, også mer presis enn TAA

For å si noe om kvaliteten til DLSS kan vi nevne at Nvidia sammenligner standard DLSS x2 med kvaliteten til 64x Super Sampling, som vi kanskje ikke trenger fortelle er svært krevende og noe som vil gi «slideshow»-effekt i selv eldre spill. 

Dette får Nvidia til fordi de før spill som skal støtte DLSS lanseres, får tilsendt scener fra spillet for at superdatamaskiner kan trene på hvordan kantutjevningen bør tilpasses akkurat dette. Superdatamaskinen utarbeider så et sett algoritmer for spillet som grafikkortet ditt kan laste ned via driveren og utnytte for å gi deg med effektiv og presis kantutjevning. 

Blant spillene som får støtte for DLSS finner vi per i dag 15 som er bekreftet, inkludert Shadow of the Tomb Raider, We Happy Few, PUBG, Seriuos Sam 4, Hitman 2 og Final Fantasy XV.

Smartere «shadere» skal gi høyere ytelse

For å oppnå spilleres krav om økt realisme og flere effekter i spill kan man bygge kraftigere grafikkort. Men om man ønsker å holde effektiviteten oppe og kostnadene nede (det siste kan kanskje diskuteres om Nvidia har lyktes med!) må man også utnytte maskinvaren man har smartere. Det er nettopp dette Nvidia gjør med en ny teknikk de kaller Variable Rate Shading, som kort fortalt går ut på å bare bruke ressursene til krevende shading (fargelegging, skyggelegging av flater og objekter) der det er mest hensiktsmessig og altså merkbart for deg som spiller.

Nvidia har allerede funnet måter å unngå å bruke ressurser på shading når man spiller med et VR-hodesett, basert på synsfelt og hvilken vei du kikker. I Turing introduserer de imidlertid tre nye teknikker for smart bruk (eller ikke-bruk!) av shadere som også kan gi solide ytelsesløft for PC-spillere som sitter bak en vanlig skjerm.

De tre teknikkene heter «Content Adaptive Shading», «Motion Adaptive Shading» og «Foveated Rendering». Førstnevnte reduserer shading i områder som skifter farge sakte. Motion Adaptive Shading reduserer shading for objekter som er i bevegelse og hvor detaljer uansett ikke er synlige på dagens LCD-skjermer, mens sistnevnte teknikk reduserer shading av miljø som befinner seg langt unna synsfeltet ditt. 

Felles for teknikkene er at de gir spillutviklere bedre kontroll over hvilke områder som skal behandles med shadere og hvor ofte det skal skje. Gjøres optimaliseringsjobben riktig kan det frigjøre mye ytelse som kan settes inn på å øke realismen og detaljnivået for objekter du legger merke til.

For å illustrere kan vi se på bildet under. Uten variable shading-teknikker måtte det blitt kalkulert skyggelegging og farge for hver eneste individuelle piksel, for hver eneste bilde. Det blir mange krevende kalkulasjoner når vi trenger minst 30 bilder hvert sekund. 

Her shades bilen for hvert bilde, mens veien og grøfta i sidesynet bare shades på nytt for hver fjerde bilde ettersom de ikke skifter farge like ofte og er i bevegelse slik at du uansett ikke ser eventuelle feil på dagens LCD-skjermer.

Nå kan ulike områder innenfor 16 x 16 piksler av bildet shades basert på syv forskjellige algoritmer. En kan dermed tenke seg at det blå området i bildet (bilen) shades for hvert bilde, mens det grønne området bare shades på nytt for hvert fjerde bilde og det gule området hvert åttende bilde da det kanskje er utenfor fokus eller i alle fall får relativt få detaljer som endrer seg fra bare ett bilde til et annet. 

Under Nvidias Editors Day fikk vi som var til stede se de ulike formene for variabel shaderbruk i praksis i Wolfenstein II. Gjennom demo, hvor Content Adaptive Shading ble slått av og på, var det nøyaktig null personer som så forskjell på om det var alle shadere som ble behandlet for hvert bilde, eller bare de som skiftet farge. En FPS-teller i hjørnet fortalte oss imidlertid at grafikkortet merket stor forskjell.

Områder med like farger shades ikke for hvert bilde. Ser du forskjell på de to bildene? Maskinen din merker i alle fall forskjell og kan bruke kraften på å tegne flere bilder i stedet for detaljer du ikke ser i hvert eneste bilde.

RTX 20-serien vs GTX 10-serien

Modell (Founders Edition) Nvidia RTX 2070 Nvidia RTX 2080 Nvidia RTX 2080 Ti Nvidia GTX 1070 Nvidia GTX 1080 Nvidia GTX 1080 Ti
Arkitektur Turing Turing Turing Pascal Pascal Pascal
Grafikkpros. TU106-200 TU104-400 TU102-300 GP104-200 GP104-400 GP102-300
Prosess 12 nm FFN 12 nm FFN 12 nm FFN 16 nm FF 16 nm FF 16 nm FF
Brikkestørrelse 445 mm2 545 mm2 754 mm2 314 mm2 314 mm2 471 mm2
TFLOPS 7,9 10.6 14.2 6.5 8.9 11.3
Tensor-kjerner 288 368 544
RT-kjerner 36 46 68
RTX-OPS/s 45 60 78 6.5 8.9 11.3
Giga Rays/s 6 8 10 0.65 0.89 1.1
Kjernefrekvens 1410 MHz 1515 MHz 1350 MHz 1506 MHz 1607 MHz 1480 MHz
Boost-frekvens 1710 MHz 1800 MHz 1635 MHz 1683 MHz 1734 MHz 1582 MHz
Effektiv minnefrekvens 14 GHz 14 GHz 14 GHz 8 GHz 10 GHz 11 GHz
Minnetype 8 GB GDDR6 8 GB GDDR6 11 GB GDDR6 8 GB GDDR5 8 GB GDDR5X 11 GB GDDR5X
Minnebus 256-bit 256-bit 352-bit 256-bit 256-bit 352-bit
Båndbredde 448 GB/s 448 GB/s 616 GB/s 256 GB/s 320 GB/s 484 GB/s
Streampros. 2304 2944 4352 1920 2560 3584
Transistorer 10.8 mrd. 13.6 mrd. 18.6 mrd. 7.2 mrd. 7.2 mrd. 12 mrd.
TMU 144 184 272 120 160 224
ROP 64 64 88 64 64 88
Strømkontakt 8-pinner 8+6-pinner 8+8-pinner 8-pinner 8-pinner 8+6-pinner
Typisk forbruk 185 W 225 W 260 W 150 W 180 W 250 W
Lansert Oktober 2018 September 2018 September 2018 Juli 2016 Juni 2016 Mars 2017
Lanseringspris 6400 kr 8300 kr 11 500 kr 4900 kr 7600 kr 7600 kr
Laveste pris 12.09.18 6400 kr 8300 kr 11 500 kr 3900 kr 5000 kr 7500 kr

Av spesifikasjonstabellen ser vi at kun RTX 2080 Ti er basert på den fulle Turing-brikken, kalt TU102. RTX 2080- og RTX 2070 er på sin side basert på nedskalerte versjoner av brikken med færre transistorer, Tensor-kjerner, RT-kjerner og CUDA-kjerner (Streamprosessorer) for å treffe et lavere prissegment med lavere ytelse men også ditto strømforbruk. 

I forhold til de Pascal-baserte forfølgerne ser vi også at strømforbruket jevnt over har økt. Dette skyldes den langt større grafikkbrikken og de nye maskinvarebaserte akseleratorene. 

Alle de nye Turing-baserte kortene får GDDR6-minne, med samme effektive frekvens på 14 GB/s. Takket være en bredere minnebus øker imidlertid den potensielle minnebåndbredden for toppkortet, RTX 2080 Ti. 

Antall transistorer ha økt med 55 prosent fra GTX 1080 Ti til RTX 2080 Ti, men en del av disse utgjør de nevnte Tensor- og RT-kjernene, så de er ingen god indikasjon på ytelsen til de nye kortene alene.

Hos de nye RTX-kortene introduserer Nvidia derfor en ny ytelsesberegning kalt RTX-OPS. Dette høres fancy ut, men er egentlig bare en verdi fra en formel som Nvidia mener vil synliggjøre den samlede ytelsen til grafikkortene deres når man tar RT- og Tensor-kjernene (som jo ikke alltid vil være aktive eller som kan benyttes til ulike ting), med i beregningen sammen med steamprosessorene. 

Dette er formelen for Nvidias RTX-OPS, som de bruker for å skille ytelsen til de nye RTX-kortene.

Skroter SLI

I en årrekke har man kunne koble sammen to Nvidia-kort for økt spillytelse med en SLI-bro. Nå har SLI-teknologien pensjonert seg, men opp av asken stiger NVLink. NVLink muliggjør i praksis akkurat det samme som SLI, men byr på betydelig høyere båndbredde og lavere forsinkelse i kommunikasjonene mellom kortene. I motsetning til SLI-oppsett skal NVLink la kortene dele minnet med hverandre, der det tidligere bare var minnet til ett av kortene som ble benyttet. Blant annet muliggjør delt minne visning av høyere oppløsning. Nvidia har dessverre droppet NVLink-støtten fra RTX 2070, dog.

Båndbredden til den nye NVLink-standarden er voldsomt forbedret og lar grafikkort dele minnemengden mellom seg.

De nye RTX-kortene kan drifte skjermer med inntil 8K-oppløsning i 60Hz gjennom DisplayPort 1.4a-utgangen, men blir for øvrig også først på markedet med støtte for USB-C 3.1 Gen2-basert VirtualLink-utgang. Denne nye standarden for overføring av strøm (inntil 27 watt) og bilde oppfyller kravene til å drifte dagens og morgendagens VR-hodesett gjennom én kabel. Ingen av RTX-kortene (i alle fall fra Nvidia selv) støtter imidlertid DVI lenger. 

RTX-kortene kommer med nye utganger, blant annet USB-C-baserte VirtualLink for enklere tilkobling av dagens og morgendagens VR-hodesett.

Test av RTX 2080 og RTX 2080 Ti neste uke

Tekniske detaljer og nye teknologier er alltid spennende, og vi skulle gjerne ha nevnt enda flere av de underliggende Turing-teknologiene her. Med de største nyhetene ute av sekken bør du likevel ha fått en idé om hva den nye arkitekturen og de nye kortene betyr.

Men, så er det jo slik at dersom ytelsen ikke holder følge, eller bruken av teknologiene uteblir, betyr de heller lite. Med driveren i hånd låser vi nå døra til testbunkersen bak oss og planlegger å tilbringe dagene fremover med testing av både RTX 2080 FE og RTX 2080 Ti FE. Vi er like spente på ytelsen til de to nye grafikkortene som dere, og når døra går opp onsdag neste uke håper vi å ha en del svar å komme med. Vi lover i alle fall mange herlige ytelsesgrafer, tall og tanker om Nvidias nye RTX-kort.

Enn så lange kan du kikke på Nvidias egne målinger:
Enkelte spill skal få dobbelt så høy ytelse med RTX 2080 Ti »

Norges beste mobilabonnement

Sommer 2018

Kåret av Tek-redaksjonen

Jeg bruker lite data:

Komplett MiniFlex 1 GB


Jeg bruker middels mye data:

Komplett MedioFlex+ 6GB


Jeg bruker mye data:

Chili Fri Data


Jeg er superbruker:

Chili Fri Data


Finn billigste abonnement i vår mobilkalkulator

Forsiden akkurat nå

Til toppen