Til hovedinnhold

Dette er Nvidias nye skjermkort

Nvidia har mye å hente igjen, vi introduserer deg for deres neste generasjon med grafikkprosessorer.

Introduksjon

Ser vi tilbake til sommeren 2009, var Nvidia uten tvil den store kongen på grafikkortmarkedet. Det hadde de vært en god stund også, AMD/ATI lå lenge et lite hakk bak.

23. september 2009 ble derimot alt endret. AMD slapp den lenge etterlengtede 5-serien. På kort tid var Nvidia virkelig satt til side, og AMD banket ut det ene gode kortet etter det andre.

Produksjonsproblemene på 40 nm-teknikken hos TSMC gjorde ikke ting spesielt mye bedre for noen av partene. Uansett, Nvidia mistet buksene, og de har enda ikke dratt de opp igjen.

Under CES i Las Vegas ble et lite knippe av IT-journalister tatt med på en egen visning hos Nvidia. De ble presentert for deres nye kjerne, GF100. Nå har de offentliggjort et 31 sider langt dokument som omhandler deres nye, store satsning.

GF100 er kodenavnet for den prosessoren som skal bli Nvidias svar på det store spranget AMD har tatt inn i DirectX 11- verdenen. GF100 er basert på Fermi-arkitekturen, og kan skilte mange spennende funksjoner. Denne grafikkprosessoren skal matche Radeon HD 5870, det er altså den komplette kjernen for alle de nye skjermkortene. En rekke degraderte versjoner av denne kjernen vil også lanseres som mer økonomisk vennlige skjermkort.

I denne artikkelen skal vi ta for oss og gå i dybden på GF100. Vi skal se på funksjonene den tilbyr, og hvordan dette kan matche AMDs tilsvarende kort. Nøyaktige spesifikasjoner på de nye skjermkortene er fortsatt strengt hemmeligholdt, og lite er sikkert akkurat her.

Vi kan også nevne at de fleste bilder i denne artikkelen, og ikke minst de tallene vi måtte oppgi rundt ytelsen, er tall Nvidia har servert oss. Vi vil dermed ikke gå helt god for alt, men alt vi skulle oppgi er uansett en god pekepinne. Grunnen til at vi ikke gjør tester på kortet selv, er ganske enkelt det at kortet faktisk ikke eksisterer enda, i det miste ikke for andre enn teknikerne hos Nvidia.

Vår store kilde til denne artikkelen er denne .pdf-filen. Denne artikkelen er nok ikke for alle, den vil bli teknisk. Noen vil kanskje mene at dette er en oversatt versjon av kilden vår, men vi håper vi kan gjøre ting mer forståelig, og ikke minst presentere det på vårt språk. Samtidig håper vi dette vil være en god innføring for mange, spesielt når testene av de aktuelle skjermkortene kommer utover våren. Jeg angrer nemlig litt på at jeg ikke gjorde noe lignende når AMD lanserte 5-serien.

Bla om, så skal du få møte den mye omtalte og nesten mytiske GF100!

Kjente spesifikasjoner

Det eksisterer ikke enda noen full spesifikasjonsliste på GF100-kjernen, men enkelte tall har vi fått tak i.

  • 3 milliarder transistorer
  • 512 Cuda-prosessorer
  • 16 geometri-enheter
  • 4 raster-enheter
  • 64 texture-enheter
  • 48 ROPs
  • 40 nm
  • 384-bit GDDR5 minne
  • DirectX 11

Nvidia kan nå skilte med hele 512 shader-prosessorer. Shader-prosessorer tenker kanskje du, det har da ikke vi oppgitt i listen over? Joda, Nvidia har bare bestemt seg for å gi dette et nytt og kult navn – Cuda. For å unngå enda mer forvirring rundt begrepene vi skal omtale videre, vil vi droppe Nvidias spesielle navn på ting, og kalle ting for det de faktisk er, en fisk for en fisk.

Når vi først er i gang, kan vi klargjøre enda en ting. RV870 er et ord som vil dukke opp flere steder. Dette er ATIs nyeste kjerne, og fullversjonen av denne ble pakket inn i kortet som selges som Radeon HD 5870. GF100-kjernen er Nvidias nyeste og "lignende" kort.

Noe som ofte er en god pekepinne for ytelsen et skjermkort kan levere, er antallet transistorer. RV870 hadde 2,15 milliarder. På bildet over ser dere hva Nvidia har snekret sammen. Inn på en utrolig liten brikke er det klemt inn hele 3 milliarder transistorer. Det er en god del, for og si det mildt.

AMD kunne med deres kjerne skilte med 32 ROPs, og Nvidia kliner nå til med 48 stykker. De kjører også på med minnebåndbredde på 384-bit. Dette er ofte den store gullnøtten når det kommer til overklokking, dette er et punkt hvor Nvidia ofte har hatt et godt forskudd. Flere av kortene i 2xx-serien hadde en høy minnebåndbredde.

Generelt sett kan vi si at Nvidia har økt antallet enheter på de fleste punkter, om vi sammenligner med RV870. I tillegg hevder de at måten kjernen er konstruert på skal være mer effektiv, noe som igjen fører til en høyere ytelse selv om det ikke nødvendigvis er flere av enkelte enheter.

Klar for litt mer? Vel, hva venter du på, bla om til neste side da vel!

Kjernen

Velkommen til side 3, nå skal du få se hvordan Nvidia har planlagt at kraften i deres nye grafikkprosessor skal dirigeres og behandles. Hvis du støter på et par begreper du kanskje ikke skjønner helt, så håper jeg at de neste sidene vil forklare en god del. Mye, men ikke alt vil bli forklart der. Merk også at enkelte akronymer har en stiplet linje under seg, hold musepekeren over disse og en forklaring vil poppe opp. Magisk, eh?

Klikk for større versjon

Ble du litt svimmel da du så bildet over? Vel, jeg håper jeg kan få brutt det meste ned for deg. Ting er ikke nødvendigvis like komplisert som det ser ut til. Men, for all del, det er komplisert.

Diagrammet dere ser over et forenklet blokkdiagram, for det som er kjent som GPC-arkitektur. Det dere ser over er vertsgrensesnittet, også kjent som gigathreadmotoren til Nvida.

Brutt ned er det her snakk om seks minnekontrollere, L2 hurtigminne på 786 kb og fire GPC-pakker. Sistnevnte består igjen av fire polymorph-motorer, ROPs, shader-prosesorer og flere andre godsaker. Ett av fokusområdene til GF100 er geometrisk prossesesering og tesselation. Det skal skape et mer realistisk 3D-bilde som du kanskje kjenner igjen fra filmer. Vi skal gå dypere inn på akkurat dette senere, men enkelt fortalt er det her snakk om massive mengder detaljer, ikke kun et flatt bilde av noe som egentlig er buet.

Skjermkort slik som GTX 280 og GTX 285 kom ed 30 ROPs, mens det nå er snakk om hele 48 slike enheter. Disse jobber i all hovedsak med å blande piksler, noe de fleste vil kjenne igjen som AA. Dette er den funksjonen som glatter ut grafiske kanter i 3D-modeller, den funksjonen som unngår at spillet ditt ser ut som det nye byggesettet fra Lego.

Det er 16 grønne pakker på bildet over, dette er shader-prosessorene. Det er fire slike i hver GPC-pakke, hvor hver av disse består av 32 prosessorer. Det er 512 stykker totalt, mer enn en fordobling fra den forrige generasjonen med skjermkort. Videre er det bakt inn to lag med hurtigminne, L1 og L2. Både over og under disse pakkene finner vi raster- og polymorph-motorer. Disse fungerer i praksis som små prosessorer, i likhet med prosessoren på hovedkortet ditt.

Polymorph-motoren ble tatt inn i grafikkortene som en del av tidens utvikling. Tesselation er noe vi skal komme tilbake til, men denne funksjonen alene byr på mer jobb for skjermkortet. Mer kraft på enkelte steder i selve kjernen var nødvendig. Her kommer Nvidias kjerneeffektivitet inn i bildet. Fremfor å sette denne motoren som en helt separert enhet, er nå flere mindre enheter bakt inn i den generelle kjernen.

Slik, da håper jeg i det minste du har fått det store bildet over til å se ut som noe annet enn et stort kaos. Vi kan forklare dypere over mange sider hvordan dette henger sammen, men vi ser ikke det store poenget i det. Det vi derimot skal gjøre, er å forklare deg hvordan akkurat du får nytte av denne kjernestrukturen. Nå er det på tide å snakke om de funksjonene GF100 tilbyr. Neste side, takk!

DirectX 11

Jeg synes nesten det er litt morsomt å tenke tilbake på DirectX-verdenen. Både versjon 8 og 9 bød på en rekke nye funksjoner og gode muligheter. Versjon 8 introduserte vertex- og piksel-shader i år 2000. To år senere kom DX9, noe som innebar Shader Versjon 2.0. Denne hadde betydelig større kapasitet.

DX10 derimot, ble mer enn mindre droppet av mange utviklere. Majoriteten av spill i dag bygger forsatt på DX9, selv om mange også kommer med støtte for DX10. Grunnen til at denne oppgraderingen nesten gikk i glemmeboka, er nok alt for enkel. Microsoft gjorde nemlig tiårets genistrek ved og kun implementere støtte sammen med Windows Vista, noe vi alle vet ikke ble et unikt populært operativsystem. I dag er derimot Windows 7 på plass, med full støtte for DX11.

GF100 kommer som forventet med full støtte for DX11, alt annet hadde bare vært megateit. Nvidia er derimot ikke først i verden på dette, AMD fikk det på plass et halvt år før Nvidia hadde muligheten. La oss se litt på nøyaktig hva dette innebærer. Her går vi bare kjapt igjennom noe av det viktigste.

Tesselation

Tesselation er uten tvil det mest spennende ved DirectX 11. Av den grunn har vi dedikert en hel side til dette.

Multi-Threading

Dette er funksjonen som lar brukere med flerkjernede CPU-er få en økt hastighet i spillet. Med denne funksjonen vil grafikkortet skalere over flere av kjernene, samtidig som utviklerne kan utnytte kraften på en mer effektiv måte. Spillet ditt vil få en økt FPS, samtidig som detaljgjengivelsen blir ivaretatt.

Directcompute

CPU-en og GPU-en vil i årene fremover jobbe mer og mer sammen. Tidligere var dette to helt forskjellige komponenter med hver sin oppgave. I dag, med blant annet Directcompute, jobber de sammen. Spillutvikleren kan utnytte kraften i CPU-en til å øke hastigheten i både spill, kontoroppgaver og under videoredigering.

Shader Model 5.0

Shader ble først introdusert med DX8 i 2000, og det har nå kommet en lang vei. DX11 byr på versjon 5.0 av denne funksjonen, noe som i all hovedsak gjør ting lettere for utviklerne. Det betyr derimot ikke at dette ikke innholder fordeler for deg, for det gjør det. Når ting går lettere for utviklerne, kan de lage flere grafiske detaljer på kortere tid. Det blir vanskeligere å fremkalle "bugs", fordi en rekke parametere blir fastsatt om hverandre.

Tesselation

Tesselation har vært til stede en stund allerede, men det var ikke før AMD kom på banen med DirectX 11 at dette ble noe mange faktisk ville benytte seg av. Vi skal nå gå litt inn på hvorfor akkurat dette søte ordet er noe du virkelig bør bry deg om i tiden fremover.

La oss først ta et konkret eksempel. Bildet over er hentet fra spillet Far Cry 2 (vel, egentlig har vi hentet det fra Nvidia's PDF-fil). Dette er et spill med relativt god grafikk og sterke farger.

Først, hvorfor tror du at denne personen bruker hatt? Fordi karakterskaperne ønsket det? Vel, det er kanskje en del av sannheten, men det som virkelig er den store grunnen er det at damehår alene er noe grafikkortet ditt ikke vil klare å sette sammen, uten at hun ville sett ut som ei skikkelig burugle. De har gikk denne karakteren hatt, så grafikkortet ditt skal slippe og konstant jobbe med det blonde håret som blafrer i vinden.

Se på det lille metalltaket. Dette skal egentlig være bølgete. Selv om det kanskje ser slik ut, er det ikke bølgete. Det er flatt, med det er farget for å gi det litt dybde. Dette er også et eksempel på hva spillskapere gjør for å spare skjermkortet ditt, samtidig som det gir deg et til dels realistisk bilde

Tesselation er en funksjon som skal gjøre 3D-objekter mer detaljert og naturlige. Det skal få bukt med problemet at 3D-dimensjonale flater ikke skal være skapt på en flate med farget overflate. Det skal gi en faktisk dybde, uten å kreve mye fra grafikkprosessoren.

The “Imp” © Kenneth Scott, id Software 2008, Via Nvidia

Bildet over viser hvordan en figur i et hvilken som helst spill skapes. En rekke geometriske former settes sammen, og skaper grovskissen til karakteren. Grafikkprosessoren jobber litt, og skaper en mykere overflate som dere kan se på karakteren i midten. Selv om ting her er litt overdrevet, ser det fortsatt ut som vi ligger 10 år tilbake i tid. Figuren til høyre derimot, er noe vi alle kan akseptere. Frem til DX11 med tesselation kom på banen, ville det kreve usaklig mye kraft fra grafikkortet for å oppnå dette sluttresultatet. Tesselation gjør derimot denne jobben betydelig mer effektivt, nesten uten å påvirke spillets generelle ytelse.

Det nye med tesselation, er at det nå er integrert i selve GPU-en. AMD hadde dette på plass i deres 5-serie-kort, og GF100 kommer også med støtte for dette. Kort fortalt gir altså tesselation deg utrolig mange flere detaljer i et 3D-bilde "on the fly".

Tesselation bryter overflaten til et objekt ned til utallige små geometriske former. Dette er ikke noe som bare vil gi flotte damer et mer realistisk hår, eller mer detaljerte monstre. Naturscener vil også få en betydelig økt følelse av at ting, ja, er naturlig. For å vise dere lesere hvor stor denne forskjellen kan være, har jeg tatt meg friheten til å hente inn et par bilder fra det gode folket hos Guru3d.com.

Jeg trenger neppe å si mer enn det bildene viser, tesselation er gull verd!

Bildekvalitet

Begrepet AA, eller Anti-Aliasing om du vil, burde være kjent for mange. Dette er en funksjon som har vært tatt i bruk over en rekke år nå, og oppgis ofte som f.eks "4xAA". Dette er den funksjonen som glatter ut kanter, får ting til å se glattere ut og ikke bare "hakkete" ved hver overgang mellom piksler.

Så, når dette overhode ikke er noe nytt, hvorfor nevner vi det? Vel, Nvidia har lagt til en ny modus akkurat her. De har kalt det Accelerated Jittered Samplig, noe vi vil omtale som AJS fremover.

På bildet over er det benyttet tesselation på døren, fordi kulehullene faktisk er bøyd innover. Se litt nærmere på våpenet, kantene er hakkete. AJS er ikke inne i bildet her, bare normal AA. Hvor mye AA det er snakk om vet vi ikke, men det endrer ikke situasjonen. Det AJS skal gjøre er faktisk å lage mer støy i bildet. Det klaskes på med lignende farger rundt kantene, noe som på skjermen får det hele til å se glattere ut.

Nvidia har implementert dette under noe som heter 32xCSAA, eller bare 32xAA om du vil. Dette er et utrolig høyt tall, i dag ser jeg meg selv mer enn fornøyd nok med 4xAA i de fleste spill. Alle vet at desto mer Anti-Aliasing man kjører på med, desto større blir ytelsestapet. Med denne nye modusen, skal det derimot bare være snakk om et lite ytelsestap, i forhold til den grafikken du får se.

Bildet over er hentet fra den o-hellige .pdf-filen til Nvidia, så ta det hele med en klype salt. Til venstre ser vi GTX 280 med 16xCSAA, til høyre er GF100 med 32xCSAA. Selv om dette ikke er et resultatet vi har opparbeidet, er det klart at GF100 vil by på en betydelig bedre form for AA, uten å slakte ytelsen i spillet.

Flere skjermer

Flere skjermer? Ja takk!

Frem til i fjor høst hadde man en helt vanlig begrensing på skjermkortene. Du kunne ikke koble til mer enn to skjermer. Vel, det er ikke hele sannheten, du kunne koble til mange skjermer til Matrox-kort og lignende. Problemet her var bare at ytelsen aldri var i nærheten av noe du kunne spille på.

Med AMDs "Eyefinity" ble dette en mulighet. Eyefinity lar deg koble til opptil 6 skjermer, hver med en oppløsning på 2560 x 1600 piksler. Om du ville strekke disse til ett massivt bilde, eller seks individuelle skjermer var helt opp til deg.

Eyefinity var faktisk et lite motsvar på den visuelle fronten, for Nvidia har allerede lansert 3D-støtte med sine kort. Dette kan ikke AMD skilte med, og nå kan det se ut som Nvidia virkelig kommer til å hente mange poeng akkurat her. De kaller det "3D Surround". Selv om navnet indikerer 3 dimensjoner, kan du også benytte deg av denne teknologien til normal 2D-bruk.

3D Surround vil riktig nok ha en maksimal støtte på tre skjermer. Under normalt bruk, til både spilling om kontoroppgaver, kan tre skjermer hver ha en maksimal oppløsning på 2560 x 1600 piksler. Skal du benytte deg at 3D-teknologien, er oppløsningen begrenset til tre skjermer på 1920 x 1080 piksler. Hvorfor bildehøyden er satt til 1080 og ikke 1200 piksler vet vi ikke, men sistnevnte hadde vært foretrukket. Bildet kan spres sammensatt over de tre skjermene, alternativt kan skjermene være individuelle enheter.

En liten ulempe med Nvidias teknologi, er at tre skjermer krever to skjermkort. AMD lar deg koble til 3 eller 6 skjermer på ett enkelt kort, men Nvidia krever at du bruker to skjermkort som kjører i SLI. Tre 30" skjermer er dyrt nok i seg selv, og at du da må legge flere tusenlapper inn i potten for et ekstra skjermkort kunne godt vært unngått. Men, slik er nå ting foreløpig.

Oppsummering

Alt vi har diskutert her i dag rundt Nvidias kommende grafikkprosessor, GF100 på Fermi-arkitekturen, er basert på informasjon de selv offisielt har gitt ut. Vi, eller noen andre for den saks skyld, har enda ikke fått hendene rundt ett av de nye grafikkortene. Det betyr dermed at sluttproduktet ikke er testet på en objektiv måte, men vi vil uansett si at alt vi har redegjort for i dag, definitivt betyr at tiden fremover blir spennende.

Spørsmålet nå blir om de vil klare å ta opp kampen mot AMD når det gjelder praktisk ytelse. Alle funksjonene og teoriene vi har sett på i dag ser lovende ut, men det hjelper neppe hvis ting ikke presterer i praksis.

Vi kan i det minste love at vi skal være hardt frempå og bringe dere nye tester av de kommende GF100-skjermkortene. Noen nøyaktig lanseringsdato er ikke kjent, med "tidlig mars" har vært en gjennomgående hinting. Tidlig mars er også datoen for når Cebit finner sted, og der skal vi være representert!

Hva tror du om GF100? Vil dette holde, sett i forhold til hva AMD har levert denne høsten og vinteren? Diskuter i formtråden under annonsen!

(Kilder: Nvidia, Guru3d)

annonse