TEST: Nvidia GeForce GTX 680

Test Nvidia GeForce GTX 680

Nå har Nvidia det raskeste skjermkortet

Toppmodellen «Kepler» er endelig her, spekket med fremtidens teknologi.

Annonsør­innhold
Les hele saken »

Det har kokt hardt de siste ukene, men nå er det offisielt. Nvidias nye toppskjermkort, produktet som skal yppe med AMDs Radeon HD 7970 er endelig her. Si velkommen til Kepler, GK104 eller bare GeForce GTX 680 om du vil – Nvidias splitter nye skjermkort for entusiastene.

Her har Nvidia virkelig bakt inn mye nytt og spennende, og vi skal fortelle deg alt i denne testen. Ryktene har vært utrolig mange den siste tiden, og overraskende nok har veldig mange av dem vært direkte feil. Det er på tiden å få de harde faktaene på bordet, og se om Nvidia kan ta tilbake tronen som AMD relativt elegant rappet fra dem før jul.

Kjernen til GTX 680
Kjernen til GTX 680

Nvidia er ikke nådige – i følge dem selv skal dette være verdens raskeste skjermkort, på alle mulige måter.

Full tilgjengelighet

Forrige uke satt jeg på et hotellrom i London sammen med snaut 20 andre europeiske teknologijournalister. Vi ble alle fortalt om hva det nye skjermkortet skulle by på av Nvidias tekniske markedsføringsdirektør, Tom Petersen. Samtidig nærmet et lasteskip seg Suezkanalen på vei til Europa fra Taiwan, lastet med rykende ferske skjermkort.

Disse kortene, GTX 680, ligger nå i butikkhyller her i Norge. Dagen i dag er ikke bare en lansering av kortet, det skal også være tilgjengelig i anstendige mengder for salg fra og med klokka 15.00 i dag.

For deg som ikke liker å bygge maskinen din selv, vil det også komme fire komplette maskiner rundt om i Europa med skjermkortet i seg ved lansering. Én av disse skal komme på det norske markedet, og skal bygges av Komplett.

Basert på GTX 480

Det er omtrent bare hvert femte år vi ser et helt nytt skjermkortdesign. Forrige gang Nvidia gjorde dette var da GTX 480, Fermi, ble lansert for temmelig nøyaktig to år siden.

GTX 680 er basert på Fermi-kjernen, som ble redesignet og effektivisert da GTX 580 ble lansert. Selve kjernearkitekturen er nå i stor grad den samme, med den er nok en gang effektivisert og forbedret på en rekke punkter.

Det mest spennende grepet som er gjort er at selve SM-enhetene, de små grønne bitene på bildet til høyre som gjør det meste av jobben, er samlet i større grupper. GTX 480 hadde 32 enheter for hver kontrollenhet, GTX 680 har 192 av dem.

Det skal doble ytelsen per watt, sett opp mot forgjengeren.

De 192 prosessorene er samlet i åtte grupper som Nvidia kaller SMX-er, og skal sammen la GTX 680 tegne et lagt bedre grafisk bilde enn før, uten at det slår spesielt mye ut på effektforbruket.

Har krympet kjernen

I likhet med AMDs toppmodell, HD 7970, har Nvidia nå beveget seg over på 28 nm som produksjonsteknikk. Det betyr at hver enkelt transistor i kjernen er mindre, noe som i sin tur betyr at Nvidia har klemt inn flere av dem på samme område som før. I dette tilfellet er det snakk om 3,54 milliarder av dem.

Det er en økning på over en halv milliard enheter. Sammen med SMX-teknologien har Nvidia nå pakket inn hele 1536 CUDA-kjerner, eller streamprosessorer om du vil. Det er ganske enkelt hele tre ganger flere enn før.

Minnemengden er også økt, opp fra 1,5 GB til 2 GB. Frekvensen ligger nå på hele 6008 MHz, noe som også er et helt ny rekord for GDDR5-minne.

Da AMD lanserte HD 7770 kunne de skryte på seg verdens høyeste kjernefrekvens, 1000 MHz. Dette kan Nvidia naturlig nok ikke la stå, så de har gitt GTX 680 en klokkefrekvens på intet mindre enn 1006 MHz. Men akkurat her har Nvidia kommet opp med en genistrek. De har faktisk gjort om hele måten man tenker frekvens på et skjermkort.

Som spesifikasjonstabellen lenger ned på denne siden kan fortelle har skjermkortet også en boost-frekvens på 1058 MHz, som skal være med på å radikalt øke ytelsen i flere applikasjoner og spill. Dette er en temmelig stor del av produktet, som vi skal snakke mye om dette på neste side.

Ny kjøleløsning

En av punktene som gjorde GTX 580 til et godt skjermkort, var den nye kjøleløsningen. Den baserte seg på et kondenseringskammer som effektivt trakk varmen vekk fra kjernen, uten at støynivået var nevneverdig høyt.

Denne gangen har Nvidia basert kjøleren på varmerør. Fire rør ligger som slanger over grafikkprosessoren, og fører den opp til en rekke kjølefinner. Disse har fått spesielle profiler for å senke støynivået, samtidig som det er implementert flere teknikker for å dempe støynivået i selve viften. Totalt mener Nvidia at dette skal skape et langt mer stillegående skjermkort enn hva konkurrentene kan skilte med.

Samtidig har de laget en ny API til hele GTX 600-serien, slik at produsenter som EVGA, MSI, Asus og alle andre kan lage solide verktøy til deg. Med disse skal du kunne se alt av frekvenser, turtall, temperaturer og mye mer, samtidig som du skal kunne endre dem etter dine behov.

GTX 680 skal videre ha et maksimalt strømforbruk på bare 195 W, noe som betyr at det ikke trenger mer enn to 6-pins PCIe-kontakter for strømtilførsel. På bildesiden finner vi to DVI-tilkoblinger, én HDMI 1.4a og én Displayport 1.2.

Bli med til neste side, så skal vi se på de nye funksjonene som GTX 680 bærer »

Modell
Geforce GTX 580
Radeon HD 7970
Radeon HD 6970
GeForce GTX 680
Grafikkprosessor
GF110
Tahiti XT
Cayman GK104
Kjernefrekvens
772 MHz
925 MHz
880 MHz 1006 MHz
Boost-frekvens - - - 1058 MHz
Prosess
40 nm
28 nm
40 nm 28 nm
Minnefrekvens (eff.)
4008 MHz
5500 MHz
5500 MHz 6008 MHz
Minnemengde
1536 MB GDDR5
3072 MB GDDR5
2048 MB GDDR5 2048 MB GDDR5
Minnebusbredde
384-bit
384-bit
256-bit 256-bit
Streamprosessorer
512
2048
1536
1536
Transistorer 3 mrd.
4,31 mrd. 2,64 mrd. 3,45 mrd.
TMU
64
128
96
128
ROP
48
32
32 32
Maks strømforbruk
244 W
250 W
250 W 195 W

Uavhengig av hvilken ytelse og pris skjermkortet måtte ha, som vi skal ta for oss på de neste sidene, må vi se på hvilken teknologi Nvidia har pakket inn i GTX 680. De rene spesifikasjonene redegjorde vi for på forrige side, men dette skjermkortet er langt mer enn bare dét.

GPU Boost

Vi tar den største nyheten først, som den jeg selv er mest imponert over, GPU Boost. Det Nvidia her har gjort er ganske enkelt å skrive om hele kapittelet for hvordan vi tenker klokkefrekvenser i kjernen til et skjermkort.

Prosessorer i dag har ofte en egen turbo-modus, som gir frekvensen et solid spark når det trengs. Nvidias GPU Boost-teknologi kan minne mye om dette, men det er ikke helt det samme.

Tradisjonelt blir frekvensen til et skjermkort satt som et lite punkt i et koordinatsystem, med frekvens og spenning gitt på aksene. Nvidia eller AMD setter en standardfrekvens når de lanserer et skjermkort, «Graphics Clock» i koordinatsystemet over. Enkelte produsenter, som Asus, MSI, EVGA og flere, overklokker så kortene før de selges. Samtidig selges det noen spesialkort som er både overklokket og spesielt plukket ut fra et ekstra godt parti med skjermkort, som er de to andre punktene.

Det er altså ett bestemt punkt i koordinatsystemet skjermkortet jobber, som er det du trenger å bry deg om foreløpig.

Få spill eller programmer i dag utnytter all den kraften som ligger i skjermkortet, noe som blir illustrert på grafen grafen over. Helt til høyre ligger 3Dmark 11, som suger ut alt som finnes av krutt i grafikkjernen.

Mot venstre ser vi imidlertid at spillene ikke klarer å utnytte all kraften i kortet, noe som i all hovedsak skjer når det ett eller annet sted i den komplekse kjernen er en flaskehals.

Spillet Battlefield 3 er et godt eksempel her, som i dette tilfellet ligger helt til venstre. Spillet suger så mye kraft ut av én liten bit i kjernen, at den blir en flaskehals. De andre SM-enhetene står nærmest på tomgang, og den totale kraften i skjermkortet blir ikke utnyttet.

Det Nvidia da har kommet opp med er en slags sømløs turbofunksjon, som øker frekvensen på kjernen for å løse opp flaskehalsen. Dermed blir kapasitetsproblemet fjernet, og både spille og applikasjoner får muligheten til å leke med alt det kruttet kjernen kan tilby.

Hvis vi så tar den samme grafen, men setter frekvensen på den ene aksen, får vi et spennende bilde. De applikasjonene som tidligere lå langt under den totale kraften skjermkortet kunne tilby, kjører nå på en betydelig høyere frekvens.

Hvis vi da beveger oss tilbake til den første grafen, er det ikke lengre snakk om et spesifikt punkt på grafen vi kan finne skjermkortets kjernefrekvens. Det er nå en lengre linje, der klokkefrekvensen beveger seg opp og ned langs den gule linja avhengig av hvilket spill eller applikasjon som kjører.

GTX 680 har en kjernefrekvens, Base Clock, på 1006, som kan sammenlignes direkte med alle andre skjermkort på markedet. Men denne frekvensen beveger seg hele tiden, opp til en Boost Clock på 1058 MHz, og gjerne helt opp til 1200 MHz om det skulle være nødvendig.

Systemet fungerer også andre veien, frekvensen kan kjøres langt ned – helt ned til 324 MHz – når skjermkortet står i dvale eller idle.

Denne reguleringen er maskinvarebasert, noe som betyr at du ikke trenger noen drivere eller annen programvare for at det skal fungere. Skjermkortet har et hav av sensorer og algoritmer innebygget som tar seg av dette basert på hvilken tilstand skjermkortet er i fra sekund til sekund. Det må med andre ord ikke skjønnet hvilket program eller spill du bruker for at frekvensen skal finne sted, alt skjer inni selve skjermkortet.

Skjermkortet kan endre frekvensen i steg på 13 MHz og et par millivolt, samtidig som minnefrekvensen i stor grad står uendret. Sistnevnte vil påvirkes noe av hvordan kjernefrekvensen endres, men det er snakk om veldig små endringer.

Kortversjonen er altså at skjermkortet helt på egenhånd kan øke klokkefrekvensen for å løse opp flaskehalser et sted i kjernen. På den måten kan enkelte programmer og spill få en langt bedre ytelse enn før, uten at det påvirker den totale kraften i kortet.

For entusiastene er det naturlig nok fortsatt fullt mulig å overklokke et kort som dette. Det du da i praksis vil gjøre er å skyve hele linja på grafen over lenger opp, fremfor å bare endre en fast frekvens og spenning.

Aktiv V-sync

En annen kul funksjon, som trolig vil gi utslag for veldig mange under spilling, er at Nvidia nå har fått på plass adaptiv V-sync, eller aktiv om du vil.

Vi har tidligere skrevet en stor guide om alle innstillingene du finner i spill. En av dem, som trolig alt for få vet hva betyr, er den noe kryptiske «V-sync»-knappen. Denne står på i nesten alle spill, og låser antallet FPS skjermkortet gir fra seg til skjermens frekvens. Det betyr i praksis at når V-sync er på, er du låst til 60 eller 30 FPS.

For spill er dette bra, fordi opplevelsen som oftest blir god nok til spilling. Men det drar med seg en kraftig ulempe – «Stuttering. Du kan bare ha 60 eller 30 FPS, så skjermkortet spretter mellom veldig god og dårlig ytelsen når det plutselig får mer å gjøre – som når noe i spillet eksploderer.

Slår du V-sync av løser du dette problemet, fordi antallet FPS hele tiden får flyte fritt. Men det skaper et nytt problem, «Tearing». Det er effekten som får bildet til å se ut som det er delt på midten, fordi skjermkortet har gitt fra seg bildet til skjermen din før det er ferdig laget.

V-sync har med andre ord ulemper uansett om den er på eller av, men det har Nvidia nå en løsning på – Aktiv V-sync.

Aktiv V-sync fungerer ganske enkelt ved at skjermkortet selv hele tiden sjekker hvor mange FPS det klarer å lage i spillet ditt. Kan det lage over 60 FPS, slår det V-sync på. Klarer det ikke å lage 60 FPS, slås V-sync slik at FPS-en kan løpe fritt.

Det sørger for at alle problemer med «Tearing» forsvinner, og «Stuttering» reduseres kraftig.

Fire skjermer

Har du et relativt nytt AMD-skjermkort i maskinen din, kan ett enkelt slikt kort gi deg bilde på opp mot hele seks skjermer. Nvidia på sin side kan bare gi deg bilde på to skjermer fra ett skjermkort, og maksimalt tre fra to skjermkort satt opp i SLI.

Det er det slutt på. Ett enkelt GTX 680 kan nå gi deg bilde over fire skjermer – hvor tre av dem kan vise bildet i Stereo 3D.

Du kan altså spille over tre skjermer, gjerne i 3D, mens en siste skjerm kan brukes til å vise video, nettleseren, chatt og hva du ellers måtte føle for. For maskinenes del vil de totalt fire skjermene oppfattes som én stor skjerm og én normal skjerm.

Vi testet nylig Nvidias 3D-teknologi, les hele testen her.

Effektiv kantutjevning – FXAA og TXAA

For ett år siden viste Nvidia frem en ny teknologi for Anti-aliasing, funksjonen som glatter ut kantene i spill – FXAA. FXAA skaper langt glattere og penere kanter enn tradisjonell AA, men frem til nå har den hatt et par solide ulemper. Det har vært spillutviklerne selv som har måtte implementere teknologien, som resulterte i at bare 15 spill støttet den, og den krevde veldig mye av maskinvaren.

Med GTX 680 ligger FXAA i skjermkortet. Du slår det ganske enkelt på via kontrollpanelet i driveren, for så å slå av all Anti Aliasing i selve spillet, resten tar skjermkortet seg av.

Ingen AA - 4xMSAA - FXAA
Ingen AA - 4xMSAA - FXAA

Samtidig er teknologien effektivisert så mye at den ikke lenger påvirker ytelsen mer enn du får igjen i et godt grafisk bilde.

Nvidia jobber også med en helt ny teknologi på dette området, som vil komme med en driveroppdatering om ikke så alt for lenge. Normalt blir Anti Aliasing, også FXAA, generert ved å se på hvilke farger som ligger i nærheten av den kanten som skal jevnes ut, og dermed legge på en gjennomsnittsfarge for å skape mykere kanter.

Dette blir gjort for hvert eneste ett av de gjerne 60 bildene et skjermkort lager hvert sekund. TSAA derimot, bruker bevegelse. Den ser hvilke farger som har vært i det aktuelle området tidligere, og bruker informasjon om dette for å lage det bildet som kommer.

Ingen AA - 8 x MSAA - TXAA
Ingen AA - 8 x MSAA - TXAA

På den måten får man langt bedre bildekvalitet enn før, med samme ytelse. Samtidig skal denne effekten fungere bedre når det skjer raske endringer i bildet ditt, som når du kjører bil eller når noe plutselig eksploderer fremfor deg.

Det var de store nyhetene, bli med over til neste side så skal vi se hva GTX 680 kan levere i praksis »

Testmaskin
Hovedkort: MSI P67A-GD65
Prosessor: Intel Core i7 2600k
Kjøler: Noctua NH-C14
Corsair Dominator DHX DDR3 1600MHz 8GB
Strømforsyning: Corsair AX 1200W
Harddisk: Western Digital Caviar Black 500 GB
Skjerm: Dell Ultrasharp 3000WFP
Operativsystem: Windows 7 Ultimate, 64 bit. Les om driverne vi benytter her.

Testmaskinen står på en åpen rigg, der romtemperaturen holdes på 22°C. Temperaturene og effektforbruket måles ved å belaste kortene maksimalt i Crysis Warhead. Kontrollmåling gjøres med Furmark. Viftehastigheten er satt til automatisk. Du kan lese mer om støymålingene i denne artikkelen (mikrofonavstand er 20 cm).

Takk til Nvidia som sendte skjermkortet til test.

Effektforbruk

Ett område Nvidia har satset hardt på, er at skjermkortet skal gi god per watt det trekker. Hele testmaskinen vår, med GTX 680 innabords, henter maksimalt 275 W fra veggen, en verdi som ligger et betydelig hakk under AMDs toppmodell HD 7970.

Nvidias kandidat trekker imidlertid noe mer strøm når det står på tomgang, fordi AMD har en spesiell innebygget strømsparingsfunksjon som kan senke forbruket helt ned til 2,5 W.

Temperatur

Idle-temperaturen skjermkortet kan levere er i et helt ypperlig område, og det samme kan sies for temperaturen under full belastning. 72°C som høyeste normalverdi er på ingen måte dårlig, spesielt i den ytelsesklassen GTX 680 befinner seg i.

Støy

Som en generell pekepinne kan alt under 31 dBA ved våre målinger betegnes som stillegående, og det betyr at GTX 680 klarer seg godt. Den nye kjøleren deres skal være effektiv og stillegående, noe våre nøyaktige målinger viser. 34 dBA er også mindre enn hva AMDs toppmodell kan skilte med, så nok en gang trekker Nvidia det høyeste kortet.

3DMark 11
P e r f o r m a n c e

3DMark 11 tilbyr en stabil og bred test, som gang etter gang kan reprodusere målinger med marginale forskjeller. Dette programmet angriper systemet på flere kanter, i all hovedsak ved å kjøre en rekke spesifiserte tester, som i sin tur bakes sammen til forskjellige sluttsummer. Både GPU-en og CPU-en blir kjørt, samtidig som en rekke visuelle effekter og teknikker blir testet. Programmet inneholder tre forskjellige modi som er rettet mot forskjellige kategorier med kort. Vi har valgt å benytte "Performance" for de fleste skjermkort, og "Easy" for de virkelig lavtytende kortene.

Nvidia klatrer meget høyt i 3Dmark 11, det programmet som trolig unytter skjermkortet mest effektivt av alle. Her kliner de til med massive 8400 poeng, noe som er drøyt nok til å passere sin egen forgjenger med doble kjerner – GTX 590. Det betyr også at erkerivalen HD 7970 ligger et solid hakk ned på listen.

Crysis Warhead
@ G a m e r , D X 1 0 , 2 x A A

Mot slutten av 2008 ble Crysis Warhead lansert, et spill som fort føyde seg inn i rekken som ett av de bedre førstepersonsspillene i året som fulgte. Warhead er en estetisk kraftpakke som byr på vakker skog, behagelige hav, hissige koreanere og flyvende romvesener.

Utviklerne har gitt maskinvaren din nok å tygge på, og det stilles krav til relativt kvass maskinvare for å få et godt grafisk bilde ut av spillet.

Første spilltest er nettopp Crysis Warhead, og her spyr GTX 680 ut et meget høyt antall bilder hvert sekund. Selv ved den høye oppløsningen 1920 x 1200 piksler går det virkelig unna, før kortet får en knekk ut mot maksimal oppløsning.

Inn i sammenligningsgrafen kaprer Nvidia en solid posisjon med sine 84,2 FPS, nesten to FPS mer enn hva AMDs toppmodell kan skilte med. Sammen ligger de to skjermkortet på et meget høyt nivå, over Nvidias tokjerner GTX 590.

Far Cry 2
D X 1 0 , 8 x A A , U l t r a H i g h

Grafikken som møtte brukerne i det første Far Cry-spillet var ikke noe annet en overveldende. En vakker jungel som mer eller mindre var til fri disposisjon, perlehvite sandstrender og mye mer var nok til å fryde øyet både en og to ganger.

Far Cry 2 skuffer overhodet ikke på de samme punktene, selv om AI-en til tider kan virke litt klossete. Det grafiske spekteret er bredt, og spillet byr på mye godt som skjermkortet ditt kan få tygge unna. Blant jakten på både patroner og medisin får du kjøre biler i høy fart, dukke unna eksplosjoner og kryssild.

Over til Far Cry 2 stiller GTX 680 sterkt ved samtlige målepunkter. Den gjennomsnittlige verdien er høy, samtidig som minsteverdien ligger nært hele veien.

Nok en gang ser vi at målingen ved den aktuelle oppløsningen 1920 x 1200 piksler viser et resultat som hever seg over AMDs toppmodell, men denne gangen er det snakk om en skikkelig god margin. GTX 680 stiller med 113 FPS, mens HD 7970 ligger på 97 FPS – det er en fordel på rundt 15 prosent.

Just Cause 2
D X 1 0 , A l t p å m a k s, 4 x A A

Selv om Just Cause 2 ble lansert godt inn i DX 11-perioden, kommer det kun med DX 10-støtte. I likhet med både Far Cry og Crysis har du en hel sydhavsøy til mer eller mindre fri disposisjon. Også dette spillet byr på mye grafisk moro og en rekke fartsfylte eksplosjoner i både urbane og naturlige landskap som du slynger deg igjennom.

Vi har klinket alle innstillinger til det maksimale, med 4xAA. For å skape en helt objektiv måling, har vi deaktivert diverse filtre og simuleringer som er spesifisert for Nvidia-kort. Med disse funksjonene aktivert vil nyere Nvidia-kort gi deg et bedre bilde enn konkurrenten, men det går utover ytelsen i en grad som gjør at vi ikke kan sammenligne med AMD.

Just Cause 2 kan være en seig nøtt å knekke, men i de tre første testene leverer GTX 680 ytelse så det synger. Vi ser imidlertid en solid knekk når oppløsningen går opp mot det maksimale, da faller vi faktisk under 40 FPS.

Ved 1920 x 1200 piksler, som er i det område flest brukere av et slikt skjermkort spiller, leverer Nvidia igjen mer enn hva AMD kan skilte med. I dette tilfellet ligger det grønne laget omtrent 10 prosent foran AMDs sterkeste kandidat.

Civilization V
D X 1 1 , 4 x M S A A , H i g h

Civ 5 er et strategispill som lar deg styre en temmelig stor sivilisasjon, tilbake i tid. Spillet tar i bruk mange av DirectX 11-egenskapene, og er totalt sett en solid test for moderne skjermkort.

Komplekse småsamfunn skal tesseleres, alt fra hav og busker til små soldater. Videre er det mye geometri som skal behandles.

Over i DirectX 11-verdenen får skjermkortet raskt andre oppgaver å jobbe med, blant annet tesselering. I et så lett spill som Civilization V er det ingen kamp for skjermkortet å banke ut bildene i høy hastighet.

Satt opp mot de andre produktene på markedet klatrer skjermkortet nok en gang høyt. Igjen ser vi at det har nok kraft til å skape en om ikke stor, men grei margin ned til HD 7970.

Metro 2033
D X 1 1 , 4 x A F , A A A , H i g h

Verden har nettopp gått til helvete, og du befinner deg i Moskvas undergrunnsnett med den overveldende trusselen av mutanter liggende i hjernebarken konstant.

Spillet kommer pakket med DX 11-baserte muligheter. Implementeringen av tesselering er meget synlig. I denne testen har vi dratt hardt på med innstillingene, AAA og High/Ultra på alle andre innstillinger er mer enn hva du skulle trenge. Du kan selv dra dette ned et hakk og opprettholde gode bildekvalitet og bildeflyt, men med denne testen vil vi virkelig sette samtlige DX 11-egenskaper på prøve.

Metro 2033 er en av de seigeste spillene et skjermkort kan møte, og som testen viser er dette første gang vi faktisk bikker under 30 FPS ved maskimal oppløsning.

Dette gir et utslag i sammenligningsgrafen som vi så langt ikke har sett, GTX 680 faller under AMDs to toppmodeller. Og det med ganske god margin.

Battlefield Bad Company 2
D X 1 1 , 8 x M S A A , 1 6 x A F , M a k s

Med Bad Company 2 er ikke serien lenger forbeholdt konsollene. Et episk skytespill som truer pallplasseringen til Call of Duty er nå tilgjengelig for PC, og om du ruger på Windows 7 får du også med herlige DirectX 11 på kjøpet.

Dette spillet byr også på mye grafisk herlighet. La meg bare få si, en paradisstrand på Bora Bora må virkelig konkurrere med hva dette spillet kan levere med samtlige effekter aktivert.

Selv med hele 8 x MSAA aktivert turer det og går i et høyt tempo i denne FPS-slageren. Ytelsen er jevn og god, samtidig som minsteverdien aldri stikker langt vekk.

Det er nok til at det grønne laget nok en gang plasserer seg rett fremfor snuta til AMD når tallene sammenlignes. I dette spillet ser vi at de ligger 2 FPS foran, noe som utgjør omtrent like mange prosentvis økning.

Battlefield 3
D X 1 1 , High

Helt til slutt tar vi for oss dagens mest aktuelle spilltittel, Battlefield 3. Her ser vi en stabil og god ytelsestrend under samtlige tester, med en minsteverdi som alltid holder seg i nærheten.

Klemmer vi tallene inn i den lille sammenligningsgrafen spretter GTX 680 til topp, men en knallsolid avansering over HD 7970. Som vi snakket om på side 2 er dette ett av spillene GTX 680 kan sprite mest oss ved hjelp av GPU Boost. Det blir veldig klart i denne grafen, der GTX 680 ligger langt foran AMD.

Konklusjon

Med GeForce GTX 680 har Nvidia knuffet alle ulemper hardt til side, og kokt sammen et knakende godt skjermkort – til en pris vi har null problem med å svelge.

Opp igjennom historien har Nvidia hatt et par skjermkort med rekordhøy varmeutvikling, effektforbruk og støy. Vi har fortsatt GTX 480 friskt i minnet; skjermkortet med Fermi-arkitekturen som klarte å feile på alle disse punktene.

GTX 680 er en videreutvikling av akkurat den arkitekturen, men nå har Nvidia snudd helt om. De har ikke det høyeste effektforbruket og temperaturnivået – nå har spillet snudd, som det så fint heter. Nå ligger de godt under erkerivalen AMD, samtidig som de kan levere betydelig mer ytelse.

Det raskeste skjermkortet

For ytelse, det leverer GTX 680 mer enn nok av. Vi har testet og testet, og resultatene tegner et klart bilde. Dette skjermkortet er nå det raskeste kortet på markedet, så lenge vi luker ut dobbelkjernemodellene.

I noen tester er det bare et par prosent raskere enn AMDs toppmodell, Radeon HD 7970, men forspranget til Nvidia strekker seg andre steder til drøyt 15 prosent.

Det er bare i én av våre åtte ytelsestester AMDs toppmodell presterer bedre, og det er i Metro 2033. Selv om vi ikke har presentert grafene for ytelsen ved maksimal oppløsning, 2650 x 1600 piksler i denne testen, har vi gått også dem etter i sømmene. Vi så at ytelsesforskjellene varierer noe mer, og HD 7970 kan levere mer ytelse enn Nvidia i enkelte spill, men jevnt over er det slik at det grønne laget kan levere en bedre totalpakke.

Det store spørsmålet her er faktisk om du i det hele tatt har bruk for denne kraften. Spiller du på én skjerm, må du faktisk opp i en oppløsning som er høyere enn 1920 x 1200 piksler, eller bre deg over mer enn én skjerm, før du høste fruktene av Nvidias arbeid.

Er du den tradisjonelle spilleren leverer GTX 680 rett og slett alt for mye kraft. Men så fort du sprer bildet over flere skjermer, og gjerne spiller i 3D som Nvidia kan tilby, blir et kort som dette nødvendig.

Er du også en av dem som ikke har kjøpt et nytt skjermkort de siste tre årene, kan dette være en gyllen sjanse. Nvidia lover også at den nye driveren til GTX 600-serien skal støtte SLI i alle spill på markedet fra og med i dag.

Spekket med spennende teknologi

Kortet kommer også spekket med ny og spennende teknologi. Det er basert på den nye 28 nm-arkitekturen, som er en av hovedfaktorene til at skjermkortet er såpass effektivt som vi har sett det er.

Nvidia har også gjort om hele måten man tenker kjernefrekvens på et skjermkort. GTX 680 har en slags turbomodus, som kan minne mye om det som brukes i dagens prosessorer. Det kommer også med adaptiv V-sync, som skal gjøre spillopplevelsen glattere. Og ikke minst støtte for fire skjermer ut av ett skjermkort, der tre av dem kan vise 3D.

Priset riktig

Alt i alt koker dette ned til at GeForce GTX 680 er et imponerende skjermkort. Det yter utrolig bra, det har et hyggelig støynivå, et godt effektforbruk og trivelige temperaturer. Best av alt er det imidlertid at Nvidia ikke setter fyr på kredittkortet ditt – GTX 680 har også en god prislapp.

Vi har fått bekreftet fra Nvidia at den veiledende prisen i Norge er satt til 3899 kroner. Følg med på denne siden i timene fremover så vil de norske nettbutikkene tikke frem en etter en.

Det er mer eller mindre det samme som HD 7970 koster, et skjermkortet som akkurat nå er den eneste direkte konkurrenten Nvidia har. Nvidia kan altså levere et hakket bedre produkt, til samme pris. Samtidig ser vi også at et SLI-oppsett med GTX 560 kan levere en meget god ytelse, til drøyt 3000 kroner. GTX 560 tilhører imidlertid en tidligere generasjon, og det er et SLI-oppsett som har helt andre muligheter, ulemper og funksjoner enn det dagens toppmodell kan skilte med.

Alt i alt er GeForce GTX 680 et knakende kult skjermkort til en riktig pris – det kan vi anbefale.


Vi kommer tilbake med en egen test av GTX 680 i SLI, satt opp mot HD 7970 i CrossfireX. Vil du se hvor Nvidia designer skjermkortene sine? Vi besøkte hovedkontoret »


+ Knallgod ytelse
+ Hyggelig effektforbruk
+ God temperatur og støynivå
+ Pakket med spennende teknologi
+ Fin pris


- Ingen spesielle

Nvidia GeForce GTX 680

Norges beste mobilabonnement

Sommer 2019

Kåret av Tek-redaksjonen

Jeg bruker lite data:

Sponz 1 GB


Jeg bruker middels mye data:

GE Mobil Leve 6 GB


Jeg bruker mye data:

Chili 25 GB


Jeg er superbruker:

Chili Fri Data


Finn billigste abonnement i vår mobilkalkulator

Forsiden akkurat nå

Til toppen