TEST: Nvidia GeForce GTX 690

Test Nvidia GeForce GTX 690

Endelig et kompromissløst tokjerne- kort

Nvidias nyeste flaggskip leverer utrolig ytelse, men det koster skjorta – og litt til.

Nvidia fikk mange til å trekke på smilebåndet da de forrige helg annonserte et splitter nytt flaggskip, GeForce GTX 690. Det var ikke bare den heftige spesifikasjonslisten som gjorde kortet til en spennende skue, men designen var rett og slett tøff.

Ekstra spennende var det for vår del, som ventet i lange tider på vårt testeksemplar etter at tollvesenet slo seg vrange.

Uansett, nå er vi endelig klare til å levere en test av dette monsterskjermkortet. GTX 690 er et tokjernet skjermkort som i bunn og grunn består av to GeForce GTX 680-kort koblet sammen i SLI og smurt utover ett enkelt kretskort.

Sett en massiv kjøler av aluminium og injeksjonsstøpt magnesium på toppen av det, og du har Nvidias nye lekkerbisk i hendene. Dette er den korte versjonen, virkeligheten er riktig nok noe mer komplisert – men også utrolig spennende.

Utnytter du skjermkortet på riktig måte?
Slik får du rå spillgrafikk

Skal være det beste av det beste

Nvidias flaggskip med én kjerne, GTX 680, er på mange områder det kvasseste skjermkortet på markedet. Men for en liten gruppe spillere er ikke det nok kraft, de trenger mer – gjerne fordi de spiller over mer enn én skjerm.

Et skjermkort som GTX 690 skal være det beste av det beste, og er myntet på det produsenten selv omtaler som ultra-entusiastene. Men det å nå dette markedet er på ingen måte enkelt.

Nvidia har masseprodusert GTX 680 i noen måneder nå, og under veis har de kvalitetssjekket hver eneste lille grafikkkjerne. I en slik produksjon er det alltid noen små variasjoner, og beste har blitt lagt til side. Det er disse kjernen som nå tas i bruk for å forme GTX 690.

Mer effektgjerrig, mindre støy

En av de klare fordelene med et tokjernet skjermkort som dette fremfor et tradisjonelt SLI-oppsett, er at strømforbruket senkes.

Det betyr i sin tur at støynivået kan være lavere, fordi skjermkortet utvikler mindre varme. Men så enkelt er det faktisk ikke, siden de to varme grafikkprosessorene sitter så tett som de gjør. Man må ha en skikkelig god kjøleløsning, og for å få til dette har Nvidia hentet hjelp fra den forrige serien med skjermkort. Nærmere bestemt har de hentet kjøleløsningen fra GeFroce GTX 580.

Hver grafikkkjerne har en kjøleløsning av kobber, som er basert på kondenseringsteknikk. Et lite kammer i en kobberplate er fylt med væske, som kondenserer og trekker varmen vekk fra skjermkortet og ut i kjølefinnene. Denne teknologien har tidligere vist seg å være særs effektiv, og bidrar til at støynivået kan holdes nede.

For å være helt sikker på at støyen holdes i sjakk har Nvidia krydret kjøleren med et lass småfunksjoner. Selve viftehuset har flere små kanaler som leder luften på rett vei, samtidig som kjølefinnene er plattert med nikkel for å gjøre dem mer effektive.

Kjernene som må kjøles ned holder hver en standardfrekvens på 915 MHz, og en boost-frekvens på 1019 MHz Sistnevnte skal vi forklare nærmere på neste side, men merk deg også at minnet kjører på hele 6008 MHz.

Røft design

Alle skjermkort med to kjerner er imponerende stykker med ingeniørkunst. I dette tilfellet har Nvidia pakket sammen over 3000 CUDA-kjerner og 4 GB GDDR5-minne på ett og samme skjermkort, og frekvensene henholdsvis kjernen og minnet holder er innenfor 90 prosent av ett enkelt GTX 680-kort. Det i seg selv er noe vi sjeldent ser i en slik konfigurasjon.

Alt det tekniske har også fått en lekker innpakning. Dekselet rundt kortet er laget av støpt aluminium, dekket av et lag med krom. Huset rundt viften er laget av injeksjonsstøpt magnesium. Sistnevte er ekstra bra fordi det bidrar til å spre varmen fra skjermkortet, samtidig som det bidrar til å dempe lydnivået.

For å gjøre det hele ekstra lekkert, er det montert litt pleksiglass over kjølefinnene, samtidig som GeForce-logoen på kortets rumpe er belyst.

Lengden på skjermkortet er 28 centimeter, og selve kretskortet består av ti lag med elektriske koblinger. Like mange faser har strømforsyningen, som mates via to 8-pins PCIe-kontakter.

De to grafikkkjernene er koblet sammen ved hjelp av en PLX-bro, den lille brikken midt på skjermkortet. Denne gir hver kjerne en individuell støtte for PCIe 3.0. Har du et hovedkort basert på X79-brikkesettet vil dette bli tatt i bruk, men det har ingen invirkning på ytelsen slik den står i dag om du «bare» har PCIe 2.0 – så sant du ikke skal overklokke.

Under ser du spesifikasjonstabellen som forteller det meste om GTX 690. Bli med til neste side, så får du se flere bilder og vite mer om de spennende funksjonene og egenskapene som GTX 690 har med seg ».

Modell
Geforce GTX 580
GeForce GTX 590
GeForce GTX 690
GeForce GTX 680
Grafikkprosessor
GF110
2 x GF 100 2 x GK 104 GK104
Kjernefrekvens
772 MHz
607 MHz
915 MHz 1006 MHz
Boost-frekvens - - 1019 MHz 1058 MHz
Prosess
40 nm
40 nm
28 nm 28 nm
Minnefrekvens (eff.)
4008 MHz
3414 MHz
6008 MHz 6008 MHz
Minnemengde
1536 MB GDDR5
3072 MB GDDR5
4096 MB GDDR5 2048 MB GDDR5
Minnebusbredde
2 x 384-bit
384-bit
2 x 256-bit 256-bit
Streamprosessorer
512
2 x 512
2 x 1536
1536
Transistorer 3 mrd.
2 x 3 mrd. 2 x 3,45 mrd. 3,45 mrd.
TMU
64
2 x 64
2 x 128
128
ROP
48
2 x 48
2 x 32 32
Maks strømforbruk
244 W
365 W
300 W 195 W

GTX 690 kommer med en rekke spennende funksjoner og egenskaper. Veldig mye av dette er likt GTX 680, så vi gjengir mye av det vi skrev i GTX 680-testen her. Disse to er essensielt det samme skjermkortet hva egenskaper angår, foruten en veldig viktig funksjon – hver bilde som skjermkortet lager har fått en forbedret overvåkning slik at de går ut på riktig måte.

FPS-overvåkning

Når to grafikkjerner jobber sammen, uansett om de kjører SLI på ett og samme skjermkort eller via et dedikert SLI-oppsett har man en utfordring. SLI fungerer slik at én kjerne lager det bildet du skal se akkurat nå, mens den andre lager det neste.

Problemet er at hvert bilde som lages krever ulik arbeidskraft. For eksempel kan det første bildet inneholde en eksplosjon, som krever mye jobb, mens i det neste bildet er flammene borte. Det gjør at den andre grafikkjernen kan være ferdig før den første, og bildene blir da sendt ut til skjermen i feil rekkefølge.

Resultatet blir at bildet rett og slett hakker. For å takle dette problemet har Kepler-kjernen som sitter på GTX 690 fått bedre protokoller for å overvåke hver kjerne. Fungerer det som det skal, vil bildet fra kjerne nummer to rett og slett ikke slippe til før kjerne nummer én er ferdig.

GPU Boost

Med GPU-boost har Nvidia ganske enkelt skrevet om hele kapittelet for hvordan vi tenker klokkefrekvenser i kjernen til et skjermkort.

Prosessorer i dag har ofte en egen turbo-modus, som gir frekvensen et solid spark når det trengs. Nvidias GPU Boost-teknologi kan minne mye om dette, men det er ikke helt det samme.

Tradisjonelt blir frekvensen til et skjermkort satt som et lite punkt i et koordinatsystem, med frekvens og spenning gitt på aksene. Nvidia eller AMD setter en standardfrekvens når de lanserer et skjermkort, «Graphics Clock» i koordinatsystemet over. Enkelte produsenter, som Asus, MSI, EVGA og flere, overklokker så kortene før de selges. Samtidig selges det noen spesialkort som er både overklokket og spesielt plukket ut fra et ekstra godt parti med skjermkort, som er de to andre punktene.

Det er altså ett bestemt punkt i koordinatsystemet skjermkortet jobber, som er det du trenger å bry deg om foreløpig.

Få spill eller programmer i dag utnytter all den kraften som ligger i skjermkortet, noe som blir illustrert på grafen grafen over. Helt til høyre ligger 3Dmark 11, som suger ut alt som finnes av krutt i grafikkjernen.

Mot venstre ser vi imidlertid at spillene ikke klarer å utnytte all kraften i kortet, noe som i all hovedsak skjer når det ett eller annet sted i den komplekse kjernen er en flaskehals.

Spillet Battlefield 3 er et godt eksempel her, som i dette tilfellet ligger helt til venstre. Spillet suger så mye kraft ut av én liten bit i kjernen, at den blir en flaskehals. De andre SM-enhetene står nærmest på tomgang, og den totale kraften i skjermkortet blir ikke utnyttet.

Det Nvidia da har kommet opp med er en slags sømløs turbofunksjon, som øker frekvensen på kjernen for å løse opp flaskehalsen. Dermed blir kapasitetsproblemet fjernet, og både spille og applikasjoner får muligheten til å leke med alt det kruttet kjernen kan tilby.

Hvis vi så tar den samme grafen, men setter frekvensen på den ene aksen, får vi et spennende bilde. De applikasjonene som tidligere lå langt under den totale kraften skjermkortet kunne tilby, kjører nå på en betydelig høyere frekvens.

Hvis vi da beveger oss tilbake til den første grafen, er det ikke lengre snakk om et spesifikt punkt på grafen vi kan finne skjermkortets kjernefrekvens. Det er nå en lengre linje, der klokkefrekvensen beveger seg opp og ned langs den gule linja avhengig av hvilket spill eller applikasjon som kjører.

GTX 680 har en kjernefrekvens, Base Clock, på 1006, som kan sammenlignes direkte med alle andre skjermkort på markedet. Men denne frekvensen beveger seg hele tiden, opp til en Boost Clock på 1058 MHz, og gjerne helt opp til 1200 MHz om det skulle være nødvendig.

Systemet fungerer også andre veien, frekvensen kan kjøres langt ned – helt ned til 324 MHz – når skjermkortet står i dvale eller idle.

Denne reguleringen er maskinvarebasert, noe som betyr at du ikke trenger noen drivere eller annen programvare for at det skal fungere. Skjermkortet har et hav av sensorer og algoritmer innebygget som tar seg av dette basert på hvilken tilstand skjermkortet er i fra sekund til sekund. Det må med andre ord ikke skjønnet hvilket program eller spill du bruker for at frekvensen skal finne sted, alt skjer inni selve skjermkortet.

Skjermkortet kan endre frekvensen i steg på 13 MHz og et par millivolt, samtidig som minnefrekvensen i stor grad står uendret. Sistnevnte vil påvirkes noe av hvordan kjernefrekvensen endres, men det er snakk om veldig små endringer.

Kortversjonen er altså at skjermkortet helt på egenhånd kan øke klokkefrekvensen for å løse opp flaskehalser et sted i kjernen. På den måten kan enkelte programmer og spill få en langt bedre ytelse enn før, uten at det påvirker den totale kraften i kortet.

For entusiastene er det naturlig nok fortsatt fullt mulig å overklokke et kort som dette. Det du da i praksis vil gjøre er å skyve hele linja på grafen over lenger opp, fremfor å bare endre en fast frekvens og spenning.

Aktiv V-sync

En annen kul funksjon, som trolig vil gi utslag for veldig mange under spilling, er at Nvidia nå har fått på plass adaptiv V-sync, eller aktiv om du vil.

Vi har tidligere skrevet en stor guide om alle innstillingene du finner i spill. En av dem, som trolig alt for få vet hva betyr, er den noe kryptiske «V-sync»-knappen. Denne står på i nesten alle spill, og låser antallet FPS skjermkortet gir fra seg til skjermens frekvens. Det betyr i praksis at når V-sync er på, er du låst til 60 eller 30 FPS.

For spill er dette bra, fordi opplevelsen som oftest blir god nok til spilling. Men det drar med seg en kraftig ulempe – «Stuttering. Du kan bare ha 60 eller 30 FPS, så skjermkortet spretter mellom veldig god og dårlig ytelsen når det plutselig får mer å gjøre – som når noe i spillet eksploderer.

Slår du V-sync av løser du dette problemet, fordi antallet FPS hele tiden får flyte fritt. Men det skaper et nytt problem, «Tearing». Det er effekten som får bildet til å se ut som det er delt på midten, fordi skjermkortet har gitt fra seg bildet til skjermen din før det er ferdig laget.

V-sync har med andre ord ulemper uansett om den er på eller av, men det har Nvidia nå en løsning på – Aktiv V-sync.

Aktiv V-sync fungerer ganske enkelt ved at skjermkortet selv hele tiden sjekker hvor mange FPS det klarer å lage i spillet ditt. Kan det lage over 60 FPS, slår det V-sync på. Klarer det ikke å lage 60 FPS, slås V-sync slik at FPS-en kan løpe fritt.

Det sørger for at alle problemer med «Tearing» forsvinner, og «Stuttering» reduseres kraftig.

Fire skjermer

Har du et relativt nytt AMD-skjermkort i maskinen din, kan ett enkelt slikt kort gi deg bilde på opp mot hele seks skjermer. Nvidia på sin side kan bare gi deg bilde på to skjermer fra ett skjermkort, og maksimalt tre fra to skjermkort satt opp i SLI.

Det er det slutt på. Ett enkelt GTX 680 kan nå gi deg bilde over fire skjermer – hvor tre av dem kan vise bildet i Stereo 3D.

Du kan altså spille over tre skjermer, gjerne i 3D, mens en siste skjerm kan brukes til å vise video, nettleseren, chatt og hva du ellers måtte føle for. For maskinenes del vil de totalt fire skjermene oppfattes som én stor skjerm og én normal skjerm.

Vi testet nylig Nvidias 3D-teknologi, les hele testen her.

Effektiv kantutjevning – FXAA og TXAA

For ett år siden viste Nvidia frem en ny teknologi for Anti-aliasing, funksjonen som glatter ut kantene i spill – FXAA. FXAA skaper langt glattere og penere kanter enn tradisjonell AA, men frem til nå har den hatt et par solide ulemper. Det har vært spillutviklerne selv som har måtte implementere teknologien, som resulterte i at bare 15 spill støttet den, og den krevde veldig mye av maskinvaren.

Med GTX 680 ligger FXAA i skjermkortet. Du slår det ganske enkelt på via kontrollpanelet i driveren, for så å slå av all Anti Aliasing i selve spillet, resten tar skjermkortet seg av.

Ingen AA - 4xMSAA - FXAA
Ingen AA - 4xMSAA - FXAA

Samtidig er teknologien effektivisert så mye at den ikke lenger påvirker ytelsen mer enn du får igjen i et godt grafisk bilde.

Nvidia jobber også med en helt ny teknologi på dette området, som vil komme med en driveroppdatering om ikke så alt for lenge. Normalt blir Anti Aliasing, også FXAA, generert ved å se på hvilke farger som ligger i nærheten av den kanten som skal jevnes ut, og dermed legge på en gjennomsnittsfarge for å skape mykere kanter.

Dette blir gjort for hvert eneste ett av de gjerne 60 bildene et skjermkort lager hvert sekund. TSAA derimot, bruker bevegelse. Den ser hvilke farger som har vært i det aktuelle området tidligere, og bruker informasjon om dette for å lage det bildet som kommer.

Ingen AA - 8 x MSAA - TXAA
Ingen AA - 8 x MSAA - TXAA

På den måten får man langt bedre bildekvalitet enn før, med samme ytelse. Samtidig skal denne effekten fungere bedre når det skjer raske endringer i bildet ditt, som når du kjører bil eller når noe plutselig eksploderer fremfor deg.

Det var de store nyhetene, bli med over til neste side så skal vi se hva GTX 690 kan levere i praksis »

Testmaskin
Hovedkort: MSI P67A-GD65
Prosessor: IntelCore i7 2600k
Kjøler: Noctua NH-C14
Minne: Corsair Dominator DHX DDR3 1600MHz 8GB
Strømforsyning: Corsair AX 1200W
Harddisk: Western Digital Caviar Black 500 GB
Skjerm: Dell Ultrasharp 3000WFP
Operativsystem: Windows 7 Ultimate, 64 bit. Les om driverne vi benytter her.

Testmaskinen står på en åpen rigg, der romtemperaturen holdes på 22°C. Temperaturene og effektforbruket måles ved å belaste kortene maksimalt i Crysis Warhead. Kontrollmåling gjøres med Furmark. Viftehastigheten er satt til automatisk. Du kan lese mer om støymålingene i denne artikkelen (mikrofonavstand er 20 cm).

Takk til Nvidia som sendte skjermkortet til test.


Det er tre klare fordeler med et tokjernet skjermkort fremfor et SLI- eller CrossfireX-oppsett basert på de samme grafikkjernene. Den første er effektforbruket, som alltid vil være lavere for et tokjernet kort, fordi resursene deles.

Resultatet for GTX 690 forteller at maskinen trekker rundt 30 watt mindre enn med to GTX 680-modeller satt opp i SLI. Dette er også et godt resultat generelt sett, og Nvidias nye skjermkort er generelt sett noe mer effektgjerrige enn tilsvarende modeller hos AMD.

Den andre fordelen et tokjernet skjermkort har overfor sin SLI-ekvivalent er temperaturen. To skjermkort satt tett mot hverandre smitter varme over på hverandre, samtidig som noe dobbeltarbeid blir utført. GTX 690 kommer her i land med en hyggelig temperatur under heftig spilling, 74°C er midt i smørøyet.

Den tredje fordelen vi skal trekke frem er støynivået. Så lenge ting gjøres rett vil alltid én vifte lage mindre lyd enn to, og Nvidia har i tillegg jobbet veldig mye med kjøleløsningen til GTX 690 kun for å holde støynivået i sjakk. Du kan imidlertid ikke forvente at et så kraftig skjermkort som dette er direkte stillegående, og det lager lyd du vil merke i ellers rolige omgivelser. Men, sett i forhold til hva dette kortet er og hva som ellers finnes av konkurrerende løsninger, er vi tilfreds med det lydnivået vi måler.

3DMark 11
P e r f o r m a n c e

3DMark 11 tilbyr en stabil og bred test, som gang etter gang kan reprodusere målinger med marginale forskjeller. Dette programmet angriper systemet på flere kanter, i all hovedsak ved å kjøre en rekke spesifiserte tester, som i sin tur bakes sammen til forskjellige sluttsummer. Både GPU-en og CPU-en blir kjørt, samtidig som en rekke visuelle effekter og teknikker blir testet. Programmet inneholder tre forskjellige modi som er rettet mot forskjellige kategorier med kort. Vi har valgt å benytte "Performance" for de fleste skjermkort, og "Easy" for de virkelig lavtytende kortene.

I 3DMark kommer GTX 690 i land med rundt 400 poeng mindre enn det tilsvarende SLI-oppsettet, og en liten porsjon over HD 7970 i CrossfireX. Over 13 000 poeng er totalt sett en meget god verdi, og det er rundt 96 prosent av ytelsen til SLI-oppsettet.

Crysis Warhead
@ G a m e r , D X 1 0 , 2 x A A

Mot slutten av 2008 ble Crysis Warhead lansert, et spill som fort føyde seg inn i rekken som ett av de bedre førstepersonsspillene i året som fulgte. Warhead er en estetisk kraftpakke som byr på vakker skog, behagelige hav, hissige koreanere og flyvende romvesener.

Utviklerne har gitt maskinvaren din nok å tygge på, og det stilles krav til relativt kvass maskinvare for å få et godt grafisk bilde ut av spillet.

I Crysis Warhead ser vi at ytelsen ligger på et høyt og stabilt nivå gjennom hele testen. FPS-verdien bukker aldri under 80, noe som er et solid tall, med en minste-FPS på mellom 40 og 50 fra start til slutt.

I sammenligningsgrafen spretter GTX 690 rett inn i det øverste sjiktet, der marginene mellom tre oppsett basert på to kjerner er veldig små. Nvidia legger seg denne gangen under AMD, og vi ser videre at GTX 690 leverer 99 prosent av ytelsen til GTX 680 SLI.

Far Cry 2
D X 1 0 , 8 x A A , U l t r a H i g h

Grafikken som møtte brukerne i det første Far Cry-spillet var ikke noe annet en overveldende. En vakker jungel som mer eller mindre var til fri disposisjon, perlehvite sandstrender og mye mer var nok til å fryde øyet både en og to ganger.

Far Cry 2 skuffer overhodet ikke på de samme punktene, selv om AI-en til tider kan virke litt klossete. Det grafiske spekteret er bredt, og spillet byr på mye godt som skjermkortet ditt kan få tygge unna. Blant jakten på både patroner og medisin får du kjøre biler i høy fart, dukke unna eksplosjoner og kryssild.

Også her ser vi en veldig jevn og pen flyt i bildet, som synker sakte men sikkert i takt med at oppløsningen økes. Som når vi testet GTX 680 satt opp i SLI, ser vi også her at den laveste FPS-en ligger så langt nede som 20 FPS. Heldigvis ser vi under en nærmere inspisering at dette har lite å si i praksis, den eneste gangen bildeflyten sank så lavt var i løpet av det første sekundet etter at spillet startet.

Satt opp mot de konkurrerende løsningene, ser vi at GTX 690 smetter inn mellom HD 7970 i CrossfireX og GTX 680 i SLI. En god posisjonering for Nvidia, og ytelsen er på 98 prosent av SLI-oppsettet.

Just Cause 2
D X 1 0 , A l t p å m a k s, 4 x A A

Selv om Just Cause 2 ble lansert godt inn i DX 11-perioden, kommer det kun med DX 10-støtte. I likhet med både Far Cry og Crysis har du en hel sydhavsøy til mer eller mindre fri disposisjon. Også dette spillet byr på mye grafisk moro og en rekke fartsfylte eksplosjoner i både urbane og naturlige landskap som du slynger deg igjennom.

Vi har klinket alle innstillinger til det maksimale, med 4xAA. For å skape en helt objektiv måling, har vi deaktivert diverse filtre og simuleringer som er spesifisert for Nvidia-kort. Med disse funksjonene aktivert vil nyere Nvidia-kort gi deg et bedre bilde enn konkurrenten, men det går utover ytelsen i en grad som gjør at vi ikke kan sammenligne med AMD.

Just Cause 2 kan være et seig spill å dra, selv for kraftige skjermkort, men for GTX 690 er det en lett kamp. Bilde etter bilde blir banket ut, så ytelsen ligger hele veien rundt 80 FPS.

Inn i sammenligningsgrafen ser vi at GTX 690 legger seg et lite hakk under HD 7970 satt opp i CrossfireX, og seks FPS under GTX 680 i par. I dette spillet yter dagens testkandidat 92 prosent av hva GTX 680 SLI leverer, noe som er nok en god verdi for Nvidia.

Bli med til neste side, så ser vi nærmere på ytelsen i moderne DirectX 11-spill »

Civilization V
D X 1 1 , 4 x M S A A , H i g h

Civ 5 er et strategispill som lar deg styre en temmelig stor sivilisasjon, tilbake i tid. Spillet tar i bruk mange av DirectX 11-egenskapene, og er totalt sett en solid test for moderne skjermkort.

Komplekse småsamfunn skal tesseleres, alt fra hav og busker til små soldater. Videre er det mye geometri som skal behandles.

Civilization er ved de normale oppløsnignene et veldig lett spill å drive, men når oppløsningen økes til det maksimale for én enkelt skjerm blir ting litt mer vrient. GTX 690 kommer uansett godt igjennom strabasene, og ender opp med over 130 FPS.

Putter vi det tallet inn i sammeligningsgrafen ser vi at Nvidia, som vanlig, ligger et godt hakk bak AMD i denne testen. HD 7970 i CrossfireX har et godt overtak på både SLI-oppsettet og det tokjernede kortet vi nå tester. I denne testen yter GTX 690 omtrent 89 prosent av paroppsettet.

Metro 2033
D X 1 1 , 4 x A F , A A A , H i g h

Verden har nettopp gått til helvete, og du befinner deg i Moskvas undergrunnsnett med den overveldende trusselen av mutanter liggende i hjernebarken konstant.

Spillet kommer pakket med DX 11-baserte muligheter. Implementeringen av tesselering er meget synlig. I denne testen har vi dratt hardt på med innstillingene, AAA og High/Ultra på alle andre innstillinger er mer enn hva du skulle trenge. Du kan selv dra dette ned et hakk og opprettholde gode bildekvalitet og bildeflyt, men med denne testen vil vi virkelig sette samtlige DX 11-egenskaper på prøve.

Over til Metro 2033 ser vi at ytelsen danderer seg pent og pyntelig etter belastningen, med en minsteverdi som aldri er langt unna gjennomsnittet.

Inn i sammenligningsgrafen ser vi at AMDs paroppsett har et solid overtak, og GTX kommer her i land med 43 FPS. Det er så mye som 97 prosent av ytelsen til GTX 680 i SLI.

Battlefield Bad Company 2
D X 1 1 , 8 x M S A A , 1 6 x A F , M a k s

Med Bad Company 2 er ikke serien lenger forbeholdt konsollene. Et episk skytespill som truer pallplasseringen til Call of Duty er nå tilgjengelig for PC, og om du ruger på Windows 7 får du også med herlige DirectX 11 på kjøpet.

Dette spillet byr også på mye grafisk herlighet. La meg bare få si, en paradisstrand på Bora Bora må virkelig konkurrere med hva dette spillet kan levere med samtlige effekter aktivert.

Med alt av spennende effekter aktivert blir bildekvaliteten meget høy, og GTX 690 er sterk nok til å dra unna et massivt antall FPS. Minsteverdien befinner seg alltid i nærheten av gjennomsnittet, noe som er et godt tegn.

Dette er det tredje DirectX-spillet hvor AMD fortsatt ligger på topp, med Nvidias to doble kandidater liggende like bak. Forskjellene er meget små, og GTX 690 yter 98 prosent av GTX 680 i SLI.

Battlefield 3
D X 1 1 , High

Siste test ut er Battlefield 3, og som sin lillebror i Bad Company-serien ser vi en jevnt over meget høy og stabil ytelse.

I den siste sammenligningen ser vi at forskjellene blant de beste kortene er små. GTX 690 har en litt lavere minste-FPS enn hva AMD kan stille med, men den gjennomsnittlige verdien er høyere. Videre yter GTX 690 nå 97 prosent av GTX 680 SLI.

Bli med over til siste side, så skal vi oppsummere det vi i dag har sett »

Konklusjon

Det er bare å hoppe rett i det, Nvidias GeForce GTX 690 er det røffeste skjermkortet vi har lagt hendene på noensinne. Det har en direkte lekker og røff design vi aldri før har sett på er referansekort, og ytelsen er imponerende.

GTX 690 er et tokjernet skjermkort, og består i bunn og grunn av to GeForce GTX 680-kort satt opp i SLI. Men i motsetning til et tradisjonelt SLI-oppsett er alt pakket sammen på ett kretskort og med en felles kjøleløsning.

De umiddelbare fordelene her – så lenge det gjøres rett av produsenten – er at et tokjernet skjermkort vil ha bedre temperaturer, lavere støynivå og lavere effektforbruk enn sin SLI-ekvivalent. Ulempen er at et tokjernet skjermkort aldri vil nå den samme ytelsen.

Men det som virkelig gjør GTX 690 til et imponerende stykke ingienørkunst er at Nvidia denne gangen har fått has på denne ulempen. GTX 690 yter hele 95 prosent av det lignende SLI-oppsettet, noe som er utrolig godt. Samtidig er både effektforbruket, temperaturen og støynivået akseptabelt.

Et beist av et skjermkort som dette har riktig nok en pris, fra rundt 7800 kroner og opp for å være spesifikk – litt mer enn to GTX 680-kort. Dette er veldig mye penger, og vi kan argumentere opp og ned på hvorfor dette er skremmende mye penger å bruke på et enkelt skjermkort. Du kan slite med å finne spill som utnytter kraften på skikkelig vis, og et tokjernet skjermkort som dette kan raskt dra med seg enkelte ulemper som ustabiliteter og grafiske småfeil.

Men om vi legger for mye vekt på dette vil vi imidlertid bomme litt på poenget. Geforce GTX 690 skal ikke være noe du kan telle femtiøringer med. Det skal bare være det råeste som finnes der ute, og det har Nvidia klart, selv om de tar seg godt betalt for det. Det er som en sportsbil – det koster penger.

Med det sagt har også Nvidia, i likhet med GTX 680 i SLI, fått has på mange av de tradisjonelle problemene du drar med deg ved å kombinere kraften fra to grafikkkjerner. I løpet av vår testperiode fant vi minimalt med grafiske småfeil, og så lenge du aktiverer den aktive V-sync-funksjonen forsvinner alle former for «tearing».

Alt i alt er 690 et imponerende skjermkort helt fra du åpneer esken, til du setter det inn i datamaskinen og begynner å spille. Byggekvaliteten og designen er spektakulært, i likhet med ytelsen. Det koster 7800 kroner, og hadde det kostet mer så hadde det ikke spilt så stor rolle – et nisjeprodukt som dette er bare ment for et fåtall brukere. Og den lille målgruppen treffer Nvidia med en veldig god presisjon.

Når det er sagt skal det bli veldig spennende å se hva AMD kan levere når de en gang i fremtiden får lansert sitt tokjernede skjermkort – trolig under navnet Radeon HD 7990. Hvis de klarer å nå den samme ytelsesprosenten som Nvidia har nådd, og får kontroll på både effektforbruket og diverse driverfeil, kan de levere en meget, meget sterk konkurrent.


+ Utrolig god ytelse
+ Lekkert design
+ God på temperatur, effektforbruk og støy
+ Røff konstruksjon


- Det koster å være tøffeste mann i gata

Nvidia Geforce GTX 690

Norges beste mobilabonnement

Sommer 2019

Kåret av Tek-redaksjonen

Jeg bruker lite data:

Sponz 1 GB


Jeg bruker middels mye data:

GE Mobil Leve 6 GB


Jeg bruker mye data:

Chili 25 GB


Jeg er superbruker:

Chili Fri Data


Finn billigste abonnement i vår mobilkalkulator

Forsiden akkurat nå

Til toppen