TEST: Nvidia GeForce GTX 670

Test Nvidia GeForce GTX 670

Som GTX 680, bare billigere

Dette er Nvidias første skjermkort til under 4000 kroner.

GTX 670 kommer med en rekke spennende funksjoner og egenskaper. Veldig mye av dette er likt GTX 680, så vi gjengir mye av det vi skrev i GTX 680-testen her. Disse to er nemlig essensielt det samme skjermkortet hva egenskaper angår.

GPU Boost

Vi tar den viktigste først, GPU-boost. Med GPU-boost har Nvidia ganske enkelt skrevet om hele kapittelet for hvordan vi tenker klokkefrekvenser i kjernen til et skjermkort.

Prosessorer i dag har ofte en egen turbo-modus, som gir frekvensen et solid spark når det trengs. Nvidias GPU Boost-teknologi kan minne mye om dette, men det er ikke helt det samme.

Tradisjonelt blir frekvensen til et skjermkort satt som et lite punkt i et koordinatsystem, med frekvens og spenning gitt på aksene. Nvidia eller AMD setter en standardfrekvens når de lanserer et skjermkort, «Graphics Clock» i koordinatsystemet over. Enkelte produsenter, som Asus, MSI, EVGA og flere, overklokker så kortene før de selges. Samtidig selges det noen spesialkort som er både overklokket og spesielt plukket ut fra et ekstra godt parti med skjermkort, som er de to andre punktene.

Det er altså ett bestemt punkt i koordinatsystemet skjermkortet jobber, som er det du trenger å bry deg om foreløpig.

Få spill eller programmer i dag utnytter all den kraften som ligger i skjermkortet, noe som blir illustrert på grafen grafen over. Helt til høyre ligger 3Dmark 11, som suger ut alt som finnes av krutt i grafikkjernen.

Mot venstre ser vi imidlertid at spillene ikke klarer å utnytte all kraften i kortet, noe som i all hovedsak skjer når det ett eller annet sted i den komplekse kjernen er en flaskehals.

Spillet Battlefield 3 er et godt eksempel her, som i dette tilfellet ligger helt til venstre. Spillet suger så mye kraft ut av én liten bit i kjernen, at den blir en flaskehals. De andre SM-enhetene står nærmest på tomgang, og den totale kraften i skjermkortet blir ikke utnyttet.

Det Nvidia da har kommet opp med er en slags sømløs turbofunksjon, som øker frekvensen på kjernen for å løse opp flaskehalsen. Dermed blir kapasitetsproblemet fjernet, og både spille og applikasjoner får muligheten til å leke med alt det kruttet kjernen kan tilby.

Hvis vi så tar den samme grafen, men setter frekvensen på den ene aksen, får vi et spennende bilde. De applikasjonene som tidligere lå langt under den totale kraften skjermkortet kunne tilby, kjører nå på en betydelig høyere frekvens.

Hvis vi da beveger oss tilbake til den første grafen, er det ikke lengre snakk om et spesifikt punkt på grafen vi kan finne skjermkortets kjernefrekvens. Det er nå en lengre linje, der klokkefrekvensen beveger seg opp og ned langs den gule linja avhengig av hvilket spill eller applikasjon som kjører.

GTX 670 har en kjernefrekvens, Base Clock, på 915, som kan sammenlignes direkte med alle andre skjermkort på markedet. Men denne frekvensen beveger seg hele tiden, opp til en Boost Clock på 980 MHz.

Systemet fungerer også andre veien, frekvensen kan kjøres langt ned – helt ned til 324 MHz – når skjermkortet står i dvale eller idle.

Denne reguleringen er maskinvarebasert, noe som betyr at du ikke trenger noen drivere eller annen programvare for at det skal fungere. Skjermkortet har et hav av sensorer og algoritmer innebygget som tar seg av dette basert på hvilken tilstand skjermkortet er i fra sekund til sekund. Det må med andre ord ikke skjønnet hvilket program eller spill du bruker for at frekvensen skal finne sted, alt skjer inni selve skjermkortet.

Skjermkortet kan endre frekvensen i steg på 13 MHz og et par millivolt, samtidig som minnefrekvensen i stor grad står uendret. Sistnevnte vil påvirkes noe av hvordan kjernefrekvensen endres, men det er snakk om veldig små endringer.

Kortversjonen er altså at skjermkortet helt på egenhånd kan øke klokkefrekvensen for å løse opp flaskehalser et sted i kjernen. På den måten kan enkelte programmer og spill få en langt bedre ytelse enn før, uten at det påvirker den totale kraften i kortet.

For entusiastene er det naturlig nok fortsatt fullt mulig å overklokke et kort som dette. Det du da i praksis vil gjøre er å skyve hele linja på grafen over lenger opp, fremfor å bare endre en fast frekvens og spenning.

Aktiv V-sync

En annen kul funksjon, som trolig vil gi utslag for veldig mange under spilling, er at Nvidia nå har fått på plass adaptiv V-sync, eller aktiv om du vil.

Vi har tidligere skrevet en stor guide om alle innstillingene du finner i spill. En av dem, som trolig alt for få vet hva betyr, er den noe kryptiske «V-sync»-knappen. Denne står på i nesten alle spill, og låser antallet FPS skjermkortet gir fra seg til skjermens frekvens. Det betyr i praksis at når V-sync er på, er du låst til 60 eller 30 FPS.

For spill er dette bra, fordi opplevelsen som oftest blir god nok til spilling. Men det drar med seg en kraftig ulempe – «Stuttering. Du kan bare ha 60 eller 30 FPS, så skjermkortet spretter mellom veldig god og dårlig ytelsen når det plutselig får mer å gjøre – som når noe i spillet eksploderer.

Slår du V-sync av løser du dette problemet, fordi antallet FPS hele tiden får flyte fritt. Men det skaper et nytt problem, «Tearing». Det er effekten som får bildet til å se ut som det er delt på midten, fordi skjermkortet har gitt fra seg bildet til skjermen din før det er ferdig laget.

V-sync har med andre ord ulemper uansett om den er på eller av, men det har Nvidia nå en løsning på – Aktiv V-sync.

Aktiv V-sync fungerer ganske enkelt ved at skjermkortet selv hele tiden sjekker hvor mange FPS det klarer å lage i spillet ditt. Kan det lage over 60 FPS, slår det V-sync på. Klarer det ikke å lage 60 FPS, slås V-sync slik at FPS-en kan løpe fritt.

Det sørger for at alle problemer med «Tearing» forsvinner, og «Stuttering» reduseres kraftig.

Fire skjermer

Har du et relativt nytt AMD-skjermkort i maskinen din, kan ett enkelt slikt kort gi deg bilde på opp mot hele seks skjermer. Nvidia på sin side kan bare gi deg bilde på to skjermer fra ett skjermkort, og maksimalt tre fra to skjermkort satt opp i SLI.

Det er det slutt på. Ett enkelt GTX 600-kort kan nå gi deg bilde over fire skjermer – hvor tre av dem kan vise bildet i Stereo 3D.

Du kan altså spille over tre skjermer, gjerne i 3D, mens en siste skjerm kan brukes til å vise video, nettleseren, chatt og hva du ellers måtte føle for. For maskinenes del vil de totalt fire skjermene oppfattes som én stor skjerm og én normal skjerm.

Vi testet nylig Nvidias 3D-teknologi, les hele testen her.

Effektiv kantutjevning – FXAA og TXAA

For ett år siden viste Nvidia frem en ny teknologi for Anti-aliasing, funksjonen som glatter ut kantene i spill – FXAA. FXAA skaper langt glattere og penere kanter enn tradisjonell AA, men frem til nå har den hatt et par solide ulemper. Det har vært spillutviklerne selv som har måtte implementere teknologien, som resulterte i at bare 15 spill støttet den, og den krevde veldig mye av maskinvaren.

Med GTX 670 ligger FXAA i skjermkortet. Du slår det ganske enkelt på via kontrollpanelet i driveren, for så å slå av all Anti Aliasing i selve spillet, resten tar skjermkortet seg av.

Ingen AA - 4xMSAA - FXAA
Ingen AA - 4xMSAA - FXAA

Samtidig er teknologien effektivisert så mye at den ikke lenger påvirker ytelsen mer enn du får igjen i et godt grafisk bilde.

Nvidia jobber også med en helt ny teknologi på dette området, som vil komme med en driveroppdatering om ikke så alt for lenge. Normalt blir Anti Aliasing, også FXAA, generert ved å se på hvilke farger som ligger i nærheten av den kanten som skal jevnes ut, og dermed legge på en gjennomsnittsfarge for å skape mykere kanter.

Dette blir gjort for hvert eneste ett av de gjerne 60 bildene et skjermkort lager hvert sekund. TSAA derimot, bruker bevegelse. Den ser hvilke farger som har vært i det aktuelle området tidligere, og bruker informasjon om dette for å lage det bildet som kommer.

Ingen AA - 8 x MSAA - TXAA
Ingen AA - 8 x MSAA - TXAA

På den måten får man langt bedre bildekvalitet enn før, med samme ytelse. Samtidig skal denne effekten fungere bedre når det skjer raske endringer i bildet ditt, som når du kjører bil eller når noe plutselig eksploderer fremfor deg.

Det var de store nyhetene, bli med over til neste side så skal vi se hva GTX 670 kan levere i praksis »

Testmaskin
Hovedkort: MSI P67A-GD65
Prosessor: IntelCore i7 2600k
Kjøler: Noctua NH-C14
Minne: Corsair Dominator DHX DDR3 1600MHz 8GB
Strømforsyning: Corsair AX 1200W
Harddisk: Western Digital Caviar Black 500 GB
Skjerm: Dell Ultrasharp 3000WFP
Operativsystem: Windows 7 Ultimate, 64 bit. Les om driverne vi benytter her.

Testmaskinen står på en åpen rigg, der romtemperaturen holdes på 22°C. Temperaturene og effektforbruket måles ved å belaste kortene maksimalt i Crysis Warhead. Kontrollmåling gjøres med Furmark. Viftehastigheten er satt til automatisk. Du kan lese mer om støymålingene i denne artikkelen (mikrofonavstand er 20 cm).

Takk til Nvidia som sendte skjermkortet til test.

Nvidia GeForce GTX 670

Norges beste mobilabonnement

Desember 2018

Kåret av Tek-redaksjonen

Jeg bruker lite data:

Komplett MiniFlex 1 GB


Jeg bruker middels mye data:

Komplett MedioFlex+ 6GB


Jeg bruker mye data:

Chili 25 GB


Jeg er superbruker:

Chili Fri Data


Finn billigste abonnement i vår mobilkalkulator

Forsiden akkurat nå

Til toppen