Til hovedinnhold

Blir spillopplevelsen ødelagt av SLI og CrossFireX?

Vi har blindtestet for å finne det ut.

Illustrasjon fra Far Cry 3

Introduksjon

Muligheten til å kombinere flere skjermkort for å få bedre ytelse er noe vi har hatt muligheten til siden 90-tallet. Dette har en rekke fordeler sammenliknet med å bare ha ett kort i maskinen, enten du vil være økonomisk eller bare ha den kjappeste PC-en.

For å få svært god ytelse til en overkommelig pris kan du samkjøre et par rimelige kort, og hvis penger ikke er noen hindring, og du bare må ha det aller beste, kan du gjøre det samme med noen skikkelige monsterkort.

Selv fabrikantenes egne toppmodeller består av to skjermkort smeltet sammen til ett, og når alt kommer til alt er det en av de enkleste måtene å få opp bildeflyten i spillene dine. Dessverre er det som regel sånn at enhver medalje har en bakside, og samkjøring av skjermkort har blitt temmelig utskjelt opp gjennom årene for sine ulemper.

Spilling i rykk og napp

To skjermkort i SLI gir mye ytelse – men kan det lage trøbbel?Foto: Varg Aamo, Hardware.no

På grunn av dårlige drivere, umoden maskinvare, og generelt litt traurige løsninger fra produsentene, har nemlig opplevelsen av å bruke flere skjermkort samtidig vært alt annet enn glatt.

De to verstingene er kjent som «tearing» og «microstuttering». Den første ser du som at bildet «rives» i to hvis du snur for raskt på deg, mens den andre innebærer at de to grafikkprosessorene blir litt usynkroniserte. Selv om de klarer å levere mange bilder i sekundet, klarer de ikke å levere disse helt i takt, som gjør at bildeflyten virker hakkete og ujevn til tross for høye FPS-verdier.

Nå har imidlertid skjermkortprodusentene AMD og Nvidia begge hatt mange år på å raffinere denne teknologien sin, henholdsvis kjent som CrossFireX og SLI. Begge er også ivrige på å fortelle om hvor bra det hele fungerer.

Kan det være at de har tatt seg sammen, og nå fungerer godt nok? Og vil en vanlig spiller merke forskjell på et enkelt og doble skjermkort? Det er spørsmålene vi har tatt tak i, og nå skal finne svaret på. Selv om disse problemene er målbare, kan vi ikke med sikkerhet se at de er merkbare.

Myten er: Spilling på flere skjermkortkjerner kan ødelegge spillopplevelsen.

Bla om til neste side for å se hvordan vi har gått løs på myten »

Slik testet vi

For å finne ut av hvordan noe virkelig oppleves, er det en dårlig vitenskapelig metode å sette seg ned for å sjekke det selv. Den opplevelsen man selv mener å ha, vil nemlig alltid kunne bli farget av ens egen forutinntatthet.

Hvis man setter seg ned og ser etter «microstuttering» med to skjermkort i maskinen, og man er av den oppfatning at fenomenet er et stort problem, vil man nesten garantert mene å ha blitt plaget av det – selv om det ikke har funnet sted.

Dersom man på forhånd mener det ikke finnes problematisk, vil man likedan være veldig tilgivende overfor enhver hakking, og mentalt bortforklare det med at det bare var et helt normalt fall i bildeflyten som inntraff – selv om microstutteringen var helt forferdelig.

God vitenskapelig metode

Tor-Steinar N. Tangedal fra Gamer.no ble vår tester.Foto: Mediehuset Tek

I medisinske studier er man stort sett flinke til å unngå denne typen problemer ved å benytte seg av dobbelblinde forsøk. Dette innebærer at forsøkspersonene ikke vet om de får medisin eller sukkerpiller, og at de som leverer dette ut heller ikke vet hva de gir fra seg. Alt pasientene får beskjed om er å innta en pille, og rapportere eventuelle effekter.

Dette slo oss som en glimrende måte å etterprøve microstuttering på, men vi innså også at vi da ville trenge en erfaren forsøksperson. Vi hanket derfor inn redaktøren for et av Norges ledende spillnettsteder, Tor-Steinar N. Tangedal, og satte ham i spillingen.

Vår prøvekanin fikk ikke vite spesifikt hva det var han skulle se etter, annet enn at han skulle spille normalt, og legge spesielt merke til hva han syntes om bildeflyt og grafikk. Han fikk også beskjed om å notere ned alt han la merke til som enten spesielt bra eller dårlig på dette punktet.

Datamaskinen han spilte på ble bygd inn og skjult, og spillet sto parat da han gikk inn på testrommet. Han hadde derfor heller ingen mulighet til å vite hverken hvilke modeller eller hvor mange skjermkort som var i bruk.

Ikke helt etter boka

Fra vår ende besto blindingen i at vi ga Tangedal disse instruksjonene, og så skred til verks for å sette opp testmaskinen. Når denne var satt sammen og gjemt bort, installerte vi de nyeste driverne, og satte spillet til riktige innstillinger. Til slutt gikk vi på plass igjen, og sendte ham beskjed om at oppsett nummer én var klart til bruk.

Vi valgte å bruke Far Cry 3 til testen, siden dette er et både relativt nytt og temmelig krevende spill. Vi har gode erfaringer med å teste skjermkort på dette, og Tangedal var godt kjent med spillet. Etter en ti minutters tid med løping rundt i jungelen, slåsskamper mot tigere og ymse geværmenn, vannskuterkjøring og hektisk aktivitet, forlot han så rommet og noterte ned sine oppfatninger.

Vi tasset samtidig inn på testrommet, lukket spillet, og slo av datamaskinen. Så byttet vi ut skjermkortoppsettet, og gjentok hele prosedyren. Vi visste altså underveis hva han testet, men hadde ingen reell mulighet til å påvirke hans holdninger. Om ikke hundre prosent etter boka, vil vi likevel påstå at testmetodikken er tilfredsstillende.

Skikkelige kraftkort

GeForce GTX Titan leverer en superglatt bildeflyt, og fungerer i dag som et referansekort.Foto: Varg Aamo, Hardware.no

Skjermkortene vi testet med ble stort sett hentet fra vårt testlager, bortsett fra et Nvidia GeForce GTX Titan vi fikk lånt på kort varsel fra Digital Impuls. Dette var det eneste enkeltkjernede skjermkortet vi benyttet, som vårt «placebo».

Med et par GeForce GTX 650 Ti BOOST i SLI håper vi å fremprovosere noen problemer.Foto: Varg Aamo, Hardware.no

De doble oppsette vi brukte inkluderte to GeForce GTX 650 Ti BOOST i SLI. Det ene var et overklokket Asus-kort, og det andre var Nvidias ordinære referansemodell. Denne blandingen av ulike kort valgte vi for å se om det kunne øke muligheten for problemer.

Vi benyttet også et Nvidia GeForce GTX 690, med to GeForce GTX 680-kjerner kjørende på innebygd SLI-modus. Til slutt prøvde vi et AMD Radeon HD 7990, som kjører et par Radeon HD 7970 GE-kjerner på innebygd CrossFireX-modus. Årsaken til at vi ikke brukte flere AMD-oppsett var ganske enkelt at vi ikke hadde flere aktuelle modeller på lur.

Testbenken i bunn

I bunn av maskinvareoppsettet valgte vi å bruke vår testbenk for skjermkort. Prosessoren på denne er en Intel Core i7 3930k, som står på et Gigabyte G1.Assassin 2-hovedkort sammen med 16 GB Patriot Intel Extreme Masters-minne.

Datamaskinen holdes med strøm fra en Corsair AX 1200-strømforsyning, og lagringsmediet er en Intel 335 Series 240 GB SSD. Prosessorkjøleren i systemet er den lukkede vannkjøleren Corsair Hydro H100i.

Selve spillet ble kjørt i Full HD-oppløsning, altså 1920 x 1080 piksler. For å få en god balanse mellom høy belastning på skjermkortene og fremdeles god bildeflyt satte vi de fleste kvalitetsinnstillingene ultrahøyt, men kantutjevning ble satt ned til 4 x.

Bla videre til neste side, så ser vi på hvordan det gikk »

Opplevelsen underveis

Spillopplevelsen underveis

Med oppsett og metode klare til dyst, startet vi eksperimentet. Vår testperson, Gamer.no-redaktør Tangedal, forsvant inn i testrommets indre, satte på seg høreklokkene, og gikk umiddelbart i gang med å løpe rundt i jungelen i Far Cry 3.

Aller første oppsett var som nevnt et enkeltstående Nvidia GeForce GTX Titan. Dette skulle ikke under noen omstendigheter kunne by på problemer med microstuttering – rett og slett fordi det sto alene. Dette bekreftet også Tangedal i sine notater.

På første gjennomspilling, med GeForce GTX Titan, ble det som ventet ingen problemer.Foto: Fingert illustrasjon fra Far Cry 3

– Det så svært bra ut, og jeg reagerte ikke på noe med bildehastigheten. Men jeg la merke til at det var noen detaljer her og der som virket litt grove og kantete på nært hold. Det var imidlertid ingenting av dette jeg tenkte på når fiendene kom fra alle kanter, kun mens jeg hadde tid til å kikke rundt og utforske, forteller han.

Med blandet SLI-oppsett

Neste oppsett besto av to Nvidia GeForce GTX 650 Ti BOOST. Disse hadde ikke samme klokkefrekvens på sine grafikkprosessorer, og vi antok at dette kanskje ville kunne fremprovosere noen styggere feil enn på de andre oppsettene. Eventuelle feil burde dessuten bli gjort ekstra tydelige rett etter en oljeglatt runde på et GeForce GTX Titan.

– Jeg merket ikke en veldig stor forskjell, men jeg fikk levd meg mer inn i spillet enn jeg gjorde i første runde. Dette kan være fordi jeg har kommet mer inn i rytmen etter først å ha spilt litt, uten at jeg er helt sikker, forteller imidlertid Tangedal.

Hans opplevelse av å bruke de to billigkortene var altså ikke dårligere enn da han spilte på et GeForce GTX Titan. De eneste forskjellene han fortalte om var minnerelaterte; som ikke er særlig rart når det enkeltstående superkortet har tre ganger så mye minne tilgjengelig som oppsett nummer to.

Med innebygd SLI

Neste oppsett ut var Nvidia GeForce GTX 690, som kjører to kraftige grafikkprosessorer i tospann, over en innebygd SLI-bro. I utgangspunktet burde dette gi vår testperson en like god eller bedre opplevelse i forhold til de to foregående oppsettene, rett og slett fordi det har mye mer kraft under panseret.

Nvidia GeForce GTX 690, med sine to kjerner, fungerte ikke optimalt i vår test.Foto: Jørgen Elton Nilsen, Hardware.no

Målt i bilder per sekund har vi i våre tester sett betydelig høyere testresultater fra dette skjermkortet enn både fra GeForce GTX Titan, og fra de to billigkortene vi nettopp hadde i datamaskinen. Dermed er reaksjonen fra Tangedal litt overraskende.

– Denne gangen syntes jeg bildet hakket mer hvis jeg panorerte kjapt frem og tilbake i tettgrodde strøk, og under actionsekvenser. Det virket rett og slett som om jeg fikk mye lavere FPS nå. Jeg synes også jeg oftere så en form for «tearing», altså bildebrudd, på skjermen, forteller han i sine notater.

Med innebygd CrossFireX

Innebygd SLI falt altså ikke helt i smak, og da er det spennende å se hvordan det går med AMD Radeon HD 7990. Dette er nemlig bygd på samme prinsipp som det forrige skjermkortet, med to kraftige grafikkprosessorer i ett kort. Disse kjører over en innbygd CrossFireX-bro, som er AMD sitt svar på Nvidias SLI-løsning.

Heller ikke AMD Radeon HD 7990 leverte en spesielt positiv opplevelse.Foto: Varg Aamo, Hardware.no

På papiret er dette det aller kraftigste oppsettet vi kjører i denne testen. Tangedal lar seg likevel ikke overbevise i blindtesten, og melder om akkurat de samme problemene som han registrerte med et GeForce GTX 690 i datamaskinen.

– Det virker litt som i forrige runde, at FPS-verdiene er litt lave. Da jeg snudde meg raskt sidelengs virket det også her som om bildet ble revet ganske mye i, og jeg ble egentlig nesten litt kvalm, forteller han.

Med blindtesten ferdig er vi klare til å konkludere »

Konklusjon

Da vi startet dagens undersøkelse var vi svært usikre på hvordan det egentlig ville gå. Selv om vi har kjørt spilltester av alle skjermkortene i denne testen, og dessuten flere andre modeller med flere kjerner, har vi aldri vurdert problemene som mange har klaget på med slike oppsett – som at bildet hakker til tross for høye FPS-verdier, eller rives i to når ting blir litt hektiske.

En testperson som setter seg ned uten å måtte tenke på FPS-verdiene, og som kun skal tenke på den visuelle opplevelsen, har da et mye bedre utgangspunkt for å vurdere akkurat dét. Dette har vi nå fått gjort.

Myten var: Spilling på flere skjermkortkjerner kan ødelegge spillopplevelsen.

De faktiske bildeverdiene

Etter å ha blindtestet alle oppsettene, er det mye som tyder på at de innebygde dobbeltkjerne-løsningene fortsatt ikke fungerer optimalt.

Vi spurte vår testperson, Gamer.no-redaktør Tangedal, om han ville rangere oppsettene fra best til dårligst. Han ønsket da ikke å begi seg ut på å gjette på FPS-verdiene, men trodde basert på spillopplevelsen at rekkefølgen, fra topp til bunn, ville være oppsett B, A, C og D. Målt i kun FPS er dette faktisk temmelig langt fra fasiten.

Vi målte nemlig bildehastigheten på alle oppsettene, med de grafikkinnstillingene spillet var stilt inn til. Oppsett B, testpersonens favoritt med to GeForce GTX 650 Ti BOOST i SLI, klarte ikke mer enn 51 FPS i gjennomsnitt, med 42 FPS som minste verdi.

Det oppsettet Tangedals listet som andre beste, oppsett A med GeForce GTX Titan, målte vi heller ikke til mer enn drøye 57 FPS i gjennomsnitt, og 50 FPS som laveste resultat. Dette er definitivt spillbare verdier, men avstanden opp til verdiene fra dobbeltkortene er stor.

Oppsett C, et Nvidia GeForce GTX 690, med sine to kjerner kjørende på innebygd SLI-modus, presterte hele 64 FPS, med 45 FPS som laveste. Dette er såvidt svakere enn de 66 FPS i gjennomsnitt, og 37 FPS minsteverdi, som vi fikk fra oppsett D med AMD Radeon HD 7990.

Villedende FPS-verdier

Tangedal rangerte altså skjermkortene i nesten motsatt rekkefølge av hva en FPS-tabell ville gitt oss, dog med enkelte forbehold. De to beste oppsettene virket for hans del omtrent like gode, og de to dårligste var også omtrent like dårlige.

Alt dette forteller oss at myten om SLI- og CrossFireX-problemer er sånn passe sann – og at kun FPS-verdier ikke forteller hele sannheten. Som vi nevnte innledningsvis er forskjellene på én og to kjerner riktignok målbart, men når det kommer til flere skjermkort på en gang er det ikke særlig merkbart.

Det leder oss over til at spillopplevelsen påvirkes av andre faktorer, og det er her microstuttering og riving i bildet trolig har påvirket mest.

Den endelige dommen

Vi har altså sett at hvis du vil kjøre to skjermkort på én gang er det lite som taler mot dette, da teknologien – i alle fall for Nvidias del – omsider ser ut til å ha modnet.

Prøver du deg imidlertid på ett skjermkort med to kjerner, vil du fortsatt kunne bli plaget av problemene slike oppsett alltid har fått kritikk for; med riving i bildet, klart merkbar hakking, og et visst ubehag etterpå.

Selv om vi kanskje burde hatt minst tusen testpersoner for å få den vitenskapelige, statistiske tyngden, er vår konklusjon at denne myten er fakta – du kan få spillopplevelsen din ødelagt.

Det er synd, for du får mest ytelse for pengene ved å kjøre skjermkort i tospann – selv billige skjermkort. Vi får håpe at Nvidia har fått tatt kverken på problemene når de lanserer en eventuell tokjernet versjon av GeForce GTX 780.

Sjek også ut vår test et av de heftigste skjermkort-oppsettene du kan kjøpe:
Tre GeForce GTX Titan i SLI gir grensesprengende ytelse »

Mer om
annonse