G-Sync er faktisk så bra som Nvidia påstår
Men det er ikke alle som får bruk for den.
Selv om PC-spill har utviklet seg mye de siste tiårene, og stort sett bare til det bedre, er det én ting som har blitt ved det samme. Mens grafikk og effekter har blitt stadig penere, og spillmaskiner har blitt stadig heftigere, har nemlig ikke skjermen egentlig utviklet seg stort. At IPS og LCD og en bøtte andre forkortelser har erstatt bilderørene vi husker fra 90-tallet er forsåvidt både sant og greit, men bildet du ser på skjermen blir vist frem for deg på akkurat samme måte som før.
Bildepunktene tegnes nemlig opp linje for linje, én av gangen, fra topp til bunn av den fysiske skjermen. Dette tar som oftest 16 millisekunder, gir opphav til flere irriterende problemer, og når de fleste av oss ikke legger merke til det, er det i stor grad fordi vi har vent oss til at det bare er sånn. «Sånn skal PC-grafikk se ut», liksom, med ujevne bilder og ujevnt flyt.
Dette er det Nvidia vil til livs med sin G-Sync-teknologi.
Derfor er G-Sync en god idé
Hvis man har vent seg til denne måten å spille på kan det være lett å avfeie hele problemstillingen. Man tenker kanskje at det ikke er noen problemer som må rettes opp i, fordi man ikke registrerer problemene lenger selv. På toppen av dette er det mange som skrur ned grafikkinnstillingene sine eller bare kjøper superrask maskinvare for å få høy fart på bildeflyten sin, og sier seg fornøyde med det.
Like fullt vil bildet nedenfor være en ganske god representasjon på hva som skjer, selv med toppmoderne spillmaskiner, dersom det plutselig blir mer action på skjermen enn skjermkortet ditt klarer å prosessere innenfor 16 millisekunder.
Fenomenet er kjent som «tearing», eller riving, og forklaringen på hvorfor det skjer er enkel – selv om det kan høres litt innfløkt ut: Riving oppstår når skjermkortet sender et bilde til skjermen før skjermpanelet har klart å tegne ut hele det forrige bildet som det mottok. Siden bildene du ser som sagt tegnes opp én piksellinje av gangen, fra topp til bunn, vil det neste bildet som som tegnes opp være litt forskjøvet i forhold til det gamle.
I praksis betyr dette at du ikke nødvendigvis sikter geværet ditt i Battlefield 4 dit det ser ut som du sikter, i tillegg til at du får slike stygge glipper som i alle fall vi ikke synes hører hjemme i år 2013.
En god gammel fiks på dette er V-sync, som du kan slå på i de fleste spill, og som holder igjen bilder fra skjermkortet akkurat lenge nok til at skjermpanelet klarer å bli ferdig med å tegne ett og ett bilde fullt ut. Men heller ikke dette er uproblematisk, for hvis skjermkortet ditt da får en liten forsinkelse blir ikke V-syncen slått av, og et bilde som egentlig bare skulle blitt ett millisekund forsinket må pent vente med å havne på skjermen frem til neste syklus. Dette oppleves som hakking.
Som vi så i kommentarfeltet til vår sak om at G-Sync nå kommer til Norge er det mange av våre lesere som bruker V-Sync hele tiden, og ikke ser poenget med G-Sync. Ofte vil dette være et legitimt syn, og hvis du ikke har noe problem med litt hakking nå og da – eller hvis du har råd til å klinke til med tre GeForce GTX Titan i SLI-oppsett for å få krefter nok til høy FPS – kan V-Sync være helt greit.
Som vi har sett har imidlertid SLI- og CrossFire-oppsett sine egne problemer (Ekstra), og selv skikkelige monstermaskiner kan tidvis bli overveldet av heftige scener i toppmoderne spill. Det var på bakgrunn av dette vi plugget inn vår egen prototype av en G-Syncet skjerm, for å sjekke om den nye Nvidia-brikken faktisk har noe for seg.
Det er faktisk så bra som de sier
Dessverre er det vanskelig å formidle forskjellen mellom G-Sync, V-Sync og ingen sync ved hjelp av bilder. Video duger heller ikke noe særlig, og i tekstform er det lite vi kan gjøre annet enn å fortelle deg hva vi opplevde under testinger. For en gangs skyld har vi heller ikke noen saftige grafer å vise frem.
Alt vi kan si er ja, G-Sync har noe for seg. Teknologien får skjermpanelet og skjermkortet til å fungere i tospann, og panelet starter da å tegne opp et nytt bilde når, og kun når, skjermkortet har et klart. Dette har faktisk overraskende mye for seg, og vi klarer knapt å vente til vi får inn en produksjonsmodell, slik at vi kan gi dere en utfyllende test, og ikke bare en sniktitt på hvordan det hele fungerer.
Vi fikk nemlig anbefalt å teste ut spill som Tomb Raider, Battlefield 4, Batman: Arkham Origins og enda noen til fra Nvidia, men så bruker vi å ta anbefalinger fra produsenter med et par klyper salt.
Vi åpnet riktig nok det nyeste Batman-spillet og snurret kameraet så raskt vi bare klarte rundt sjefs-bankeren fra Gotham, uten å spore det spøtt av riving i bildet. Vi fyrte også opp Battlefield 4, lot timene fly mens vi kjørte rundt på offentlige servere i uansvarlig høy fart med bilene vi fant der, og opplevde hverken hakking, riving, eller noen andre problemer.
Så startet vi Far Cry 3. Dette er et spill hvor vi selv i ordinære skjermkorttester tidvis opplever veldig mye riving i bildet, hvor Nvidias drivere rett som det er gir oss teksturfeil, og hvor kravene for å få best mulig grafikk er så himla høye at det neppe forsvinner ut av testrutinene med det første.
Og for første gang hadde vi en hundre prosent problemfri, rive-fri og hakke-fri opplevelse på Rook Island.
Det spesielle er at vi ikke behøvde å bruke en grisedyr toppmodell for å få det til heller. Et relativt rimelig GeForce GTX 760 var alt som skulle til for å gi oss en god opplevelse i alle spillene, og selv med en bildeflyt på magre 50 FPS i mange situasjoner føltes det som vi satt med en langt mer kostbar datamaskin foran oss. G-Sync er ikke noen magisk pille for å tredoble ytelsen du får fra maskinen din, men det gir en langt mer behagelig opplevelse enn man kan få fra en 60 Hz skjerm.
Ikke for absolutt alle
Så langt har vi falt ganske pladask for Nvidias nyeste stunt. Det kommer vi ikke utenom. Likevel er det et par ting som gjør at denne teknologien ikke er for alle.
For det første er det som sagt mange som synes V-Sync er greit nok, og som lever svært fint med at ting hakker litt innimellom. Har de et kraftig skjermkort og en rask spillskjerm hjelper det nok også en god del; for selv om disse skjermene vil få problemer med riving i bildet uten V-Sync påslått, blir spill alltid langt bedre med bare en raskere skjerm. Ikke minst blir tiden et «hakk» tar redusert til litt over en tredjedel.
For det andre er denne teknologien enn så lenge forbeholdt skjermkort med Nvidias Kepler-kjerne. Det betyr at AMD sine skjermkortkunder ikke vil få nyte godt av den i det hele tatt, og det samme gjelder alle med et skjermkort i GeForce GTX 500-familien eller eldre. Vi håper jo at Nvidia en dag vil la andre få nyte godt av G-Sync, men vi har våre tvil – og hvis ikke er det jo alltids mulig å kjøpe et toppkort fra konkurrenten, og koble til en vanlig spillskjerm.
For det tredje er det temmelig dyrt med en G-Sync-modifisert skjerm. Nå blir de ikke offisielt lansert før over helgen, så det er ikke særlig rart, men for vår del var det litt snodig å skulle spille på en 24-tommers skjerm i 16:9-format, i full viten om at den koster tett oppunder 5000 kroner – mens den ordinære utgaven kun koster halvparten.
Enn så lenge er vi likevel positive, og mens vi venter på å få tak i en fabrikkprodusert skjerm med G-Sync vil vi fortsette å teste ut spill på vår prototype. Etter hvert som vi blir mer vant med den er det også mulig vi finner andre ankepunkter å irritere oss over, og da vil vi forteller dere om det i detalj.
I mellomtiden kan du lese flere detaljer om hvordan G-Sync fungerer:
Ekstra: Dette er teknologien Nvidia mener skal revolusjonere spillopplevelsen din »