Tom Petersen, teknisk markedsføringssjef hos Nvidia, er mannen som fant opp G-Sync.
Intervju
Tom Petersen, teknisk markedsføringssjef hos Nvidia, er mannen som fant opp G-Sync. (Bilde: Jørgen Elton Nilsen, Hardware.no)

Møt mannen som kan ha endret spillopplevelsen din

Nvidia mener de har gjort noe stort med G-Sync.

Hei, dette er en Ekstra-sak som noen har delt med deg.

Lyst til å lese mer? Få fri tilgang, ny og bedre forside og annonsefritt nettsted for kun 49,- i måneden.
Prøv én måned gratis Les mer om Tek Ekstra

Hardware.no/London: Da Nvidia for første gang presenterte en teknologi kalt G-Sync for verden forrige uke, begynte det å koke. Nyheten vi publiserte var en av de mest leste den uken, men både i vårt kommentarfelt og i brukerfora utover hele verden ble det klart at det var et stort sug etter mer informasjon. Hva er denne teknologien, hvordan fungerer den, hva vil den fungere med – og er det så fantastisk som Nvidia skal ha det til, at de effektivt har «revolusjonert» hvordan du opplever spillgrafikk?

For å få svar på alle disse spørsmålene, og for å se løsningen med egne øyne, dro vi til London for å snakke med Nvidia og personen som har funnet opp løsningen – Tom Petersen, Nvidias tekniske markedsføringssjef.

– G-Sync er en teknologi som er designet for å gjøre spillopplevelsen bedre. Den synkroniserer skjermkortets tilfeldige bildefrekvens med den konstante frekvensen til skjermen, noe som eliminerer grafikkfeil som «tearing» og «stuttering». På denne måten vil bildet bli jevnt, uansett hvilken FPS skjermkortet spytter ut, forteller Petersen.

Med teknologien mener Nvidia at de nå har kommet opp med noe som bryter med alt du har opplevd som god spillgrafikk de siste ti årene. Smak litt på akkurat den påstanden: Det du i dag ser på som flott grafikk, som en god spillopplevelse, sier Nvidia – en av verdens største leverandører av grafikkort – at ikke er bra nok i det hele tatt. Opplevelsen har grafiske småfeil som du egentlig er klar over at er der – men over det siste tiåret har hjernen din prosessert det du har opplevd som spillgrafikk og sagt at «dette er grafikk, det er bare slik det er». Du har vendt deg til det, fordi din egen hjerne visker ut småfeilene i underbevisstheten din. Nvidia mener at et spilloppsett med G-Sync vil fjerne alle disse småfeilene, og gi den «perfekte» spillopplevelsen. Det er en kraftig påstand, og vi ville høre hva som lå bak.

Startet for over to år siden

– Det gir så mye mening at vi ikke skjønner hvorfor vi ikke kom på dette før, det er så opplagt at det nesten er flaut å vise deg hvordan det fungere. Konseptet er superenkelt, men det er uhyre vanskelig å få til, sier Petersen.

– Hvis det er så bra, hvorfor har dere ikke gjort det før?

Petersen smiler, og tenker seg om før han konstaterer at ingen har gjort dette før. Det er han som er den primære oppfinneren av teknologien, men selv han må innrømme at han ikke har tenkt over at selve grafikkopplevelsen burde vært annerledes.

Jen-Hsun Huang, toppsjefen i Nvidia, under lanseringen av G-Sync. Kretskortet han holder i hånda er G-Sync-modulen.
Jen-Hsun Huang, toppsjefen i Nvidia, under lanseringen av G-Sync. Kretskortet han holder i hånda er G-Sync-modulen. Foto: Nvidia

– Historien om hvordan vi faktisk kom på dette starter for rundt 2,5 år siden. Jeg hadde satt opp et Nvidia Surround-system med tre GeForce GTX 580-kort på demorommet vårt, og vi spilte Battlefield: Bad Company 2 med rundt 100 FPS over de tre skjermene. Så kom toppsjefen vår, Jen-Hsun Huang, inn i rommet og sa noe i retning «det der ser ikke veldig bra ut. Er V-Sync av? Se på all tearinga, hva er det som skjer?», gjenforteller Petersen.

Huang er ingen lettvekter i hverken spill- eller grafikkbransjen. Han var med på å starte Nvidia i 1993, og er i dag både toppsjef og president i selskapet. Men i motsetning til Petersen, som spiller en god del, hadde han nok ikke det samme perspektivet på hva en god spillopplevelse er, og hadde lettere for å se disse småfeilene.

– Jeg viste ikke hvorfor det var slik, så han ba meg fikse det. Jeg samlet alle nøkkelarkitektene våre sammen, maskinvareingeniører, programvareingeniører og utviklere, og vi møttes hver eneste dag i tre måneder. 

– Først ville vi forstå hva som skjedde, og det viste seg at mange av arkitektene allerede visste om dette, så de forklarte hvordan V-Sync fungerer. Videre forklarte de hvorfor V-Sync fungerer slik, noe som viste seg å være fordi skjermen fungerer som den gjør. Så vi spurte oss selv hvorfor skjermen fungerer slik, og det hadde ingen noen god forklaring på – og det var der og da det hele startet, forteller Petersen. 

– Det er bare tre selskaper i verden som kan gjøre dette, og vi er nærmest spilling. Det er nok grunnen til at det ble vi som gjorde det. 

Vil rette feilene

At du ikke svelger påstanden om at G-Sync vil endre hele synet ditt på spillgrafikk er nok en god refleks, men etter at vi fikk studere teknologien med egne øyen er det for oss klart at Nvidia definitivt er inne på noe. Det handler ikke om tall du kan feste i en tabell eller graf, som frekvenser og FPS, det handler om det totale inntrykket du får av å spille.

Om du tenker over det, og studerer nøye den spillgrafikken du opplever som god, vil du raskt se disse «feilene» Nvidia nå har fikset, og det er hovedsakelig tre av dem. Den første er «tearing», at skjermbildet blir revet og forskjøvet horisontalt fordi skjermkortet har levert et bilde til skjermen før skjermen er ferdig med å presentere det forrige. Den andre er «stuttering», at enkelte bilder har blitt forsinket fra skjermkortet til skjermen, noe som skaper hakking og lagg. Den siste er at alle former for kanter og overganger i et spill, både mellom farger og objekter, rett og slett blir uklare når det er bevegelser i bildet.

– Jeg vurderte om vi skulle påstå at dette er første gangen skjermteknologi har endret seg siden 1887, men jeg føler at det kanskje er litt i overkant å si, sier Petersen.

Selv om Nvidia ikke akkurat vil bruke dette som et slagord, har han et poeng. Den grunnleggende måten skjermer jobber på, at de presenterer et fast sett med bilder hvert sekund, uavhengig hva hva de får inn, har i praksis vært som det er siden den ble oppfunnet mot slutten av 1800-tallet. 

PC-skjermen du sitter med i dag er basert på CRT-skjermen, som i sin tur var basert på TV-er. TV-ene var igjen basert på katoderør som opererte på 60 Hz, en frekvens som ble valgt fordi skjermen da ville være synkron med strømnettet i USA – en vesentlig forutsetning for at de skulle fungere. Apple var de første som brukte en vanlig TV i en PC, og siden har det vært slik. 

Du får mer av skjermkortet 

Selv med LCD-skjermenes inntog holdt man altså på den rundt 100 år gamle arven om at skjermen skulle oppdatere seg med en fast frekvens, og at denne frekvensen skulle være 60 Hz. Men så snart man snur på dette prinsippet åpner det seg store muligheter. Når skjermen først kan synkronisere seg med skjermkortet, betyr det faktisk at du kan slippe unna med et vesentlig billigere skjermkort.

Grunnen til det er enkel. Med G-Sync aktivert vil du med en lavere FPS få den samme opplevelsen som du får i dag med høy FPS, og en lavere FPS betyr at du ikke trenger et like kraftig skjermkort. Som et eksempel viser Nvidia to oppsett side om side. Den ene maskinen jobber på 60 FPS uten G-Sync, mens den andre har G-Sync og jobber med 40 FPS. Vi klarer å peke på mikroskopiske forskjeller mellom de to, men den totale opplevelsen vi får er så godt som den samme.

Heldigvis for Nvidia sin del, som tross alt livnærer seg på å selge kraftige skjermkort, er det ikke så enkelt som at ingen trenger kraftige skjermkort om du har G-Sync. Skjermkortet ditt må fortsatt være i stand til å dra unna selv de kraftigste sekvensene i et spill, og da kan det være nødvendig med en mer kraftig modell.

– Med et raskere skjermkort vil du sette målet høyere. Det handler ikke om maksimal FPS, det handler om variasjonen i FPS. Er variasjonen mellom 40 og 60, er det dramatisk forskjell med og uten G-Sync, men et kraftig skjermkort vil ha mindre tid der FPS-en faller ned. FPS-en vil alltid falle, og derfor du vil oppleve fordeler med G-Sync over hele produktlinjen, sier Petersen. 

Egen modul i skjermen

Rent fysisk er G-Sync et todelt system. En egen modul står i skjermen, samtidig som en del av skjermkortets kjerne også er dedikert til systemet. I kjernen av skjermkortet har Nvidia tatt i bruk moduler som normalt brukes til SLI for å kunne regulere tiden skjermen din er «blank», noe som skjer mellom hver gang skjermen er ferdig med å tegne et bilde, og før den har startet med å tegne det neste.

Modulen i skjermen er et eget kretskort, og fungerer faktisk som en utvidelse av skaleringskretskortet som allerede sitter i skjermen din. Normalt har dette kretskortet jobben med å behandle og presentere alle bildesignalene som kommer inn, og med G-Sync erstatter Nvidia store deler av dette kortet med sin egen teknologi.

Skjermkortet og G-Sync-modulen i skjermen blir knyttet sammen av skjermkabelen din, som forøvrig må være av DisplayPort-typen. At Nvidia har sett seg nødt til å dele opp maskinvaren i to ender av en kabel, og ikke putte alt i skjermkortet, dreier seg rett og slett om at de må endre på hele rammeverket til hvordan en skjerm jobber – som vi har nevnt tidligere.

– Skjermen må være i stand til å oppdatere seg med en tilfeldig frekvens. Hvis vi snakker med en normal skjerm som ikke vet om tilfeldige frekvenser, er det ikke mulig å putte all maskinvaren i skjermkortet fordi da vil skjermen fortsatt jobbe med en fast frekvens. G-Sync sitter på begge sider av kabelen fordi den må sende denne kunnskapen om frekvensen, motta det og vise det frem, sier Petersen.

– Se på det som at skjermkortet snakker spansk, også har vi en oversetter i skjermen som oversetter det til engelsk fordi skjermen bare forstår engelsk. Kabelen snakker kun spansk, og det er problemet – vi må ha en oversetter i andre enden, sier Petersen. 

Selve silisiumet som utgjør G-Sync-modulen er relativt billig å produsere, og når Nvidia putter sin G-Sync-modul i en skjerm legger de ikke nødvendigvis til en ren kostnad. De kan erstatte hele skaleringskortet som sitter det fra før:

– Det er veldig mye i skalereren du ikke trenger til spilling, så det er spennende å se om vi kan bygge en egen skalerer for spilling. Vi har skjermkortene, og det meste av hva skjermkortet gjør i dag blir bare replisert av skalereren. Den skalerer, regulerer fargene, den regulerer gamma og mye mer. Skjermkortet gjør allerede denne jobben, så hvorfor trenger vi egentlig en skalerer nå, spør Petersen ledende. 

G-Sync-modulen vil forøvrig bli DisplayPort-sertifisert. Det betyr at G-Sync-skjermene vil fungere helt fint som normale skjermer om du har et skjermkort fra AMD eller Intel, men du må ha et Nvidia-kort for å kunne bruke G-Sync-funksjonen.

Spent på hva AMD gjør

Hvordan AMD vil svare på Nvidias nye løsning er ett spørsmål som er aktuelt å resonere rundt. Selskapet har laget mange spennende løsninger opp igjennom årene, men de siste årene har de også valgt å svare på nyvinninger fra Nvidia – som 3D i spill, nettskyspilling og automatiske spillinnstillinger – ved å slå seg sammen med en tredjepart. Å gå til en tredjepart er neppe mulig denne gangen:

– Jeg vet virkelig ikke hva de vil gjøre nå. G-Sync sitter nærmere GPU-en, og jeg kan ikke se for meg at det kan løses med tredjepart. De må endre måten driveren fungerer, de må endre maskinvaren. Teknologien krever skikkelig arbeid, og det er ingen måte å sette dette ut på kontrakt som jeg vet om, sier Petersen.

For noen år tilbake satset Nvidia stort på 3D i spill, og selv om den opplevelsen falt i smak for noen, ble 3D aldri en teknologi som virkelig tok av for hverken spill eller film. Nå ser det ut til at hele 3D-kappløpet mer eller mindre er over. Selv om Nvidia for et par år tilbake hadde like stor tro på 3D som de i dag har på G-Sync, vil ikke Petersen spekulere i at teknologien vil lide samme skjebne:

– Det er vanskelig å argumentere for at du ikke trenger G-Sync. Jeg vet ikke hva AMD vil gjøre, men jeg kan ikke se for meg at de vil ignorere dette, sier han.

– Og dette vil ikke fungere med AMD-kort, ikke til å begynne med. Og mest sannsynlig ikke på lenge, for de har mye å gjøre på skjermkort-siden. Det er heller ikke klart for meg hvordan de kan gjøre det uten å bryte våre patenter, sier han.

Med AMDs nyeste skjermkort har det røde selskapet introdusert en rekke andre funksjoner enn det Nvidia nå er inne på. De nye Radeon R-kortene stiller blant annet med Mantle, AMDs egen tolkning av DirectX, og TrueAudio – lydkretser som er bygget inn i skjermkortet.

Vi har vært i kontakt med AMD og gitt de god mulighet til å imøtegå disse påstandene. Selskapet har ikke ønsket å kommentere, men lover å komme tilbake til oss «så snart vi har noen oppdateringer relatert til emnet».

Tre forskjellige pakker

Om du ønsker å prøve G-Sync vil det etterhvert være tre forskjellige måter å få tak i det på. Nvidia selger brikkene sine rett til skjermprodusentene, slik at de kan selge nye skjermer med G-Sync, samtidig som de selger selve modulen til salgspartnere som ønsker å oppgradere en skjerm som allerede er i salgskanalene. Hvis du er fingernem vil Nvidia også selge et eget oppgraderingssett, som inkluderer både modulen og skjermens hovedkort. Dette oppgraderingssettet passer kun til Asus' VG248QE-modell, men om du eier denne skjermen kan du da skru den opp og bytte elektronikken selv.

Dette bildet illustrerer flere av problemene samtidig. Nesten øverst på pendelen ser du at grafikken bryter, «tearing», mens du rundt kanten av pendelen ser at grafikken er uklar. Det siste punktet gjør at teksten blir uklar, men med G-Sync aktivert så vi at alle disse problemene forsvant. .
Dette bildet illustrerer flere av problemene samtidig. Nesten øverst på pendelen ser du at grafikken bryter, «tearing», mens du rundt kanten av pendelen ser at grafikken er uklar. Det siste punktet gjør at teksten blir uklar, men med G-Sync aktivert så vi at alle disse problemene forsvant. . Foto: Jørgen Elton Nilsen, Hardware.no

– Vi vet ikke nøyaktig hvordan kostnaden for G-sync vil bli for sluttbrukeren, men Asus har annonsert én modell, og de sa at de skal selge akkurat den skjermen for 399 dollar. Det er 100 dollar over den eksisterende modellen som ikke har G-Sync. Jeg antar at det kan være representativt for hva ekstrakostnaden vil bli, sier Petersen.

– Modulen erstatter eksisterende elektronikk. Det er ikke et supplement, den erstatter skaleringskortet. Et slikt kort er ikke gratis, så ved å fjerne det fjerner vi en kostnad som vi erstatter med vår kostnad. Til slutt handler det om nettoforskjellen her, og det virker som at Asus synes det er snakk om rundt 100 dollar, sier han.

For Petersen er det samtidig viktig å fremheve at det å prise G-Sync-teknologien generelt sett er litt vrient. Én ting er den rene ekstrakostnaden av bytte modulen, men han mener at du også vil slippe litt billigere unna fordi du kan kjøpe en tregere skjerm:

– De fleste G-Sync-skjermene du vil se har 60 Hz, som er billigere enn 120 Hz. For skjermprodusenten ligger mye av kostnaden i panelet, og vi kan få et 60 Hz-panel til å se godt nok ut, fremfor at du må bruke et 120 Hz-panel. G-Sync er en bedre løsning ved 60 Hz enn et vanlig panel er på 120 Hz, påstår han.

Vanskelig å vise frem

Under vårt besøk hos Nvidia fikk vi selv prøve og se hvordan både spill og teknologidemonstrasjoner med G-Sync ser ut og oppleves. Etter en relativt sett god periode med beskuing er det for oss liten tvil om at teknologien gir en bedre opplevelse, selv om det tidvis er vanskelig å sette fingeren på det. Om ikke lenge skal vi få inn et eget eksemplar av G-Sync til test, og da skal vi teste teknologien fullt ut på våre premisser, men det er klart at vi har én stor utfordring foran oss – og det er hvordan vi skal kommunisere frem teknologien på rettferdig vis.

De to skjermene står på samme oppsett, med tilsvarende innstillinger, men skjermen til venstre har ikke G-Sync aktivert. Pendelet svinger frem og tilbake, og på skjermen uten G-Sync blir den uklar.
De to skjermene står på samme oppsett, med tilsvarende innstillinger, men skjermen til venstre har ikke G-Sync aktivert. Pendelen svinger frem og tilbake, og på skjermen uten G-Sync blir den uklar. Foto: Jørgen Elton Nilsen, Hardware.no

Det er en utfordring Nvidia også sliter med, for «opplevelsen» av G-Sync i bruk kan hverken fanges på bilder, video eller tekst. Du må se det med egne øyne for å oppfatte det på korrekt vis. Akkurat nå aner ikke Nvidia engang hvordan de selv skal fronte teknologien mot forbrukerne: 

– Min jobb over de neste måneden vil være er å finne ut av dette, hvordan vi skal få folk til å faktisk oppleve forskjellen, sier Petersen.

De første eksemplarene av G-Sync-løsningen vil slippes på markedet fra og med midten av november, men det er bare i et begrenset opplag. Det er først på starten av nyåret at Nvidia ser for seg en stor og bred tilgjengeliggjøring av produktet. 

Vi jobber for tiden med en større guide til hvordan teknologien fungerer og opererer, og vi vil komme tilbake med en større artikkel om dette.

Nvidia har flere teknologier som skal gi deg en bedre spillopplevelse:
Med Nvidias 3D-teknologi og et eget program blir spillene silkemyke »

Vi gjør oppmerksom på at Nvidia dekket flybilletten til London. 

Norges beste mobilabonnement

Sommer 2019

Kåret av Tek-redaksjonen

Jeg bruker lite data:

Sponz 1 GB


Jeg bruker middels mye data:

GE Mobil Leve 6 GB


Jeg bruker mye data:

Chili 25 GB


Jeg er superbruker:

Chili Fri Data


Finn billigste abonnement i vår mobilkalkulator

Til toppen