Artikkel

GeForce GTX-sjefen: Det AMD gjør er frustrerende

Synes erkerivalens løsninger ligner veldig på deres egne.

Hardware.no (Las Vegas): Da AMD skulle lansere sitt råeste skjermkort til nå, Radeon R9 290X, stakk vi til London og stilte dem noen kritiske spørsmål. Vi syntes nemlig at flere av løsningene selskapet hadde lansert var bemerkelsesverdig like flere ting som erkerivalen Nvidia allerede hadde tilbudt en god stund – men AMD mente at de ikke lagde kopier av konkurrenten sine løsninger.

årets CES-messe i Las Vegas finner vi Scott Herkelman, Nvidia-sjefen med ansvar for GeForce GTX-familien skjermkort. Han har også merket seg hvordan AMD stadig har kommet ut med store nyheter som likner ganske mye på hans eget selskaps teknologi.

Gir spillerne det de ønsker seg

Nvidia lurte noe veldig på hvordan AMD forklarer at de også setter opp servere fulle av skjermkort for å la folk spille fra nettskyen.Foto: Niklas Plikk, Hardware.no

– Dette er egentlig litt frustrerende for oss. Vi investerer mye tid, penger og ressurser i utvikling og innovasjon, vi hører på skjermkortsamfunnet og ser på hva publikum vil ha. Så vi er også litt nysgjerrige på hva konkurrenten har å si til dette, sier han til Hardware.no.

Når vi nevner AMD sin Cloud Gaming, som vi mente hørtes faretruende likt ut Nvidia Grid, må Herkelman faktisk le.

– Ja, akkurat det har vi virkelig lurt på hvordan de ville forklare, humrer han.

GeForce-sjefen hadde dog ikke egentlig lyst til å svartmale konkurrenten. Istedet ville han understreke at om ikke annet får i alle fall Nvidia bekreftelse på at de tar riktige valg når deres argeste rival lanserer temmelig like løsninger.

– Det er blant annet ganske interessant for oss å se at de har den Raptr-appen sin nå. Det validerer vårt eget arbeid med GeForce Experience, og viser at vi introduserte funksjoner som er viktig for spillere, og som publikum virkelig ønsket seg, sier Herkelman.

– Spillmaskiner skal være stillegående

En annen funksjon vi mente å kjenne igjen fra Nvidia da den nye serien Radeon-kort ble lansert var evnen deres til å overklokke seg selv dynamisk. Ytelsen ble begrenset oppad ved et temperaturmål istedet for en fastsatt grense på frekvensen det fikk lov til å oppnå.

Dette var mye av det samme vi fikk høre da GPU Boost 2.0 ble offentliggjort, sammen med lanseringen av GeForce GTX Titan. En vesentlig forskjell var dog at mens Nvidia sine skjermkort slutter å gi mer gass når de når 80°C, er AMD sine satt til å fortsette helt opp til 95°C. Da vi spurte AMD i London hva dette skyldtes svarte de at kortene tålte så mye, og derfor burde kjøres så hardt som mulig, men i Las Vegas fikk vi nå anledning til å høre om Nvidia planlegger å skru opp sitt temperaturmål som en reaksjon.

– Svaret på det er at vi mener spillmaskiner skal være stillegående, og vi jobber stadig for å gjøre teknologien vår både stillere og kaldere. Vi kunne valgt å gjøre ting varme og bråkete, men vi føler ikke at vi behøver å gjøre det for å kunne gi skikkelig god ytelse, svarer Herkelman.

Vurderer om de må legge ved spill

Assassin's Creed var ett av spillene Nvidia plutselig lokket med.

En trend vi har registrert som går motsatt vei er dog at AMD ofte har hatt ganske så lukrative spillpakker som bonus til alle som har kjøpt flere av deres skjermkortmodeller. Dette har Nvidia som regel styrt unna, men like etter at den nye Radeon-serien kom på hyllene reagerte selskapet med å selv gjøre akkurat dette samtidig som de dumpet prisene på mange av sine modeller. Vi spurte derfor GeForce-sjefen hva som egentlig er selskapets rutiner for slike spillpakker, og hvorfor de ikke har gjort dette oftere – eller før.

– Vi legger også ved spill, men en ting vi ikke trenger å gjøre som et selskap er å kaste 8 storspill inn sammen med våre skjermkort. Jeg vet faktisk ikke hvorfor de andre kaster så mange spill og dollar på GPU-ene sine. Vi hører på kundene våre, vi så de ville ha spill, og da la vi ved tre topptitler i noen måneder. Dette er noe vi evaluerer om vi trenger å gjøre eller ikke, svarer Herkelman.

For spill og utvikling

GeForce GTX Titan har slått virkelig godt an blant SLI-entusiaster.Foto: Varg Aamo, hardware.no

Mens vi hadde sjefen for hele GeForce-familien tilgjengelig følte vi også at vi måtte få klarhet i hvorfor GeForce GTX Titan fortsatt er langt dyrere enn det nyere, og i spillsituasjoner som regel kraftigere, GeForce GTX 780 Ti.

– Det er faktisk ganske enkelt. Titan koster mer fordi da det ble lansert i første kvartal var det er fabelaktig spillkort, men også et CUDA-utviklingskort. I dag er det fremdeles supert til spill, og kommer dessuten med mye mer minne enn GTX 780 Ti, forteller han, og legger til:

– På toppen av dette byr Titan på muligheten til utregning med full dobbelpresisjon, noe det nyere spillkortet ikke byr på, så det er mange flere som kjøper nettopp Titan for å drive med CUDA-utvikling. Veldig mange utviklere liker nemlig å kunne spille også. Det er forresten også mange flere som kjøper nettopp GeForce GTX Titan når de skal ha et SLI-oppsett, enn noen annen modell av skjermkort vi kan by på.

Men den neste generasjonen med GeForce-skjermkort, som visstnok skal komme med Maxwell-kjerner, vil ikke Herkelman fortelle oss noe om.

– Maxwell? Hva er det for noe, smiler han lurt.

Etter å ha testet GTX Titan i SLI forstår vi hvorfor det har slått an:
I vår test av tre GeForce GTX Titan i SLI fikk vi grensesprengende ytelse »

AMD har fått mulighet til å komme med tilsvar, men har ikke svart.

Les også
Her viser Nvidia-toppsjefen frem neste GeForce-prosessor
Les også
Nvidia har lansert et spinnvilt GeForce Titan-skjermkort
Les også
Straks kan det komme helt nye skjermkort fra Nvidia
Les også
Dette er vinneren av skjermkortåret 2013
Les også
AMD mener de ikke kopierer Nvidia
Les også
Nvidia GeForce GTX Titan SLI: Tre GTX Titan gir grensesprengende ytelse
Les også
Her spiller vi Battlefield 3 på et nettbrett
annonse