Tek.no

Artikkel Skjermkortåret 2013

Dette er vinneren av skjermkortåret 2013

Bli med på en spennende reise gjennom et år fylt av kraftige grafikkprosessorer.

Varg Aamo, Hardware.no
Varg Aamo
7 Jan 2014 10:00

År 2013 er nå historie, og på nyhetsfronten var det nok av nye, spennende ting å ta tak i. For skjermkortentusiaster var det kanskje særlig lanseringen av GeForce GTX Titan som markerte seg som den store saken i året som gikk, men dette var langt ifra alt som skjedde innenfor skjermkortenes verden, og i det evige kappløpet mellom Nvidia og AMD.

De to produsentene har nemlig atter en gang gitt oss et år med lanseringer av både ny teknologi, nye løsninger og nye produkter for å kapre kundenes gunst. Men hvem endte opp som vinneren? Så langt har vi kåret Nvidias monsterlansering fra april til årets skjermkort, men holder det til å si at selskapet bak kan sies å ha «vunnet» 2013?

Skjermkortene som var

Det er slett ikke så sikkert. Selv om ytelseskronen gikk resolutt over i Nvidias hender da Titan kom ut, og ble værende der helt frem til i vinter, var det AMD som startet året med en suveren ledelse mot sin erkerival. Dette var ikke noen ny situasjon heller – helt siden Radeon HD 7970 GHz Edition kom på markedet sommeren 2012 hadde AMD holdt et jerngrep om tronen.

Da Nvidia GeForce GTX Titan kom ut, var det etter lang tid med AMD-dominans innen skjermkortytelse.Foto: Varg Aamo, Hardware.no

Til tross for at Nvidia sine GeForce GTX 600-skjermkort var basert på en ny og svært avansert arkitektur kalt Kepler, var ikke denne heftig nok til å faktisk hamle opp med AMDs beste. Årsaken var at den nye Kepler-arkitekturen ikke var helt ferdigstilt, og Nvidias GeForce GTX 600-serie var i virkeligheten snarere bygd på "Kepler Light", med det mer tekniske navnet GK104.

Dette var den faktoren som GeForce GTX Titan endret på. Som det første spillkortet med den ferdige, fullverdige Kepler-kjernen GK110 innabords kunne Nvidia ta i bruk en hel haug nye finurlige måter å tegne opp bilder på. Dette merket vi aller først på dramatisk forbedring av ytelsen – men også et par andre funksjoner som kom brukerne til gode.

Langt mer enn transistorer

Samtidig som GeForce GTX Titan ble sluppet, lanserte også Nvidia GPU Boost 2.0. Denne smarte løsningen gikk litt videre fra å bare lage mer avansert maskinvare med flere transistorer. GPU Boost 2.0 ble faktisk nesten en liten revolusjon i hvordan helt vanlige skjermkort kunne yte enda bedre, men samtidig en naturlig videreutvikling av eksisterende løsninger.

Den vanlige måten å gjøre ting på frem til dette var nemlig at man bygde et skjermkort, bestemte hvilke frekvenser det skulle kjøres på, og så la man inn en «boost-modus» oppå denne. De høyere frekvensene i boost-modusene ville skjermkortet forsøke å strekke seg mot så lenge det var i bruk, noe som betød litt bedre ytelse for brukerne uten å måtte herje med overklokking selv.

GPU Boost 2.0 snudde fullstendig opp-ned på dette. Akkurat som før fortsatte Nvidia å sette en standard frekvens, men istedet for å angi en boost-frekvens kortet skulle strekke seg mot, anga de heller en temperatur som mål. Dette innebar et langt større handlingsrom for kjernens evne til å overklokke seg selv enn tidligere, ettersom makshastigheten plutselig bare var begrenset av hvor god kjøling skjermkortet ditt hadde.

AMD svarer med mye av det samme

Radeon HD 7990 var stort, varmt og kraftig, men ble ikke akkurat revolusjonerende.

Dette tok visst AMD litt på sengen, ettersom det eneste selskapet klarte å komme med på en stund var en lansering av Radeon HD 7990 – et altfor varmt skjermkort med to kjerner, som AMD selv tidligere hadde sagt at ikke ville bli noe av.

Etter en stund klarte de imidlertid å våkne. På samme måte som Nvidias Kepler-kjerne, kom også AMD ut med en ny arkitektur, under navnet Hawaii. Denne skulle overta fra den gamle, en gang så overlegne Tahiti-arkitekturen, men toppmodellene i den splitter nye serien Radeon-kort lot vente på seg.

Istedet fikk vi tidlig se en løsning som minnet mistenkelig om Nvidias GPU Boost 2.0, bare på AMD sine skjermkort, og med et høyere temperaturmål. Da vi konfronterte AMD med dette hevdet de likevel bestemt at de hadde funnet på idéen helt selv (Ekstra).

Flere nyvinninger også, men Nvidia var ikke ferdig

Langt mer originalt var at de også laget sitt eget utviklerverktøy, kalt Mantle, som skulle gi spillutviklere langt bedre tilgang til kreftene som ligger i maskinvaren. Selv om det er flere spill som skal få støtte for Mantle, og dermed burde kunne gi AMD-brukere især et løft, har vi fortsatt til gode å se det i aksjon.

Toppmodellene i den nye Radeon-serien yter ekstremt godt, men ytelse alene var ikke nok i 2013.Foto: Varg Aamo, Hardware.no

True Audio ble en annen reell nyvinning fra AMD sin side. Med en egen, dedikert lydprosessor på selskapets nyere skjermkort vil de bringe et både klarere og dypere lydbilde, med skikkelig surround, til alle som spiller på et av disse kortene.

Nvidia hvilte heller ikke på sine laurbær, og lanserte på senhøsten en funksjonalitet for å kunne ta opp spilløktene dine på video enkelt, med god kvalitet, og svært lavt ytelsestap. Selv om dette var en kul funksjon i seg selv (Ekstra), hadde selskapet også et enda større ess oppi ermet: G-Sync.

Enda høyere bildeflyt som ikke betyr noe

Med en liten brikke på innsiden kan skjermpanel og skjermkort omsider kommunisere.Foto: Varg Aamo, Hardware.no

For mens AMD til slutt klarte å få ut sine nye toppmodeller med Hawaii-kjerner, og disse leverte helt ellevill ytelse mål i bildeflyt, kom skjermteknologien G-Sync luskende med et budskap om at bildeflyten målt i FPS egentlig ikke betyr all verdens likevel.

Ved å koble hastigheten skjermen tegner bilder på til hastigheten skjermkortet klarer å tegne bilder, har nemlig Nvidia i en håndvending eliminert problemer som hakking og riving i bildet mens skjermkortet er presset.

På toppen av dette lanserte de GeForce GTX 780 Ti, et skjermkort som er enda mer avansert og enda mer høytytende enn GeForce GTX Titan. AMD sine råsterke Hawaii-kort er dog svært nye, rett og slett råsterke, og har kjempestort potensial for å igjen kunne dominere skjermkortmarkedet på ytelse.

Om de rekker å ta ledelsen tilbake på ordentlig før Nvidia lanserer oppfølgeren til Kepler, kjernen ved navn Maxwell, gjenstår likevel å se. Vi kan likevel si at for oss ser det rimelig klart ut at vinneren av skjermkortåret 2013 var Nvidia.

Hansken er kastet til AMD, og de har aldri vært sene med å plukke den opp.

Lurer du på hvordan skjermkortet gjør jobben sin?
Det forklarer vi i den store guiden til hvordan skjermkort fungerer »

Les også
Nvidia har lansert et spinnvilt GeForce Titan-skjermkort
Les også
AMD faller som en stein
Les også
Straks kan det komme helt nye skjermkort fra Nvidia
Les også
Her er AMDs nye Radeon-skjermkort
Les også
Vi testet: Så mye bedre spillytelse får du av å bytte skjermkort
Les også
Husker du alt som skjedde i året som gikk?
Les også
G-Sync er faktisk så bra som Nvidia påstår
Les også
AMD mener de ikke kopierer Nvidia
Les også
Blir spillopplevelsen ødelagt av SLI og CrossFireX?
annonse

Les også