Her er Titan – Nvidias heftigste skjermkort
(Bilde: Varg Aamo, hardware.no)

Her er Titan – Nvidias heftigste skjermkort

Akkurat nå har Nvidia lansert en helt ny toppmodell.

Som vi tidligere kunne melde har Nvidia lenge jobbet mot en lansering av sitt neste skjermkort, som kunne skje denne måneden. Nå er ventetiden over, og vi kan endelig bekrefte alle detaljene rundt det etterlengtede Nvidia GeForce GTX Titan.

– Dette er vår mest komplekse brikke noen gang. Absolutt alt ved GTX Titan er av det aller beste. Det har den beste kjølingen, og den beste ytelsen, forteller Benjamin Berraondo hos Nvidia i en telefonkonferanse.

Ekstremt mye raskere

Med 3-Way SLI byt Titan på uante mengder kraft.
Satt opp i 3-Way SLI byr Titan på store krefter – opp til det dobbelte av GTX 690 i Quad-SLI, sier Nvidia.Foto: Varg Aamo, hardware.no

Dette blir da heller ikke noe billigkort. Veiledende pris i Norge er oppgitt til 7609 kroner inkludert mva., og kortet blir tilgjengelig i løpet av uka.

Alle resultater fra både våre og andres testresultater av GTX Titan er taushetsbelagt frem til torsdag klokken 15 norsk tid.

Vi har fått inn hele tre kort til vår test, men inntil vi publiserer denne, kan vi imidlertid si at Nvidia har vist oss noen imponerende grafer, som illustrerer det de mener kortet er godt for.

Blant annet viser det seg at det nye skjermkortet skal klarer å dra unna Crysis 3 med FPS-verdier over 30 prosent høyere enn et GeForce GTX 680 er i stand til.

Mens GTX 680-resultatet ligger rundt 36 FPS i full HD-oppløsning, med alt av detaljer på maks, skal det nye superkortet prestere nærmere 50 FPS. For å virkelig ta den helt ut viser Nvidia oss også et oppsett med tre GTX Titan i SLI-konfigurasjon, og Berraondo forteller at dette trolig er verdens raskeste spillsystem.

– FPS-verdiene på denne maskinen er opp til dobbelt så høye som med GeForce GTX 690 i Quad-SLI, når vi kjører på veldig høy kvalitet i oppløsningen 5760 x 1080 piksler og 4 x MSAA, hevder han.

Såpass rå krefter får du bruk for om du vil spille over flere skjermer.
Se hvordan du går frem for å spille over tre store skjermer »

– Ytelse og eleganse

Utvendig er GTX Titan bygd i aluminium og magnesiumslegering, med et polykarbonatvindu ned på kjølefinnene.
Utvendig er GTX Titan bygd i aluminium og magnesiumslegering, med et polykarbonatvindu ned mot kjølefinnene.Foto: Varg Aamo, hardware.no

Det er imidlertid mer enn store krefter under panseret Nvidia kan fortelle oss om. Selskapet skriver i presentasjons-materiellet sitt at GTX Titan er konstruert for ytelse og eleganse, og vi er tilbøyelige til å være enige.

Over selve grafikkprosessoren, minnet og spenningsregulatorene, er det et fordampningskammer. Sammen med forlengede kjølefinner skal dette kjøle hele kortet svært effektivt.

Utvendig minner kortet om et GeForce GTX 690, men i motsetning til sitt dobbeltkjernede søskenbarn dumper GTX Titan sin overskuddsvarme ut av kabinettet.

Dette, kombinert med et relativt beskjedent strømforbruk, betyr lavere temperaturerer enn mange andre entusiast-skjermkort. Det er gode nyheter både for overklokkere og vanlige forbrukere.

Vil du se mer av Nvidias nye flaggskip-skjermkort?
Se 40 ferske bilder av GeForce GTX Titan i vårt bildegalleri »

Bittesmå supermaskiner

Selve grafikkprosessoren tar opp hele 551 kvadratmillimeter, men kortet er ikke overveldende stort til skikkelig flaggskip å være. Med dimensjonene 269 mm x 111 mm x 37 mm – inkludert PCI-kontakter – er det faktisk relativt kompakt.

Selv i søte lille Silverstone Sugo SG09B gikk det fint å få inn to GTX Titan.
Selv i søte lille Silverstone Sugo SG09B klarte vi fint å få plass til to GeForce GTX Titan.Foto: Varg Aamo, hardware.no

Dermed vil GeForce GTX Titan kunne få plass i svært små kabinetter. Sammen med sine gode kjøleegenskaper, og ifølge Nvidia imponerende lave støynivåer, mener selskapet at Titans kompakte mål for første gang muliggjør skikkelige spill-PC-er med liten formfaktor.

– Hvis jeg skulle bygd meg en ny spillmaskin i dag er i alle fall ikke jeg i tvil. Jeg ville gått for et av disse svært små kabinettene, forteller Berraondo, og viser til mini-PC-er som knapt er stort høyere enn et vinglass.

Trenger du nytt kabinett?
Se vår samletest av over 40 kabinetter »

Bygd for entusiaster

De nærmeste dagene skal vi undersøke hva slags ytelse GeForce GTX Titan klarer å levere. Inntil da har vi i alle fall en rekke spesifikasjoner å by på, som sikkert vil glede entusiastene der ute.

Nvidias Titan-brikke har en smule mer regnekraft enn Intels råeste prosessor.
Nvidias Titan-brikke har en smule mer regnekraft enn Intels råeste prosessor. 4,5 SP TFLOPS og 1,3 DP TFLOPS er et betydelig hopp fra selv GK110-baserte Tesla K20X.Foto: Nvidia

Blant annet kan vi nå bekrefte at GTX Titan vil inneholde 2688 CUDA-kjerner, og komme med 6 GB grafikkminne på en 384-bits minnebus, i likhet med utregningskortet Nvidia Tesla K20X.

På spørsmål om TDP for GTX Titan, opplyser Nvidia at skjermkortet i høyden vil trekke 250 W.

Dette gjenspeiler den høyere kjernefrekvensen i Titan kontra Tesla K20X. Som standard vil denne nemlig ligge på 837 MHz, mot 732 MHz i utregningskortet.

Av andre tekniske detaljer har skjermkortet 75 prosent flere kjerner og teksturenheter enn GeForce GTX 680. En fyllrate på mer enn 187,5 gigateksler i sekundet, er på sin side mer enn 45 prosent raskere enn forrige flaggskip. I tillegg er minnebåndbredden økt til 288 Gbit/s, en økning på 50 prosent fra GTX 680.

Ny og heftigere boost

Av tilkoblinger kan Titan skilte med to DL-DVI-utganger, en HDMI-utgang, og en Displayport 1.2-utgang.
Av tilkoblinger kan Titan skilte med to DL-DVI-utganger, en HDMI-utgang, og en Displayport 1.2-utgang.Foto: Varg Aamo, hardware.no

GTX Titan har også støtte for boost-funksjonalitet, og denne har samtidig fått en solid ansiktsløftning fra hva vi er vant med. Selv om boost-frekvensen på kortet bare er oppgitt å være 876 MHz, forteller Nvidia at dette kun er en minsteverdi.

Selskapet har nemlig gjort betydelige forbedringer i sin boost-funksjonalitet, og lanserer nå GPU Boost 2.0. Dette er teknologi som først og fremst vil være relevant for Titan og senere skjermkort, og som kan vise seg å være omtrent like spennende som selve skjermkortet.

I akkurat Titan sitt tilfelle betyr den at boost-frekvensen altså er garantert å være minst de oppgitte 876 MHz, men Nvidia forklarer også at den på enkelte ekseplarer vil være så høy som 1200 MHz.

Bli med til neste side, så forklarer vi i detalj hva GPU Boost 2.0 er »

Spesifikasjoner:

Modell GeForce GTX 690 Nvidia Tesla K20X GeForce GTX Titan GeForce GTX 680
Grafikkprosessor 2 x GK104 GK110 GK110 GK104
Kjernefrekvens 915 MHz 732 MHz 837 MHz 1006 MHz
Boost-frekvens 1019 MHz - 876 MHz* 1058 MHz
Prosess 28 nm 28 nm 28 nm 28 nm
Minnefrekvens (eff.) 6008 MHz 5200 MHz 6008 MHz 6008 MHz
Minnemengde 4096 MB GDDR5 6144 MB GDDR5 6144 MB GDDR5 2048 MB GDDR5
Minnebusbredde 2 x 256-bit 384-bit 384-bit 256-bit
Streamprosessorer 2 x 1536 2688 2688 1536
Transistorer 2 x 3,45 mrd. 7,1 mrd. 7,1 mrd. 3,45 mrd.
Teksturenheter 2 x 128   224 128
ROP 2 x 32   48 32
Maks strømforbruk 300 W 235 W 250 W 195 W

* : Med lanseringen av GPU Boost 2.0 er dette en minsteverdi, og Nvidia oppgir at noen GTX Titan vil komme til å se boost-frekvenser helt opp i 1200 MHz.

Samtidig med lanseringen av selve GeForce GTX Titan-skjermkortet, presenterte Nvidia sin nye GPU Boost 2.0-teknologi. Denne omfatter betydelige endringer i både maskinvare, programvare og algoritmer.

Kort sagt gjør den slik at skjermkortet konstant vil justere hastigheten sin på en måte mer tilpasset akkurat din datamaskin. I tillegg får Nvidias produsentpartnere en større verktøykasse for å utvikle sin programvare, som for eksempel MSI Afterburner.

– Akkurat hvilke muligheter brukerne får kommer an på produsentpartnernes valg også. De kan åpne for veldig ekstrem overklokking, men teknologien lar kortet kvitte seg med sikkerhetsmarginer som ikke alltid har vært nødvendig, forteller Nvidias Benjamin Berraondo.

Har tenkt på entusiasten

Brukere som har lyst kan få opp denne typen kontroller for overstyring.
Brukere som har lyst kan selv ta kontrollen.Foto: Nvidia

Han innrømmer at mulighetene som er åpnet for med GPU Boost 2.0 kan høres komplisert ut, men forklarer at det er masse kombinasjoner du vil kunne leke med – men bare hvis du vil.

– Brukerne vil aldri få se kontroller han ikke vil se, og det er det viktigste. Den nye boost-teknologien fungerer veldig bra automatisk, men entusiasten får flere verktøy å mekke med, sier han.

Den «gamle» boost-teknologien fungerte enkelt forklart slik at når skjermkortet ble belastet, trakk det mer strøm og økte kjernefrekvensen. Slik fikk du bedre ytelse ved behov.

Den nylanserte versjonen gir ifølge Nvidia mye mer ytelse, mer kontroll, og lar deg optimisere vannkjølte systemer – og mye mer. I korte trekk vil den nye GPU Boost la deg utnytte kortet bedre enn hva som tidligere var tilfelle, og du blir belønnet for å ha et system med gode kjøleløsninger.

Slik så maksgrensene ut med GPU Boost 1.0.
Slik så maksgrensene ut med GPU Boost 1.0.Foto: Nvidia

Effektiv auto-overklokking

En utfordring med den ordinære GPU Boost har vært at kortet ikke visste hvor varmt det faktisk var, da funksjonaliteten ikke har hatt direkte tilgang til temperaturavlesninger fra kjernen. Dette er en av endringene som nå introduseres.

Sikker maksgrense økes fordi kortet kjenner sin egen temperatur.
Sikker maksgrense økes, siden kortet vet hvor varmt det blir..Foto: Nvidia

Istedet for at boost-teknologien antar hvilke temperaturer kortet opererer på, basert på hvilken spenning det mates med, vil det nå få kontroll på både strøm og varme. Dermed kan det ta sikte på en balanse mellom disse to som gir maksimal ytelse, uten å risikere skader på skjermkortet.

De virkelige entusiastene kan risikere skade på kortet, men også få enda mer ytelse.
De virkelige entusiastene kan risikere skade på kortet, men også få enda mer ytelse.Foto: Nvidia

Dette fungerer godt nok på vanlig automatikk-modus – kortet satser i GTX Titan sitt tilfelle på å holde seg rundt 80 varmegrader, og justerer spenning etter dette. Har du et iskaldt system vil kortet altså kunne «booste» seg selv ganske mye mer, uten å risikere skade.

Nvidia mener ytelsen øker betraktelig, selv på automatisk innstilling.
Nvidia mener ytelsen øker betraktelig, selv på automatisk innstilling.Foto: Nvidia

Målstyr etter ønske

De virkelige entusiastene vil imidlertid kunne gjøre svært mye mer enn dette, med tiden. Nvidia overlater til sine partnere å utvikle programvare som tar i bruk alle GPU Boost 2.0-funksjonene, men nevner flere av disse sammen med Titan-presentasjonen.

Blant annet vil du kunne sette et eget temperaturmål, og etter flere forespørsler om å tillate manuell instilling av spenningen har Nvidia åpnet for dette. Slik kan boost-frekvensen dyttes enda høyere, men produsenten krever at brukerne først klikker på en knapp for å akseptere skadepotensialet som følger med.

Alternativt kan du velge å la boost-hastigheten gå opp og ned med mål om å holde viftehastigheten på et gitt nivå, til glede for de som søker et mest mulig stillegående system.

Skjermoverklokking

Skjermoverklokking er en annen ny funksjon.
Skjermoverklokking er en annen ny funksjon.Foto: Nvidia

Av annen teknologi GPU Boost 2.0 byr på, er det Nvidia kaller «skjermoverklokking» verdt å nevne. Dette skal gi deg høyere synlig FPS på en vanlig skjerm. Selv om skjermen bare har en oppdateringshastighet på 60 Hz, lar Nvidia deg nå øke dette – selv med vertikal synkronisering (VSync) slått på.

– Mange entusiaster kjøper slike kort for å unngå «tearing» av noe slag. Med skjermoverklokking kan du få høyere oppdateringshastighet, selv med VSync aktivert, forteller Berraondo.

Funksjonen åpner for å la deg øke effektiv oppdateringshastighet på en vanlig skjerm til 80 Hz.

Berraondo understreker at dette ikke vil skade skjermpanelet – men påpeker også at enten funker det, eller så funker det ikke. Alle skjermer vil ikke støtte funksjonen, men for de som får det til å virke, vil det nok bli godt mottatt.

Ikke for eldre skjermkort

Alle disse funksjonene skal støttes av GeForce GTX Titan. Siden endringene i GPU Boost ikke bare er programvarebasert, vil imidlertid de fleste funksjonene være til lite nytte på eldre skjermkort.

Nvidia påpeker at GeForce GTX 600-serien, som er den nyeste inntil nå, heller ikke automatisk vil bli oppgradert til å dra nytte av GPU Boost 2.0-teknologien. I fremtidige modeller, som de ikke ønsket å gå nærmere inn på ennå, vil den dog være fullt ut støttet.

Som en avsluttende kommentar kunne Nvidias Lars Weinand, deres tekniske markedsansvarlige i konferansen, avkrefte alle rykter om at GTX Titan bare skulle produseres i et begrenset antall.

– Ryktene om at vi bare skal produsere 10 000 eksemplarer stemmer ikke. Vi produserte 18 000 stykker til superdatamaskinen Titan, og er vel i stand til å lage stort sett så mange som vi har lyst til, fortalte Weinand.

Vi har samlet et lass med bilder av GeForce GTX Titan – ta en titt selv i bildegalleriet »

Norges beste mobilabonnement

Sommer 2019

Kåret av Tek-redaksjonen

Jeg bruker lite data:

Sponz 1 GB


Jeg bruker middels mye data:

GE Mobil Leve 6 GB


Jeg bruker mye data:

Chili 25 GB


Jeg er superbruker:

Chili Fri Data


Finn billigste abonnement i vår mobilkalkulator

Forsiden akkurat nå

Til toppen