Her er Titan – Nvidias heftigste skjermkort

Akkurat nå har Nvidia lansert en helt ny toppmodell.

GeForce GTX Titan

Som vi tidligere kunne melde har Nvidia lenge jobbet mot en lansering av sitt neste skjermkort, som kunne skje denne måneden. Nå er ventetiden over, og vi kan endelig bekrefte alle detaljene rundt det etterlengtede Nvidia GeForce GTX Titan.

– Dette er vår mest komplekse brikke noen gang. Absolutt alt ved GTX Titan er av det aller beste. Det har den beste kjølingen, og den beste ytelsen, forteller Benjamin Berraondo hos Nvidia i en telefonkonferanse.

Ekstremt mye raskere

Satt opp i 3-Way SLI byr Titan på store krefter – opp til det dobbelte av GTX 690 i Quad-SLI, sier Nvidia.Foto: Varg Aamo, hardware.no

Dette blir da heller ikke noe billigkort. Veiledende pris i Norge er oppgitt til 7609 kroner inkludert mva., og kortet blir tilgjengelig i løpet av uka.

Alle resultater fra både våre og andres testresultater av GTX Titan er taushetsbelagt frem til torsdag klokken 15 norsk tid.

Vi har fått inn hele tre kort til vår test, men inntil vi publiserer denne, kan vi imidlertid si at Nvidia har vist oss noen imponerende grafer, som illustrerer det de mener kortet er godt for.

Blant annet viser det seg at det nye skjermkortet skal klarer å dra unna Crysis 3 med FPS-verdier over 30 prosent høyere enn et GeForce GTX 680 er i stand til.

Mens GTX 680-resultatet ligger rundt 36 FPS i full HD-oppløsning, med alt av detaljer på maks, skal det nye superkortet prestere nærmere 50 FPS. For å virkelig ta den helt ut viser Nvidia oss også et oppsett med tre GTX Titan i SLI-konfigurasjon, og Berraondo forteller at dette trolig er verdens raskeste spillsystem.

– FPS-verdiene på denne maskinen er opp til dobbelt så høye som med GeForce GTX 690 i Quad-SLI, når vi kjører på veldig høy kvalitet i oppløsningen 5760 x 1080 piksler og 4 x MSAA, hevder han.

Såpass rå krefter får du bruk for om du vil spille over flere skjermer.
Se hvordan du går frem for å spille over tre store skjermer »

– Ytelse og eleganse

Utvendig er GTX Titan bygd i aluminium og magnesiumslegering, med et polykarbonatvindu ned mot kjølefinnene.Foto: Varg Aamo, hardware.no

Det er imidlertid mer enn store krefter under panseret Nvidia kan fortelle oss om. Selskapet skriver i presentasjons-materiellet sitt at GTX Titan er konstruert for ytelse og eleganse, og vi er tilbøyelige til å være enige.

Over selve grafikkprosessoren, minnet og spenningsregulatorene, er det et fordampningskammer. Sammen med forlengede kjølefinner skal dette kjøle hele kortet svært effektivt.

Utvendig minner kortet om et GeForce GTX 690, men i motsetning til sitt dobbeltkjernede søskenbarn dumper GTX Titan sin overskuddsvarme ut av kabinettet.

Dette, kombinert med et relativt beskjedent strømforbruk, betyr lavere temperaturerer enn mange andre entusiast-skjermkort. Det er gode nyheter både for overklokkere og vanlige forbrukere.

Vil du se mer av Nvidias nye flaggskip-skjermkort?
Se 40 ferske bilder av GeForce GTX Titan i vårt bildegalleri »

Bittesmå supermaskiner

Selve grafikkprosessoren tar opp hele 551 kvadratmillimeter, men kortet er ikke overveldende stort til skikkelig flaggskip å være. Med dimensjonene 269 mm x 111 mm x 37 mm – inkludert PCI-kontakter – er det faktisk relativt kompakt.

Selv i søte lille Silverstone Sugo SG09B klarte vi fint å få plass til to GeForce GTX Titan.Foto: Varg Aamo, hardware.no

Dermed vil GeForce GTX Titan kunne få plass i svært små kabinetter. Sammen med sine gode kjøleegenskaper, og ifølge Nvidia imponerende lave støynivåer, mener selskapet at Titans kompakte mål for første gang muliggjør skikkelige spill-PC-er med liten formfaktor.

– Hvis jeg skulle bygd meg en ny spillmaskin i dag er i alle fall ikke jeg i tvil. Jeg ville gått for et av disse svært små kabinettene, forteller Berraondo, og viser til mini-PC-er som knapt er stort høyere enn et vinglass.

Trenger du nytt kabinett?
Se vår samletest av over 40 kabinetter »

Bygd for entusiaster

De nærmeste dagene skal vi undersøke hva slags ytelse GeForce GTX Titan klarer å levere. Inntil da har vi i alle fall en rekke spesifikasjoner å by på, som sikkert vil glede entusiastene der ute.

Nvidias Titan-brikke har en smule mer regnekraft enn Intels råeste prosessor. 4,5 SP TFLOPS og 1,3 DP TFLOPS er et betydelig hopp fra selv GK110-baserte Tesla K20X.Foto: Nvidia

Blant annet kan vi nå bekrefte at GTX Titan vil inneholde 2688 CUDA-kjerner, og komme med 6 GB grafikkminne på en 384-bits minnebus, i likhet med utregningskortet Nvidia Tesla K20X.

På spørsmål om TDP for GTX Titan, opplyser Nvidia at skjermkortet i høyden vil trekke 250 W.

Dette gjenspeiler den høyere kjernefrekvensen i Titan kontra Tesla K20X. Som standard vil denne nemlig ligge på 837 MHz, mot 732 MHz i utregningskortet.

Av andre tekniske detaljer har skjermkortet 75 prosent flere kjerner og teksturenheter enn GeForce GTX 680. En fyllrate på mer enn 187,5 gigateksler i sekundet, er på sin side mer enn 45 prosent raskere enn forrige flaggskip. I tillegg er minnebåndbredden økt til 288 Gbit/s, en økning på 50 prosent fra GTX 680.

Ny og heftigere boost

Av tilkoblinger kan Titan skilte med to DL-DVI-utganger, en HDMI-utgang, og en Displayport 1.2-utgang.Foto: Varg Aamo, hardware.no

GTX Titan har også støtte for boost-funksjonalitet, og denne har samtidig fått en solid ansiktsløftning fra hva vi er vant med. Selv om boost-frekvensen på kortet bare er oppgitt å være 876 MHz, forteller Nvidia at dette kun er en minsteverdi.

Selskapet har nemlig gjort betydelige forbedringer i sin boost-funksjonalitet, og lanserer nå GPU Boost 2.0. Dette er teknologi som først og fremst vil være relevant for Titan og senere skjermkort, og som kan vise seg å være omtrent like spennende som selve skjermkortet.

I akkurat Titan sitt tilfelle betyr den at boost-frekvensen altså er garantert å være minst de oppgitte 876 MHz, men Nvidia forklarer også at den på enkelte ekseplarer vil være så høy som 1200 MHz.

Bli med til neste side, så forklarer vi i detalj hva GPU Boost 2.0 er »

Spesifikasjoner:

ModellGeForce GTX 690Nvidia Tesla K20XGeForce GTX TitanGeForce GTX 680
Grafikkprosessor2 x GK104GK110GK110GK104
Kjernefrekvens915 MHz732 MHz837 MHz1006 MHz
Boost-frekvens1019 MHz-876 MHz*1058 MHz
Prosess28 nm28 nm28 nm28 nm
Minnefrekvens (eff.)6008 MHz5200 MHz6008 MHz6008 MHz
Minnemengde4096 MB GDDR56144 MB GDDR56144 MB GDDR52048 MB GDDR5
Minnebusbredde2 x 256-bit384-bit384-bit256-bit
Streamprosessorer2 x 1536268826881536
Transistorer2 x 3,45 mrd.7,1 mrd.7,1 mrd.3,45 mrd.
Teksturenheter2 x 128-224128
ROP2 x 32-4832
Maks strømforbruk300 W235 W250 W195 W

* : Med lanseringen av GPU Boost 2.0 er dette en minsteverdi, og Nvidia oppgir at noen GTX Titan vil komme til å se boost-frekvenser helt opp i 1200 MHz.

GPU Boost 2.0

Samtidig med lanseringen av selve GeForce GTX Titan-skjermkortet, presenterte Nvidia sin nye GPU Boost 2.0-teknologi. Denne omfatter betydelige endringer i både maskinvare, programvare og algoritmer.

Kort sagt gjør den slik at skjermkortet konstant vil justere hastigheten sin på en måte mer tilpasset akkurat din datamaskin. I tillegg får Nvidias produsentpartnere en større verktøykasse for å utvikle sin programvare, som for eksempel MSI Afterburner.

– Akkurat hvilke muligheter brukerne får kommer an på produsentpartnernes valg også. De kan åpne for veldig ekstrem overklokking, men teknologien lar kortet kvitte seg med sikkerhetsmarginer som ikke alltid har vært nødvendig, forteller Nvidias Benjamin Berraondo.

Har tenkt på entusiasten

Brukere som har lyst kan selv ta kontrollen.Foto: Nvidia

Han innrømmer at mulighetene som er åpnet for med GPU Boost 2.0 kan høres komplisert ut, men forklarer at det er masse kombinasjoner du vil kunne leke med – men bare hvis du vil.

– Brukerne vil aldri få se kontroller han ikke vil se, og det er det viktigste. Den nye boost-teknologien fungerer veldig bra automatisk, men entusiasten får flere verktøy å mekke med, sier han.

Den «gamle» boost-teknologien fungerte enkelt forklart slik at når skjermkortet ble belastet, trakk det mer strøm og økte kjernefrekvensen. Slik fikk du bedre ytelse ved behov.

Den nylanserte versjonen gir ifølge Nvidia mye mer ytelse, mer kontroll, og lar deg optimisere vannkjølte systemer – og mye mer. I korte trekk vil den nye GPU Boost la deg utnytte kortet bedre enn hva som tidligere var tilfelle, og du blir belønnet for å ha et system med gode kjøleløsninger.

Slik så maksgrensene ut med GPU Boost 1.0.Foto: Nvidia

Effektiv auto-overklokking

En utfordring med den ordinære GPU Boost har vært at kortet ikke visste hvor varmt det faktisk var, da funksjonaliteten ikke har hatt direkte tilgang til temperaturavlesninger fra kjernen. Dette er en av endringene som nå introduseres.

Sikker maksgrense økes, siden kortet vet hvor varmt det blir..Foto: Nvidia

Istedet for at boost-teknologien antar hvilke temperaturer kortet opererer på, basert på hvilken spenning det mates med, vil det nå få kontroll på både strøm og varme. Dermed kan det ta sikte på en balanse mellom disse to som gir maksimal ytelse, uten å risikere skader på skjermkortet.

De virkelige entusiastene kan risikere skade på kortet, men også få enda mer ytelse.Foto: Nvidia

Dette fungerer godt nok på vanlig automatikk-modus – kortet satser i GTX Titan sitt tilfelle på å holde seg rundt 80 varmegrader, og justerer spenning etter dette. Har du et iskaldt system vil kortet altså kunne «booste» seg selv ganske mye mer, uten å risikere skade.

Nvidia mener ytelsen øker betraktelig, selv på automatisk innstilling.Foto: Nvidia

Målstyr etter ønske

De virkelige entusiastene vil imidlertid kunne gjøre svært mye mer enn dette, med tiden. Nvidia overlater til sine partnere å utvikle programvare som tar i bruk alle GPU Boost 2.0-funksjonene, men nevner flere av disse sammen med Titan-presentasjonen.

Blant annet vil du kunne sette et eget temperaturmål, og etter flere forespørsler om å tillate manuell instilling av spenningen har Nvidia åpnet for dette. Slik kan boost-frekvensen dyttes enda høyere, men produsenten krever at brukerne først klikker på en knapp for å akseptere skadepotensialet som følger med.

Alternativt kan du velge å la boost-hastigheten gå opp og ned med mål om å holde viftehastigheten på et gitt nivå, til glede for de som søker et mest mulig stillegående system.

Skjermoverklokking

Skjermoverklokking er en annen ny funksjon.Foto: Nvidia

Av annen teknologi GPU Boost 2.0 byr på, er det Nvidia kaller «skjermoverklokking» verdt å nevne. Dette skal gi deg høyere synlig FPS på en vanlig skjerm. Selv om skjermen bare har en oppdateringshastighet på 60 Hz, lar Nvidia deg nå øke dette – selv med vertikal synkronisering (VSync) slått på.

– Mange entusiaster kjøper slike kort for å unngå «tearing» av noe slag. Med skjermoverklokking kan du få høyere oppdateringshastighet, selv med VSync aktivert, forteller Berraondo.

Funksjonen åpner for å la deg øke effektiv oppdateringshastighet på en vanlig skjerm til 80 Hz.

Berraondo understreker at dette ikke vil skade skjermpanelet – men påpeker også at enten funker det, eller så funker det ikke. Alle skjermer vil ikke støtte funksjonen, men for de som får det til å virke, vil det nok bli godt mottatt.

Ikke for eldre skjermkort

Alle disse funksjonene skal støttes av GeForce GTX Titan. Siden endringene i GPU Boost ikke bare er programvarebasert, vil imidlertid de fleste funksjonene være til lite nytte på eldre skjermkort.

Nvidia påpeker at GeForce GTX 600-serien, som er den nyeste inntil nå, heller ikke automatisk vil bli oppgradert til å dra nytte av GPU Boost 2.0-teknologien. I fremtidige modeller, som de ikke ønsket å gå nærmere inn på ennå, vil den dog være fullt ut støttet.

Som en avsluttende kommentar kunne Nvidias Lars Weinand, deres tekniske markedsansvarlige i konferansen, avkrefte alle rykter om at GTX Titan bare skulle produseres i et begrenset antall.

– Ryktene om at vi bare skal produsere 10 000 eksemplarer stemmer ikke. Vi produserte 18 000 stykker til superdatamaskinen Titan, og er vel i stand til å lage stort sett så mange som vi har lyst til, fortalte Weinand.

Vi har samlet et lass med bilder av GeForce GTX Titan – ta en titt selv i bildegalleriet »

Les også
Her er Nvidias nye grafikkprosessorer
Les også
Se en rekke ferske bilder av GeForce GTX Titan
Les også
Slik kan Nvidias neste skjermkort bli
annonse