Her er Titan – Nvidias heftigste skjermkort
Akkurat nå har Nvidia lansert en helt ny toppmodell.
GeForce GTX Titan
Som vi tidligere kunne melde har Nvidia lenge jobbet mot en lansering av sitt neste skjermkort, som kunne skje denne måneden. Nå er ventetiden over, og vi kan endelig bekrefte alle detaljene rundt det etterlengtede Nvidia GeForce GTX Titan.
– Dette er vår mest komplekse brikke noen gang. Absolutt alt ved GTX Titan er av det aller beste. Det har den beste kjølingen, og den beste ytelsen, forteller Benjamin Berraondo hos Nvidia i en telefonkonferanse.
Ekstremt mye raskere
Dette blir da heller ikke noe billigkort. Veiledende pris i Norge er oppgitt til 7609 kroner inkludert mva., og kortet blir tilgjengelig i løpet av uka.
Alle resultater fra både våre og andres testresultater av GTX Titan er taushetsbelagt frem til torsdag klokken 15 norsk tid.
Vi har fått inn hele tre kort til vår test, men inntil vi publiserer denne, kan vi imidlertid si at Nvidia har vist oss noen imponerende grafer, som illustrerer det de mener kortet er godt for.
Blant annet viser det seg at det nye skjermkortet skal klarer å dra unna Crysis 3 med FPS-verdier over 30 prosent høyere enn et GeForce GTX 680 er i stand til.
Mens GTX 680-resultatet ligger rundt 36 FPS i full HD-oppløsning, med alt av detaljer på maks, skal det nye superkortet prestere nærmere 50 FPS. For å virkelig ta den helt ut viser Nvidia oss også et oppsett med tre GTX Titan i SLI-konfigurasjon, og Berraondo forteller at dette trolig er verdens raskeste spillsystem.
– FPS-verdiene på denne maskinen er opp til dobbelt så høye som med GeForce GTX 690 i Quad-SLI, når vi kjører på veldig høy kvalitet i oppløsningen 5760 x 1080 piksler og 4 x MSAA, hevder han.
Såpass rå krefter får du bruk for om du vil spille over flere skjermer.
Se hvordan du går frem for å spille over tre store skjermer »
– Ytelse og eleganse
Det er imidlertid mer enn store krefter under panseret Nvidia kan fortelle oss om. Selskapet skriver i presentasjons-materiellet sitt at GTX Titan er konstruert for ytelse og eleganse, og vi er tilbøyelige til å være enige.
Over selve grafikkprosessoren, minnet og spenningsregulatorene, er det et fordampningskammer. Sammen med forlengede kjølefinner skal dette kjøle hele kortet svært effektivt.
Utvendig minner kortet om et GeForce GTX 690, men i motsetning til sitt dobbeltkjernede søskenbarn dumper GTX Titan sin overskuddsvarme ut av kabinettet.
Dette, kombinert med et relativt beskjedent strømforbruk, betyr lavere temperaturerer enn mange andre entusiast-skjermkort. Det er gode nyheter både for overklokkere og vanlige forbrukere.
Vil du se mer av Nvidias nye flaggskip-skjermkort?
Se 40 ferske bilder av GeForce GTX Titan i vårt bildegalleri »
Bittesmå supermaskiner
Selve grafikkprosessoren tar opp hele 551 kvadratmillimeter, men kortet er ikke overveldende stort til skikkelig flaggskip å være. Med dimensjonene 269 mm x 111 mm x 37 mm – inkludert PCI-kontakter – er det faktisk relativt kompakt.
Dermed vil GeForce GTX Titan kunne få plass i svært små kabinetter. Sammen med sine gode kjøleegenskaper, og ifølge Nvidia imponerende lave støynivåer, mener selskapet at Titans kompakte mål for første gang muliggjør skikkelige spill-PC-er med liten formfaktor.
– Hvis jeg skulle bygd meg en ny spillmaskin i dag er i alle fall ikke jeg i tvil. Jeg ville gått for et av disse svært små kabinettene, forteller Berraondo, og viser til mini-PC-er som knapt er stort høyere enn et vinglass.
Trenger du nytt kabinett?
Se vår samletest av over 40 kabinetter »
Bygd for entusiaster
De nærmeste dagene skal vi undersøke hva slags ytelse GeForce GTX Titan klarer å levere. Inntil da har vi i alle fall en rekke spesifikasjoner å by på, som sikkert vil glede entusiastene der ute.
Blant annet kan vi nå bekrefte at GTX Titan vil inneholde 2688 CUDA-kjerner, og komme med 6 GB grafikkminne på en 384-bits minnebus, i likhet med utregningskortet Nvidia Tesla K20X.
På spørsmål om TDP for GTX Titan, opplyser Nvidia at skjermkortet i høyden vil trekke 250 W.
Dette gjenspeiler den høyere kjernefrekvensen i Titan kontra Tesla K20X. Som standard vil denne nemlig ligge på 837 MHz, mot 732 MHz i utregningskortet.
Av andre tekniske detaljer har skjermkortet 75 prosent flere kjerner og teksturenheter enn GeForce GTX 680. En fyllrate på mer enn 187,5 gigateksler i sekundet, er på sin side mer enn 45 prosent raskere enn forrige flaggskip. I tillegg er minnebåndbredden økt til 288 Gbit/s, en økning på 50 prosent fra GTX 680.
Ny og heftigere boost
GTX Titan har også støtte for boost-funksjonalitet, og denne har samtidig fått en solid ansiktsløftning fra hva vi er vant med. Selv om boost-frekvensen på kortet bare er oppgitt å være 876 MHz, forteller Nvidia at dette kun er en minsteverdi.
Selskapet har nemlig gjort betydelige forbedringer i sin boost-funksjonalitet, og lanserer nå GPU Boost 2.0. Dette er teknologi som først og fremst vil være relevant for Titan og senere skjermkort, og som kan vise seg å være omtrent like spennende som selve skjermkortet.
I akkurat Titan sitt tilfelle betyr den at boost-frekvensen altså er garantert å være minst de oppgitte 876 MHz, men Nvidia forklarer også at den på enkelte ekseplarer vil være så høy som 1200 MHz.
Bli med til neste side, så forklarer vi i detalj hva GPU Boost 2.0 er »
Spesifikasjoner:
Modell | GeForce GTX 690 | Nvidia Tesla K20X | GeForce GTX Titan | GeForce GTX 680 |
---|---|---|---|---|
Grafikkprosessor | 2 x GK104 | GK110 | GK110 | GK104 |
Kjernefrekvens | 915 MHz | 732 MHz | 837 MHz | 1006 MHz |
Boost-frekvens | 1019 MHz | - | 876 MHz* | 1058 MHz |
Prosess | 28 nm | 28 nm | 28 nm | 28 nm |
Minnefrekvens (eff.) | 6008 MHz | 5200 MHz | 6008 MHz | 6008 MHz |
Minnemengde | 4096 MB GDDR5 | 6144 MB GDDR5 | 6144 MB GDDR5 | 2048 MB GDDR5 |
Minnebusbredde | 2 x 256-bit | 384-bit | 384-bit | 256-bit |
Streamprosessorer | 2 x 1536 | 2688 | 2688 | 1536 |
Transistorer | 2 x 3,45 mrd. | 7,1 mrd. | 7,1 mrd. | 3,45 mrd. |
Teksturenheter | 2 x 128 | - | 224 | 128 |
ROP | 2 x 32 | - | 48 | 32 |
Maks strømforbruk | 300 W | 235 W | 250 W | 195 W |
* : Med lanseringen av GPU Boost 2.0 er dette en minsteverdi, og Nvidia oppgir at noen GTX Titan vil komme til å se boost-frekvenser helt opp i 1200 MHz.
GPU Boost 2.0
Samtidig med lanseringen av selve GeForce GTX Titan-skjermkortet, presenterte Nvidia sin nye GPU Boost 2.0-teknologi. Denne omfatter betydelige endringer i både maskinvare, programvare og algoritmer.
Kort sagt gjør den slik at skjermkortet konstant vil justere hastigheten sin på en måte mer tilpasset akkurat din datamaskin. I tillegg får Nvidias produsentpartnere en større verktøykasse for å utvikle sin programvare, som for eksempel MSI Afterburner.
– Akkurat hvilke muligheter brukerne får kommer an på produsentpartnernes valg også. De kan åpne for veldig ekstrem overklokking, men teknologien lar kortet kvitte seg med sikkerhetsmarginer som ikke alltid har vært nødvendig, forteller Nvidias Benjamin Berraondo.
Har tenkt på entusiasten
Han innrømmer at mulighetene som er åpnet for med GPU Boost 2.0 kan høres komplisert ut, men forklarer at det er masse kombinasjoner du vil kunne leke med – men bare hvis du vil.
– Brukerne vil aldri få se kontroller han ikke vil se, og det er det viktigste. Den nye boost-teknologien fungerer veldig bra automatisk, men entusiasten får flere verktøy å mekke med, sier han.
Den «gamle» boost-teknologien fungerte enkelt forklart slik at når skjermkortet ble belastet, trakk det mer strøm og økte kjernefrekvensen. Slik fikk du bedre ytelse ved behov.
Den nylanserte versjonen gir ifølge Nvidia mye mer ytelse, mer kontroll, og lar deg optimisere vannkjølte systemer – og mye mer. I korte trekk vil den nye GPU Boost la deg utnytte kortet bedre enn hva som tidligere var tilfelle, og du blir belønnet for å ha et system med gode kjøleløsninger.
Effektiv auto-overklokking
En utfordring med den ordinære GPU Boost har vært at kortet ikke visste hvor varmt det faktisk var, da funksjonaliteten ikke har hatt direkte tilgang til temperaturavlesninger fra kjernen. Dette er en av endringene som nå introduseres.
Istedet for at boost-teknologien antar hvilke temperaturer kortet opererer på, basert på hvilken spenning det mates med, vil det nå få kontroll på både strøm og varme. Dermed kan det ta sikte på en balanse mellom disse to som gir maksimal ytelse, uten å risikere skader på skjermkortet.
Dette fungerer godt nok på vanlig automatikk-modus – kortet satser i GTX Titan sitt tilfelle på å holde seg rundt 80 varmegrader, og justerer spenning etter dette. Har du et iskaldt system vil kortet altså kunne «booste» seg selv ganske mye mer, uten å risikere skade.
Målstyr etter ønske
De virkelige entusiastene vil imidlertid kunne gjøre svært mye mer enn dette, med tiden. Nvidia overlater til sine partnere å utvikle programvare som tar i bruk alle GPU Boost 2.0-funksjonene, men nevner flere av disse sammen med Titan-presentasjonen.
Blant annet vil du kunne sette et eget temperaturmål, og etter flere forespørsler om å tillate manuell instilling av spenningen har Nvidia åpnet for dette. Slik kan boost-frekvensen dyttes enda høyere, men produsenten krever at brukerne først klikker på en knapp for å akseptere skadepotensialet som følger med.
Alternativt kan du velge å la boost-hastigheten gå opp og ned med mål om å holde viftehastigheten på et gitt nivå, til glede for de som søker et mest mulig stillegående system.
Skjermoverklokking
Av annen teknologi GPU Boost 2.0 byr på, er det Nvidia kaller «skjermoverklokking» verdt å nevne. Dette skal gi deg høyere synlig FPS på en vanlig skjerm. Selv om skjermen bare har en oppdateringshastighet på 60 Hz, lar Nvidia deg nå øke dette – selv med vertikal synkronisering (VSync) slått på.
– Mange entusiaster kjøper slike kort for å unngå «tearing» av noe slag. Med skjermoverklokking kan du få høyere oppdateringshastighet, selv med VSync aktivert, forteller Berraondo.
Funksjonen åpner for å la deg øke effektiv oppdateringshastighet på en vanlig skjerm til 80 Hz.
Berraondo understreker at dette ikke vil skade skjermpanelet – men påpeker også at enten funker det, eller så funker det ikke. Alle skjermer vil ikke støtte funksjonen, men for de som får det til å virke, vil det nok bli godt mottatt.
Ikke for eldre skjermkort
Alle disse funksjonene skal støttes av GeForce GTX Titan. Siden endringene i GPU Boost ikke bare er programvarebasert, vil imidlertid de fleste funksjonene være til lite nytte på eldre skjermkort.
Nvidia påpeker at GeForce GTX 600-serien, som er den nyeste inntil nå, heller ikke automatisk vil bli oppgradert til å dra nytte av GPU Boost 2.0-teknologien. I fremtidige modeller, som de ikke ønsket å gå nærmere inn på ennå, vil den dog være fullt ut støttet.
Som en avsluttende kommentar kunne Nvidias Lars Weinand, deres tekniske markedsansvarlige i konferansen, avkrefte alle rykter om at GTX Titan bare skulle produseres i et begrenset antall.
– Ryktene om at vi bare skal produsere 10 000 eksemplarer stemmer ikke. Vi produserte 18 000 stykker til superdatamaskinen Titan, og er vel i stand til å lage stort sett så mange som vi har lyst til, fortalte Weinand.
Vi har samlet et lass med bilder av GeForce GTX Titan – ta en titt selv i bildegalleriet »