Nvidia Pascal GP104: Höga klockfrekvenser och GDDR5X

Man skulle kunna tro att Nvidia siktade mot stjärnorna med de nya klockfrekvenserna för GP104. Maxwellkretsen GM2014 i GTX 980 fick nöja sig med klockfrekvensen 1 126 megahertz och minnesfrekvensen på 7 000 megahertz effektivt men för Pascal väljer Nvidia att skruva på reglagen ordentligt.

Nvidias nya Geforce Pascal-serie

Geforce Pascal mot sina föregångare från Maxwell
GeForce GTX 1080GeForce GTX 1070GeForce GTX 980GeForce GTX 970GeForce GTX 980 TiTesla P100
ArkitketurPascalPascalMaxwellMaxwellMaxwellPascal
GPUGP104GP104GM204GM204GM200GP100
Teknik16nm Finfet16nm Finfet28nm28nm28nm16nm Finfet
Kretsyta314 mm2~300 mm2 ?398mm2398mm2601mm2~610mm2
Transistorer7,2 Miljarder7,2 Miljarder5.2 Miljarder5.2 Miljarder8 Miljarder15,3 Miljarder
Cuda-k„ärnor2 560 st1 920 st2 048 st1 664 st2 816 st3 840 st
Basfrekvens1 607 MHz1 506 MHz1 128 MHz1 050 MHz1 002 MHz1 328 MHz
Boostfrekvens1 733 MHz1 683 MHz1 217 MHz1 178 MHz1 076 MHz1 480 MHz
BeräkningskraftUpp till 8,9 TFLOPS6,75 TFLOPS4,61 TFLOPS3,9 TFLOPS5,63 TFLOPS21 TFLOPS
Minne8 GB GDDR5X8 GB GDDR54 GB GDDR54 GB GDDR56 GB GDDR516/32 GB HBM2
Minnesfrekvens10 000 MHz8 000 MHz7 012 MHz7 012 MHz7 012 MHz1 400 MHz
Minnesbuss256-bit256-bit256-bit256-bit384-bit4096-bit
Minnesbandbredd320 GB/s256 GB/s224 GB/s224 GB/s336 GB/s720 GB/s
TDP180W150W165W145W250W300W
Strömkontakt8-pin8-pin6 pin + 6-pin6 pin + 6 pin6 pin + 8 pinOklart
Anslutningar3x DP, 1x HDMI 2.0,1x DVI3x DP, 1x HDMI 2.0,1x DVI3x DP, 1x HDMI 2.0,1x DVI3x DP, 1x HDMI 2.0,1x DVI3x DP, 1x HDMI 2.0,1x DVIOklart
Lanseringsdatummaj-16jun-16sep-14sep-14maj-15Q4 2016?

Pascalkretsen GP104 i GTX 1080 har en klockfrekvens på 1 607 megahertz och en Boostfrekvens på 1 733 megahertz, vilket inte alls är dåligt för att vara ett referenskort. Minnesfrekvensen med de nya GDDR5X-minnena från Micron går upp till hela 10 000 megahertz effektivt.GTX_1080_launchpath_opt

De höga klockfrekvenserna kan tolkas som att Nvidia drar in på överklockningsmarginalen för de nya Pascalkorten, men så verkar inte fallet vara, andra recensenter har lyckats överklocka GTX 1080 till strax över 2 000 megahertz med referenskylaren, och vi räknar med att tredjepartstillverkarna släpper ordentligt överklockade GTX 1080 inom en snar framtid.

GDDR5X – högre bandbredd med samma minnesbuss

Som allt annat med ett “X” i namnet så är GDDR5X väldigt, väldigt likt GDDR5 standarden minnesmoduler, som fortfarande används, och kommer att användas för Pascalbaserade grafikkort.

gddr5x_micron

Information om GDDR5X standarden är knapphändig men av det som finns att tillgå så handlar det om dubblering av minnesgränssnittet “prefetch” från 8n till 16n. Detta ger upphov till dubblerad bandbredd mellan 10 och 14 gigabyte per sekund.

gddr5x_micron2

Energieffektiviteten sägs även det ha förbättrats jämfört med GDDR5, VDD, VDDQ (spänningen) har fått en sänkning från 1,5 volt till 1,35 volt i GDDR5X. GDDR5X standarden kommer med tre huvudegenskaper: dubblerad dataöverföringshastigheter, förbättrad energieffektivitet av “high-end” minnesmoduler, och det definierar möjligheten att skapa tätare minneskonfigurationer.GTX_1080_launchG5X

För Pascalkretsen GP104, med åtta stycken 32-bit minneskontroller, och en total minnesbuss på 256 bit, innebär det en minnesbandbredd på 320 gigabyte per sekund. Det är svårt att mäta minnesbandbredd för ett grafikkort på ett statistiskt säkert sätt men vi kan konstatera att minnesbandbredden för GP104 inte bör vara en flaskhals.

Med Pascal finslipar Nvidia på komprimeringstekniken för minne. Fjärde generations “delta color”-komprimering i Pascal förbättrar bandbreddens effektivitet med upp till 20 procentenheter.

I väntan på HBM2

AMD hade redan förra året klurat ut att 8 gigabyte minnesmängd var ett rimligt nästa steg (High Bandwidth Memory, HBM, begränsades dock till 4 gigabyte i Fury-serien) när man släppte entusiastgrafikkort med 8 gigabyte minnesmängd. Nvidia vill inte stå ensam i kylan när det enda andra företaget gör något nytt så självklart bygger även det gröna laget ut minnesmängden i sitt flaggskepp. För GTX 1080 trycker man in 8 gigabyte minne på en 256 bit minnesbuss och hoppas att minneskomprimeringen och det lite snabbare GDDR5X minnet sköter resten. Nästa generations minnesteknik, HBM2, är fortfarande för mycket av en bristvara för att hitta in i kort i ens den här prisklassen.

Förhoppningsvis försöker man inte spara in på kostnaderna för minnet, igen, likt GTX 970 där man segmenterade grafikminnet i två delar (3,5 gigabyte och 0,5 gigabyte) för syskonet GTX 1070, The North Remembers. Nvidia korrigerade snabbt, efter några månader, specifikationerna för GTX 970 där det visade sig att man hade gett “fel” information om grafikkretsen.

GTX 970 hade fler SM enheter inaktiverade och en av fyra minneskontroller-partitioner var avstängd, eller fungera delvis, antalet renderingsenheter var 56 och inte 64 och mängden L2 Cache var 1,75 megabyte. Det större segmentet av grafikminne hade en bandbredd på 192 gigabyte per sekund medan den mindre sektionen bara hade en bandbredd på 28 gigabyte per sekund. Prestandatappet var några procentenheter men de falska specifikationerna lämnade många konsumenter med en dålig smak i munnen.

Subscribe
Notifiera vid
4 Comments
äldsta
senaste flest röster
Inline Feedbacks
View all comments
KaffiMann
8 Årtal sedan

Fra nederst på side 2:

“Räknar vi antalet transistorer per kvadratmillimeter för GM204 får vi 13,1 miljoner transistorer per kvadratmillimeter, samma siffra för GP104 är 22,9 miljarder transistorer.”

Fra 13,1 million til 22,9 milliard transistorer/mm2 altså. Ganske høye tall, spesielt siden hele kretsen er på 314mm2 og har 7,2 milliard transistorer totalt. 🙂

Morkul
8 Årtal sedan

Nu har jag inte tittat så noga men det jag har sått hittills så ser det ut som om alla vräkt på med full kantutgämning på alla tester, även 4K trots att det är helt onödigt. Förstår inte varför det ska hålla på med det då man ändå inte vill använda det och 4K testerna blir totalt poänglösa.

KaffiMann
8 Årtal sedan
Reply to  Morkul

Enig. Min personlige mening er at AA og diverse andre “optimaliserings” algoritmer har ingen nytteverdi på oppløsninger fra full hd og oppover. Det er vel utelukkende på grunn av den ekstra belastningen at det blir brukt i tester? En del av standard oppsettene i spill endrer vel også disse tingene. Må alltid velge custom oppsett og fikle litt med div innstillinger før jeg blir fornøyd, har aldri forstått hvordan de vurderer hvilke innstillinger som skal være i de standard oppsettene.

Morkul
8 Årtal sedan
Reply to  KaffiMann

Men saken är den att när man ska testa ett grafikkort så är det inte extra belastning som testaren bör vara ute efter utan faktiska användbara exempel.