April 17, 2005
G70 är utvecklingsnamnet på NVIDIAs nästa generations grafikkrets och för tillfället fortlöper arbetet på denna krets inom NVIDIA. Nyligen har man varit i kontakt med PCI-Sig, det organ som hanterar PCI och PCI Express standarden, angående en extra strömkontakt på NVIDIAs kommande grafikkort. Detta eftersom de 75W vardera (150W sammanlagt) dagens PCIe interface och den externa strömkontakten tillför inte kommer räcka för G70-kretsen. Det borde betyda att G70 kommer dra minst 150W vid maximal belastning och att den kan dra så mycket som 225W innan strömtillförseln blir ett problem. Kort och gott kommer G70 som lanseras till höst vara en enormt strömhungrig krets.
Källa: The Inquirer
March 5, 2002
Det är ju inquirer som har sagt detta.. Med andra ord inte särskilt trovärdigt. Är det någon som kan svara på varför nVidias produkter ofta drar mer ström än ATis motsvarande? Är det pga av de extra transistorerna (som gör vad?)? ATi har ju ingenting inom OpenGL-segmentet (FireGL my ass), det är kanske där nVidias extra krut ligger? Någonting måste ju vara anledningen, dumma är de ju inte.
March 5, 2002
Redfaction wrote: Inte en chans att jag skulle köpa detta, kan bara tänka mig hur illa ett 600Watts nätagg låter.
Om du kan störa dig på ett nätaggregats ljudnivå så hör du nog till dom som kör så mycket som möjligt passivt/vattenkylt. Och varför inte då vattenkyla grafikkorten?
April 29, 2004
Med tanke på att dagens Geforce 6800 har 220 miljoner transistorer så är det inte förvånande att de drar ström. Dessutom är det så att gamers vill ha snabbare. Vem skulle köpa ett kort med samma prestanda som 6800 som kostar lika mycket fast kyls passivt? De som ville ha ett 6800 har ett redan, tveksamt att ett mer strömsnålt kort skulle få dessa personer att "uppgradera".
Ang. nätagg, vissa har redan 550W för att köra sina burkar, oftast är det ju extrem overkill med faktor 2 men högre nuffror = bättre för oinvigda.
June 27, 2002
Fackamato wrote: [quote=Redfaction]Inte en chans att jag skulle köpa detta, kan bara tänka mig hur illa ett 600Watts nätagg låter.
Om du kan störa dig på ett nätaggregats ljudnivå så hör du nog till dom som kör så mycket som möjligt passivt/vattenkylt. Och varför inte då vattenkyla grafikkorten?
De flesta nätagg låter mer än chassifläktar och dyligt och tex Maxtor hdd som låter fan.
Nu har jag ett Hiper R nätagg som inte låter mycket alls.
February 5, 2005
Alltså egentligen är det väl inte så jätteunderligt, den lär väl väga in på närmare 500miljoner transistorer, och alla de ska ju drivas, W/transistor kommer ändå att vara mycket bättre än på t.ex. prescott. Sen får man ju räkna med att hi-end prylar drar mer är "normalt".
Själva wattantalet ska man kanske se lite försiktigt på också, med tanke på att nvidia först rekomenderade 450W nätag för 6800 serien, men sen visade det sig att om man hade ett kvalitetsagg så kunde det gott å väl räcka med 300W, så jag skulle tro att den här extra strömen också är där för att få en stabilare spänning med dåliga nätagg.
Jag måste säga att IDGs nyhet och även Inquirers för den delen är lite väl "sensationalistiska". Där skriver man att det som att G700 förmodligen kommer dra upp till 225W. Det tror jag defenitivt inte utan jag tror mer på en 150-200W max. Man vill nog vara på den säkra sidan som med 6800-serien som mitrix nämner där man rekommenderade 450W nätagg men där det gick fint ofta med 300+.
G70 kommer garanterat bli riktigt hungrig men jag tror verkligen inte att man går från 120W på 6800 Ultra till 225W direkt. Men att G70 kan klättra över 150W är säkerligen ingen omöjlighet.
Tekniknörd som gillar att träna.
1 Guest(s)