July 13, 2003
Tja såg denna sidan http://overclockers.com/articles1411/
det värkar vara amd/atis nya grafikkort x2800xtx, fake eller real det får ni avgöra???
October 16, 2006
den är riktiga ska jag tro för den finns här också http://www.vr-zone.com/index.php?i=4622
February 3, 2003
Har ju varit tal om att kortet kommer vara extremt långt men det där ser ju bara sjukt ut. Verkar ändå som om är skuld till mycket av längden, kanske de gjorde den så lång för att den endast skulle uppta två slots?
Fläkten kan nog vara tyst, men inte på fullt varv 😛
February 1, 2003
Bilderna är ju på OEM varianten av X2900 som namnet är, retail kortet blir ju bara 9" eller så men kommer ändå att käka ström till frukost med sina 8+6-pins kontakter som skall vara specade för 300W och därför även vara varmt. Hade det dragit mindre och i trakterna kring 8800GTX så hade 6+6-pin räckt.
November 4, 2001
Bilderna lär ju avse OEM-kortet. Inte drar kortet 300W, inte en changs!
Sen behöver det ju inte vara den slutgilltiga produkten utan är förmodligen prototyper.
VR-Zones kort har 2x6 (8+6 hål i pcbn) medan OC har 1x6 + 1x8. Under utveckligsstadiet är det ju lika bra att slänga på allt med marginaler för att eliminera så många felkällor som möjligt.
En annan anledning kanske är att man inte vill bygga flera PCBer till olika kort. Genom att ha 8+6 behöver man inte bygga en ny pcb i framtiden om nyare kort behöver mera kräm.
8pin är ju standard i PCI Express 2.0, ingen 8pins kontakt = Inte pci-e 2.0 godkänd så att säga. Att inte leva upp till kraven på en ny standard rimmar illa på ett så pass nytt och dyrt kort.
January 14, 2006
February 1, 2003
SuperNova wrote: Bilderna lär ju avse OEM-kortet. Inte drar kortet 300W, inte en changs!
Strömförbrukningen är ju en av anledningarna till förseningen, och värmen likaså och det orsakade omdesing av kylaren och det kom ju som ett brev på posten med den förbrukningen kortet sägs haft.
8800GTX är lika nytt kort, eller skulle vara det om inte X2900 dragits med problem och nvidiakortet klarar sig med 2x6-pin och uppfyller därmed ej PCIe 2 som inte var satt när kortena utvecklades, inte blir kortet sämre för det trotts att det är toppmodernt men saknar en futtig strömkontakt den klarar sig utan för att uppfylla PCIe2 standard.
x2900 skulle även det haft 2x 6-pin om det hade räckt för det är ju bara dumt att montera på kontakter som ej behövs om dom äldre klarar av behovet, även om det inte helt följer standarden.
Så bli ej förvånad om det drar ström för kylaren talar tydligt om att här är det värme som alstras utan dess like.
November 4, 2001
OEM-kortet kommer med en annan kylare än retail. Att man väljer en så stor kylare underlättar väldigt mycket för OEM som slipper oroa sig om transport skador osv då du låser kortet via kylaren (full-längds kort).
Har du varit med förr så vet du hur mycket kritik en tillverkare kan få för att ha missat ytterst små saker i en standard.
Underskatta aldrig dom stora klistermärkena som beskriver balla standarder på kartongerna.
R600 har alltid legat senare än G80. Även innan strömkraven och kylaren diskuterades. G80 snackades det också en hel del om innan det lanserades.
ATi har inte haft speciellt stora problem med strömläckage osv, så man har legat relativt nära de värden man beräknat och inte fått sig någon chock.
February 1, 2003
SuperNova wrote: OEM-kortet kommer med en annan kylare än retail. Att man väljer en så stor kylare underlättar väldigt mycket för OEM som slipper oroa sig om transport skador osv då du låser kortet via kylaren (full-längds kort).
Har du varit med förr så vet du hur mycket kritik en tillverkare kan få för att ha missat ytterst små saker i en standard.
Underskatta aldrig dom stora klistermärkena som beskriver balla standarder på kartongerna.R600 har alltid legat senare än G80. Även innan strömkraven och kylaren diskuterades. G80 snackades det också en hel del om innan det lanserades.
ATi har inte haft speciellt stora problem med strömläckage osv, så man har legat relativt nära de värden man beräknat och inte fått sig någon chock.
Inte 6 månader, max 1 månad.
8800GTX har inte nya 8-pin kontakten, inte nått oljud pga detta trotts att det kanske "skulle behövts" för att uppfylla en standard men ändå inte då kortet inte har behov av med än vad 2x6-pin kan ge så varför utrusta kortet med onödiga saker som tex 8-pin kontakt när det inte behövs?
Omdesignen av kylaren och PCB:n så sent att det i princip nästan var helt klart motsäger att dom inte skulle haft problem för det har dom haft annars skulle kortet varit ute redan till jul och det har inget med strömläckage att göra utan mer hur kortet i sig slukar ström och hade behövt 3-4x6-pin om inte dom blivit räddade av 8-pin-kontakten.
VR-Zone wrote: The power consumption of the card is huge at 270W for 12" version and 240W for 9.5" version.
Det är betydligt mer än 8800GTX
February 1, 2003
Mean Machine wrote: [quote=gamer][quote=VR-Zone] The power consumption of the card is huge at 270W for 12" version and 240W for 9.5" version.
Det är betydligt mer än 8800GTX
Drar inte 8800GTX typ lika mycket?
Kortet har tillgång till max 75W genom PCIe sloten, 2x75W via PCIe-kontakterna. detta ger teoretiskt en MAXgräns på 225W.
Däremot kan ett helt system dra 270W men inte kortet själv då det är en teknisk omöjlighet med bara 2x6-pin PCIe. Så några 240W drar det inte.
January 27, 2007
July 21, 2006
gamer wrote: [quote=Mean Machine][quote=gamer][quote=VR-Zone] The power consumption of the card is huge at 270W for 12" version and 240W for 9.5" version.
Det är betydligt mer än 8800GTX
Drar inte 8800GTX typ lika mycket?
Kortet har tillgång till max 75W genom PCIe sloten, 2x75W via PCIe-kontakterna. detta ger teoretiskt en MAXgräns på 225W.
Däremot kan ett helt system dra 270W men inte kortet själv då det är en teknisk omöjlighet med bara 2x6-pin PCIe. Så några 240W drar det inte.
Men det är ju 1x6 pin och 1x8 pin? Hur mkt ström klarar 8pins kontakten månntro? Iaf 2A (24W) för en fläkt! Vilket oljud den måste ha! Nu vill jag bara se prestandajämförelser mellan detta och ett 8800GTX 😀
Hur kommer det sig att OEM versionen kan vara så mkt längre, + att den drar 30W mindre ström? Hoppas bara att det inte är alltför stora prestandaskillnader mellan de båda.
2 Guest(s)