December 19, 2000
Vi har avvaktat lite med denna nyhet de senaste par dagarna då vi ville få mer klarhet i fallet. De som läst specifikationerna för GeForce FX har säkert sett att kortet, precis som Radeon 9700 Pro, ska ha åtta pixel pipelines med en texturenhet vardera. Det som nu dykt upp är mer och mer hopande bevis för att detta helt enkelt är fel. Istället tros kortet bygga på en arkitektur bestående av 4 pixel pipelines med två texturenheter vardera.
Resultatet, om det visar sig vara 100 % korrekt, är att kortet effektivt sett har hälften så hög pixel fillrate som man tidigare trott. Pixel fillrate är något som är viktigt t.ex. vid hög upplösning och när man använder sig av mer komplicerade Pixel Shaders.
Som det ser ut nu faller alla bitarna på plats. De "underliga" nackdelarna i FX prestanda som bara inte verkade rimliga är nu helt plötsligt förståeliga.
Den dåliga PR:en hopar sig kring FX och om det nu visar sig att nVidia kort och gott ljugit om en sådan viktigt specifikation så blir det nog droppen som fick bägaren att rinna över för många.
nVnews har komplierat en lista av siter som berör ämnet, kolla in den här.
November 29, 2001
Marquzz wrote: Läste om det här igår på the inq och visste inte riktigt vad jag skulle tro. Det ska bli oerhört intressant att höra vad nVidia har att säga om det här. Vi kommer nog få svar från de fort.
De har ju redan svarat.
Som det ser ut nu agerar kortet som en 4x2 i många fall och 8x1(0) i andra.
Visserligen så var deras svar kanske ganska kryptiskt, men i det stora hela så kan man nog vara överens om att de knappast har en "äkta" 8x1 arkitektur.
October 1, 2001
Allt som jag läst hittils idag indikerar på att GFFX inte har äkta 8x1 men att nVidia tryckt på att det klarar av 8 pixels/clock villket du får om du multiplicerar 4 med 2, alltså när 2 texturer används istället för 1. Rätta mig om jag har fel men 8x1 behöver 2 cykler för att rendrera en yta med 2 texturer vilket gör GFFX dubbelt så snabbt när 2 texturer används medans R300 blir dubbelt så snabbt när 1 textur används.
Det är bara på mer detaljerade objekt man använder mer än 1 textur eftersom det drar mycket bandbred. Med pixelshaders så kan man även åstadkomma effekter som tidigare bara var möjliga med fler texturer.
Något jag undrar lite över är om R350 ska ha 8x2 som det ryktats om. 8x2 skulle innebära att R350 är dubbelt så snabbt som GFFX oavsett hur många texturer som används. Vilken dödsstöt det skulle vara =)
November 29, 2001
Dead Glory wrote: Allt som jag läst hittils idag indikerar på att GFFX inte har äkta 8x1 men att nVidia tryckt på att det klarar av 8 pixels/clock villket du får om du multiplicerar 4 med 2, alltså när 2 texturer används istället för 1. Rätta mig om jag har fel men 8x1 behöver 2 cykler för att rendrera en yta med 2 texturer vilket gör GFFX dubbelt så snabbt när 2 texturer används medans R300 blir dubbelt så snabbt när 1 textur används.
Det är bara på mer detaljerade objekt man använder mer än 1 textur eftersom det drar mycket bandbred. Med pixelshaders så kan man även åstadkomma effekter som tidigare bara var möjliga med fler texturer.
Något jag undrar lite över är om R350 ska ha 8x2 som det ryktats om. 8x2 skulle innebära att R350 är dubbelt så snabbt som GFFX oavsett hur många texturer som används. Vilken dödsstöt det skulle vara =)
De flesta objekt har 2 eller fler texturer, single texturing är väldigt ovanligt idag.
Med att 4x2 skulle resultera i 8 pixels per clock är inte korrekt. Det resulterar i 4 pixels och 8 texels per clock och det är just det här som är kruxet.
Oavsett arkitektur så är det likvärdigt med R300 i texel fillrate (clock för clock dvs).
8x1 och 4x2 ger samma texel throughput dvs. 8 texture samples per clockcykel.
En 8*1 arkitektur är snarare mer effektiv än 4x2 vad det gäller texturering eftersom den kräver mindre minnesbandredd och mindre cache för att fungera optimalt.
8x2 på R350 (jag säger inte att kortet har det eller ej) skulle nästan bara öka prestandan vid användandet av Anisotropisk Filtering av Quality-typen skulle jag tro.
November 29, 2001
Dead Glory wrote: Jo vi går ju mer å mer mot fler än 1 textur i nyare spel medans vissa grejer som sky spheres/boxes oftast är 1 textur. Nu ska jag inte gå å spekulera mer i deta eftersom jag inte är så säker på vad jag visste =)
Ja der ser man hur fel man kan ha =)
Hehe, men tom. de flesta skyboxes är multi textured eftersom de har moln som rör sig osv. 😀
Aja men om vi säger så här, den största majoriteten av texturer i spel som kommit ut i Quake3 eran elelr efteråt använder till en stor majoritet multitexturing.
Det är just därför som nVidia bitchar om Game 1 testet i 3Dmark03, de tycker att det är fel att himeln använder single texturing.
November 29, 2001
HELIX wrote: Hur kan ett företag göra så lyckade moderkortschip och så sunkiga grafikkortschip? Dom har ju varit specialiserade på grafikkort förut..
alltså om vi bortsett från att ATi fanns så hade ju FX varit ett relativt stort steg framåt även om det har sina brister
svaret är nog helt enkelt att nvidia inte var beredda på att R300 skulle va så grymt
February 17, 2003
😆
Ärligt talat så tror jag att detta var det bästa som kunnde hända oss konsumenter.
Nu har ATI fått smaka på kakan.
Nvidia vill ha tillbaka sin prestanda krona (jag vet de har den nu men inte med mycket).
ATI kommer med en uppskrämd 300 (350).
Nvidia måste kontra.
Allt detta kommer att göra susen i våra plånböcker.
Och framförallt puchar fram ny teknik som annars skulle ha dröjt.
/MikaelS
October 1, 2001
Jepp, hela GFFX grejen verkar vara gammal i grunden. Jag såg just ett citat om att GFFX var nVidias vår grej förra året, är ju typ 10 månader försenat. De började helt enkelt på designen för väldigt länge sedan å satsade på .13 å DDR2 vilket aldrig kom i tid å när R300 kom så var de så illa tvugna att ta sin gamla design å göra det bästa av den genom att klocka upp kortet extremt högt å köra med massiv PR. Lite spekulationer från mig =)
November 29, 2001
Cyberz wrote: JonaS: asså.. vad ska Nvidia förklara? de har jo aldrigt sagt att det kommer vara 8x1 eller 4x2 ?
de har bara sagt att det kommer vara 8pixel inget annatjag ser alla fall inget info om det på deras sida. 😮
infon de gett ut vid previews har ju indikerat annat
men njae ok, ljuga är nog för starkt ändå
missledande är ett bättre ord
January 12, 2003
UndaC wrote: [quote=Cyberz]JonaS: asså.. vad ska Nvidia förklara? de har jo aldrigt sagt att det kommer vara 8x1 eller 4x2 ?
de har bara sagt att det kommer vara 8pixel inget annatjag ser alla fall inget info om det på deras sida. 😮
infon de gett ut vid previews har ju indikerat annat
men njae ok, ljuga är nog för starkt ändå
missledande är ett bättre ord
hmm åfan
visste inte om att det fanns någe Officiela prewievs från nvidia ..
för att det kanske inte finns.. 😕
November 29, 2001
jag syftar på den information nVidia skickat ut till oss skribenter i form av pdf-filer, power point presentationer på mässor/konferenser, vad de berättat muntligen osv.
dessutom så klarar inte kortet 8 pixlar per cykel under majoriteten av tillämpningar, om nu nvidia ska vara så petiga med att man ska gå efter vad majoriteten av tillämpningarna "säger" (tänker på deras dissar mot futuremark) så kanske de inte borde kalla sin arkitektur 8 pixels per cykel 🙂
September 25, 2002
Måste bara tillägga att det var i grevens tid att Nvidia fick på fingrarna genom detta bakslag.. jag skrattade så jag nästan grät när jag läste det 😀
Men det gynnar nog både marknaden och framför allt konsumenten med lite konkurrens företagen emellan.
Ha det gott! länge leve ATi :bgrin:
oops såg inte att någon redan skrivit detta, hehe jag e lite trötter....
2 Guest(s)