August 22, 2005
Sander Sassen på Hardware Analysis har skrivit en artikel om nVidias SLI-planer. SLI är en förkortning för Scan Line Interleave och är en term som senast användes på den gamla goda tiden när 3dfx var kungarna på marknanden. SLI innebär att man kopplar ihop två grafikkort och låter de arbeta tillsammans (på voodoo2 fungerade det genom att korten ritade upp varannan linje).
Idén dog tillsammans med AGP-porten, eftersom det egentligen inte är en buss så går det inte att använda två AGP-kort samtidigt vilket gör att hela idén raseras. Nu har dock PCI-express kommit vilket gör det möjligt att ansluta två grafikkort samtidigt, och idén på dubbla grafikkort tas upp igen. Alienware var först ut, men hade en ganska kladdig lösning som krävde ett extra kort och krävde att man använde VGA-portarna istället för DVI.
nVidia har en betydligt elegantare lösning på problemet, de använder sig av en höghastighetslänk mellan korten och helt nya drivrutiner så att korten själva håller reda på vilket kort som ritar upp vad. Istället för att rita upp varannan linje som voodoo2 gjorde så ritar korten upp varsin halva av bilden, hur de två delarna sedan slås ihop förtäljer dock inte historien. Vad som däremot sägs är att det kommer att gå att använda samtliga skärmanslutningar på korten, har du t.ex. två kort med två DVI-portar vardera kan du anlsuta upp till fyra skärmar.
Detta är bara en del av allt som står i artikeln, kom ihåg att det inte är 100% säkert att allting som står i artikeln stämmer men [H]ardOCP har gjort en antydning till att det är sant på deras förstasida. Läs hela artikeln här.
September 17, 2001
yeah! det är just sådant här som gör att nVidia växer och blir starkare. heltschysst att dubbla GFX-kort även kommer till oss som inte vill punga ut ~30000 för en Alienware-dator. Jag undrar dock hur nVidia tänker lösa deras redan nu höga strömkrav.
ATi tvingas nog också följa Alienware, om dem inte redan gjort det.
June 19, 2002
Tror inte det blir billigare än 30k ändå, iaf inte i börjna 🙂
ATi kör nog på dual-core istället tror jag, misstänker att SLI är en ganska avancerad teknik som kräver rätt mycket utveckling 🙂
Bättre med dualcore då, ATi har ju en tendens att tillverka relativt strömsnåla gpu:er också..
September 17, 2001
NH|Noddan wrote: Tror inte det blir billigare än 30k ändå, iaf inte i börjna 🙂
ATi kör nog på dual-core istället tror jag, misstänker att SLI är en ganska avancerad teknik som kräver rätt mycket utveckling 🙂
Bättre med dualcore då, ATi har ju en tendens att tillverka relativt strömsnåla gpu:er också..
mm, antar att det kommer kosta lite. men det är trots allt "vanliga moderkort" + två vanliga grafikkort, dock med en extra port så man kan sammansluta två stk GFX-kort.
Dual-core-lösning från ATi låter billigare och strömsnålare, men frågan är hur det ställer sig till två parallellt arbetande GFX-kort, då minnet antagligen lär bli flaskhalsen. Enormt snabbt VRAM lär behövas!
June 19, 2002
Det är ju inte vanliga moderkort, bara för Xeon verkar det som. Men det kanske kommer som sagt 🙂
Minnet är ju i och för sig ett problem, men det går säkert att sätta dubbelt så mycket minne på kortet. Man kanske sätter ett grafikkort på vardera sidan av PCB:n, så att det i princip blir två fristående grafikkort men på samma kort?
May 17, 2004
dualcore lösningar brukar inte vara de bästa. De kan sätta fel och ibland så händer det bara att någon som ms sätter käppen i hjulet. Nät ati släpte Rage xl(?) så tog den fram fint prestanda men då släpptes win2000. 2000 var ju ett helt nyss system och så blev ATi konfysa. Efter några om och men så kom de på ett sätt att använda kortet, med bara en kärna. Iden dog så var det med den sagan(allt detta är onödig fakta).
Men nu till värkligheten. För att Dual måste funka för konsumenterna så måste ATi tänka på en viktig sak, snåla med strömnen. Tror inte att de kan få in två kärnor i ett kort utan att dra mer ström en nvidia och med det så kommer de att få somre pr. Som när presccot kom, jääääte varm. Två kort blir lite otympligare men bättre prestanda så man måste inte strypa kortet.
June 19, 2002
Vitamin-C wrote: dualcore lösningar brukar inte vara de bästa. De kan sätta fel och ibland så händer det bara att någon som ms sätter käppen i hjulet. Nät ati släpte Rage xl(?) så tog den fram fint prestanda men då släpptes win2000. 2000 var ju ett helt nyss system och så blev ATi konfysa. Efter några om och men så kom de på ett sätt att använda kortet, med bara en kärna. Iden dog så var det med den sagan(allt detta är onödig fakta).
Men nu till värkligheten. För att Dual måste funka för konsumenterna så måste ATi tänka på en viktig sak, snåla med strömnen. Tror inte att de kan få in två kärnor i ett kort utan att dra mer ström en nvidia och med det så kommer de att få somre pr. Som när presccot kom, jääääte varm. Två kort blir lite otympligare men bättre prestanda så man måste inte strypa kortet.
Vad menar du med "sätta fel"?
Jovisst måste det skrivas nya drivrutiner, men det är säkert betydligt jobbigare att få två grafikkort att jobba i paritet med varandra än att ha dubbla kärnor på ett kort. Mjukvaruproblem råkar nog både ATi och nVidia ut för.
Två relatvit strömsnåla kärnor på ett kort drar ju mindre ström än två strömhungrande separata kort, eller vad menar du?
Den här produkten är ju inte avsedd för svensson direkt, utan för de som är mer extrema.
Vad menar du med att man skulle strypa kortet?
F.ö så har ju XGI med sitt volari visat att det går att använda två kärnor på ett kort, visserligen så var inte prestandan den bästa på just det kortet men det visar iaf att tekniken finns och går att använda.
May 17, 2004
det jag menar är att ATi har ju sin nich, bra prestana och fint pris. en sak till som gör dem popiss bland folket är att de är strömsnåla. Alla vet ju att nvidia hungrar efter våran el och om de skulle äta mer så big deal. När de blir två kärnor på ett kort så suger kortet mer ström, right? yes. och det ser inte lika bra ut då. Även fast entusiaster blir de som använder dessa så kommer några tänka "da?" om det. Fast vi får se och jag vill inte alla ska tracka mig för dessa nu 😉
hur som hälst så tror jag att nvidias kommer ge mer prestanda och en bättre prestanda är atis, men till ett dyrare pris, ca 12 tusen får du det för. atis kommer säkert att hamna på det biligare ca 8-9 men nvidia blir nog värst
June 19, 2002
Vitamin-C wrote: Även fast entusiaster blir de som använder dessa så kommer några tänka "da?" om det. Fast vi får se och jag vill inte alla ska tracka mig för dessa nu 😉
hur som hälst så tror jag att nvidias kommer ge mer prestanda och en bättre prestanda är atis, men till ett dyrare pris, ca 12 tusen får du det för. atis kommer säkert att hamna på det biligare ca 8-9 men nvidia blir nog värst
Nu förstår jag inte hur du tänker ändå.. Skulle folk dissa deras vanliga produkter bara för att de skitdyra drar en massa ström? Det tror jag inte direkt måste jag säga..
Och menar du att de dubbla korten skulle kosta 12 resp. 9000? Eller vart kom priserna ifrån?
September 17, 2001
NH|Noddan wrote: Minnet är ju i och för sig ett problem, men det går säkert att sätta dubbelt så mycket minne på kortet. Man kanske sätter ett grafikkort på vardera sidan av PCB:n, så att det i princip blir två fristående grafikkort men på samma kort?
Mängden minne spelar väl kanske mindre roll. Javisst att 2*nVidia-kort på ska vi säga 512MB lär räcka och bli över, både i kapacitet och effektivitet (2*512MB, 2*~1GHz minne). Om man jämför dessa två parallella arbetande grafikkort skulle ATi inte behöva slänga på mer än iaf 512MB på grafikkortet, utan också klocka upp/effektivisera minnet rejält för att lykas tillfredställa två högpresterande GPU:er, annars lär minnet bli en rejäl flaskhals.
> Vitamin-C
ATi har utvecklats något enormt nu det senaste, så jag tror faktiskt att de grejar drivrutinsbiten relativt simpelt. Dessutom tror jag dem lyckas greja strömkraven ganska så fint också, för de vill inte gå i nVidias fotspår :P.
Som Noddan nämnde så har lilla XGI lyckats producera Volari Duo V8 Ultra med just två GPU:er, varför skulle då inte ATi klara av detta galant tror du? Volari Duo V8 Ultra kräver ett 400W-agg, vilket inte är så jävla saftigt med tanke på nVidias senaste bravader. Javisst, det kanske inte presterar så bra, men jag tror lugnt att ATi lyckas hålla sig inom användarvänlighetens ramar.
June 19, 2002
NH|SiBBoR wrote: [quote=NH|Noddan]Minnet är ju i och för sig ett problem, men det går säkert att sätta dubbelt så mycket minne på kortet. Man kanske sätter ett grafikkort på vardera sidan av PCB:n, så att det i princip blir två fristående grafikkort men på samma kort?
Mängden minne spelar väl kanske mindre roll. Javisst att 2*nVidia-kort på ska vi säga 512MB lär räcka och bli över, både i kapacitet och effektivitet (2*512MB, 2*~1GHz minne). Om man jämför dessa två parallella arbetande grafikkort skulle ATi inte behöva slänga på mer än iaf 512MB på grafikkortet, utan också klocka upp/effektivisera minnet rejält för att lykas tillfredställa två högpresterande GPU:er, annars lär minnet bli en rejäl flaskhals.
Jo men det var det jag menade, man måste nog slänga på oberoende minneskapslar.. Går nog inte att köra två GPU:er på samma minnesbuss när den går runt 1GHz, det blir nog bara problem.. Bättre att köra två separata kretsar då känns det som?
September 17, 2001
NH|Noddan wrote: [quote=NH|SiBBoR][quote=NH|Noddan]Minnet är ju i och för sig ett problem, men det går säkert att sätta dubbelt så mycket minne på kortet. Man kanske sätter ett grafikkort på vardera sidan av PCB:n, så att det i princip blir två fristående grafikkort men på samma kort?
Mängden minne spelar väl kanske mindre roll. Javisst att 2*nVidia-kort på ska vi säga 512MB lär räcka och bli över, både i kapacitet och effektivitet (2*512MB, 2*~1GHz minne). Om man jämför dessa två parallella arbetande grafikkort skulle ATi inte behöva slänga på mer än iaf 512MB på grafikkortet, utan också klocka upp/effektivisera minnet rejält för att lykas tillfredställa två högpresterande GPU:er, annars lär minnet bli en rejäl flaskhals.
Jo men det var det jag menade, man måste nog slänga på oberoende minneskapslar.. Går nog inte att köra två GPU:er på samma minnesbuss när den går runt 1GHz, det blir nog bara problem.. Bättre att köra två separata kretsar då känns det som?
Jo, men då blir det 2-in-1-grafikort och inte bara dual-core :). h0h0, tror du detta är ATi:s planer? hade varit fräckt, men priset? uusch, hemska tanke. Jag vet inte vilket som är bäst, men att öka minnesbandbredden lönar sig nästan alltid, och antagligen i detta fall också.
June 19, 2002
NH|SiBBoR wrote: [quote=NH|Noddan][quote=NH|SiBBoR][quote=NH|Noddan]Minnet är ju i och för sig ett problem, men det går säkert att sätta dubbelt så mycket minne på kortet. Man kanske sätter ett grafikkort på vardera sidan av PCB:n, så att det i princip blir två fristående grafikkort men på samma kort?
Mängden minne spelar väl kanske mindre roll. Javisst att 2*nVidia-kort på ska vi säga 512MB lär räcka och bli över, både i kapacitet och effektivitet (2*512MB, 2*~1GHz minne). Om man jämför dessa två parallella arbetande grafikkort skulle ATi inte behöva slänga på mer än iaf 512MB på grafikkortet, utan också klocka upp/effektivisera minnet rejält för att lykas tillfredställa två högpresterande GPU:er, annars lär minnet bli en rejäl flaskhals.
Jo men det var det jag menade, man måste nog slänga på oberoende minneskapslar.. Går nog inte att köra två GPU:er på samma minnesbuss när den går runt 1GHz, det blir nog bara problem.. Bättre att köra två separata kretsar då känns det som?
Jo, men då blir det 2-in-1-grafikort och inte bara dual-core :). h0h0, tror du detta är ATi:s planer? hade varit fräckt, men priset? uusch, hemska tanke. Jag vet inte vilket som är bäst, men att öka minnesbandbredden lönar sig nästan alltid, och antagligen i detta fall också.
Nu blir det måånga quotes..
Ja jag tror nog på ett 2-i-1-grafikkort faktiskt, det är nog omöjligt att ansluta sig till minnesbussen. Volari är väl uppbyggt på samma sätt tror jag.. Fördelen är ju att det fortfarande går att identifiera det som en enhet, man slipper strula med info via PCI-expressbussen eller via ett löst kretskort så som nVidia har gjort.
Ett grafikkort på vardera sidan tror jag på iallafall, så skulle jag designa det. Då kan man ha vattenblock på vardera sidan utan problem också.
Egentligen skulle man ju göra GPU:erna utvecklingsbara, så som 3dfx hade det... lösa textureringsenheter som man kan smälla på 🙂 Det borde finnas mer rum för att expandera grafikkort iallafall, utbytbara minneskapslar osv 🙂
June 19, 2002
Vitamin-C wrote: jag gissar på att två kort kommer komma upp i kostnaden ~12000 men ett ati kort med två kärnor bir säkert satt på 8-9
Snarare 15-20, om ens så lite.. nVidia måste ju täcka drivrutinsutvecklingskostnaderna (vilket nice ord) med försäljningen av de där korten, så den där extrakontakten kostar nog ganska många tusen extra misstänker jag.
September 17, 2001
NH|Noddan wrote: Nu blir det måånga quotes..
Ja jag tror nog på ett 2-i-1-grafikkort faktiskt, det är nog omöjligt att ansluta sig till minnesbussen. Volari är väl uppbyggt på samma sätt tror jag.. Fördelen är ju att det fortfarande går att identifiera det som en enhet, man slipper strula med info via PCI-expressbussen eller via ett löst kretskort så som nVidia har gjort.Ett grafikkort på vardera sidan tror jag på iallafall, så skulle jag designa det. Då kan man ha vattenblock på vardera sidan utan problem också.
Egentligen skulle man ju göra GPU:erna utvecklingsbara, så som 3dfx hade det... lösa textureringsenheter som man kan smälla på 🙂 Det borde finnas mer rum för att expandera grafikkort iallafall, utbytbara minneskapslar osv 🙂
Om ATi tänker bygga vidare på sin nuvarande arkitektur så lär det troligtvis bli ett 2-i-1-grafikkort.
Det sista du sade med uppgraderingsbara grafikkort låter mycket intressant. Jag tror säkert att grafikkortstillverkare gått i tankarna, men det står sig ganska klart i att de skulle förlora stora summor pengar på detta, genom att användarna kan slänga på mer/snabbare minne eller byta ut vissa komponenter på grafikkortet som möjliggör nya sorters funktioner, typ ett steg från PS2.0 till PS3.0. Hade inte varit helt dumt faktiskt.
Hm, hur hamnade vi så mkt off topic? ATi + uppgraderingsbara grafikkort. Knas ;D. UndaC kanske har något att tillägga, vad tror du?
Back to topic, roligt när datorkomponenter utvecklas!
April 2, 2001
November 29, 2001
NH|SiBBoR wrote:
Hm, hur hamnade vi så mkt off topic? ATi + uppgraderingsbara grafikkort. Knas ;D. UndaC kanske har något att tillägga, vad tror du?
Ahh angående uppgraderingsbara grafikkort så fanns det ju förr vad det gällde minnen.
Men jag har snackat med både nVidia och Ati om det och förutom just minnen alt. att smälla på en extra GPU så finns det inte mycket att göra vad det gäller uppgraderngar.
GPUs fixar inte socklar, de är på tok för små, och kräver extremt rena signaler som du inte får om du inte lödar det direkt på PCBn typ.
Samma sak gäller dagens minnen och dessutom: det är helt menlöst att uppgradera bara en del av ett grafikkort eftrsom den andra då blir flaskhals.
Enda vore väl minnesmängd men då är det la lika bra tt hålla ut och köpa tex. 6800/x800 med 512 MB när det kommer istället för att hoppa på 256 MB varianterna.
För övrigt ser vi ju inte de stora skillnaderna vad det gäller minne längre.
Förr betydde ju några extra k att man kanske kunde höja upplösningen från 800x600 till 1024x768 inne i windows men nuförtiden snackar vi snarare bara att man höjer sin fps så minimalt att det knappt märks. 😉
Hur Ati kommer göra är nog lite oklart, alltid när jag frågar dem om flera cores/grafikkort så verkar de extremt tveksamma. Sean Pelltier (fd HardOCP, fd nVnews och nuvarande PCperspective skribent) hintar om att ATi inte kommer med någon egen lösning men som vi hört tidigare ska ju alienwares lösning funka även för andra märken än nvidia.
2 Guest(s)