April 17, 2005
ATI har tidigare presenterat en hel del information om hur man med hjälp av sina egna grafikkretsar kan hantera fysikeffekter i PC-spel vilket skulle göra det mindre intressant att införskaffa sig en extern fysikprocessor som AGEIA PhysX. ATI säger att ett av deras grafikkort själv ska kunna hantera en stor del fysikacceleration utöver den vanliga 3D-renderingen men att man för bästa prestanda ska kunna använda sig av en Crossfire konfiguration eller bara ett äldre ATI-grafikkort som tar hand om fysikaccelerationen. Nu har man gett en ny vinkel på det hela, man har nämligen menat att man även tittar på sina integrerade grafikkretsar för att låsa upp dessa för fysikaccelaration när man använder ett externt grafikkort.
Integrerade grafikkretsar på moderkort är knappast de bäst presterande och AGEIA hävdar att det är naivt att tro att man kan få en väl presterande fysikaccelartor med hjälp av integrerade grafikkretsar. Att AGEIA skulle kontra med detta är ju ingen större överraskning och även om ATI inte har några konkreta planer på att gå vidare med denna satsning så är det en intressant tanke att använda all tillgänglig beräkningskraft som finns tillgänglig.
November 4, 2001
ATi har ju redan visat att grafikkorten kan hantera rena fysikeffekter. Det integerarade kortet kanske inte ger någon jätteboost men en liten ökning är bättre än ingen ökning.
Ati verkar för övrigt blir bra mycket hetare än Nvidia när det gäller dom 1a generationernas DX10 kort.
Här är en artikel som är väldigt intressant:
http://www.driverheaven.net/ar.....cles/dx10/
March 11, 2003
SuperNova wrote: ATi har ju redan visat att grafikkorten kan hantera rena fysikeffekter. Det integerarade kortet kanske inte ger någon jätteboost men en liten ökning är bättre än ingen ökning.
Ati verkar för övrigt blir bra mycket hetare än Nvidia när det gäller dom 1a generationernas DX10 kort.
Här är en artikel som är väldigt intressant:
http://www.driverheaven.net/ar.....cles/dx10/
Och du ställer dig inte frågande om relevansen i artikeln när den börjar med "Yesterday I attended a briefing with ATi"....?
Att man bara skulle kunna ta en halvsunkig graffekrets och använda den som dedikerad fysikmotor ser jag som rätt osannolikt. Visst, den kan kanske hjälpa till, men det blir inte mycket arbete gjort. Redan jämfört med dagens tuffare kort, så klarar PhysX att hantera enormt många fler objekt. Det fixar man inte med en billig integrerad grafikkortskrets.
March 11, 2003
hymer wrote: så om de löser detta skall jag kunna använda mitt x1900xtx som fys hanterare och ett r600 som står för grafiken?
Fast varför, när man kan köpa ett PhysX-kort som är anpassat för att köra fysik på, och därmed bättre och som samtidigt kostar betydligt mindre?
April 27, 2005
tjo är ju dömt att hända, men frågan är om det blir optimalt eller inte för att utnyttja bandbredden till max i burken. t.ex Creative skyller numera på att deras PCI-ljudkort X-FI i high end datorer får för lite plats i bufferten och leder till otäcka ljudproblem i spel.
February 5, 2005
Låter bra iof, en liten ökning är bättree än ingen ökning.
Samtidigt så hoppas jag ändå att det blir PhysX som vinner den här striden så man kan få ännu mer detaljerad fysik.
Det säger sig ju självt att ett kort som är specialdesignat för att enbart hantera fysik kommer att vara bättre på det än ett kort som är gjort och optimerat för grafik men försöker simulera fysik!
Blir ju egentligen billigare också, ett 1900xtx + PhysX är billigare än två 1900xtx och man har förmodligen bättre fysikpotential i det senare alternativet.
Sen har vi ju värme och strömfrågan också, ett nytt och modernt hi-end kort drar flera hundra W och behöver en stor kylare, som dumpar stora mängder varmluft i lådan. Ett PhysX klarar sig med en liten enkel kylare och en enkel molex (PCI-E 6pins kontakterna motsvarar 2st).
May 27, 2006
SuperNova wrote: ATi har ju redan visat att grafikkorten kan hantera rena fysikeffekter.
Vad exakt menar du med "rena fysikeffekter"? Vad jag vet handlar det _enbart_ om ögongodis, har du någon källa som säger annat?
SuperNova wrote: Ati verkar för övrigt blir bra mycket hetare än Nvidia när det gäller dom 1a generationernas DX10 kort.
Källa? Låter konstigt att ens spekulera om sånt när nästan ingenting är känt om nästa generation kort, eller iaf har inte jag hört speciellt mycket. Att Nvidia inte använder Unified Shaders säger inte så mycket om det var det du syftade på, det finns ju faktiskt någon anledning till varför Nvidia valt den vägen (om de nu ens har gjort det, man vet ju aldrig).
2 Guest(s)