Prestandatester
Testerna för Ashes of the Singularity beta 2 fokuserar på att testa belastningen på grafikkort och inte processorn, vilket kan vara värt att notera eftersom samtliga tester görs med ett Intel Core i7 5960X. Fokus ligger på DirectX 12 och stödet för Multi-GPU och prestandaskillnader mellan DirectX 11 och DirectX 12.
Testscenario
Testscenariot för Ashes of the Singularity är en tre minuter lång förprogrammerad benchmark inbyggd i spelet. Vsync är avstängd på drivrutinsnivå och i inställningarna för spelet. Eftersom datan från den inbyggda benchmarken är betydligt mer detaljerad än vanliga benchmark program har vi här valt att behålla den datan och utgå från den i våra analyser.
Notera att det finns två olika värden för bildfrekvensen, average och weighted. Spelet räknar ut bildfrekvensen genom att mäta hur lång tid varje bildruta tar att rendera, och använder sedan två olika metoder för att räkna ut ett genomsnitt. Average är det vanliga genomsnittet, som dividerar det totala antalet bildrutor med den totala renderingstiden. Weighted är istället ett viktat genomsnitt, där alla renderingstiden kvadreras för varje bildruta innan adderingen, och beräkningen sedan tar kvadratroten ur summan innan uträkningen av genomsnittet. På så sätt kommer bildrutor som tar lång tid att rendera påverka resultatet mer än bildrutor som tar kort tid att rendera, så att resultatet påverkas av instabila bildfrekvenser. Ju närmare average och weighted är varandra, desto stabilare är bildfrekvensen.
Testresultat – Extreme
Vi drar igång testerna med “extreme”-inställningar och i två upplösningar: 1 920 x 1 080 och 3 840 x 2 160. I det här fallet använder vi sex grafikkort, ett från AMD respektive Nvidia i toppsegmentet, ett från vardera aktör som ungefär motsvarar mellanklasskort och ett vardera som ungefär motsvarar instegskort.
Vi ser en tydlig trend där grafikkorten från AMD presterar bättre än motsvariga kort från Nvidia. Med Radeon Fury X i toppen ser vi att GTX 980 Ti inte hänger med, det är en betydlig skillnad på ungefär 10 bilder per sekund.
Det är AMD som drar det längsta strået i båda upplösningarna; toppmodellen Radeon R9 Fury X lämnar Nvidia Geforce GTX 980 Ti bakom sig vilket vi också såg i resultaten för den första betan. Mellanklasskorten följer även de samma trend där vi ser att AMD har lite bättre resultat än Nvidia. GTX 960 tog vi inte med i upplösningen 4k eftersom det inte klarade av att driva spelet i den upplösningen, med grafikinställningen “extreme”.
Testresultat – DX11 vs DX12
I nästa test kör vi på samma inställningar som tidigare test men nu testar vi prestandaskillnader i DirectX 11 och DirectX 12.
När vi kör benchmarken i upplösningen 1 920 x 1 080 ser vi hur stor skillnaden faktiskt är mellan de två versionerna av DirectX. AMD utnyttjar asynkrona beräkningar vilket ger Radeon Fury X en stor fördel i DirectX 12 med ungefär 10 bilder per sekund, samtidigt ligger samma kort back med ungefär 20 bilder per sekund i DirectX 11.
För upplösningen 3 840 x 2 160 ser vi en liknande trend mellan AMD och Nvidia med tydliga skillnader mellan DirectX 11 och DirectX 12. Det som är intressant i högre upplösning är att Nvidia förlorar lite av sin fördel i DirectX 11 jämfört med i lägre upplösning, nu har gapet krympt till ungefär 7 bilder per sekund, jämfört med 20 i lägre upplösning.
Testresultat – Multi-GPU
I vårt tredje test tittar vi närmare på hur Multi-GPU faktiskt fungerar med två toppsegments grafikkort. Eftersom det primära grafikkortet är det som drar det stora lasset bytar vi placeringen av grafikkorten.
I upplösningen 1 920 x 1 080 ser vi samma mönster som i tidigare test där Radeon Fury X är det bättre presterande kortet överlag, även i Multi-GPU när det ligger som det primära grafikkortet. Skillnaden är dock mindre mellan de två konfigurationerna än för singelkort.
Även i den högre upplösningen fortsätter samma mönster med Radeon Fury X i täten när det är det primära grafikkortet. En skillnad jämfört med tidigare är att det viktade medelvärdet för konfigurationen med Radeon Fury X som sekundär grafikkort är något lägre än för den lägre upplösning.
Varför har ni inte med Radeon 390 / 390X när ni har med typ alla större nVidia kort GTX970 /980 / 980 Ti i tested.
DX12 visar ju verkligen värdet på 390/390X och detta missar ni ju helt att kommunicera eller gjordes detta med mening för att framställa nVidia som ett prisvärt alternativ över Radeon.
När man tittar på era tabeller ser det ut som om man måste köpa det dyraste Radeon Fury X av Radeon familjen och har man inte råd med detta ska man hålla sig till nVidia.
+1
Är det inte mer intressant vad mellanklasskorten klarar med ett extra kort? Det är väl större chans att någon skulle stoppa i ett kort till när man inte har spelbara frekvenser en att någon som det redan flyter för skulle göra det?
Ytterligare en kombination som hade varit intressant eftersom det nog är mer vanligt:
Att kombinera ett diskret grafikkort med processorns inbyggda GPU.
Men processorn i testlabbet Intel Core i7-5960X kanske inte har inbyggd grafik?
[quote name=”Robertxxx”]Varför har ni inte med Radeon 390 / 390X när ni har med typ alla större nVidia kort GTX970 /980 / 980 Ti i tested.
DX12 visar ju verkligen värdet på 390/390X och detta missar ni ju helt att kommunicera eller gjordes detta med mening för att framställa nVidia som ett prisvärt alternativ över Radeon.
När man tittar på era tabeller ser det ut som om man måste köpa det dyraste Radeon Fury X av Radeon familjen och har man inte råd med detta ska man hålla sig till nVidia.[/quote]
Inte första gång det känns som NH favoriserar Nvidia
Om ni nu känner oklarheter med testmetodiken, kan ni inte fråga skribenten i fråga än att bara hävda en massa. Där finns säkerligen en grundläggande tanke med metodiken, eller begränsningar som gjorde valen av grafikkort. nILGot och Flyfisherman tycker jag har intressanta tankar kring testmetodiken. [quote name=”tony f”][quote name=”Robertxxx”]Varför har ni inte med Radeon 390 / 390X när ni har med typ alla större nVidia kort GTX970 /980 / 980 Ti i tested. DX12 visar ju verkligen värdet på 390/390X och detta missar ni ju helt att kommunicera eller gjordes detta med mening för att framställa nVidia som ett prisvärt… Läs hela »
Det verkar som Nvidia inte har aktiverat async shading i sina drivrutiner ännu. AnandTech [url]http://www.anandtech.com/show/10067/ashes-of-the-singularity-revisited-beta/7[/url][quote]Going hand-in-hand with DX12, RTG’s cards are the only products to consistently benefit from Ashes’ improved asynchronous shading implementation. Whereas our NVIDIA cards see a very slight regression ([b]with NVIDIA telling us that async shading is not currently enabled in their drivers[/b]), the Radeons improve in performance, especially the top-tier Fury X. This by itself isn’t wholly surprising given some of our theories about Fury X’s strengths and weaknesses, but for Ashes of the Singularity performance it further compounds on the other DX12 performance gains for… Läs hela »
[quote name=”Robertxxx”]Varför har ni inte med Radeon 390 / 390X när ni har med typ alla större nVidia kort GTX970 /980 / 980 Ti i tested. DX12 visar ju verkligen värdet på 390/390X och detta missar ni ju helt att kommunicera eller gjordes detta med mening för att framställa nVidia som ett prisvärt alternativ över Radeon. När man tittar på era tabeller ser det ut som om man måste köpa det dyraste Radeon Fury X av Radeon familjen och har man inte råd med detta ska man hålla sig till nVidia.[/quote] En anledning kanske är att de inte hade tillgång… Läs hela »
[quote name=”Robertxxx”]Varför har ni inte med Radeon 390 / 390X när ni har med typ alla större nVidia kort GTX970 /980 / 980 Ti i tested. DX12 visar ju verkligen värdet på 390/390X och detta missar ni ju helt att kommunicera eller gjordes detta med mening för att framställa nVidia som ett prisvärt alternativ över Radeon. När man tittar på era tabeller ser det ut som om man måste köpa det dyraste Radeon Fury X av Radeon familjen och har man inte råd med detta ska man hålla sig till nVidia.[/quote] De korten togs inte med av två anledningar: begränsad… Läs hela »
[quote name=”Carl Holmberg”][quote name=”Robertxxx”]Varför har ni inte med Radeon 390 / 390X när ni har med typ alla större nVidia kort GTX970 /980 / 980 Ti i tested. DX12 visar ju verkligen värdet på 390/390X och detta missar ni ju helt att kommunicera eller gjordes detta med mening för att framställa nVidia som ett prisvärt alternativ över Radeon. När man tittar på era tabeller ser det ut som om man måste köpa det dyraste Radeon Fury X av Radeon familjen och har man inte råd med detta ska man hålla sig till nVidia.[/quote] De korten togs inte med av två… Läs hela »
Är med på era argument. Men att detta inte är någon köpguide ursäktar inte ett onyanserat urval av testkort. Som nämnts tidigare så ser det vid första anblicken ut som att AMDs top of the line-enhet är enda kortet som duger från röda lägret.
Men lär man sig av sina misstag så är ingen skada skedd.
Såååå where can I get the beta??