April 30, 2001
gillar Radeons förmåga att tvinga på högkvalitativa inställningar, något jag saknar på GF-korten
Du kunde inte ha sagt det sämre. Jag har ett Radeon 8500 och ett GeForce 3. Det finns MYCKET mer options för att tweaka upp bild kvaliten på GF kortet än på Radeon.
Det är ganska kul att du säger att du har max LOD setting. Hmm är du säker att du inte vill ändra det för va jag vet så är det inte möjligt att ändra det på Radeon kort !
November 29, 2001
On 2002-03-03 01:45, Liquide wrote:
gillar Radeons förmåga att tvinga på högkvalitativa inställningar, något jag saknar på GF-korten
Du kunde inte ha sagt det sämre. Jag har ett Radeon 8500 och ett GeForce 3. Det finns MYCKET mer options för att tweaka upp bild kvaliten på GF kortet än på Radeon.
Det är ganska kul att du säger att du har max LOD setting. Hmm är du säker att du inte vill ändra det för va jag vet så är det inte möjligt att ändra det på Radeon kort !
ursäkta mig men vilken dressing vill du ha när du käkar upp dina ord?
[Image Can Not Be Found] [Image Can Not Be Found]
eller vad sägs om ett bra exempel på TRUFORM?
[Image Can Not Be Found]
sen har vi lite kontroller för Direct 3D också såklart om du vill jag jag ta några screenshots på dem med...
[ Detta Inlägg ändrades av: UndaC den 2002-03-03 02:21 ]
November 29, 2001
vad jag menade var:
jag tror inte att GF korten har den egenskapen att de kan tvinga på en 32 bits Z-buffer samt 32 bits texturer samt att ATIs LOD 8 är högre än vad högsta inställningen på ett GeForce motsvarar
det i kombination med ATIs 128x Ripmapping Anisotropic Filtering, TRUFORM (o kanske lite FSAA 2x) får alla gamla goa spel att se nästan helt nya ut tänker främst på de som bygger på HL motorn
tex kikarsiktet på snipergevären i DoD, utan truform ser de ut som stoppskyltar
med TRUFORM (räcker med level 1 (finns upp till 7)) så blir de perfekta cirklar precis som de borde se ut
DET saknar jag på GeForce
om jag har fel ber jag om ursäkt
[ Detta Inlägg ändrades av: UndaC den 2002-03-03 02:30 ]
November 29, 2001
tänkte om du var sugen på efterätt:
[Image Can Not Be Found]
[Image Can Not Be Found] liten bugg i Radeonator gör att man inte kan välja enbart 32 bits z-buffer här (har sagt till Gambino som jag hjälpt skapa det att fixa till det så det kommer med i nästa uppdatering) dock fixar man det manuellt i registret eller genom UniTuner
[Image Can Not Be Found]
de flesta av de här valen finns inte på GeForce korten
och om du kollar bland Open GL Private samt DirectX Advanced ser du att där finns tonvis med inställningar
många fler än vad som är tillgängliga i NVMax tex. (kanske finns tweaker med mer inställningar för nvidias kort, länka gärna eller länka screenshots)
hehe checka mitt stavfel på Coörd 😀
har varit så sen version 1.25, han e nu uppe i 1.60
glömmer hela tiden säga till om det
[ Detta Inlägg ändrades av: UndaC den 2002-03-03 02:55 ]
July 2, 2001
Undac: Några frågor om Radeon.
Om du kollar på denna sida: http://www.digit-life.com/arti.....ndex6.html så påstår dom att Radeon samplar anisotropiskt annorlunda från Nvidias lösning.
"In real applications the filtering will work good on walls or ceilings, but the results will be vanishing on surfaces located at angles different from the right one the result will be less noticeable till the critical angle of 45 degrees is reached."
Dessutom
"The NVIDIA's approach needs more time to get the result but it processes objects at any angles equally good, not only those positioned just horizontally or vertically."
Dessutom har du snackat om LOD (Level Of Detail). Jag undrar, snackar du om MipMaps eller modeller? Om det är Mipmaps så kan jag ställa betydligt högre med mitt G2. Om det är modeller så undrar jag vad drivern har med det att göra förutom när det gäller TRUEFORM?
Sen vad gör Optimize Blend, Color Fill, Validate Vertex Index som inte ett G3 kan klara?
November 29, 2001
Radeon använder rip-mapping anisotropic
vad den gör är att räkna ut på vilka ytor filtreringen behövs mest
jag har själv inte sett några av de problem som vissa påstår att man kan erfara, dock är det för att jag kör 128x tror jag
128x är nån specielvariant som aktiverar någon annar form av filtrering än vad de lägre gör, ATI tiger dock om vad det är som "händer" när man aktiverar 128x
i DirectX går det också att fixa till med 128x, och i kombination med AnisoLinear så blir resultatet pyttelite sämre (typ som nvidias 8x ungefär)
tex. behövs det inte på ytor som är alldeles intill dig osv. ett selektivt filter helt enkelt
vissa kallar det "fusk", personligen tycker jag inte att det är mer fusk än HSR tex.
men visst, nvidias metod är mer ortodox, och i vissa fall ger den bättre resultat
dock är det med en präktig prestandaförlust, o filtreringen går inte att ställa in så hög som på Radeon
personligen föredrar jag ATIs metod eftersom den fungerar bättre *för mig* i praktiken
LOD avser mipmaps, och vad jag förstått går ATIs inställning 8 ganska mycket högre än vad GeForce korten gör (jämförde skärm vs skärm, mitt radeon mot ett geforce 3, båda körde enabrt med trilinear i cs samt högsta LOD, på min skärm var texturerna klart mycket "vassare" och "klarare" men o alla junctions syns en viss grad av aliasing
det kan skapa viss textur aliasing som sagt, precis som 128x Aniso
personligen tycker jag att det är värt det
men om man störs så är det bara att slå på 2x FSAA så försvinner det
ColorFill är en funktion som förbättrad Direct 3D Color Saturation, fylligare färger osv. (inte samma funktion som color vibrance eller vad det kallas), Validate Vertex Index är en funktion som ser till att scener renderas korrekt
kan fixa till vissa problem i spel, de flesta program väljer själva om de ska använda funktionen, men det känns fint att man kan tvinga på den
Optimize Blend ser bara till att AlphaBlednings resultat blir litet bättre
(och om nu geforce korten har förmåga att "tvinga" på "kvalitetinställningar" så undrar jag vilka de valen är förutom: Aniso och FSAA)
GeForce e ju klart bättre på en massa andra saker, o så där
försöker inte säga att Radeon är det optimala kortet
jag bara ville ha sagt att jag saknar funktioner som gör att man kan tvinga gamla spel att se bättre ut på GeForce
kan någan skicka mig deras OpenGL och DirectX drivrutin från senaste nvidia drivisen (bara dll-filerna alltså)
tänkte kolla om där finns "outnyttjade" tweaks så att säga
edit: ja jag vet, jag har stavat fel ÖVERALLT
[ Detta Inlägg ändrades av: UndaC den 2002-03-03 12:00 ]
November 29, 2001
har tittat igenom nvidias 27.70 drivrutin nu (nv4_disp.dll samt nvoglnt.dll, om det finns registernycklar i andra filer så sä gärna till, pallade inte kolla igenom fler än dom två)
samt ett par tweakers för nvidias kort
där fanns inget som indikerade att man skulle kunna tvinga på en 32 bits z-buffer eller 32 bits texturer
varken i Open GL eller Direct 3D
däremot kunde man tvinga på en 16 bits z-buffer och välja 32 bitars texturer default (men den "ultimata" kontrollen överlämnas ändå till mjukvaran)
jaja TRUFORM kommer man dock inte undan, fan va det regerar
var lite tveksam först tex. i UT så ser modellerna helt mongo ut
men nu när spel har börjat med officiellt stöd funkar det bättre
o gör det inte det så e det bara att dra ner TRUFORM till level 1
Quake 1 och 2 är också bra exempel på spel som man kan få att se riktigt fint ut på ett Radeon
32 bits z-buffer, 32 bits texturer, truform level 1, 128 aniso, line AA, (FSAA finns ju också på geforce så det sätter jag inom parantes)
skulle bara fått Nitro GL att arbeta ihop sin TRUFORM renderer med han killen som gjorde EMBM renderern
hade nog sett helt superbt ut
sorry att jag skriver så långt o "kladdigt"
July 2, 2001
Gisses vilka svar. Det här är kul att läsa
3D-kvalité är helt klart en djungel. Visst Anisotropisk filtrering är en sak, men implementationen en annan. Och så är det överallt.
Alpha Blending kan jag förstå att det påverkar kvalitén en hel del på många överritningspass, men annars borde det inte göra något. Ser man stor skillnad med Alpha-Dithering? Jag tänker på dom gamla korten som gjorde Mipmappfilteringsdithering som var bättre men inte bra. Kan tänka mig att det blir motsvarande artifacts, eller?
32-bitars Z-Buffer påverkar ju inte så mycket i väldigt många spel. Det är sällan jag ser överritningskonkurrens med mitt GeForce2, men visst händer det.
Sen en fråga. Vet du hur mimaps skapas? Är det drivrutinen (antar det själv) som skapar dom? Hur skapas dom (neighbourhood, linear, bicubic filtrering)?
November 29, 2001
On 2002-03-03 13:06, 69link wrote:
Gisses vilka svar. Det här är kul att läsaSen en fråga. Vet du hur mimaps skapas? Är det drivrutinen (antar det själv) som skapar dom? Hur skapas dom (neighbourhood, linear, bicubic filtrering)?
hehe "nerds at work" 😀
jag är inte så superinsatt men vad jag förstår finns det ingen "korrekt" standard för hur man genererar en mimap
iaf inte i Open GL (i DirectX finns det kanske) alltså är det i första hand hårdvaran, drivrutinen o sen mjukvaran som avgör (rätta mig om jag har fel, måste erkänna att jag e ute på lite djupt vatten här)
i Open GL finns det ett par default mipmap levels (samma som du ställer in med GL_TEXTUREMODE i HL motorn)
November 29, 2001
On 2002-03-03 13:28, oxygenial wrote:
On 2001-09-06 09:59, lumpa wrote:
...Skulle fps-talet alltid vara konstant skulle du inte märka någon skillnad på 30fps och 200fpsMed tillägget att detta beror givetvis på uppdateringsfrekvensen på skärmen, om det är v-syncat eller jämnt delbart.
himla tjat
30 fps är inte maxgränsen för det mänskilga ögat
om ni sett en BIO-film (typ panorama i sthlm) i 60 fps så hade ni insett att det är stor skillnad
Paddy från IO-labs testade sina arbetskamrater (professionellt 3d-folk)
alla tester var på samma skärm, under exakt samma förhållanden
skillnaden var att man vsyncade fpsen på ett litet demo o sen höjde refreshraten sakta men säker
vid 75 vsyncade fps började folk få svårt att se skillnaden upp till nästa steg
mellan 85 och 120 var det ingen av dem som kunde märka skillnaden
(givetvis var det hela ett blindtest)
om ni är så j**la säkra på er sak så föreslår jag att ni testar det hela i praktiken i era spel
ställ in er refreshrate på 120, 90 eller 60 Hz sen kör ni igång HL tex.
testa att leta upp en upplösning + FSAA nivå som ger er en minimum och maximum fps som ligger mellan er monitors Hz och Hz/2 (inte så jobbigt som det låter, jag fick rätt på det efter andra fösöket)
sen ställer ni in er fpsmax på samma fps som ni vill vsynca till (Hz, Hz/2 eller Hz/3 skulle jag väl tro)
30 konstanta vsyncade fps är ganska smidigt, men långt från så flytade som det blir vid 85 vsyncade fps...
nuff said
innan ni klagar föreslår jag att ni testar detta
[ Detta Inlägg ändrades av: UndaC den 2002-03-03 13:52 ]
April 2, 2001
January 6, 2002
Det är mycket möjligt, men det är mer vilsamt för ögonen att använda 85Hz än 60 hz
sitter man o tittar på en skärm/TV när det är helt mörkt och man stänger av skärmen, så "blinkar" det ju för ögonen.
Och i spel så "känner" du skillnad mellan 60 och 80 fps. Musen reagerar bättre.
September 3, 2001
Det är ganska stor skillnad i vad många här menar med ordet flimmer.
Det ena flimret är när det blinkar, typ som om tvn vore ett stroboskop, fast den blinkade så snabbt att det är svårt att uppfatta. Det är denna "blinkning" som mänskliga ögat uppfattar ganska svårt när det väl är över 30 hz. Anstränger man sig kan man även se upp till 40-50. Jag ser med mycket ansträningning, min gamla tv i mitt rum, när allt är släkt runt omkring, att det blinkar.
Det andra flimret är den som blir när något rör sig i bilden. Denna syns som bäst när ni kör 60 Hz i windows och rycker lite på musen. Kolla själva, dra lite och kolla på pekaren, så ser ni att det blir lite spår efter. Ja, precis, det är flimmer. För att bli kvitt det där flimmret ska man höja Hz på skärmen. 100 Hz är mycket bra och där måste man dra ganska ordentligt på musen innan man ser flera stycken pekare.
Om man använder 60 Hz i ett spel, på en dataskärm. Då ser man inte mycket av blinkningen, utan mer av den andra sorten. Om det är ett förstaperson-shooter spel, så kan man oftast titta runt med musen, och om man vänder sig för snabbt kan då till exempel en vägg eller vad som helst, få samma effekt som muspekaren fick i windows, dvs. man ser flera av den, i form av flimmer.
Man undviker detta genom att HÖJA Hz på skärmen. Men då måste man ha ett grafikkort som hänger med som kan ge en stabil framerate vid den Hz´en. Vilket betyder:
VI BEHÖVER GEFORCE 3, OM MÖJLIGEN GEFORCE 4!!
July 2, 2001
Kame_boy, testa att ställa din datorskärm till 60Hz. Titta sedan precis ovanför den. Då kommer du uppleva mycket starkt att den flimrar. En TV har efterglöd, därför upplever man inte det på samma sätt. Däremot är interlaceflimret ganska tydligt på en TV. Kolla speciellt den "analoga" klockan som kanal 1 och 2 har.
Om vi däremot tar ett spel typ FPS. Om du lirar ett FPS som håller 60Hz i alla lägen så kommer du uppleva att det är görstabilt. Inga hack, ingenting.
Vad du beskriver med musen o allt är att musen samplar på en viss frekvens och skärmen på en annan. En PS/2 mus samplar normalt på 20 eller 40Hz, min MS USB-mus samplar 100Hz. Om din skärm ritar med 60Hz och din mus bara uppdaterar positionen i 40Hz så blir det ju hack.
Det ultimata är att ens dator/grafikkort är såpass snabb att man kan köra med 85Hz skärm, V-Sync on och att det aldrig tar längre tid än 11,7ms att rita ut en frame (1000/85 = 11,76).
November 29, 2001
"Man undviker detta genom att HÖJA Hz på skärmen. Men då måste man ha ett grafikkort som hänger med som kan ge en stabil framerate vid den Hz´en."
Hz:en spelar ju ingen roll för prestandan såvida man inte kör med vsync då...
ang. musen
de flesta USB-möss kör i motsvarande 150 Hz
optiska möss fungerar annorlunda o rapporterar istället när de rört sig
i Windows 2000 går det att öka musens refreshrate till 100 o i XP till 200
med tweaks går det att ändra den i alla windowsversioner till 200
står inte ut med något under 100 Hz på musen längre..
5 Guest(s)