Krönika: Nvidia G-Sync är framtiden

20

Resultatet - Mäktig spelinlevelse

Pendeldemo_tearingVanlig dator utan G-Sync och utan V-sync till vänster, G-Sync aktiverat på systemet till höger.

Redan med Nvidias inledande ”pendeldemo” blir jag tillsammans med övriga journalistkollegor riktigt imponerad av den följsamhet och verklighetstrogna upplevelse G-Sync levererar.

Trots att Nvidias pendeldemo är designat på ett sätt som extra tydligt påvisar bristerna i dagens skärmteknik är det faktiskt inte här jag får mitt riktiga halleluja-moment.

Det smyger sig på mig när Tom Petersen snurrar runt kameran i Tomb Raider. Redan med triple buffering och v-sync aktiverat ser det faktiskt ganska bra ut. Men när Tom gör samma kamerarotering med G-Sync aktiverat får jag en annan och faktiskt främmande känsla. Trots varierande bildfrekvens roterar kameran till synes helt utan friktion och jag inser att detta är en ny spelupplevelse jag aldrig varit med om tidigare.

Den riktiga wow-känslan kommer när vi laddat upp Metro: Last Light och kör en liknande kamerarotering i ett sargat krigslandskap. Utan v-sync och en fps på mellan 30-45 fps är det horribel tearing. Även om v-sync hjälper mot denna effekt, både ser jag och inte minst känner jag, den stuttering och lagg som vi aldrig helt kan bli av med.

Metro

När Tom Petersen flyttar över till systemet med G-Sync aktiverat är upplevelsen en helt annan.

Som alla upplevelser är den svår att beskriva i ord och inte ens under demonstrationen kan jag riktigt peka på exakt vad som gör G-Sync så imponerande.

Jag ber Tom springa runt lite i spelvärlden och trots att jag sitter på 1,5 meters avstånd till en 24 tums skärm känner jag mig mer ”inne” i spelet än vad jag någonsin varit tidigare. Den immande gasmasken känns som att den sitter på mitt huvud och när karaktären sveper fram mellan vattenpölarna på fältet känns det som att det är jag som hoppar mellan dem. Detta trots att jag alltså inte ens själv sitter bakom spakarna.

Jag fick en liknande ”3D-känsla” när vi såg Sharps 8K-TV på CES i år, en TV som med sin absurt höga upplösning blev som ett fönster ut i verkligheten.

Det är just detta som är nyckeln med G-Sync och en synkroniserad uppdateringsfrekvens. Det känns som att jag är och agerar ”i” spelet, inte som att jag sitter och styr en fiktiv karaktär som bara lyder mina kommandon.

Nvidia väljer att demonstrera G-Sync på ett Geforce GTX 660 Ti och med en bildfrekvens på mellan 30-45 fps i Metro ger detta v-sync och traditionella skärmtekniker extra stora problem. Även om det ger G-Sync en fördel är det desto mer imponerande att vi kan få en så följsam spelupplevelse trots att vår fps oftast bara ligger i det dryga 30-talet.

Nvidia G-Sync går inte att korrekt demonstrera på inspelat videomaterial men vi bjuder ändå här på en kort videsnutt som även innehåller en hel del intressant information om hur tekniken fungerar.

 

De flesta av oss är idag så vana vid att välja mellan stuttering och lagg att det bara är något man ser som en ofrånkomlig vardagsföreteelse. När jag nu får se hur det kan, och bör, se ut konstaterar jag ganska omedelbart att det kommer bli svårt att gå tillbaka till att spela på en dator och skärm utan synkroniserad uppdateringsfrekvens.

Ingen G-Sync-kärlek för bärbara datorer eller spelkonsoler

Det är också här vi kommer till vad jag ser som det stora problemet och Nvidia ser som en hissnande affärsmöjlighet. G-Sync är alltså en teknik som INTE fungerar med någon annan kombination än Nvidias grafikkretsar och som neutral PC-användare gör det mig lite illa till mods. Jag vill få den här upplevelsen i alla datorer och system jag använder, men jag vill nödvändigtvis inte behöva binda mig mot Nvidias kretsar. Geforce-serien av grafikkort har varit dominant i sommar och är i sig ett bra val för många spelare och datoranvändare. Det skulle däremot inte vara bra för varken marknaden eller konsumenter om Nvidia blir ensamma om en så pass spännande teknik som G-Sync faktiskt är.gsync-module

G-Sync kommer inte att fungera på AMD:s grafikkort och således inte heller någon av nästa generations spelkonsoler. Inte heller dagens bärbara datorer med Nvidia-grafikkretsar kommer inom en förutsägbar framtid dra nytta av G-Sync. I dessa datorer matas all grafik till skärmen genom Intels grafikkretsar, grundfunktionen i Nvidias Optimus teknik, som inte är programmerade för kommunicera med en G-Sync-modul.

Nvidia berättar för oss att man mycket väl kan komma att licensiera G-Sync, men inte till andra GPU-tillverkare. Många aktörer på TV-marknaden har visat intresse där tekniken kan vara allmänt intressant men inte minst i kombination med ett ökat användande av streamingtjänster och spel där varierande bildfrekvenser är en del av vardagen.

Även smartphones och surfplattor kan dra nytta av tekniken där man kan sänka energiförbrukningen genom att dra ner skärmarnas uppdateringsfrekvens från kontinuerliga 60 hertz till lägre värden när så passar sig. Här har Nvidia med största sannolikhet lite intressanta planer för Tegra-familjen som i framtiden får grafikkretsar baserade på just Kepler-arkitekturen.

G-Sync eller ej, variabel uppdateringsfrekvens är framtiden!

Det knepiga med G-Sync och problemet som man löser med synkroniserade uppdateringsfrekvenser är att effekten och upplevelsen inte kan fångas på video. Man kan se vissa av dess effekter men aldrig den fullständiga känslan dår en kamera spelar in video i en fast frekvens. Jag har försökt skriva om mina egna känslor under demonstationen av tekniken men det finns inget substitut för en live-demonstration, G-sync måste ses för att du som användare verkligen ska förstå dess storhet.

Jag personligen kan bland annat relatera till min känsla när jag gick från hårddisk till SSD-enhet i min dator. Det var stor skillnad att göra bytet och när jag gick tillbaka till en dator med traditionell hårddisk gick det inte att förstår hur jag någonsin stått ut med det lagringsmediet.

G-Sync har en liknande, men kraftfullare, effekt. Jag har analyserat mina tankar och känslor i ett par dagar när jag skriver denna summering. Har jag varit för tagen av hypen? Har Nvidia lyckats snärja mig med sina marknadsföringsknep? Var deras demo sådär syniskt handplockade för att visa fördelarna med G-Sync på bästa möjliga sätt?

Gsyncmaskin

Det är svårt att säga med allt för stor säkerhet utan att testa tekniken under längre tid. Men det går inte att komma ifrån det faktum att jag aldrig upplevt en sådan spelinlevelse eller känt mig så inne i ett spel som jag gjorde under demonstrationen av G-Sync. Lika galet som det är att vi först nu ser en teknik som Nvidia G-Sync är det lika uppenbart att detta är framtiden. Jag vill ha, och förutspår att vi får, liknande teknik i alla våra digitala skärmar i framtiden. Det enda positiva för Er konsumenter är att ni inte vet vad ni missar förrän ni testar eller ser tekniken med egna ögon.

Nvidia har öppnat nya dörrar för datorspelare med G-Sync och jag kan inte tänka mig annat än att AMD och Intel jobbar på liknande tekniker – de kan inte komma fort nog.

Relaterade artiklar:

Contents

Subscribe
Notifiera vid
20 Comments
äldsta
senaste flest röster
Inline Feedbacks
View all comments
3D-Blaster
11 Årtal sedan

Välformulerat Anton!
V-sync är inget bra alternativ idag, och med det off inte heller optimalt.
Det känns ju fantastisk men om vi nu köper nya monitorer till våren kommer det nya till hösten med A-Sync? (AMD 🙂 inge bra upplägg för framgång.
Här kommer dock en person som verkligen gillar och förstår G-Sync John Carmack och förklarar mer än Nvidia vill att han ska göra.
http://www.youtube.com/watch?v=gbW9IwVGpX8
MVH
/Janne

adolf512
11 Årtal sedan

Jag är inte lika övertygad, ännu bättre är det ifall grafikkortet klarar av att hålla skärmens uppdateringsfrekvens, då klockar jag hellre grafikkortet 30% och slår på Vsync.

Blaxxor
11 Årtal sedan

Läste igenom artikeln lite snabbt men hittar ingentstans om det krävs en speciell bildskärm för detta eller lirar det bra med valfri skärm?

Intressant teknik dock. Skulle gärna se det i verkligheten då det är svårt att se det bra på film. Även om jag tycker mig se lite skillnad iaf.

Tripptrapptrull
Tripptrapptrull
11 Årtal sedan

Hur stora problem har folk med tearing med mera? För mig har problemet varit så obefintligt att jag knappt vet vad det är. Visst har det laggat när grafikinställningarna jag haft varit för höga, men jag kanske har för dåliga grejer och brukar dessutom alltid vrida ner inställningarna för att få det att flyta.

3D-Blaster
11 Årtal sedan

Anton vet du om man även kunde använda G-sync till video uppspelning?

flopper
11 Årtal sedan

30fps?
pratar vi konsol spel eller?
Kanske Nvidia behöver kraftigare grafikkort för bättre spel värde?
så skärmen kostar mer, lär vara bunden till Nvidia kort och kräver ett grafikkort i 1000krs klassen för att utnyttjas för att märka skillnad.
Orsaken som han säger är att med svagare kort så kan tekniken påvisas ha fördelar då det märks där.

3D, PhysX, G-sync etc..vad är nästa pryl?

Morkul
11 Årtal sedan

[quote name=”Anton Karmehed”].
I min värld finns det inte på kartan att vi inte får se motsvarande lösningar överallt i framtiden, jag hoppas bara inte det blir ett jäkla mekk med olika standarder osv.[/quote]

SOm jag sade i artikeln om G-Sync så gillar jag hela iden men den kommer att bli föråldrad väldigt fort.

Kommande OLED och diverse varianter av OLED kommer med sådan hög uppdaterings frekvens (I teorin en efresh rate på upp till 100 000 Hz) lägg där till att dynamisk refrech ticker styrs ifrån källan. Källan kan alltså vara ett grafikkort, BR-spelare, etc etc..

-Tjalve-
-Tjalve-
11 Årtal sedan

[quote name=”Morkul”][quote name=”Anton Karmehed”].I min värld finns det inte på kartan att vi inte får se motsvarande lösningar överallt i framtiden, jag hoppas bara inte det blir ett jäkla mekk med olika standarder osv.[/quote] SOm jag sade i artikeln om G-Sync så gillar jag hela iden men den kommer att bli föråldrad väldigt fort. Kommande OLED och diverse varianter av OLED kommer med sådan hög uppdaterings frekvens (I teorin en efresh rate på upp till 100 000 Hz) lägg där till att dynamisk refrech ticker styrs ifrån källan. Källan kan alltså vara ett grafikkort, BR-spelare, etc etc..[/quote] Jag tror du… Läs hela »

spejr
spejr
11 Årtal sedan

Det här känns ju så sjukt självklart som du säger. Varför skulle man inte synka så att skärmen levererar en hel bild direkt det finns en hel bild. Jag tänker mer på vad det kan göra för energisparande. Om grafikkretsen bara levererar bilder när bilden förändras, behöver inte skärmen heller uppdateras förrän då. Det innebär ju att om man läser en text exempelvis kanske varken skärmen eller grafikkortet behöver uppdatera på flera minuter vilket borde spara en del ström. Det går mot att datorer blir mer dynamiska, alltså att strömförbrukningen är linjärt beroende vad den egentligen behöver göra, istället för… Läs hela »

Xtreme-G
11 Årtal sedan

[quote name=”Morkul”]
Kommande OLED och diverse varianter av OLED kommer med sådan hög uppdaterings frekvens (I teorin en efresh rate på upp till 100 000 Hz) [/quote]

Intressant, det skulle ju eliminera behovet av denna teknik. Med nuvarande teknik ser jag dock G-sync som enda vettiga möjligheten att ta del av 4K-upplösning i krävande spel på ett smärtfritt sätt nu när grafikkortsutvecklingen har börjat bromsa in. Att slippa både tearing och delay blir en win-win.

Jacozz
Jacozz
11 Årtal sedan

Bra artikel Anton!
Jag fattar precis vad du menar med känslan av “flyt” och spelupplevelse som överglänser det vi har nu. Jag har alltid varit irriterad på tearing och stutter/mikrostutter, vilket gjort att jag konsekvent dragit ner grafikinställningarna för att aldrig komma under 16 ms. Trots det, stör jag mig fortfarande på ojämna animationer…

Kudos till Nvidia som satsar på att förbättra spelupplevelsen och inte bara jagar fps.
Men….
Risken är ju betydande att man ju gör som vanligt och att det blir ett nytt PsysX och låser in användaren till Nvidiakort, men det är väl iofs tanken 😕

Morkul
11 Årtal sedan

[quote name=”Anton Karmehed”]Jag ska rota bland inspelningarna från pressmötet men jag vet att OLED kom på tal och att G-Sync skulle fungera även där. Hur stor effekt och fördel man får av det är väl svårare att säga ännu men det ska ju bli jäkligt intressant att se. :)[/quote] Det skulle vara kul att läsa om. Speciellt eftersom oled redan har en teknik som är extremt lik G-Sync plus den extrema uppdateringsfrekvensen gör att G-Sunc borde inte spela någon roll. Ska vara lösningar med dubbla grafikkort då men även där har jag svårt att se större nytta. Men som sagt… Läs hela »

3D-Blaster
11 Årtal sedan

http://www.youtube.com/watch?v=GtYqG7Xl-SU

V-Sync förklaring och allt det andra 😉

GuuFi
11 Årtal sedan

Yay, bara att köpa nya skärmar för 4-5k styck och hoppas på att det slår igenom och blir en standard.

Det som är mer intressant för mig är, hur bra eller mycket bättre är detta än att ha en rigg som klarar av 60+ FPS eller t.om. 120+ FPS stabilt, märker man någon skillnad?

En annan intressant grej är väl musrörelser i spel i förhållande till FPS, i vissa spel blir det segt som sirap när FPS går ner.

Michael.S
Michael.S
10 Årtal sedan

alltså det med med fps o vsync och tearing….jag kör tex battlefield och upplever tearing vid stora variationer av fps och stutter vid för låg fps eller åtminstonde vid en kraftig snabb dipp i fps.men jag har alltid gjort så att jag cappar maxf-fps:en och försöker bibehålla en fps som matchar skärmens uppdateringsfrekvens. med en ganska kraftig dator så kör jag nu allt på high i bf3 och går aldrig under 100fps och heller aldrig över = aldrig någon tearing, allt flyter nått gränslöst! kan tillochmed tillåta mig själv att köra allt på ultra och få dippar nedåt 90 (hilltop… Läs hela »