GPU Boost 2.0 - Överklocka din bildskärm

Vsync är en spelinställning som de flesta inbitna datorentusiaster har någon form av hatkärlek till. Genom att aktivera vsync och låsa bildfrekvensen till uppdateringsfrekvensen på din LCD-skärm, oftast 60 hertz, kan man slippa problem med så kallad tearing och allmänna grafikbuggar som inte sällan härstammar från konsoloptimerade speltitlar.

Men om man istället stänger av vsync kan man njuta av maximal prestanda och verkligen få ut det där extra ur en kraftfull speldator. Många seriösa spelare menar också att man med en högre bildfrekvens (fps) kan få ett visst övertag mot när man låser den maximala frekvensen till exempelvis 60 bildrutor per sekund.

Med lanseringen av Geforce GTX Titan menar Nvidia att det finns så mycket kraft i grafikkortet att en begränsning på 60 fps vore en potentiellt stor flaskhals i många spel, något man gjort sitt yttersta för att förhindra.

screenoc1

En av de mer spännande teknikerna i GPU Boost 2.0 är nämligen möjligheten att ”överklocka” din bildskärm. Tekniken utnyttjar det faktum att det är grafikkretsen som faktiskt bestämmer vilken uppdateringsfrekvens vi ska visa vår videosignal i och med GTX Titan har Nvidia gjort det möjligt att överskrida de fördefinierade frekvensvärden som din bildskärm annars skickar till ditt grafikkort.

De flesta skärmpaneler idag arbetar fortfarande vid en maximal standardfrekvens av 60 hertz och även om det blir allt vanligare med skärmar som klarar 120 hertz och högre är detta något vi sällan ser på större skärmar med högre upplösning.

Med GPU Boost 2.0 kan Titan överklocka pixelfrekvensen på din skärm och således driva bildsignalen vid en högre uppdateringsfrekvens. Ökar man exempelvis frekvensen till 80 hertz får man också en vsync-gräns på 80 fps vilket ger grafikkortet möjlighet att sträcka på benen samtidigt som man får en mer följsam spelupplevelse.

screenoc

Att överklocka sin bildskärm har blivit särskilt populärt bland entusiaster efter att de så kallade ”korea-skärmarna” blev populära och samma regel lyder för Nvidias teknik, det är inte alla skärmar som klarar av att drivas vid högre uppdateringsfrekvens.

Men Nvidia lovar att det inte är en teknik som riskerar att skada din skärm, man får testa sig fram och antingen funkar det eller så funkar det inte. Värt att notera är att tekniken fungerar i både 2D och 3D.

13
Leave a Reply

Please Login to comment
13 Comment threads
0 Thread replies
0 Followers
 
Most reacted comment
Hottest comment thread
10 Comment authors
Anton JohanssonAngrychairFidde_gbgKent LindqvistnILGot Recent comment authors
  Subscribe  
senaste äldsta flest röster
Notifiera vid
Fidde_gbg
Gäst
Fidde_gbg

Tur att inköp på korten är 6200:- exkl.moms då 😆
Inte mycket handlarna tjänar ändå säls ju för 8500:- så blygsamma 600:-.

Mean Machine
Gäst
Mean Machine

Kanske borde plocka några på firman.

Tord Nilsson
Medlem
Tord Nilsson

Tycker inte grafikkortet är värt en så hög prislapp, för så överlägset var inte kortet ett 7970 GHz. Det var väl ett par spel som den drog ifrån lite. Om jag skulle köpa ett nytt grafikkort så skulle det nog bli ett AMD kort

NOmo
Gäst
NOmo

Såg inga 660 och 7870 som ni testade

Fidde_gbg
Gäst
Fidde_gbg

[quote name=”Viking1962″]Tycker inte grafikkortet är värt en så hög prislapp, för så överlägset var inte kortet ett 7970 GHz. Det var väl ett par spel som den drog ifrån lite. Om jag skulle köpa ett nytt grafikkort så skulle det nog bli ett AMD kort[/quote] Öhh, jo mellan 20-40fps beroende av spel så detä r väldigt mycket bättre.Stor skillnad eftersom du i många lägen hamnar över 60fps tack vare detta brutala monster. Sen är inte kortet riktat till folk med mindre pengar utan för dom som vill ha det bäst och struntar i vad det kostar samt vill slippa microstuttering/SLI… Läs hela »

Morkul
Medlem
Morkul

[quote name=”Fidde_gbg”]Öhh, jo mellan 20-40fps beroende av spel så detä r väldigt mycket bättre.Stor skillnad eftersom du i många lägen hamnar över 60fps tack vare detta brutala monster. Sen är inte kortet riktat till folk med mindre pengar utan för dom som vill ha det bäst och struntar i vad det kostar samt vill slippa microstuttering/SLI profiler osv.[/quote] Ser man till lite andra tester där till som exempel skiljer över 10 minuters renderings tid så är detta kortet extremt prisvärt. På företaget har vi inväntat detta kort lite och nu ser det ut som att vi kommer köpa några stycken… Läs hela »

Tord Nilsson
Medlem
Tord Nilsson

[quote name=”Anton Karmehed”][quote name=”Viking1962″]Tycker inte grafikkortet är värt en så hög prislapp, för så överlägset var inte kortet ett 7970 GHz. Det var väl ett par spel som den drog ifrån lite. Om jag skulle köpa ett nytt grafikkort så skulle det nog bli ett AMD kort[/quote]Värde är ju till viss del personligt. Jag personligen skulle inte lägga 9k på ett grafikkort. Det kan förvisso vara för att jag inte behöver eller för den delen skulle ha råd. Men faktum kvarstår att det för mig inte är värt det. Men för någon annan kan jag förstå att kortet är värt… Läs hela »

nILGot
Medlem
nILGot

Som Quadro kort lär det vara magiskt 😥

Kent Lindqvist
Gäst
Kent Lindqvist

Vad tror ni, om att detta kort skulle fungera bra för att folda med?

Fidde_gbg
Gäst
Fidde_gbg

[quote name=”Viking1962″][quote name=”Anton Karmehed”][quote name=”Viking1962″]Tycker inte grafikkortet är värt en så hög prislapp, för så överlägset var inte kortet ett 7970 GHz. Det var väl ett par spel som den drog ifrån lite. Om jag skulle köpa ett nytt grafikkort så skulle det nog bli ett AMD kort[/quote]Värde är ju till viss del personligt. Jag personligen skulle inte lägga 9k på ett grafikkort. Det kan förvisso vara för att jag inte behöver eller för den delen skulle ha råd. Men faktum kvarstår att det för mig inte är värt det. Men för någon annan kan jag förstå att kortet är… Läs hela »

Angrychair
Gäst
Angrychair

Jag vill se Titan mot Ares 2 i testet dock. Tror att AMD och Asus plockar hem vinsten med det kortet även i cf mot Titan i sli.

Anton Johansson
Medlem

Det hade vart väldigt trevligt att se vad kortet kan göra för renderingstiden i Blender. Har ingen koll på hurvida vray, maya osv har för stöd för CUDA, men Blender har det 😉