Melde dich an, um diesem Inhalt zu folgen  
Folgen diesem Inhalt 0
Greys0n

Neue Monitor Technologie (Nvidia)

Nividia bringt ein neues Modeul für Monitore raus, Nvidia G-Sync: Anti Tearing Modul.

Die ersten monitore mit dieser technologie sollen bereits im laufe dieses jahr erscheinen.

Einige Modelle können damit sogar nachgerüstet werden.

 

 

Hört sich sehr Interessant an.

 

 

Seht selbst.

 

 

http://www.golem.de/news/nvidia-g-sync-anti-tearing-modul-fuer-monitore-1310-102237.html

 

Diesen Beitrag teilen


Link zum Beitrag
Auf anderen Seiten teilen

Ich bezweifle das Nvidia jetzt plötlich herausgefunden hat wie man richtig Monitore baut. Der Tearing-Effekt war alle Jahre vorher auch kein Problem. Ich glaube eher das Nvidia hier eine Lösung für ein Problem gefunden hat was eigentlich keines ist. Wir werden sehen..

 

IMHO

L3xiE gefällt das

Diesen Beitrag teilen


Link zum Beitrag
Auf anderen Seiten teilen

Nuja, ich kann mir schon vorstellen, dass es einen erheblich Unterschied macht, wenn die refresh rate zu jedem Zeitpunkt gesynct ist (daher ja auch die VSYNC-Option). Softwareseitiges VSYNC geht jedoch leider auf Kosten der Latenz, daher wäre ein hardwarebasiertes VSYNC schon nice. Ob es wirklich nötig ist und vor allem der wahrscheinlich doch recht happige Aufpreis gerechtfertigt sein wird, sei mal dahin gestellt.

Diesen Beitrag teilen


Link zum Beitrag
Auf anderen Seiten teilen

Gibt es deswegen nicht die Option in manchen Spielen das sie max. mit 60 FPS laufen?

so das sich der Monitor nicht verschluckt?

 

ehrlich gesagt hatte ich bis jetzt nie solch ein Problem... daher stell ich mir die frage ob so ein Modul überhaupt sinn macht ... (wo wird eigentlich der V-Sync berechnet?  GPU oder CPU?)

Diesen Beitrag teilen


Link zum Beitrag
Auf anderen Seiten teilen

Genau genommen ist ein frame limiter nicht das Gleiche wie vsync. Ein frame limiter begrenzt die frame rate, das bedeutet aber nicht, dass die ausgegebene frame rate mit der refresh rate des Monitors gesynct ist. Frames limitieren kann man immer, ob im Spiel selber oder durch Zusatzsoftware. Der einzige Effek ist, dass man durch eine konstante (niedriegere) frame rate die GPU-Auslastung und damit die Hitzeentwicklung reduzieren kann.

 

Mit vsync synct man tatsächlich frame rate mit refresht rate, was ebenfalls die GPU-Auslastung senken kann und gleichzeitig z. B. screen tearing verhindert. Dieser Effekt tritt jedoch nur ein, wenn die ursprüngliche frame rate über der refresh rate des Monitors liegt.

 

Beispiel: Ein Spiel läuft mit 80 Frames, der Monitor hat 60Hz (refresh rate). In diesem Fall lohnt sich vsync definitiv, da die Systemauslastung runter geht und der Monitor sowieso nicht mehr als 60FPS ausgeben kann (limitiert durch refresh rate). Hat man einen 100Hz Monitor, würde man sich theoretisch mit vsync verschlechtern, da dann die FPS von 80 auf 60 sinken. Lässt man vsync aus, riskiert man ggf. screen tearing und lastet das System komplett aus. Schaltet man vsync ein, geht die FPS-Zahl ebenfalls runter (<80), da das System nun die Frames mit der refresh rate abgleicht (führt zu erhöhter Latenz).

 

Hat man ein System das z. B. einen 60Hz Monitor hat und 30FPS schafft, dann sollte man vsync definitiv nur dann einschalten, wenn man negative Effekte wie screen tearing bemerkt, ansonsten reduziert man seine ohnehin schon niedrige FPS-Zahl noch weiter.

 

Auf frame limiter bin ich nicht weiter eingegangen, weil diese Option eigentlich nur dann gut ist, wenn man aktiv das System entlasten will oder aus anderen Gründen eine konstante FPS-Zahl benötigt.

 

Zu Deiner Frage Sam, durch aktives vsync wird in Beipiel 1 (80FPS, 60Hz) die GPU eher entlastet, wohingegen im letzten Beipiel (30FPS, 60Hz) die GPU durch vsync sogar noch weiter beantsprucht werden kann (ebenfalls ein Grund für die Reduzierung der FPS (<30)). In einigen Fällen kann auch die CPU belastet werden, im Normalfall sollte das aber nicht vorkommen.

 

Lg Mith

Chili Palmer, XploD und Greys0n gefällt das

Diesen Beitrag teilen


Link zum Beitrag
Auf anderen Seiten teilen

Sorry das ich den Thread noch mal ausgrabe:

AMD hat heute eine freie Alternative zu Nvidia's "G-Sync" vorgestellt. Die Technologie nennt sich "FreeSync" und basiert darauf, dass die meisten Panels eh schon ihre Bildwiederholungsrate drosseln können um Energie zu sparen. Die "Video Electronics Standards Association" hat diese Funktion sogar schon als einen technischen Standard definiert. Sofern dann das Panel und Grafikkarte diesen unterstützen ist "FreeSync" ohne zusätzliche Hardware möglich und sollte dem Nvidia Äquivalent in keinem Punkt nachstehen.

 

 

 

Quelle danke Reddit!

Diesen Beitrag teilen


Link zum Beitrag
Auf anderen Seiten teilen

Also mir ist eigentlich egal wie die Technologie heißt Hauptsache ich bekomme das dieses Jahr noch. =)

Ich hab eine Nvidia Karte und damit weis ich nun nicht ob ich auf die Technik von Nvidia angewiesen bin. Denn wenn, dann müsste ich mir einen neuen Monitor holen... und das muss nicht unbedingt sein. 

Diesen Beitrag teilen


Link zum Beitrag
Auf anderen Seiten teilen

Die spannende Frage bleibt, ob Nvidia rein auf G-Sync setzen wird und sich damit aktiv einschränkt und für Kunden die Wahl eine kompatiblen Monitors limitiert... und ob die Nutzung von G-Sync eine exklusive Geschichte für die Hersteller wird.

 

Ich kann mir gut vorstellen, dass es vereinzelte Modelle mit G-Sync geben wird, die nur das controller-board ausgetauscht haben. Allerdings kann ich mir nicht vorstellen, dass sich G-Sync dann durchsetzt, es sei denn es werden alle guten Monitore exklusiv mit G-Sync ausgestattet. Alles andere ist albern. Keiner zahlt einen Aufpreis für eine proprietäre Lösung die weniger verbreitet ist.

 

edit: ...und keinen subjektiven Mehrwert bietet.

Diesen Beitrag teilen


Link zum Beitrag
Auf anderen Seiten teilen
Melde dich an, um diesem Inhalt zu folgen  
Folgen diesem Inhalt 0