G Sync funktioniert nicht in Spielen So deaktivieren Sie die vertikale Synchronisierung auf der Grafikkarte. Die besten Monitore mit G-Sync

In jenen guten alten Zeiten, als die Besitzer persönliche Computer Sie verwendeten aktiv riesige CRT-Monitore und verdienten sich Astigmatismus, von Bildglätte konnte keine Rede sein. Auch die damaligen Technologien unterstützten 3D nicht sehr. Daher mussten arme Benutzer mit dem zufrieden sein, was sie hatten. Aber die Zeit vergeht, Technologien entwickeln sich und viele geben sich nicht mehr mit Frame Tearing (Tearing) während des dynamischen Spiels zufrieden. Dies gilt insbesondere für die sogenannten Cyber-Sportler. In ihrem Fall sind Sekundenbruchteile alles. Wie sein?

Der Fortschritt steht nicht still. Was früher unmöglich schien, ist jetzt selbstverständlich. Die gleiche Situation mit der Bildqualität auf einem Computer. Hersteller von Grafikkarten und anderen PC-Komponenten arbeiten derzeit intensiv an dem Problem der minderwertigen Bildausgabe auf Monitoren. Und ich muss sagen, dass sie schon ziemlich weit fortgeschritten sind. Es bleibt nur noch wenig übrig und das Bild auf dem Monitor ist perfekt. Aber das ist alles ein lyrischer Exkurs. Kommen wir zurück zu unserem Hauptthema.

Ein bisschen Geschichte

Viele Monitore versuchten aktiv, Tearing zu überwinden und das Bild zu verbessern. Was sie nicht erfunden haben: Sie haben das „Hertz“ des Monitors erhöht, V-Sync eingeschaltet. Nichts half. Und eines schönen Tages präsentiert der bekannte Grafikkartenhersteller NVIDIA die G-Sync-Technologie, mit der Sie eine „unwirkliche“ Bildglätte ohne Artefakte erzielen können. Es scheint gut zu sein, aber es gibt ein kleines, aber sehr ernstes „aber“. G-Sync-fähige Monitore sind erforderlich, um diese Option zu verwenden. Monitorhersteller mussten straffen und ein paar Dutzend Modelle auf den Markt „werfen“. Was kommt als nächstes? Schauen wir uns die Technologie an und versuchen herauszufinden, ob sie so gut ist.

Was ist G-Sync?

G-Sync ist eine Anzeigetechnologie von NVIDIA. Es zeichnet sich durch fließende Bildwechsel ohne jegliche Artefakte aus. Kein Bildreißen oder Stottern. Für einen adäquaten Betrieb dieser Technologie, ziemlich viele leistungsstarker Rechner, da die Verarbeitung eines digitalen Signals ziemlich viel Prozessorleistung erfordert. Aus diesem Grund wird die Technologie nur mit neuen Grafikkartenmodellen von NVIDIA geliefert. Darüber hinaus ist G-Sync ein proprietäres Feature von NVIDIA, sodass die Besitzer von Grafikkarten anderer Hersteller nichts bekommen.

Außerdem wird ein G-Sync-Monitor benötigt. Tatsache ist, dass sie mit einer Platine mit einem digitalen Signalwandler ausgestattet sind. Besitzer herkömmlicher Monitore werden diese spannende Option nicht nutzen können. Natürlich unfair, aber das ist die Politik moderner Hersteller - so viel Geld wie möglich von einem armen Benutzer abzupumpen. Wenn Ihre PC-Konfiguration die Verwendung von G-Sync zulässt und der Monitor diese Option auf wundersame Weise unterstützt, können Sie alle Freuden dieser Technologie voll und ganz genießen.

So funktioniert G-Sync

Versuchen wir das Prinzip von G-Sync vereinfacht zu erklären. Tatsache ist, dass eine normale GPU (Grafikkarte) einfach sendet Digitalsignal an den Monitor, berücksichtigt aber nicht dessen Frequenz. Aus diesem Grund erweist sich das Signal bei der Anzeige auf dem Bildschirm als „zerrissen“. Das von der GPU kommende Signal wird durch die Monitorfrequenz unterbrochen und sieht in der finalen Version unansehnlich aus. Auch mit eingeschaltetem V-Sync.

Bei Verwendung von G-Sync passt die GPU selbst die Frequenz des Monitors an. Deshalb erreichen die Signale die Matrix dann, wenn sie wirklich gebraucht werden. Dadurch wird es möglich, Bildlücken zu vermeiden und die Glätte des Bildes insgesamt zu verbessern. Da gewöhnliche Monitore es der GPU nicht erlauben, sich selbst zu steuern, wurde ein G-Sync-Monitor erfunden, in dem ein NVIDIA-Board eingeführt wurde, das die Frequenz regelt. Daher ist die Verwendung herkömmlicher Monitore nicht möglich.

Monitore, die diese Technologie unterstützen

Vorbei sind die Zeiten, in denen Benutzer ihr Augenlicht töteten, indem sie stundenlang auf alte CRT-Monitore starrten. Aktuelle Modelle sind elegant und harmlos. Warum also nicht eine neue Technologie hinzufügen? Der erste Monitor mit Unterstützung für NVIDIA G-Sync und 4K-Auflösung wurde von Acer veröffentlicht. Die Neuheit sorgte für Furore.

Noch sind hochwertige Monitore mit G-Sync eher selten. Doch in den Plänen der Hersteller steckt die Idee, diese Geräte zum Standard zu machen. Höchstwahrscheinlich werden Monitore, die diese Technologie unterstützen, in fünf Jahren selbst für Büro-PCs die Standardlösung sein. In der Zwischenzeit bleibt nur, sich diese neuen Artikel anzusehen und auf ihre weite Verbreitung zu warten. Da werden sie billiger.

Danach fingen Monitore mit G-Sync-Unterstützung an, alle und jeden zu fesseln. Es gab sogar Budgetmodelle mit dieser Technologie. Obwohl, was nützt diese Technologie auf einem Budgetbildschirm mit einer schlechten Matrix? Aber wie dem auch sei, solche Modelle gibt es. Die beste Option für diese Option ist (G-Sync wird in vollem Umfang daran arbeiten).

Die besten Monitore mit G-Sync

Monitore mit G-Sync-Technologie heben sich in einer besonderen Gerätelinie ab. Sie müssen die für den vollen Betrieb dieser Option erforderlichen Eigenschaften aufweisen. Es ist klar, dass nicht alle Bildschirme dieser Aufgabe gewachsen sind. Mehrere führende Hersteller solcher Monitore wurden bereits identifiziert. Ihre Modelle sind sehr erfolgreich.

Der G-Sync-Monitor ist beispielsweise einer der hellsten Vertreter dieser Linie. Dieses Gerät gehört zur Premiumklasse. Wieso den? Urteile selbst. Die Bildschirmdiagonale beträgt 34 ​​Zoll, Auflösung - 4K, Kontrastverhältnis - 1:1000, 100 Hz, Reaktionszeit der Matrix - 5 ms. Außerdem würden sich viele dieses „Monster“ gerne zulegen. Klar ist, dass er die G-Sync-Technologie mit einem Paukenschlag bewältigen wird. Er hat noch keine Analoga. Sie können es getrost als das Beste seiner Klasse bezeichnen und sich nicht irren.

Im Allgemeinen stehen ASUS G-Sync-Monitore jetzt an der Spitze von Olympus. Kein einziger Hersteller konnte dieses Unternehmen übertreffen. Und es ist unwahrscheinlich, dass dies jemals passieren wird. ASUS kann in dieser Hinsicht als Vorreiter bezeichnet werden. Ihre G-Sync-fähigen Monitore verkaufen sich wie warme Semmeln.

Die Zukunft von G-Sync

Jetzt wird aktiv versucht, die G-Sync-Technologie in Laptops zu implementieren. Einige Hersteller haben sogar ein paar dieser Modelle herausgebracht. Außerdem können sie ohne G-Sync-Karte im Monitor arbeiten. Was verständlich ist. Dennoch hat der Laptop einige andere Designmerkmale. Es gibt genügend Grafikkarten mit Unterstützung für diese Technologie.

Es ist wahrscheinlich, dass NVIDIA G-Sync bald einen fairen Platz in der Computerindustrie einnehmen wird. Monitore mit dieser Technik sollen günstiger sein. Letztendlich sollte diese Option allgemein verfügbar werden. Ansonsten, was ist der Sinn, es zu entwickeln? Bisher sieht es jedenfalls nicht so rosig aus. Es gibt einige Probleme bei der Implementierung von G-Sync.

In Zukunft wird die G-Sync-Technologie so alltäglich sein, dass wir früher einen VGA-Anschluss zum Anschluss eines Monitors hatten. Aber jede Art von "vertikaler Synchronisation" vor dem Hintergrund dieser Technologie wirkt wie ein eklatanter Anachronismus. Diese veralteten Technologien können nicht nur keine zufriedenstellende Bildqualität liefern, sie „fressen“ auch eine beträchtliche Menge an Systemressourcen. Definitiv, mit dem Aufkommen von G-Sync, ihren Platz im Mülleimer der Geschichte.

Überblick über die G-Sync-Technologie | Eine kurze Geschichte der festen Bildwiederholfrequenzen

Früher waren Monitore sperrig und enthielten Kathodenstrahlröhren und Elektronenkanonen. Elektronenkanonen bombardieren den Bildschirm mit Photonen, um farbige Phosphorpunkte, die wir Pixel nennen, zu beleuchten. Sie zeichnen von links nach rechts jede "Scan"-Linie von oben nach unten. Das Anpassen der Geschwindigkeit der Elektronenkanone von einem vollständigen Upgrade zum nächsten wurde vorher nicht sehr geübt, und vor dem Aufkommen dreidimensionaler Spiele gab es dafür auch keinen besonderen Bedarf. Daher wurden CRTs und verwandte analoge Videostandards mit einer festen Bildwiederholfrequenz entwickelt.

LCD-Monitore ersetzten nach und nach CRTs, und digitale Anschlüsse (DVI, HDMI und DisplayPort) ersetzten analoge (VGA). Aber die für die Standardisierung von Videosignalen zuständigen Verbände (unter der Leitung von VESA) haben sich nicht von einer festen Bildwiederholfrequenz entfernt. Filme und Fernsehen sind immer noch auf eine konstante Bildfrequenzeingabe angewiesen. Auch hier scheint der Wechsel zu einer variablen Bildwiederholfrequenz nicht erforderlich zu sein.

Einstellbare Bildraten und feste Bildwiederholfrequenzen passen nicht zusammen

Vor dem Aufkommen moderner 3D-Grafik waren feste Bildwiederholraten kein Problem für Displays. Aber es entstand, als wir zum ersten Mal auf leistungsstarke GPUs stießen: Die Rate, mit der die GPU einzelne Frames renderte (was wir Framerate nennen, normalerweise in FPS oder Frames pro Sekunde ausgedrückt) ist inkonsistent. Es ändert sich im Laufe der Zeit. In schweren Grafikszenen kann die Karte 30 FPS liefern, und wenn Sie in den leeren Himmel schauen - 60 FPS.


Das Deaktivieren der Synchronisierung führt zu Tearing

Es stellt sich heraus, dass die variable Framerate der GPU und die feste Bildwiederholfrequenz des LCD-Panels nicht sehr gut zusammenarbeiten. In dieser Konfiguration sind wir mit einem grafischen Artefakt namens "Lücke" konfrontiert. Es tritt auf, wenn zwei oder mehr unvollständige Frames während eines Monitoraktualisierungszyklus zusammen gerendert werden. Normalerweise sind sie verschoben, was bei Bewegung einen sehr unangenehmen Effekt hat.

Das obige Bild zeigt zwei bekannte Artefakte, die oft gefunden werden, aber schwer zu erfassen sind. Da es sich um Anzeigeartefakte handelt, werden Sie sie in normalen Spiel-Screenshots nicht sehen, aber unsere Screenshots zeigen, was Sie tatsächlich während des Spiels sehen. Um sie aufzunehmen, benötigen Sie eine Kamera mit einem Hochgeschwindigkeits-Aufnahmemodus. Oder wenn Sie eine Videoaufnahmekarte haben, können Sie einen unkomprimierten Videostream vom DVI-Anschluss aufzeichnen und den Übergang von einem Frame zum nächsten deutlich sehen; Auf diese Weise verwenden wir FCAT-Tests. Beobachten Sie die beschriebene Wirkung jedoch am besten mit eigenen Augen.

Der Tearing-Effekt ist in beiden Bildern sichtbar. Die obere erfolgt über die Kamera, die untere über die Videoaufnahmefunktion. Das untere Bild ist horizontal "aufgeschnitten" und sieht falsch ausgerichtet aus. In den beiden oberen Bildern wurde die linke Aufnahme auf einem Sharp-Bildschirm bei 60 Hz aufgenommen, die rechte Aufnahme auf einem Asus-Display bei 120 Hz. Das Tearing auf dem 120-Hz-Display ist nicht so ausgeprägt, da die Bildwiederholfrequenz doppelt so hoch ist. Der Effekt ist jedoch sichtbar und erscheint auf die gleiche Weise wie im linken Bild. Diese Art von Artefakt ist ein klarer Hinweis darauf, dass die Bilder mit deaktivierter vertikaler Synchronisation (V-Sync) aufgenommen wurden.


Battlefield 4 weiter Geforce GTX 770 mit V-Sync aus

Der zweite Effekt, der in BioShock: Infinite-Footage zu sehen ist, wird Geisterbilder genannt. Es ist besonders am unteren Rand des linken Bildes sichtbar und hängt mit der Verzögerung der Bildschirmaktualisierung zusammen. Kurz gesagt, einzelne Pixel ändern ihre Farbe nicht schnell genug, was zu dieser Art von Leuchten führt. Ein einzelner Frame kann den Effekt von Geisterbildern auf das Spiel selbst nicht vermitteln. Ein Panel mit einer Grau-zu-Grau-Reaktionszeit von 8 ms, wie das Sharp, führt bei jeder Bewegung auf dem Bildschirm zu einem verschwommenen Bild. Aus diesem Grund werden diese Displays im Allgemeinen nicht für FPS-Spiele empfohlen.

V-Sync: „Ein Nähen auf der Seife“

Vertical Sync oder V-Sync ist eine sehr alte Lösung für Tearing. Wenn diese Funktion aktiviert ist, versucht die Grafikkarte, sich an die Bildschirmaktualisierungsrate anzupassen, indem Tearing vollständig entfernt wird. Das Problem ist, dass, wenn Ihre Grafikkarte die Bildrate nicht über 60 FPS halten kann (auf einem 60-Hz-Display), die effektive Bildrate zwischen Vielfachen der Bildschirmaktualisierungsrate (60, 30, 20, 15 FPS usw.) springt. ) usw.), was wiederum zu einer spürbaren Bremsung führt.


Wenn die Bildrate bei aktiviertem V-Sync unter die Bildwiederholfrequenz fällt, kommt es zu Stottern

Da vsync die Grafikkarte warten lässt und sich manchmal auf den unsichtbaren Oberflächenpuffer verlässt, kann V-sync der Renderkette zusätzliche Eingangslatenz hinzufügen. Daher kann V-Sync sowohl eine Rettung als auch ein Fluch sein, indem es einige Probleme löst, während es andere Nachteile verursacht. Eine informelle Umfrage unter unseren Mitarbeitern ergab, dass Gamer dazu neigen, V-Sync auszuschalten und es nur einzuschalten, wenn Tearing unerträglich wird.

Werden Sie kreativ: Nvidia stellt G-Sync vor

Beim Starten einer neuen Grafikkarte Geforce GTX 680 Nvidia hat einen Treibermodus namens Adaptive V-Sync integriert, der versucht, die Probleme zu mildern, V-Sync zu aktivieren, wenn die Bildrate höher als die Bildwiederholfrequenz des Monitors ist, und sie schnell auszuschalten, wenn die Leistung stark unter die Bildwiederholfrequenz fällt. Während die Technologie ihre Arbeit treu verrichtete, war es nur eine Problemumgehung, die ein Tearing verhinderte, wenn die Bildrate unter der Bildwiederholfrequenz des Monitors lag.

Implementierung G-Sync viel interessanter. Im Allgemeinen zeigt Nvidia, dass wir neue Monitore dazu zwingen können, mit einer variablen Frequenz zu laufen, anstatt Grafikkarten dazu zu zwingen, mit einer festen Anzeigefrequenz zu laufen.


Die GPU-Framerate bestimmt die Aktualisierungsrate des Monitors und entfernt Artefakte, die mit dem Aktivieren und Deaktivieren von V-Sync verbunden sind

Der Paketdaten-Übertragungsmechanismus des DisplayPort-Anschlusses hat neue Möglichkeiten eröffnet. Durch die Verwendung variabler Austastintervalle im DisplayPort-Videosignal und den Austausch des Monitor-Skalierers durch ein variables Austastmodul kann das LCD-Panel mit einer variablen Bildwiederholfrequenz betrieben werden, die sich auf die von der Videokarte ausgegebene Bildfrequenz bezieht (innerhalb der Bildwiederholfrequenz des Monitors). In der Praxis hat Nvidia die Besonderheiten der DisplayPort-Schnittstelle kreativ genutzt und versucht, zwei Fliegen mit einer Klappe zu schlagen.

Noch bevor die Tests beginnen, möchte ich den kreativen Ansatz zur Lösung eines realen Problems loben, das PC-Spiele betrifft. Das ist Innovation vom Feinsten. Aber was sind die Ergebnisse G-Sync in der Praxis? Lass es uns herausfinden.

Nvidia schickte uns ein Engineering Sample des Monitors Asus VG248QE, bei der der Scaler durch ein Modul ersetzt wird G-Sync. Diese Anzeige kennen wir bereits. Der Artikel ist ihm gewidmet. „Asus VG248QE Test: $400 24“ 144Hz Gaming-Monitor“, in der der Monitor mit dem Tom's Hardware Smart Buy Award ausgezeichnet wurde. Jetzt ist es an der Zeit herauszufinden, wie sich Nvidias neue Technologie auf die beliebtesten Spiele auswirken wird.

Überblick über die G-Sync-Technologie | 3D LightBoost, eingebauter Speicher, Standards und 4K

Als wir die Pressemitteilungen von Nvidia durchsuchten, stellten wir uns einige Fragen, sowohl über den Platz der Technologie in der Gegenwart als auch über ihre Rolle in der Zukunft. Bei einer kürzlichen Reise zum Hauptsitz des Unternehmens in Santa Clara erhielten unsere US-Kollegen einige Antworten.

G-Sync und 3D-LightBoost

Als erstes ist uns aufgefallen, dass Nvidia den Monitor geschickt hat Asus VG248QE, zur Unterstützung geändert G-Sync. Dieser Monitor unterstützt auch die 3D-LightBoost-Technologie von Nvidia, die ursprünglich entwickelt wurde, um die Helligkeit von 3D-Displays zu erhöhen, aber lange Zeit inoffiziell im 2D-Modus verwendet, wobei eine pulsierende Panel-Hintergrundbeleuchtung verwendet wird, um Geisterbilder (oder Bewegungsunschärfe) zu reduzieren. Interessant wurde natürlich, ob diese Technologie in G-Sync.

Nvidia gab eine negative Antwort. Während die Verwendung beider Technologien gleichzeitig wäre ideale Lösung, heute führt der Hintergrundbeleuchtungsblitz bei variabler Bildwiederholfrequenz zu Flimmern und Helligkeitsproblemen. Sie zu lösen ist unglaublich schwierig, da Sie die Helligkeit anpassen und die Impulse verfolgen müssen. Daher müssen nun beide Technologien ausgewählt werden, obwohl das Unternehmen versucht, einen Weg zu finden, sie in Zukunft gleichzeitig zu verwenden.

Eingebauter G-Sync-Modulspeicher

Wie wir bereits wissen G-Sync eliminiert die mit V-Sync verbundene inkrementelle Eingangsverzögerung, da nicht mehr auf den Abschluss des Panel-Scans gewartet werden muss. Allerdings ist uns aufgefallen, dass das Modul G-Sync hat einen eingebauten Speicher. Kann das Modul Frames selbst puffern? Wenn ja, wie lange dauert es, bis der Frame den neuen Kanal passiert?

Frames werden laut Nvidia nicht im Speicher des Moduls gepuffert. Wenn Daten ankommen, werden sie auf dem Bildschirm angezeigt, und der Speicher führt einige andere Funktionen aus. Allerdings ist die Bearbeitungszeit z G-Sync deutlich weniger als eine Millisekunde. Tatsächlich tritt fast die gleiche Verzögerung auf, die wir bei ausgeschaltetem V-Sync erleben, und sie hängt mit den Funktionen des Spiels, dem Grafiktreiber, der Maus usw. zusammen.

Wird G-Sync standardisiert?

Eine solche Frage wurde kürzlich in einem Interview mit AMD gestellt, als ein Leser wissen wollte, wie das Unternehmen auf die Technologie reagiert. G-Sync. Allerdings wollten wir den Entwickler direkt fragen und sehen, ob Nvidia plant, die Technik auf den Industriestandard zu bringen. Theoretisch kann ein Unternehmen anbieten G-Sync als Upgrade auf den DisplayPort-Standard, der variable Bildwiederholfrequenzen bietet. Immerhin ist Nvidia Mitglied im VESA-Verband.

Allerdings sind keine neuen Spezifikationen für DisplayPort, HDMI oder DVI geplant. G-Sync und unterstützt daher DisplayPort 1.2, dh der Standard muss nicht geändert werden.

Wie bereits erwähnt, arbeitet Nvidia an der Kompatibilität G-Sync mit einer Technologie namens 3D LightBoost (wird aber bald einen anderen Namen haben). Darüber hinaus sucht das Unternehmen nach einer Möglichkeit, die Modulkosten zu senken G-Sync und zugänglicher machen.

G-Sync bei Ultra-HD-Auflösungen

Nvidia verspricht Monitore mit Support G-Sync und Auflösungen bis zu 3840x2160 Pixel. Allerdings unterstützt das Modell von Asus, das wir heute testen, nur 1.920 x 1.080 Bildpunkte. Auf der dieser Moment Ultra-HD-Monitore verwenden den STMicro Athena-Controller, der über zwei Scaler verfügt, um eine gekachelte Anzeige zu erstellen. Wir fragen uns, ob das Modul G-Sync MST-Konfiguration unterstützen?

Um ehrlich zu sein, müssen 4K-Displays mit variablen Bildraten warten. Existiert noch nicht separates Gerät Skalierung, die 4K-Auflösung unterstützt, die nächsten sollten im ersten Quartal 2014 erscheinen, und Monitore, die damit ausgestattet sind - erst im zweiten Quartal. Da das Modul G-Sync ersetzt das Zoomgerät, ab diesem Punkt werden kompatible Panels angezeigt. Glücklicherweise unterstützt das Modul nativ Ultra HD.

Was passiert vor 30 Hz?

G-Sync kann die Bildschirmaktualisierungsrate auf bis zu 30 Hz ändern. Dies erklärt sich dadurch, dass bei sehr niedrige Frequenzen Auffrischen des Bildschirms beginnt sich das Bild auf dem LCD-Bildschirm zu verschlechtern, was zu visuellen Artefakten führt. Wenn die Quelle weniger als 30 FPS liefert, aktualisiert das Modul das Panel automatisch und vermeidet mögliche Probleme. Das bedeutet, dass ein Bild mehr als einmal wiedergegeben werden kann, aber die untere Schwelle liegt bei 30 Hz, was die höchste Bildqualität liefert.

Überblick über die G-Sync-Technologie | 60-Hz-Panels, SLI, Surround und Verfügbarkeit

Ist die Technologie nur auf Panels mit hoher Bildwiederholfrequenz beschränkt?

Sie werden feststellen, dass der erste Monitor mit G-Sync hat zunächst eine sehr hohe Bildwiederholrate (über dem für die Technik erforderlichen Niveau) und eine Auflösung von 1920 x 1080 Pixel. Aber das Asus-Display hat seine eigenen Einschränkungen, wie zum Beispiel ein 6-Bit-TN-Panel. Wir wurden neugierig, die Einführung von Technologie G-Sync Ist es nur für Displays mit hoher Bildwiederholfrequenz geplant oder werden wir es auf den häufigeren 60-Hz-Monitoren sehen? Außerdem möchte ich schnellstmöglich auf eine Auflösung von 2560x1440 Pixel zugreifen.

Nvidia bekräftigte dies beste Erfahrung aus G-Sync können erhalten werden, wenn Ihre Grafikkarte die Bildrate innerhalb von 30 - 60 FPS hält. Damit kann die Technik deutlich von herkömmlichen Monitoren mit einer Frequenz von 60 Hz und einem Modul profitieren G-Sync .

Aber warum dann einen 144-Hz-Monitor verwenden? Es scheint, dass sich viele Monitorhersteller entschieden haben, eine Funktion mit geringer Bewegungsunschärfe (3D LightBoost) zu implementieren, die eine hohe Bildwiederholfrequenz erfordert. Aber diejenigen, die sich entscheiden, diese Funktion nicht zu nutzen (und warum nicht, weil sie noch nicht kompatibel ist mit G-Sync) kann ein Panel mit erstellen G-Sync für viel weniger Geld.

Apropos Auflösungen, es sieht so aus: QHD-Bildschirme mit einer Bildwiederholfrequenz von mehr als 120 Hz könnten bereits Anfang 2014 ausgeliefert werden.

Gibt es Probleme mit SLI und G-Sync?

Was braucht es, um G-Sync im Surround-Modus zu sehen?

Jetzt müssen Sie natürlich nicht mehr zwei Grafikkarten kombinieren, um ein Bild in 1080p-Qualität anzuzeigen. Sogar eine Kepler-basierte Grafikkarte der Mittelklasse wird in der Lage sein, das Leistungsniveau bereitzustellen, das zum bequemen Spielen mit dieser Auflösung erforderlich ist. Es gibt aber auch keine Möglichkeit zwei Karten im SLI an drei zu betreiben G-Sync Monitore im Surround-Modus.

Diese Einschränkung ist auf moderne Anzeigeausgänge auf Nvidia-Karten zurückzuführen, die normalerweise zwei DVI-Anschlüsse, einen HDMI- und einen DisplayPort haben. G-Sync erfordert DisplayPort 1.2 und der Adapter funktioniert nicht (und auch kein MST-Hub). Die einzige Möglichkeit besteht darin, drei Monitore im Surround-Modus an drei Karten anzuschließen, d.h. Für jeden Monitor gibt es eine separate Karte. Wir gehen natürlich davon aus, dass Nvidia-Partner anfangen werden, "G-Sync Edition"-Karten mit mehr DisplayPort-Anschlüssen herauszubringen.

G-Sync und Triple Buffering

Aktives Triple-Buffering war erforderlich, um bequem mit V-Sync spielen zu können. Wird sie gebraucht für G-Sync? Die Antwort ist nein. G-Sync Es erfordert nicht nur keine dreifache Pufferung, da der Kanal niemals stoppt, sondern schadet im Gegenteil G-Sync, weil es einen zusätzlichen Verzögerungsrahmen ohne Leistungsgewinn hinzufügt. Leider ist das Game Triple Buffering oft von alleine eingestellt und kann nicht manuell umgangen werden.

Was ist mit Spielen, die normalerweise schlecht reagieren, wenn V-Sync deaktiviert ist?

Spiele wie Skyrim, das Teil unserer Testsuite ist, sind so konzipiert, dass sie mit V-Sync auf einem 60-Hz-Panel laufen (obwohl uns das aufgrund von Input-Lags manchmal das Leben schwer macht). Um sie zu testen, müssen bestimmte Dateien mit der Erweiterung .ini geändert werden. Wie es sich verhält G-Sync mit Spielen, die auf Gamebryo- und Creation-Engines basieren, die empfindlich auf vertikale Synchronisierungseinstellungen reagieren? Sind sie auf 60 FPS begrenzt?

Zweitens benötigen Sie einen Monitor mit Nvidia-Modul G-Sync. Dieses Modul ersetzt den Screen Scaler. Und ergänzen Sie beispielsweise das geteilte Ultra-HD-Display G-Sync unmöglich. Im heutigen Test verwenden wir einen Prototypen mit einer Auflösung von 1.920 x 1.080 Bildpunkten und einer Bildwiederholrate von bis zu 144 Hz. Aber auch damit kann man sich ein Bild davon machen, welche Auswirkungen das hat G-Sync wenn die Hersteller anfangen, es in mehr zu installieren billige Platten bei 60 Hertz.

Drittens wird ein DisplayPort 1.2-Kabel benötigt. DVI und HDMI werden nicht unterstützt. Kurzfristig bedeutet dies, dass die einzige Option funktioniert G-Sync an drei Monitoren im Surround-Modus werden sie über ein dreifaches SLI-Bundle verbunden, da jede Karte nur einen DisplayPort-Anschluss hat und Adapter von DVI auf DisplayPort in diesem Fall nicht funktionieren. Dasselbe gilt für MST-Hubs.

Und schließlich vergessen Sie nicht die Fahrerunterstützung. Die neueste Paketversion 331.93 Beta ist bereits kompatibel mit G-Sync, und wir gehen davon aus, dass zukünftige WHQL-zertifizierte Versionen es ebenfalls enthalten werden.

Prüfstand

Prüfstandskonfiguration
Zentralprozessor Intel Core i7-3970X (Sandy Bridge-E), 3,5 GHz Basistakt, 4,3 GHz Übertaktung, LGA 2011, 15 MB gemeinsam genutzter L3-Cache, Hyper-Threading aktiviert, Energiesparfunktionen aktiviert.
Hauptplatine MSI X79A-GD45 Plus (LGA 2011) X79 Express Chipsatz, BIOS 17.5
Rom G.Skill 32 GB (8 x 4 GB) DDR3-2133, F3-17000CL9Q-16GBXM x2 bei 9-11-10-28 und 1,65 V
Speichermedium Samsung 840 Pro-SSD 256 GB SATA 6 Gbit/s
Grafikkarten Nvidia GeForce GTX 780 Ti 3 GB
Nvidia GeForce GTX 760 2GB
Netzteil Corsair AX860i 860W
Systemsoftware und Treiber
Betriebssystem Windows 8 Professional 64-Bit
DirectX DirectX11
Videotreiber Nvidia GeForce 331.93 Beta

Jetzt müssen wir herausfinden, in welchen Fällen G-Sync hat die größte Wirkung. Die Chancen stehen gut, dass Sie bereits einen Monitor mit einer Bildwiederholfrequenz von 60 Hz verwenden. Unter Gamern sind 120- und 144-Hz-Modelle beliebter, Nvidia geht aber zu Recht davon aus, dass die Mehrheit der Enthusiasten auf dem Markt weiterhin bei 60 Hz bleiben wird.

Bei aktivem V-Sync auf einem 60Hz-Monitor treten die auffälligsten Artefakte auf, wenn die Karte keine 60fps liefern kann, was zu nervigen Sprüngen zwischen 30 und 60 FPS führt. Hier gibt es spürbare Verlangsamungen. Bei deaktiviertem V-Sync macht sich der Tearing-Effekt am deutlichsten in Szenen bemerkbar, in denen Sie die Kamera häufig drehen müssen oder in denen viel Bewegung stattfindet. Für manche Spieler ist das so störend, dass sie einfach V-Sync einschalten und Ruckler und Input-Lag ertragen.

Bei Aktualisierungsraten von 120 und 144 Hz und höheren Bildraten wird die Anzeige häufiger aktualisiert, wodurch die Zeitdauer verringert wird, die ein einzelnes Bild über mehrere Bildschirmabtastungen hinweg aufbewahrt wird, wenn die Leistung schlecht ist. Probleme mit aktiver und inaktiver vertikaler Synchronisation bleiben jedoch bestehen. Aus diesem Grund testen wir den Asus-Monitor im 60- und 144-Hz-Modus mit an- und ausgeschalteter Technik. G-Sync .

Überblick über die G-Sync-Technologie | Testen von G-Sync mit aktiviertem V-Sync

Es ist Zeit, mit dem Testen zu beginnen G-Sync. Es bleibt nur noch, eine Videoaufnahmekarte und ein Array aus mehreren SSDs zu installieren und mit den Tests fortzufahren, oder?

Nein das ist falsch.

Heute messen wir nicht Leistung, sondern Qualität. In unserem Fall können die Tests nur eines zeigen: die Framerate zu einem bestimmten Zeitpunkt. Über die Qualität und Erfahrung der Nutzung mit ein- und ausgeschalteter Technologie G-Sync sie sagen absolut nichts. Daher müssen wir uns auf unsere sorgfältig überprüfte und eloquente Beschreibung verlassen, die wir versuchen werden, der Realität so nahe wie möglich zu bringen.

Warum nicht einfach ein Video aufnehmen und es den Lesern zur Beurteilung geben? Tatsache ist, dass die Kamera Videos mit einer festen Geschwindigkeit von 60 Hz aufzeichnet. Ihr Monitor gibt auch Videos mit einer konstanten Bildwiederholfrequenz von 60 Hz wieder. Weil die G-Sync eine variable Bildwiederholfrequenz einführt, werden Sie die Technologie nicht in Aktion sehen.

Angesichts der Anzahl der verfügbaren Spiele ist die Anzahl der möglichen Testkombinationen zahllos. V-Sync ein, V-Sync aus, G-Sync an, G-Sync aus, 60Hz, 120Hz, 144Hz, ... Die Liste geht weiter und weiter. Aber wir beginnen mit einer Bildwiederholfrequenz von 60 Hz und aktivem Vsync.

Es ist wahrscheinlich am einfachsten, mit Nvidias eigenem Demo-Dienstprogramm zu beginnen, das das Pendel von einer Seite zur anderen schwingt. Das Dienstprogramm kann eine Bildrate von 60, 50 oder 40 FPS simulieren. Oder die Frequenz kann zwischen 40 und 60 FPS schwanken. Sie können dann V-Sync deaktivieren oder aktivieren und G-Sync. Obwohl der Test fiktiv ist, demonstriert er die Fähigkeiten der Technologie gut. Sie können sich eine Szene bei 50 FPS mit eingeschaltetem vsync ansehen und denken: "Alles ist ganz gut, und sichtbares Stottern kann toleriert werden." Aber nach Aktivierung G-Sync Ich möchte sofort sagen: "Was habe ich mir dabei gedacht? Der Unterschied ist offensichtlich, wie Tag und Nacht. Wie konnte ich vorher damit leben?"

Aber vergessen wir nicht, dass dies eine Tech-Demo ist. Ich hätte gerne Beweise basierend auf echten Spielen. Dazu müssen Sie ein Spiel mit hohen Systemanforderungen ausführen, z. B. Arma III.

In Arma III kann in einer Testmaschine installiert werden Geforce GTX 770 und Ultra-Einstellungen einstellen. Bei deaktiviertem V-Sync schwankt die Framerate zwischen 40 und 50 FPS. Aber wenn Sie V-Sync aktivieren, sinkt es auf 30 FPS. Die Leistung ist nicht hoch genug, um ständige Schwankungen zwischen 30 und 60 FPS zu sehen. Stattdessen sinkt einfach die Framerate der Grafikkarte.

Da es kein Einfrieren des Bildes gab, gab es beim Aktivieren einen deutlichen Unterschied G-Sync nicht wahrnehmbar, außer dass die tatsächliche Framerate um 10 - 20 FPS höher springt. Die Eingangsverzögerung sollte ebenfalls reduziert werden, da derselbe Frame nicht über mehrere Monitorscans hinweg beibehalten wird. Wir glauben, dass Arma im Allgemeinen weniger "ruckelt" als viele andere Spiele, sodass Sie keine Verzögerung spüren.

Auf der anderen Seite, in Metro: Last Light, der Einfluss G-Sync mehr betont. Mit Grafikkarte Geforce GTX 770 Das Spiel kann mit einer Auflösung von 1920 x 1080 mit sehr hohen Detaileinstellungen einschließlich 16x AF, normaler Tessellation und Bewegungsunschärfe ausgeführt werden. In diesem Fall können Sie SSAA-Optionen von 1x über 2x bis 3x auswählen, um die Bildrate schrittweise zu reduzieren.

Darüber hinaus enthält die Umgebung des Spiels eine Vorkammer, in der es leicht ist, hin und her zu schießen. Wir liefen den Level mit aktivem Vsync bei 60 Hz und betraten die Stadt. Fraps zeigte, dass die Framerate mit Triple SSAA 30 FPS und mit ausgeschaltetem Anti-Aliasing 60 FPS betrug. Im ersten Fall machen sich Verlangsamungen und Verzögerungen bemerkbar. Mit deaktiviertem SSAA erhalten Sie ein völlig flüssiges Bild mit 60 FPS. Die Aktivierung von 2x SSAA verursacht jedoch Schwankungen von 60 auf 30 FPS, von denen jeder duplizierte Frame für Unannehmlichkeiten sorgt. Dies ist eines der Spiele, bei denen wir V-Sync definitiv ausschalten und Tearing einfach ignorieren würden. Viele Menschen haben bereits eine Gewohnheit entwickelt.

Jedoch G-Sync entfernt alle negativen Effekte. Sie müssen nicht mehr auf den Fraps-Zähler schauen und auf einen Rückgang unter 60 FPS warten, um eine weitere Grafikeinstellung zu verringern. Im Gegenteil, Sie können einige davon erhöhen, denn selbst wenn Sie auf 50 - 40 FPS verlangsamen, wird es keine offensichtlichen Verlangsamungen geben. Was ist, wenn Sie die vertikale Synchronisierung deaktivieren? Dazu erfährst du später.

Überblick über die G-Sync-Technologie | Testen von G-Sync mit deaktiviertem V-Sync

Die Schlussfolgerungen in diesem Material basieren auf einer Umfrage unter Autoren und Freunden von Tom's Hardware auf Skype (mit anderen Worten, die Stichprobe der Befragten ist klein), aber fast alle verstehen, was vertikale Synchronisation ist und welche Nachteile Benutzer in Kauf nehmen müssen Laut ihnen greifen sie nur dann auf V-Sync zurück, wenn Tearing aufgrund einer sehr großen Streuung in der Bildrate und Bildwiederholfrequenz des Monitors unerträglich wird.

Wie Sie sich vorstellen können, ist die visuelle Wirkung des Deaktivierens von Vsync schwer zu verwechseln, obwohl dies stark vom jeweiligen Spiel und seinen Detaileinstellungen beeinflusst wird.

Nehmen wir zum Beispiel Crysis 3. Das Spiel kann Ihr Grafiksubsystem bei den höchsten Grafikeinstellungen leicht in die Knie zwingen. Und weil Crysis 3 ist ein Ego-Shooter mit sehr dynamischem Gameplay, die Lücken können durchaus spürbar sein. Im obigen Beispiel wurde die FCAT-Ausgabe zwischen zwei Frames erfasst. Wie Sie sehen können, ist der Baum komplett geschnitten.

Auf der anderen Seite, wenn wir Vsync in Skyrim ausschalten, ist das Tearing nicht so schlimm. Beachten Sie, dass in diesem Fall die Bildrate sehr hoch ist und bei jedem Scan mehrere Bilder auf dem Bildschirm erscheinen. Also Bewertungen, die Anzahl der Bewegungen pro Frame ist relativ gering. Es gibt Probleme beim Spielen von Skyrim in dieser Konfiguration, und es ist möglicherweise nicht die optimalste. Aber es zeigt, dass sich das Spielgefühl auch bei ausgeschaltetem V-Sync ändern kann.

Als drittes Beispiel haben wir eine Aufnahme von Lara Crofts Schulter aus Tomb Raider gewählt, die einen ziemlich deutlichen Riss im Bild zeigt (siehe auch die Haare und den Träger des Tanktops). Tomb Raider ist das einzige Spiel in unserem Beispiel, bei dem Sie zwischen doppelter und dreifacher Pufferung wählen können, wenn Vsync aktiviert ist.

Die letzte Grafik zeigt, dass Metro: Last Light mit G-Sync bei 144 Hz liefert im Allgemeinen die gleiche Leistung wie mit deaktiviertem Vsync. Die Grafik zeigt jedoch nicht die Abwesenheit von Lücken. Wenn Sie Technologie mit einem 60-Hz-Bildschirm verwenden, erreicht die Bildrate 60 FPS, aber es gibt keine Verlangsamungen oder Verzögerungen.

Auf jeden Fall könnten sich diejenigen von Ihnen (und uns), die unzählige Stunden mit Grafiktests verbracht haben und sich immer wieder denselben Benchmark angesehen haben, daran gewöhnen und visuell feststellen, wie gut dieses oder jenes Ergebnis ist. So messen wir die absolute Leistung von Grafikkarten. Änderungen im Bild mit dem aktiven G-Sync fällt sofort ins Auge, da es eine Glätte gibt, wie bei eingeschaltetem V-Sync, aber ohne die für V-Sync charakteristischen Pausen ausgeschaltet. Schade, dass wir den Unterschied jetzt nicht im Video zeigen können.

Überblick über die G-Sync-Technologie | Spielkompatibilität: Fast großartig

Überprüfen Sie andere Spiele

Wir haben noch ein paar Spiele getestet. Crysis 3, Tomb Raider, Skyrim, BioShock: Infinite, Battlefield 4 den Prüfstand besucht. Alle außer Skyrim haben von der Technologie profitiert G-Sync. Die Wirkung hing vom kompetitiven Spiel ab. Aber wenn Sie ihn sehen würden, würden Sie sofort zugeben, dass Sie die Mängel, die vorher vorhanden waren, ignoriert haben.

Artefakte können immer noch erscheinen. Beispielsweise ist der mit Anti-Aliasing verbundene Kriecheffekt bei glatter Bewegung stärker wahrnehmbar. Höchstwahrscheinlich möchten Sie das Anti-Aliasing so hoch wie möglich einstellen, um unangenehme Unebenheiten zu entfernen, die vorher nicht so auffällig waren.

Skyrim: Sonderfall

Die Creation-Grafik-Engine, auf der Skyrim basiert, aktiviert standardmäßig die vertikale Synchronisierung. Um das Spiel mit einer Bildrate von über 60 FPS zu testen, fügen Sie die Zeile iPresentInterval=0 zu einer der .ini-Dateien des Spiels hinzu.

Somit kann Skyrim auf drei Arten getestet werden: in Ausgangszustand, sodass der Nvidia-Treiber "Anwendungseinstellungen verwenden" kann, aktivieren G-Sync im Treiber und lassen Sie die Skyrim-Einstellungen intakt und aktivieren Sie sie dann G-Sync und deaktivieren Sie V-Sync in der .ini-Datei des Spiels.

Die erste Konfiguration, bei der der experimentelle Monitor auf 60 Hz eingestellt ist, zeigte stabile 60 FPS bei Ultra-Einstellungen mit einer Grafikkarte Geforce GTX 770. Folglich erhielten wir ein flüssiges und angenehmes Bild. Benutzereingaben leiden jedoch immer noch unter Latenz. Darüber hinaus zeigte der seitliche Strafe eine merkliche Bewegungsunschärfe. So spielen jedoch die meisten Leute auf dem PC. Natürlich können Sie einen Bildschirm mit einer Bildwiederholfrequenz von 144 Hz kaufen, um Unschärfen wirklich zu beseitigen. Aber seit Geforce GTX 770 eine Bildwiederholrate von etwa 90 - 100 fps bietet, ruckelt es merklich, wenn die Engine zwischen 144 und 72 fps schwankt.

Bei 60 Hertz G-Sync negativ auf das Bild auswirkt, liegt dies vermutlich an aktiver Vertical-Sync, obwohl die Technik mit deaktiviertem V-Sync funktionieren sollte. Jetzt führt seitliches Strafe (insbesondere näher an den Wänden) zu starkem Bremsen. Dies ist ein potenzielles Problem für 60-Hz-Panels mit G-Sync, zumindest in Spielen wie Skyrim. Glücklicherweise kann man beim Asus VG248Q Monitor in den 144 Hz Modus schalten und trotz aktivem V-Sync, G-Sync funktioniert bei dieser Framerate ohne Beanstandungen.

Das vollständige Deaktivieren der vertikalen Synchronisierung in Skyrim führt zu einer viel "schärferen" Maussteuerung. Dies führt jedoch zu Rissen im Bild (ganz zu schweigen von anderen Artefakten wie schimmerndem Wasser). Aufnahme G-Sync lässt das Stottern bei 60Hz, aber bei 144Hz verbessert sich die Situation deutlich. Obwohl wir das Spiel in unseren Grafikkartentests mit deaktiviertem vsync testen, würden wir nicht empfehlen, ohne es zu spielen.

Für Skyrim vielleicht am meisten beste Lösung wird deaktiviert G-Sync und spielen Sie mit 60 Hz, wodurch Sie bei den von Ihnen gewählten Grafikeinstellungen konsistente 60 fps erhalten.

Überblick über die G-Sync-Technologie | G-Sync – worauf warten Sie noch?

Noch zuvor haben wir ein Testexemplar eines Asus-Monitors mit Technik erhalten G-Sync, wurden wir bereits durch die Tatsache ermutigt, dass Nvidia an einem sehr realen Problem arbeitet, das Spiele betrifft und das noch angegangen werden muss. Bisher konnten Sie V-Sync nach Belieben ein- oder ausschalten. Gleichzeitig ging jede Entscheidung mit Kompromissen einher, die das Spielerlebnis negativ beeinflussen. Wenn Sie es vorziehen, V-Sync nicht zu aktivieren, bis das Bildreißen unerträglich wird, können wir sagen, dass Sie das kleinere von zwei Übeln wählen.

G-Sync löst das Problem, indem es dem Monitor ermöglicht, den Bildschirm mit einer variablen Frequenz zu scannen. Solche Innovationen sind die einzige Möglichkeit, unsere Branche weiter voranzubringen und gleichzeitig den technischen Vorsprung von Personal Computern zu wahren Spielekonsole und Plattformen. Nvidia wird sicherlich der Kritik standhalten, keinen Standard entwickelt zu haben, den Konkurrenten anwenden könnten. Allerdings setzt das Unternehmen für seine Lösung auf DisplayPort 1.2. Als Ergebnis nur zwei Monate nach der Ankündigung der Technologie G-Sync Sie war in unseren Händen.

Die Frage ist, liefert Nvidia mit G-Sync alles, was es versprochen hat?

Drei talentierte Entwickler, die die Qualitäten einer Technologie anpreisen, die Sie noch nie in Aktion gesehen haben, können jeden inspirieren. Aber wenn Ihre erste Erfahrung mit G-Sync Anhand von Nvidias Pendel-Demo-Test fragt man sich sicher, ob ein so großer Unterschied überhaupt möglich ist oder ob der Test ein spezielles Szenario darstellt, das zu schön ist, um wahr zu sein.

Beim Testen der Technik in realen Spielen ist der Effekt naturgemäß nicht so eindeutig. Auf der einen Seite gab es Ausrufe von "Wow!" und "Go crazy!", auf der anderen - "Ich glaube, ich sehe den Unterschied." Beste Aktivierungswirkung G-Sync bemerkbar, wenn die Bildwiederholfrequenz von 60 Hz auf 144 Hz geändert wird. Wir haben aber auch versucht bei 60Hz mit zu testen G-Sync um zu sehen, was Sie in Zukunft (hoffentlich) mit billigeren Displays bekommen. In einigen Fällen wird es Sie umhauen, wenn Sie einfach von 60 auf 144 Hz wechseln, insbesondere wenn Ihre Grafikkarte hohe Bildraten verarbeiten kann.

Heute wissen wir, dass Asus plant, Unterstützung für zu implementieren G-Sync im Modell Asus VG248QE, die nach Angaben des Unternehmens im nächsten Jahr für 400 US-Dollar verkauft werden. Der Monitor hat eine native Auflösung von 1920 x 1080 Pixel und eine Bildwiederholfrequenz von 144 Hz. Ausführung ohne G-Sync hat bereits unseren Smart Buy Award für herausragende Leistungen erhalten. Für uns persönlich ist ein 6-Bit-TN-Panel aber ein Nachteil. Ich möchte wirklich 2560 x 1440 Pixel auf einer IPS-Matrix sehen. Wir geben uns sogar mit einer Bildwiederholfrequenz von 60 Hz zufrieden, wenn dies dazu beiträgt, den Preis niedrig zu halten.

Obwohl wir auf der CES mit einer ganzen Reihe von Ankündigungen rechnen, gibt es offizielle Kommentare von Nvidia zu anderen Displays mit Modulen G-Sync und wir haben ihre Preise nicht gehört. Außerdem sind wir uns nicht sicher, welche Pläne das Unternehmen für ein Upgrade-Modul hat, mit dem Sie das Modul implementieren können. G-Sync in einem bereits gekauften Monitor Asus VG248QE in 20 Minuten.

Jetzt können wir sagen, dass sich das Warten gelohnt hat. Sie werden sehen, dass in einigen Spielen der Einfluss neue Technologien kann nicht verwechselt werden, und in anderen ist es weniger ausgeprägt. Aber wie auch immer G-Sync beantwortet die "bärtige" Frage, ob die vertikale Synchronisierung aktiviert werden soll oder nicht.

Es gibt noch eine weitere interessante Idee. Nachdem wir getestet haben G-Sync, wie lange kann AMD sich Kommentaren noch entziehen? Das Unternehmen neckte unsere Leser in seinem Vorstellungsgespräch(Englisch) und weist darauf hin, dass sie bald über diese Möglichkeit entscheiden wird. Was ist, wenn sie etwas im Sinn hat? Das Ende des Jahres 2013 und der Anfang des Jahres 2014 bringen uns eine Menge spannender Neuigkeiten, über die wir diskutieren können, einschließlich Battlefield 4 Mantle-Versionen, die kommende Nvidia Maxwell-Architektur, G-Sync, eine AMD xDMA-Engine mit CrossFire-Unterstützung und Gerüchte über neue Dual-Chip-Grafikkarten. Im Moment haben wir nicht genug Grafikkarten mit mehr als 3 GB (Nvidia) und 4 GB (AMD) GDDR5-Speicher, aber sie kosten weniger als 1000 US-Dollar ...

Anweisung

Um diesen Parameter zu korrigieren, öffnen Sie das Menü Ihres Spiels, suchen Sie im Menü „Optionen“ oder „Parameter“ im Unterelement „Video“ nach dem Element „Vertikal“ (Vertikalsynchronisation). Wenn das Menü auf Englisch ist und die Optionen Text sind, suchen Sie nach der Schalterposition Disabled oder "Off". Klicken Sie danach auf die Schaltfläche „Übernehmen“ oder Übernehmen, um diese Einstellung zu speichern. Änderungen werden nach dem Neustart des Spiels wirksam.

Ein anderer Fall ist, wenn die Anwendung keinen solchen Parameter hat. Dann müssen Sie die Synchronisierung über den Grafikkartentreiber konfigurieren. Bei Produktionsgrafikkarten ist die Einstellung anders AMD-Radeon oder nVidia GeForce.

Wenn Ihre Grafikkarte zur Geforce-Familie gehört, klicken Sie mit der rechten Maustaste auf den Desktop und wählen Sie den Menüpunkt „nVidia Control Panel“. Eine andere Möglichkeit besteht darin, die Systemsteuerung über das Startmenü zu öffnen. Dort wird ein gleichnamiges Startsymbol angezeigt. Wenn Sie weder in der Systemsteuerung noch im Desktop-Menü das gewünschte Symbol finden, schauen Sie in der rechten Ecke des Bildschirms in die Nähe der Uhr. Dort wird ein grünes nVidia-Symbol angezeigt, das wie ein Auge aussieht - doppelklicken Sie darauf. Als Ergebnis wird das Einstellungsmenü der Grafikkarte geöffnet.

Das Fahrer-Bedienfeldfenster besteht aus zwei Teilen, auf der linken Seite befinden sich Aktionskategorien und auf der rechten Seite - Möglichkeiten und Information. Wählen Sie auf der linken Seite die unterste Zeile „3D-Einstellungen verwalten“. Suchen Sie im rechten Teil des Fensters auf der Registerkarte "Globale Einstellungen" ganz oben in der Liste die Option "Vertikale Synchronisierung". Gegenüber der aktuellen Einstellung wird angezeigt: "Aktivieren", "Deaktivieren" oder "Anwendungseinstellungen". Wählen Sie die Option „Deaktivieren“ aus der Dropdown-Liste und bestätigen Sie Ihre Auswahl, indem Sie auf die Schaltfläche „Übernehmen“ klicken.

Besitzer AMD-Grafikkarten Die Radeon-Treiberkonfiguration erfolgt über spezielle Anwendung Katalysator. Klicken Sie zum Starten mit der rechten Maustaste auf den Desktop und wählen Sie Catalyst Kontrollzentrum. Oder öffnen Sie die Systemsteuerung des Computers und suchen Sie nach einem Symbol mit demselben Namen. Der dritte Weg ist im Systembereich des Bildschirms in der Nähe der Uhr, suchen Sie in der unteren rechten Ecke nach dem roten runden Symbol und doppelklicken Sie darauf. Das Ergebnis all dieser Aktionen ist dasselbe - das Kontrollzentrum für die Einstellungen Ihrer Grafikkarte wird geöffnet.

Das Prinzip ist das gleiche wie in der nVidia-Systemsteuerung: Auf der linken Seite des Fensters befinden sich Kategorien von Einstellungen und auf der rechten Seite detaillierte Einstellungen und Hinweise für sie. Wählen Sie „Spiele“ oder „Gaming“ aus der linken Spalte und dann das Untermenü „3D-Anwendungseinstellungen“. Auf der rechten Seite erscheinen Einstellungen für verschiedene Parameter der Grafikkarte. Scrollen Sie auf der Seite nach unten und finden Sie die Aufschrift „Auf vertikales Update warten“ und darunter den Umschaltregler mit vier Kontrollkästchen. Bewegen Sie diesen Schieberegler ganz nach links, darunter befindet sich die Aufschrift "Immer aus". Klicken Sie auf die Schaltfläche „Übernehmen“ in der unteren rechten Ecke des Fensters, um die Änderungen zu speichern.

Es gibt Dinge, über die es nicht nur schwer zu schreiben ist, sondern sehr schwierig. Die man nur einmal gesehen haben muss, als hundertmal davon gehört oder im Internet gelesen zu haben. Es ist beispielsweise unmöglich, einige Naturwunder wie den majestätischen Grand Canyon oder das schneebedeckte Altai-Gebirge zu beschreiben. Das kann man sich hundertmal anschauen schöne Bilder mit ihrem Bild und genießen Sie die Videos, aber all dies wird Live-Eindrücke nicht ersetzen.

Das Thema der reibungslosen Anzeige von Frames auf dem Monitor mit Nvidia-Technologien Auch G-Sync gehört zu solchen Themen - laut Textbeschreibungen scheinen die Änderungen nicht so signifikant zu sein, aber in den allerersten Minuten eines 3D-Spiels auf einem System mit einer Grafikkarte Nvidia GeForce, verbunden mit einem G-Sync-Monitor, wird deutlich, wie groß der Qualitätssprung ist. Und obwohl seit der Ankündigung der Technologie mehr als ein Jahr vergangen ist, verliert die Technologie nicht an Relevanz, sie hat immer noch keine Konkurrenz (unter den auf den Markt gekommenen Lösungen) und die entsprechenden Monitore werden weiterhin produziert.

Nvidia arbeitet schon seit geraumer Zeit an der Verbesserung der Benutzererfahrung. GPUs Geforce-Aufnahmen rein moderne Spiele ah durch Erhöhen der Glätte des Renderns. Wir können uns an die adaptive Sync-Technologie Adaptive V-Sync erinnern, bei der es sich um einen Hybrid handelt, der den V-Sync-Ein- und -Aus-Modus kombiniert (V-Sync On bzw. V-Sync Off). Für den Fall, dass die GPU mit einer Bildrate rendert, die niedriger als die Bildwiederholfrequenz des Monitors ist, wird die Synchronisierung deaktiviert, und für FPS, die die Bildwiederholfrequenz überschreiten, wird sie aktiviert.

Mit der adaptiven Synchronisierung wurden nicht alle Fluiditätsprobleme gelöst, aber es war ein wichtiger Schritt in die richtige Richtung. Aber warum war es überhaupt notwendig, einige spezielle Synchronisationsmodi zu erstellen und sogar Software- und Hardwarelösungen zu veröffentlichen? Was ist falsch an Technologien, die es seit Jahrzehnten gibt? Heute zeigen wir Ihnen, wie die G-Sync-Technologie von Nvidia dabei hilft, alle bekannten Anzeigeartefakte wie Tearing, Stottern und erhöhte Latenz zu eliminieren.

Weit voraus können wir sagen, dass die G-Sync-Synchronisationstechnologie Ihnen reibungslose Bildwechsel mit höchstmöglicher Leistung und Komfort ermöglicht, was beim Spielen auf einem solchen Monitor sehr auffällig ist - dies ist selbst für den durchschnittlichen Heimanwender bemerkbar und Für begeisterte Spieler kann es eine Verbesserung der Reaktionszeit und gleichzeitig der Spielerfolge bedeuten.

Heutzutage verwenden die meisten PC-Spieler Monitore mit einer Bildwiederholfrequenz von 60 Hz – typische LCD-Bildschirme sind derzeit am beliebtesten. Dementsprechend gibt es sowohl bei eingeschalteter (V-Sync On) als auch bei ausgeschalteter Synchronisierung immer einige Mängel, die mit den Grundproblemen alter Technologien verbunden sind, auf die wir später noch eingehen werden: hohe Latenz und FPS-Ruckler bei V-Sync eingeschaltet und unangenehme Bildlücken wenn ausgeschaltet.

Und da Verzögerungen und ungleichmäßige Bildraten eher ärgerlich und störend sind, schaltet selten einer der Spieler die Synchronisation überhaupt ein. Und selbst einige auf dem Markt erschienene Modelle von Monitoren mit einer Bildwiederholfrequenz von 120 und 144 Hz können nicht helfen, Probleme vollständig zu beseitigen, sie machen sie einfach etwas unauffälliger, indem sie den Bildschirminhalt doppelt so oft aktualisieren, aber die gleichen Artefakte sind immer noch vorhanden : Verzögerungen und das Fehlen der gleichen angenehmen Glätte.

Und da G-Sync-Monitore gepaart mit einer entsprechenden Nvidia Geforce-Grafikkarte nicht nur eine hohe Bildwiederholfrequenz bieten, sondern auch all diese Mängel beseitigen können, kann der Kauf solcher Lösungen als noch wichtiger angesehen werden, als sogar ein Upgrade auf eine leistungsstärkere GPU. Aber lassen Sie uns zuerst verstehen, warum es notwendig war, etwas anderes als die seit langem bekannten Lösungen zu tun - was ist hier das Problem?

Probleme bestehender Videoausgabeverfahren

Technologien zum Anzeigen von Bildern auf einem Bildschirm mit fester Bildwiederholfrequenz gibt es seit den Tagen, als Monitore mit Kathodenstrahlröhren (CRT) verwendet wurden. Die meisten Leser sollten sich an sie erinnern - dickbäuchige, wie alte Fernseher. Diese Technologien wurden ursprünglich für die Darstellung von Fernsehbildern mit fester Bildrate entwickelt, bei Geräten zur Ausgabe von dynamisch am PC berechneten 3D-Bildern verursacht diese Lösung jedoch große, bisher ungelöste Probleme.

Selbst die modernsten LCD-Monitore haben eine feste Bildwiederholrate auf dem Bildschirm, obwohl technologisch nichts daran hindert, das Bild jederzeit und beliebig oft (in vernünftigen Grenzen natürlich) zu ändern. Aber PC-Spieler aus den alten Tagen der CRT-Monitore müssen sich mit einer ausgesprochen unvollkommenen Lösung für das Problem der Synchronisierung von 3D-Rendering-Framerate und Monitor-Aktualisierungsrate abfinden. Bisher gab es nur sehr wenige Möglichkeiten, ein Bild anzuzeigen - zwei, und beide haben Nachteile.

Die Wurzel aller Probleme liegt darin, dass die Grafikkarte bei einer festen Bildwiederholfrequenz des Bildes auf dem Monitor jedes Bild zu einem anderen Zeitpunkt rendert - dies geschieht aufgrund der sich ständig ändernden Komplexität der Szene und der Belastung der Grafik Prozessor. Und die Renderzeit jedes Frames ist nicht konstant, sie ändert sich mit jedem Frame. Kein Wunder, dass es beim Versuch, mehrere Frames auf dem Monitor darzustellen, zu Synchronisationsproblemen kommt, da einige sehr viel länger zum Zeichnen benötigen als andere. Dadurch erhalten wir für jeden Frame eine andere Vorbereitungszeit: mal 10 ms, mal 25 ms zum Beispiel. Und die Monitore, die es vor dem Aufkommen von G-Sync gab, konnten Frames erst nach einer bestimmten Zeit anzeigen – nicht früher, nicht später.

Die Sache wird noch komplizierter durch die Fülle an Hardware- und Softwarekonfigurationen von Gaming-PCs, kombiniert mit sehr unterschiedlicher Auslastung je nach Spiel, Qualitätseinstellungen, Videotreibereinstellungen usw. Daher ist es unmöglich, jedes Spielsystem so zu konfigurieren Die Personalschulung erfolgt in allen 3D-Anwendungen und -Bedingungen mit konstanten oder zumindest nicht zu unterschiedlichen Zeiten - wie dies auf Spielkonsolen mit ihrer einheitlichen Hardwarekonfiguration möglich ist.

Im Gegensatz zu Konsolen mit ihren vorhersehbaren Frame-Rendering-Zeiten sind PC-Spieler natürlich immer noch stark in ihrer Fähigkeit eingeschränkt, ein flüssiges Spielerlebnis ohne merkliche Drawdowns und Verzögerungen zu erzielen. Im idealen (lesen - in der Realität unmöglichen) Fall sollte die Aktualisierung des Bildes auf dem Monitor strikt durchgeführt werden, nachdem der nächste Frame von der GPU berechnet und vorbereitet wurde:

Wie Sie sehen können, hat die GPU in diesem hypothetischen Beispiel immer Zeit, einen Frame zu zeichnen, bevor er auf den Monitor übertragen werden muss - die Frame-Zeit ist immer etwas kürzer als die Zeit zwischen Aktualisierungen von Informationen auf dem Display und in der bricht die GPU ruht ein wenig. Aber in Wirklichkeit ist alles ganz anders - die Frame-Rendering-Zeit ist sehr unterschiedlich. Stellen Sie sich vor, die GPU hat keine Zeit, einen Frame in der vorgegebenen Zeit zu rendern – dann muss der Frame entweder später angezeigt werden, wobei eine Aktualisierung des Bildes auf dem Monitor übersprungen wird (vertikale Synchronisierung ist aktiviert – V-Sync an), oder Frames anzeigen in Teilen mit deaktivierter Synchronisation, und dann werden auf dem Monitor gleichzeitig Stücke aus mehreren benachbarten Frames angezeigt.

Die meisten Benutzer schalten V-Sync aus, um eine geringere Latenz und eine flüssigere Bildschirmausgabe zu erhalten, aber diese Lösung führt zu sichtbaren Tearing-Artefakten. Und bei eingeschalteter Synchronisierung gibt es kein Bildreißen, da die Frames ausschließlich vollständig angezeigt werden, aber die Verzögerung zwischen der Aktion des Spielers und der Aktualisierung des Bildes auf dem Bildschirm zunimmt und die Bildrate sehr ungleichmäßig ist, da die GPU zeichnet Frames niemals in strikter Übereinstimmung mit der Aktualisierungszeit des Bildes auf dem Monitor.

Dieses Problem besteht seit vielen Jahren und beeinträchtigt eindeutig den Komfort beim Betrachten des Ergebnisses eines 3D-Renderings, aber bis zu einiger Zeit hat sich niemand die Mühe gemacht, es zu lösen. Und die Lösung ist theoretisch ganz einfach - Sie müssen nur Informationen auf dem Bildschirm genau dann anzeigen, wenn die GPU die Arbeit am nächsten Frame beendet hat. Doch schauen wir uns zunächst Beispiele genauer an, wie bestehende Bildausgabetechnologien funktionieren und welche Lösung uns Nvidia mit seiner G-Sync-Technologie bietet.

Nachteile der Ausgabe bei deaktivierter Synchronisation

Wie wir bereits erwähnt haben, zieht es die überwiegende Mehrheit der Spieler vor, die Synchronisierung ausgeschaltet zu lassen (V-Sync Off), um die Anzeige der von der GPU gerenderten Frames so schnell wie möglich und mit einer minimalen Verzögerung zwischen den Aktionen des Spielers auf dem Monitor zu erhalten (Tastendrücke, Mausbefehle) und deren Anzeige. Für ernsthafte Spieler ist dies für Siege notwendig, und für normale Spieler werden die Empfindungen in diesem Fall angenehmer sein. So sieht das Arbeiten mit deaktiviertem V-Sync schematisch aus:

Es gibt keine Probleme und Verzögerungen bei der Entnahme von Frames. Aber obwohl das deaktivierte Vsync das Problem der Verzögerung so weit wie möglich löst, indem es eine minimale Verzögerung bietet, erscheinen Artefakte auf dem Bild – Bildunterbrechungen, wenn das Bild auf dem Bildschirm aus mehreren Teilen benachbarter Frames besteht, die von der GPU gerendert werden. Die mangelnde Laufruhe der Videosequenz macht sich auch durch die Ungleichmäßigkeit der Frames bemerkbar, die von der GPU auf den Bildschirm kommen - Bildbrüche an verschiedenen Stellen.

Dieses Tearing resultiert aus der Anzeige von zwei der mehr Frames, die während eines Monitoraktualisierungszyklus auf der GPU gerendert werden. Von mehreren - wenn die Bildrate die Bildwiederholfrequenz des Monitors übersteigt, und von den beiden - wenn sie ihr ungefähr entspricht. Schauen Sie sich das obige Diagramm an - wenn der Inhalt des Bildpuffers in der Mitte zwischen den Zeiten der Anzeige von Informationen auf dem Monitor aktualisiert wird, wird das endgültige Bild darauf verzerrt - in diesem Fall gehört ein Teil der Informationen zu den vorherigen Rahmen und der Rest auf den aktuell gezeichneten.

Wenn die Synchronisierung deaktiviert ist, werden Frames ohne Rücksicht auf die Aktualisierungsrate oder -zeit an den Monitor gesendet, sodass sie niemals mit der Aktualisierungsrate des Monitors übereinstimmen. Mit anderen Worten, bei ausgeschaltetem V-Sync kommt es bei Monitoren ohne G-Sync-Unterstützung immer zu solchen Rissen im Bild.

Dabei geht es nicht nur darum, dass es für den Spieler unangenehm ist, Streifen über den ganzen Bildschirm zucken zu sehen, sondern auch, dass das gleichzeitige Rendern von Teilen verschiedener Frames das Gehirn falsch informieren kann, was sich besonders bei dynamischen Objekten im Frame bemerkbar macht - der Spieler sieht Teile von Objekten, die relativ zueinander verschoben sind. Dies müssen Sie nur in Kauf nehmen, da das Deaktivieren von V-Sync im Moment eine minimale Ausgangslatenz bietet, aber weit von einer idealen dynamischen Bildqualität entfernt ist, wie Sie in den folgenden Beispielen sehen können (Frames mit voller Auflösung sind durch Klicken verfügbar):

In den obigen Beispielen, die mit dem Software- und Hardwaresystem FCAT aufgenommen wurden, können Sie dies sicherstellen echtes Bild auf dem Bildschirm können aus Teilen mehrerer benachbarter Rahmen zusammengesetzt sein - und manchmal ungleichmäßig, wenn ein schmaler Streifen von einem der Rahmen genommen wird und die benachbarten den verbleibenden (merklich großen) Teil des Bildschirms einnehmen.

Tearing-Probleme sind in der Dynamik noch sichtbarer (wenn Ihr System und / oder Browser die Wiedergabe von MP4 / H.264-Videos mit einer Auflösung von 1920 × 1080 Pixeln und einer Bildwiederholfrequenz von 60 FPS nicht unterstützt, müssen Sie sie herunterladen und anzeigen sie lokal mit einem Mediaplayer mit entsprechenden Fähigkeiten):

Wie man sieht, sind selbst in der Dynamik unliebsame Artefakte in Form von Bildbrüchen leicht wahrnehmbar. Mal sehen, wie es schematisch aussieht - in einem Diagramm, das die Ausgabemethode mit deaktivierter Synchronisierung zeigt. In diesem Fall kommen die Frames unmittelbar nach dem Rendern durch die GPU auf dem Monitor an und das Bild wird auf dem Display angezeigt, auch wenn die Informationsausgabe des aktuellen Frames noch nicht abgeschlossen ist – der Rest des Puffers fällt auf die Nächste Bildschirmaktualisierung. Deshalb besteht jeder auf dem Monitor dargestellte Frame unseres Beispiels aus zwei auf der GPU gezeichneten Frames – mit einem Bildbruch an der rot markierten Stelle.

In diesem Beispiel wird der erste Frame (Draw 1) von der GPU schneller als seine 16,7-ms-Aktualisierungszeit in den Bildschirmpuffer gerendert – und bevor das Bild auf dem Monitor gerendert wird (Scan 0/1). Die GPU beginnt sofort mit der Arbeit am nächsten Frame (Draw 2), wodurch das Bild auf dem Monitor unterbrochen wird, das eine weitere Hälfte des vorherigen Frames enthält.

Infolgedessen erscheint in vielen Fällen ein deutlich unterscheidbares Band auf dem Bild - die Grenze zwischen der teilweisen Anzeige benachbarter Frames. In Zukunft wird dieser Vorgang wiederholt, da die GPU unterschiedlich lange an jedem Frame arbeitet und ohne Prozesssynchronisierung die Frames von der GPU und die auf dem Monitor angezeigten niemals übereinstimmen.

Vor- und Nachteile der vertikalen Synchronisation

Wenn Sie die herkömmliche vertikale Synchronisation (V-Sync On) einschalten, werden die Informationen auf dem Monitor erst aktualisiert, wenn die Arbeit am Frame vollständig von der GPU abgeschlossen ist, wodurch ein Tearing im Bild eliminiert wird, da die Frames auf dem angezeigt werden Bildschirm ausschließlich in ihrer Gesamtheit. Da der Monitor den Inhalt aber nur in bestimmten Abständen aktualisiert (abhängig von den Eigenschaften des Ausgabegeräts), bringt diese Bindung andere Probleme mit sich.

Die meisten modernen LCD-Monitore aktualisieren Informationen mit einer Frequenz von 60 Hz, dh 60 Mal pro Sekunde – ungefähr alle 16 Millisekunden. Und bei aktivierter Synchronisierung ist die Bildausgabezeit eng an die Bildwiederholfrequenz des Monitors gebunden. Aber wie wir wissen, ist die GPU-Framerate immer variabel, und die Renderzeit jedes Frames hängt von der sich ständig ändernden Komplexität der 3D-Szene und den Qualitätseinstellungen ab.

Sie kann nicht immer gleich 16,7 ms sein, wird aber entweder kleiner oder größer als dieser Wert sein. Bei aktivierter Synchronisierung wird die Arbeit der GPU an Frames wieder entweder früher oder später als die Bildschirmaktualisierungszeit abgeschlossen. Wenn der Frame schneller als zu diesem Zeitpunkt gerendert wurde, gibt es keine besonderen Probleme – visuelle Informationen warten einfach auf die Aktualisierungszeit des Monitors, um den Frame vollständig auf dem Bildschirm anzuzeigen, und die GPU ist im Leerlauf. Wenn der Frame jedoch keine Zeit zum Rendern in der zugewiesenen Zeit hat, muss er auf den nächsten Aktualisierungszyklus des Bildes auf dem Monitor warten, was zu einer Verlängerung der Verzögerung zwischen den Aktionen des Spielers und ihrer visuellen Anzeige auf dem Bildschirm führt . Gleichzeitig wird das Bild des vorherigen „alten“ Rahmens wieder auf dem Bildschirm angezeigt.

Das alles geht zwar recht schnell, aber die Erhöhung der Latenz ist optisch leicht wahrnehmbar, und das nicht nur von professionellen Spielern. Und da die Frame-Rendering-Zeit immer variabel ist, führt das Einschalten der Bindung an die Monitor-Aktualisierungsrate zu Rucklern bei der Anzeige eines dynamischen Bildes, weil die Frames entweder schnell (gleich der Monitor-Aktualisierungsrate) oder zweimal, dreimal, viermal angezeigt werden mal langsamer. Betrachten Sie ein schematisches Beispiel für eine solche Arbeit:

Die Abbildung zeigt, wie Einzelbilder auf dem Monitor angezeigt werden, wenn die vertikale Synchronisierung eingeschaltet ist (V-Sync Ein). Der erste Frame (Draw 1) wird von der GPU schneller als 16,7 ms gerendert, sodass die GPU nicht mit dem Rendern des nächsten Frames fortfährt und das Bild nicht zerreißt, wie im Fall von V-Sync Off, sondern wartet, bis das erste Bild vollständig auf dem Monitor angezeigt wird. Und erst danach beginnt es mit dem Zeichnen des nächsten Frames (Draw 2).

Die Arbeit am zweiten Frame (Draw 2) dauert jedoch länger als 16,7 ms, sodass nach Ablauf der Zeit visuelle Informationen aus dem vorherigen Frame auf dem Bildschirm angezeigt werden und weitere 16,7 ms auf dem Bildschirm angezeigt werden. Und selbst nachdem die GPU die Arbeit am nächsten Frame beendet hat, wird dieser nicht auf dem Bildschirm angezeigt, da der Monitor eine feste Bildwiederholfrequenz hat. Im Allgemeinen müssen Sie 33,3 ms warten, bis der zweite Frame angezeigt wird, und diese ganze Zeit wird zu der Verzögerung zwischen der Aktion des Spielers und dem Ende des auf dem Monitor angezeigten Frames hinzugefügt.

Zu dem Problem des Zeitversatzes kommt noch eine Lücke in der Laufruhe der Videosequenz, die sich durch das Ruckeln der 3D-Animation bemerkbar macht. Das Problem wird sehr anschaulich in einem kurzen Video gezeigt:

Aber selbst die leistungsstärksten Grafikprozessoren in anspruchsvollen modernen Spielen können nicht immer eine ausreichend hohe Bildrate liefern, die die typische Monitor-Bildwiederholfrequenz von 60 Hz übersteigt. Dementsprechend bieten sie keine Möglichkeit für ein komfortables Spiel bei eingeschalteter Synchronisierung und ohne Probleme wie das Zerreißen des Bildes. Vor allem bei Spielen wie z Online Spiel Battlefield 4, sehr anspruchsvolles Far Cry 4 und Assassin's Creed Unity in hohen Auflösungen und maximalen Spieleinstellungen.

Das heißt, der moderne Player hat kaum eine Wahl – er bekommt entweder einen Mangel an Glätte und erhöhte Verzögerungen oder er gibt sich mit unvollkommener Bildqualität mit gebrochenen Frames zufrieden. In Wirklichkeit sieht natürlich alles gar nicht so schlecht aus, denn irgendwie haben wir die ganze Zeit gespielt, oder? Aber in Zeiten, in denen sie versuchen, sowohl in Qualität als auch in Komfort das Ideal zu erreichen, will man mehr. Darüber hinaus verfügen LCD-Displays über eine grundlegende technologische Fähigkeit, Frames anzuzeigen, wenn der Grafikprozessor dies anzeigt. Der Punkt ist klein - um die GPU und den Monitor zu verbinden, und es gibt bereits eine solche Lösung - Nvidia G-Sync-Technologie.

G-Sync-Technologie – Nvidias Lösung für Leistungsprobleme

So verursachen die meisten modernen Spiele in der Version mit abgeschalteter Synchronisation Bildbrüche und bei eingeschalteter Synchronisation unsaubere Bildwechsel und erhöhte Verzögerungen. Selbst bei hohen Bildwiederholfrequenzen können herkömmliche Monitore diese Probleme nicht beseitigen. Wahrscheinlich hat die Wahl zwischen zwei alles andere als idealen Optionen für die Anzeige von Frames in 3D-Anwendungen im Laufe der Jahre die Nvidia-Mitarbeiter so sehr gestört, dass sie beschlossen, die Probleme zu beseitigen, indem sie Spielern einen grundlegend neuen Ansatz zur Aktualisierung von Informationen auf dem Display bieten.

Der Unterschied zwischen G-Sync und bestehende Methoden Anzeigeausgabe ist, dass die Zeit und Bildrate bei der Nvidia-Variante von der Geforce-GPU bestimmt und dynamisch geändert und nicht wie zuvor festgelegt werden. Mit anderen Worten, in diesem Fall übernimmt die GPU die volle Kontrolle über die Bildausgabe – sobald sie mit der Arbeit am nächsten Bild fertig ist, wird es ohne Verzögerungen und Bildunterbrechungen auf dem Monitor angezeigt.

Die Verwendung dieser Art von Verbindung zwischen der GPU und der speziell angepassten Monitorhardware bietet den Spielern die beste Ausgabemethode - einfach perfekt in Bezug auf die Qualität und beseitigt alle oben genannten Probleme. G-Sync sorgt für einen perfekt reibungslosen Bildwechsel auf dem Monitor, ohne Verzögerungen, Ruckeln und Artefakte, die durch die Anzeige visueller Informationen auf dem Bildschirm verursacht werden.

Natürlich funktioniert G-Sync nicht wie von Zauberhand, und damit die Technologie auf der Monitorseite funktioniert, bedarf es der Hinzufügung einer speziellen Hardwarelogik in Form einer kleinen Platine, die von Nvidia geliefert wird.

Das Unternehmen arbeitet mit Monitorherstellern zusammen, um G-Sync-Karten in ihre Gaming-Display-Modelle aufzunehmen. Bei einigen Modellen gibt es sogar eine Upgrade-Option durch den Nutzer selbst, diese Option ist jedoch teurer und nicht sinnvoll, da es einfacher ist, sofort einen G-Sync-Monitor zu kaufen. Von einem PC aus reicht es aus, eine der modernen Nvidia Geforce-Grafikkarten in seiner Konfiguration sowie einen installierten G-Sync-optimierten Grafiktreiber zu haben - jede der neuesten Versionen reicht aus.

Wenn die Nvidia G-Sync-Technologie aktiviert ist, sendet die Geforce-GPU nach der Verarbeitung des nächsten Frames der 3D-Szene ein spezielles Signal an die im Monitor eingebaute G-Sync-Steuerplatine, die dem Monitor mitteilt, wann das Bild auf dem Bildschirm aktualisiert werden soll . Auf diese Weise erreichen Sie beim Spielen auf einem PC eine perfekte Laufruhe und Reaktionsfähigkeit - Sie können dies in einem kurzen Video sehen (erforderlich bei 60 Bildern pro Sekunde!):

Mal sehen, wie die Konfiguration mit aktivierter G-Sync-Technologie nach unserem Schema aussieht:

Wie Sie sehen können, ist alles sehr einfach. Das Aktivieren von G-Sync bindet die Aktualisierungsrate des Monitors an das Ende des Renderns jedes Frames auf der GPU. Die GPU hat die volle Kontrolle über die Arbeit: Sobald sie den Frame fertig gerendert hat, wird das Bild sofort auf einem G-Sync-kompatiblen Monitor angezeigt, und infolgedessen ist die Bildwiederholfrequenz nicht fest, sondern variabel - genau wie die GPU-Framerate. Dies eliminiert Bildrissprobleme (weil es immer Informationen aus einem einzelnen Frame enthält), minimiert Jitter in der Framerate (der Monitor wartet nicht länger, als ein Frame physisch von der GPU verarbeitet wird) und reduziert Ausgabelatenzen relativ zum vsync- aktivierte Methode.

Ich muss sagen, dass den Spielern eine solche Lösung eindeutig fehlte, die neue Methode zur Synchronisierung der GPU und des Nvidia G-Sync-Monitors wirkt sich wirklich sehr stark auf den Komfort beim Spielen auf einem PC aus - dass sehr nahezu perfekte Laufruhe erscheint, was war bisher nicht da - in unserer Zeit superstarker Grafikkarten! Seit der Ankündigung der G-Sync-Technologie sind die alten Methoden augenblicklich zu einem Anachronismus geworden, und ein Upgrade auf einen G-Sync-Monitor mit variablen Bildwiederholfrequenzen von bis zu 144 Hz scheint eine sehr attraktive Option zu sein, um Probleme, Verzögerungen und Artefakte endlich loszuwerden .

Hat G-Sync Nachteile? Natürlich wie jede Technologie. Beispielsweise hat G-Sync eine ärgerliche Einschränkung, nämlich dass es eine reibungslose Bildausgabe auf dem Bildschirm mit einer Frequenz von 30 FPS bietet. Und die gewählte Bildwiederholfrequenz für den Monitor im G-Sync-Modus legt die Messlatte für die Bildwiederholrate des Bildschirms fest. Das heißt, bei einer auf 60 Hz eingestellten Bildwiederholfrequenz wird eine maximale Glätte bei einer Frequenz von 30 bis 60 FPS und bei 144 Hz von 30 bis 144 FPS bereitgestellt, jedoch nicht unter der Untergrenze. Und mit einer variablen Frequenz (z. B. von 20 auf 40 FPS) wird das Ergebnis nicht mehr ideal sein, obwohl es merklich besser ist als herkömmliches V-Sync.

Der größte Nachteil von G-Sync ist jedoch, dass es sich um Nvidias proprietäre Technologie handelt, auf die Wettbewerber keinen Zugriff haben. Daher kündigte AMD zu Beginn des kommenden Jahres eine ähnliche FreeSync-Technologie an, die ebenfalls darin besteht, die Framerate des Monitors entsprechend der Frame-Vorbereitung von der GPU dynamisch zu ändern. Ein wichtiger Unterschied besteht darin, dass die AMD-Entwicklung offen ist und keine zusätzlichen Hardwarelösungen in Form von spezialisierten Monitoren erfordert, da FreeSync in Adaptive-Sync umgewandelt wurde, das von der berüchtigten VESA zu einem optionalen Bestandteil des DisplayPort 1.2a-Standards geworden ist ( Video Electronics Standards Association). Es stellt sich heraus, dass AMD das von einem Konkurrenten entwickelte Thema geschickt zu seinem eigenen Vorteil nutzen wird, da sie ohne das Erscheinen und die Popularisierung von G-Sync kein FreeSync gehabt hätten, wie wir denken.

Interessanterweise ist die Adaptive-Sync-Technologie auch Teil des VESA Embedded DisplayPort (eDP)-Standards und wird bereits in vielen Displaykomponenten verwendet, die eDP zur Signalübertragung verwenden. Ein weiterer Unterschied zu G-Sync besteht darin, dass VESA-Mitglieder Adaptive-Sync kostenlos nutzen können. Es ist jedoch sehr wahrscheinlich, dass Nvidia in Zukunft auch Adaptive-Sync im Rahmen des DisplayPort-1.2a-Standards unterstützen wird, da eine solche Unterstützung ihnen keinen großen Aufwand abverlangen wird. Aber auch G-Sync wird das Unternehmen nicht ablehnen, da es eigene Lösungen als vorrangig betrachtet.

Die ersten Adaptive-Sync-fähigen Monitore sollen im ersten Quartal 2015 auf den Markt kommen, nicht nur mit DisplayPort 1.2a-Anschlüssen, sondern auch mit dedizierter Adaptive-Sync-Unterstützung (nicht alle DisplayPort 1.2a-fähigen Monitore werden damit aufwarten können). So plant Samsung, im März 2015 die Monitorlinien Samsung UD590 (23,6 und 28 Zoll) und UE850 (23,6, 27 und 31,5 Zoll) mit Unterstützung für UltraHD-Auflösung und Adaptive-Sync-Technologie auf den Markt zu bringen. AMD behauptet, dass Monitore mit dieser Technologie bis zu 100 US-Dollar billiger sind als ähnliche Geräte mit G-Sync-Unterstützung, aber es ist schwierig, sie zu vergleichen, da alle Monitore unterschiedlich sind und zu unterschiedlichen Zeiten herauskommen. Außerdem gibt es bereits nicht ganz so teure G-Sync-Modelle auf dem Markt.

Visueller Unterschied und subjektive Eindrücke

Oben haben wir die Theorie beschrieben, und jetzt ist es an der Zeit, alles klar zu zeigen und Ihre Gefühle zu beschreiben. Wir haben Nvidias G-Sync-Technologie in mehreren 3D-Anwendungen mit einer Inno3D iChill Geforce GTX 780 HerculeZ X3 Ultra-Grafikkarte und einem Asus PG278Q-Monitor, der die G-Sync-Technologie unterstützt, in der Praxis getestet. Es gibt mehrere Monitormodelle mit G-Sync-Unterstützung auf dem Markt von verschiedenen Herstellern: Asus, Acer, BenQ, AOC und andere, und für den Asus VG248QE-Monitor können Sie sogar ein Kit kaufen, um ihn zur Unterstützung von G-Sync aufzurüsten dein eigenes.

Das jüngste Grafikkartenmodell, das die G-Sync-Technologie verwendet, ist die Geforce GTX 650 Ti, mit einer äußerst wichtigen Anforderung für einen DisplayPort-Anschluss an Bord. Von den weiteren Systemvoraussetzungen notieren wir das Betriebssystem mindestens Microsoft Windows 7, die Anwendung gutes kabel DisplayPort 1.2 und eine hochwertige Maus mit hoher Empfindlichkeit und Abfragerate werden empfohlen. Die G-Sync-Technologie funktioniert mit allen Vollbild-3D-Anwendungen, die die OpenGL- und Direct3D-Grafik-APIs verwenden, wenn sie auf den Betriebssystemen Windows 7 und 8.1 ausgeführt werden.

Für die Arbeit ist jeder moderne Treiber geeignet, der - G-Sync wird seit mehr als einem Jahr von allen Firmentreibern unterstützt. Wenn Sie alle erforderlichen Komponenten haben, müssen Sie G-Sync nur noch in den Treibern aktivieren, falls dies noch nicht geschehen ist, und die Technologie funktioniert in allen Vollbildanwendungen - und nur in ihnen, basierend auf dem Prinzip von Die Technologie.

Um die G-Sync-Technologie für Vollbild-Apps zu aktivieren und das Beste daraus zu machen angenehmes Ergebnis, müssen Sie die 144-Hz-Bildwiederholfrequenz in der Nvidia-Systemsteuerung oder in den Desktop-Einstellungen aktivieren Betriebssystem. Dann müssen Sie sicherstellen, dass die Verwendung der Technologie auf der entsprechenden Seite "G-Sync einstellen" erlaubt ist ...

Und außerdem - wählen Sie den entsprechenden Punkt auf der Seite "3D-Einstellungen verwalten" im Parameter "Vertikaler Synchronisationsimpuls" der globalen 3D-Einstellungen aus. Dort können Sie die Verwendung der G-Sync-Technologie zu Testzwecken oder bei auftretenden Problemen auch deaktivieren (Vorausblick - wir haben während unseres Tests keine gefunden).

Die G-Sync-Technologie funktioniert bei allen von Monitoren unterstützten Auflösungen bis hin zu UltraHD, aber in unserem Fall haben wir eine native Auflösung von 2560 × 1440 Pixel bei 144 Hz verwendet. In unseren Vergleichen mit dem aktuellen Stand der Dinge haben wir einen 60-Hz-Bildwiederholfrequenzmodus mit deaktiviertem G-Sync verwendet, um das Verhalten typischer Nicht-G-Sync-Monitore zu emulieren, die in den meisten Gamern zu finden sind. Die meisten von ihnen verwenden Full-HD-Monitore, die einen maximalen Modus bei 60 Hz unterstützen.

Erwähnen Sie unbedingt, dass die Bildschirmaktualisierung bei aktiviertem G-Sync mit einer idealen Frequenz erfolgt - wenn die GPU dies "will", wird der optimale Modus immer noch mit einer Bildrate von etwa 40-60 FPS gerendert - das ist die am besten geeignete Bildrate für moderne Spiele, nicht zu klein, um die untere Grenze von 30 FPS zu erreichen, erfordert aber auch keine Verringerung der Einstellungen. Genau diese Frequenz strebt übrigens Nvidias Programm Geforce Experience an, das in der gleichnamigen Software, die den Treibern beiliegt, die passenden Einstellungen für beliebte Spiele bereitstellt.

Neben Spielen haben wir auch eine spezialisierte Testanwendung von Nvidia ausprobiert - . Diese Anwendung zeigt eine 3D-Pendelszene, deren Glätte und Qualität einfach zu beurteilen ist, ermöglicht es Ihnen, verschiedene Bildraten zu simulieren und den Anzeigemodus auszuwählen: V-Sync Aus/Ein und G-Sync. Mit dieser Testsoftware ist es sehr einfach, den Unterschied zwischen verschiedenen Synchronisationsmodi aufzuzeigen – zum Beispiel zwischen V-Sync On und G-Sync:

Mit der Pendulum Demo App können Sie testen verschiedene Wege Synchronisation unter verschiedenen Bedingungen, simuliert es die exakte Bildrate von 60 FPS, um V-Sync und G-Sync unter idealen Bedingungen für die Legacy-Synchronisationsmethode zu vergleichen - in diesem Modus sollte es einfach keinen Unterschied zwischen den Methoden geben. Aber der 40-50-FPS-Modus bringt V-Sync On in eine unangenehme Position, in der Verzögerungen und ungeschickte Frame-Wechsel mit bloßem Auge sichtbar sind, da die Frame-Rendering-Zeit die Bildwiederholfrequenz bei 60 Hz überschreitet. Wenn Sie G-Sync einschalten, wird alles perfekt.

Beim Vergleich der Modi mit deaktiviertem V-Sync und aktiviertem G-Sync hilft auch hier die Nvidia-Anwendung, den Unterschied zu erkennen - bei Bildraten zwischen 40 und 60 FPS ist das Bildreißen deutlich sichtbar, obwohl es weniger Verzögerungen gibt als bei V- Synchronisierung ein. Und sogar die nicht flüssige Videosequenz bezüglich des G-Sync-Modus fällt auf, obwohl dies theoretisch nicht sein sollte - vielleicht nimmt das Gehirn so „zerrissene“ Frames wahr.

Nun, mit aktiviertem G-Sync liefert jeder der Modi der Testanwendung (konstante Bildrate oder variabel - egal) immer die flüssigste Videosequenz. Ja, und in Spielen machen sich alle Probleme des traditionellen Ansatzes zum Aktualisieren von Informationen auf einem Monitor mit fester Bildwiederholfrequenz manchmal fast noch stärker bemerkbar - in diesem Fall können Sie den Unterschied zwischen allen drei Modi am Beispiel des deutlich erkennen StarCraft II-Spiel (Anzeigen einer zuvor gespeicherten Aufzeichnung):

Wenn Ihr System und Browser die Wiedergabe des Videodatenformats MP4/H.264 mit 60 FPS unterstützt, dann werden Sie deutlich sehen, dass im deaktivierten Synchronisationsmodus deutliche Videoabbrüche, bei aktiviertem V-Sync, Ruckeln und ungleichmäßige Videosequenzen auffallen werden beobachtet. All dies verschwindet, wenn Sie Nvidia G-Sync einschalten, bei dem es keine Artefakte im Bild, keine Verzögerungserhöhung, keine "zerrissene" Bildrate gibt.

Natürlich ist G-Sync kein Zauberstab, und diese Technologie wird keine Verzögerungen und Verlangsamungen beseitigen, die nicht durch den Prozess der Anzeige von Frames auf einem Monitor mit fester Bildwiederholfrequenz verursacht werden. Wenn das Spiel selbst Probleme mit der Glätte der Frame-Ausgabe und großen Rucklern in FPS hat, die durch das Laden von Texturen, die Verarbeitung von Daten auf der CPU, suboptimale Arbeit mit dem Videospeicher, fehlende Code-Optimierung usw. verursacht werden, bleiben sie bestehen. Darüber hinaus werden sie noch deutlicher, da die Ausgabe der verbleibenden Frames perfekt glatt ist. In der Praxis treten auf leistungsstarken Systemen jedoch nicht allzu oft Probleme auf, und G-Sync verbessert die Wahrnehmung dynamischer Videos wirklich.

Da sich die neue Ausgabetechnologie von Nvidia auf die gesamte Ausgabepipeline auswirkt, könnte sie theoretisch zu Artefakten und Framerate-Ripples führen, insbesondere wenn das Spiel die FPS irgendwann künstlich begrenzt. Wahrscheinlich sind solche Fälle, wenn überhaupt, so selten, dass wir sie nicht einmal bemerkt haben. Aber sie stellten eine deutliche Verbesserung des Komforts beim Spielen fest - beim Spielen hinter einem Monitor mit aktivierter G-Sync-Technologie scheint der PC so leistungsfähig geworden zu sein, dass er eine konstante Bildrate von mindestens 60 FPS ohne irgendwelche Drawdowns erreichen kann.

Das Gefühl, das man beim Spielen mit einem G-Sync-Monitor bekommt, ist mit Worten nur sehr schwer zu beschreiben. Der Unterschied macht sich besonders bei 40-60 FPS bemerkbar – eine Bildrate, die in anspruchsvollen modernen Spielen sehr verbreitet ist. Der Unterschied zu herkömmlichen Monitoren ist einfach erstaunlich, und wir werden versuchen, ihn nicht nur in Worten zu beschreiben und in Videobeispielen zu zeigen, sondern auch Framerate-Diagramme zu zeigen, die mit verschiedenen Anzeigemodi erhalten wurden.

Bei Spielen aus Genres wie Echtzeitstrategie und dergleichen wie StarCraft II, League of Legends, DotA 2 usw. sind die Vorteile der G-Sync-Technologie deutlich sichtbar, wie Sie am Beispiel aus dem Video sehen können Oben. Außerdem erfordern solche Spiele immer rasante Action, die Verzögerungen und ungleichmäßige Bildraten nicht toleriert, und flüssiges Scrollen spielt eine ziemlich wichtige Rolle für den Komfort, der durch Video-Tearing mit V-Sync Off, Verzögerungen und Lags mit V -Sync ein. Daher ist die G-Sync-Technologie ideal für diese Art von Spielen.

Ego-Shooter wie Crysis 3 und Far Cry 4 sind noch weiter verbreitet, sie beanspruchen auch sehr viel Rechenleistung, und bei hohen Qualitätseinstellungen erhalten die Spieler darin oft Bildraten um die 30-60 FPS – ideal für die Verwendung von G-Sync , was den Komfort beim Spielen unter solchen Bedingungen wirklich erheblich verbessert. Die herkömmliche vertikale Synchronisierungsmethode führt sehr oft dazu, dass Frames mit einer Frequenz von nur 30 FPS ausgegeben werden, wodurch Verzögerungen und Ruckler zunehmen.

Dasselbe gilt für Third-Person-Spiele wie Batman, Assassin’s Creed und Tomb Raider. Diese Spiele verwenden auch die neueste Grafiktechnologie und erfordern ziemlich leistungsstarke GPUs, um hohe Bildraten zu erreichen. Bei maximale Einstellungen Bei diesen Spielen und dem Ausschalten von V-Sync werden häufig FPS in der Größenordnung von 30-90 erzielt, was zu unangenehmen Bildrissen führt. Das Aktivieren von V-Sync hilft nur in manchen Szenen mit geringerem Ressourcenbedarf und die Framerate springt schrittweise von 30 auf 60, was zu Verlangsamungen und Rucklern führt. Und die Einbindung von G-Sync löst all diese Probleme und macht sich in der Praxis sehr bemerkbar.

Testergebnisse üben

In diesem Abschnitt werden wir uns die Auswirkungen von G-Sync und V-Sync auf die Bildrate ansehen – Leistungsdiagramme können klar nachvollziehen, wie sie funktionieren verschiedene Technologien. Während des Tests haben wir mehrere Spiele getestet, aber es ist bei weitem nicht für jeden bequem, den Unterschied zwischen V-Sync und G-Sync zu zeigen - einige Spiel-Benchmarks erlauben kein Erzwingen von V-Sync, andere Spiele haben kein praktisches Tool zum Spielen die exakte Spielsequenz (leider die meisten modernen Spiele), wieder andere laufen auf unserem Testsystem zu schnell oder innerhalb enger Framerate-Grenzen.

So landeten wir bei Just Cause 2 mit maximalen Einstellungen und ein paar Benchmarks: Unigine Heaven und Unigine Valley – ebenfalls mit maximalen Qualitätseinstellungen. Die Framerate in diesen Anwendungen variiert ziemlich stark, was für unseren Zweck praktisch ist - um zu zeigen, was mit der Ausgabe von Frames unter verschiedenen Bedingungen passiert.

Leider haben wir derzeit das FCAT-Hardware- und Softwaresystem nicht im Einsatz, und wir können keine echten FPS-Grafiken und aufgezeichneten Videos in verschiedenen Modi anzeigen. Stattdessen haben wir die durchschnittlichen und sofortigen Bildraten pro Sekunde mit einem bekannten Dienstprogramm bei Monitoraktualisierungsraten von 60 und 120 Hz unter Verwendung der BV-Sync Ein, V-Sync Aus, unter Verwendung von Adaptive V-Sync und unter Verwendung von G -Sync bei 144 Hz, um den Unterschied zwischen der neuen Technologie und aktuellen traditionellen 60-Hz-V-Sync-Monitoren zu zeigen.

G-Sync vs. V-Sync Ein

Wir beginnen unsere Erkundung mit dem Vergleich von Modi mit aktiviertem V-Sync On und der G-Sync-Technologie – dies ist der aufschlussreichste Vergleich, der den Unterschied zwischen Methoden zeigt, die nicht die Nachteile des Zerreißens des Bildes haben. Zunächst betrachten wir die Heaven-Testanwendung bei maximalen Qualitätseinstellungen bei einer Auflösung von 2560 × 1440 Pixel (klicken Sie auf die Miniaturansichten, um Grafiken in voller Auflösung zu öffnen):

Wie Sie in der Grafik sehen können, ist die Bildrate mit aktiviertem G-Sync und ohne Synchronisierung fast gleich, mit Ausnahme der Frequenz über 60 FPS. Aber die FPS im Modus mit aktivierter vertikaler Synchronisationsmethode sind merklich anders, da die Bildrate darin kleiner oder gleich 60 FPS und einem Vielfachen von ganzen Zahlen sein kann: 1, 2, 3, 4, 5, 6 .. ., da der Monitor manchmal für mehrere Refresh-Perioden (zwei, drei, vier usw.) denselben vorherigen Frame anzeigen muss. Das heißt, die möglichen "Schritte" der Bildrate bei V-Sync On und 60 Hz: 60, 30, 20, 15, 12, 10, ... FPS.

Dieses Aliasing ist deutlich an der roten Linie des Diagramms zu erkennen - während dieses Tests betrug die Bildrate oft 20 oder 30 FPS und viel seltener - 60 FPS. Obwohl mit G-Sync und V-Sync Off (No Sync) war es oft in einem größeren Bereich: 35-50 FPS. Bei aktiviertem V-Sync ist diese Ausgaberate nicht möglich, sodass der Monitor in solchen Fällen immer 30 FPS anzeigt – was die Leistung einschränkt und die Gesamtausgabezeit verzögert.

Zu beachten ist, dass die obige Grafik nicht die momentane Bildrate, sondern gemittelte Werte innerhalb einer Sekunde zeigt, aber in Wirklichkeit können FPS viel mehr „springen“ – fast bei jedem Frame, was unangenehme Unrundheiten und Verzögerungen verursacht. Um dies visuell zu sehen, hier ein paar Diagramme mit momentanen FPS - genauer gesagt mit Diagrammen der Renderzeit für jeden Frame in Millisekunden. Das erste Beispiel (die Linien sind leicht gegeneinander verschoben, es wird nur beispielhaftes Verhalten in jedem Modus gezeigt):

Wie Sie sehen, ändert sich in diesem Beispiel die Framerate bei G-Sync mehr oder weniger fließend und bei V-Sync On schrittweise (in beiden Fällen gibt es einzelne Sprünge in der Renderzeit - das ist normal). Bei aktiviertem vsync können Render- und Frame-Ausgabezeiten 16,7 ms betragen; 33,3 ms; 50 ms, wie in der Grafik zu sehen ist. In FPS ausgedrückt entspricht dies 60, 30 und 20 Bildern pro Sekunde. Außerdem gibt es keinen besonderen Unterschied zwischen dem Verhalten der beiden Leitungen, es gibt in beiden Fällen Spitzen. Schauen wir uns einen anderen bedeutenden Zeitraum an:

In diesem Fall gibt es offensichtliche "Aussetzer" in der Renderzeit von Frames und damit den FPS bei vertikaler Synchronisation. Sehen Sie, mit V-Sync On springt die Frame-Rendering-Zeit von 16,7 ms (60 FPS) auf 33,3 ms (30 FPS) und zurück - in der Realität verursacht dies die gleichen unangenehmen Unebenheiten und deutlich sichtbaren Ruckler im Video Reihenfolge. Die Glätte der Bildwechsel bei G-Sync ist viel höher und das Spielen in diesem Modus wird spürbar komfortabler.

Betrachten Sie das FPS-Diagramm in der zweiten Testanwendung - Unigine Valley:

In diesem Benchmark stellen wir ungefähr dasselbe fest wie im Himmel. Die Bildraten in den Modi G-Sync und V-Sync Off sind fast gleich (bis auf eine Spitze über 60 Hz), und das enthaltene V-Sync verursacht einen deutlichen Sprung in den FPS, der meistens 30 FPS zeigt, manchmal nach unten rollt auf 20 FPS und Anstieg auf 60 FPS - typisches Verhalten dieser Methode, das zu Verzögerungen, Ruckeln und ungleichmäßiger Videosequenz führt.

In diesem Unterabschnitt bleibt uns noch, einen Ausschnitt aus dem eingebauten Test des Spiels Just Cause 2 zu betrachten:

Dieses Spiel zeigt perfekt die ganze Unterlegenheit der veralteten Synchronisationsmethode V-Sync On! Bei wechselnden Frameraten von 40 auf 60-70 FPS sind die Linien G-Sync und V-Sync Off fast gleich, aber die Framerate mit V-Sync On erreicht nur in kurzen Abschnitten 60 FPS. Das heißt, mit echten GPU-Fähigkeiten zum Spielen mit 40-55 FPS wird der Spieler mit nur 30 FPS zufrieden sein.

Darüber hinaus gibt es in dem Abschnitt des Diagramms, in dem die rote Linie von 30 auf 40 FPS springt, in Wirklichkeit beim Betrachten des Bildes eine deutlich ungleichmäßige Bildrate - sie springt fast bei jedem Bild von 60 auf 30, was eindeutig nicht hinzugefügt wird Geschmeidigkeit und Komfort beim Spielen. Aber vielleicht schneidet V-Sync bei einer Bildwiederholfrequenz von 120 Hz besser ab?

G-Sync vs. V-Sync 60/120Hz

Werfen wir einen Blick auf zwei V-Sync On-Modi bei 60 und 120 Hz Bildwiederholfrequenz und vergleichen sie mit V-Sync Off (wie wir bereits festgestellt haben, ist diese Zeile fast identisch mit G-Sync). Bei einer Bildwiederholfrequenz von 120 Hz kommen zu den uns bereits bekannten FPS-„Schritten“ noch weitere Werte hinzu: 120, 40, 24, 17 FPS usw., wodurch der Graph weniger abgestuft werden kann. Schauen wir uns die Framerate im Heaven-Benchmark an:

Bemerkenswerterweise hilft die Bildwiederholfrequenz von 120 Hz V-Sync On dabei, eine bessere Leistung und flüssigere Frameraten zu erzielen. In Fällen, in denen 20 FPS bei 60 Hz im Diagramm beobachtet werden, ergibt der 120-Hz-Modus einen Zwischenwert von mindestens 24 FPS. Und 40 FPS statt 30 FPS sind in der Grafik deutlich sichtbar. Aber es sind nicht weniger Schritte, sondern noch mehr, sodass sich die Framerate bei 120 Hz Refresh zwar um einen geringeren Betrag ändert, dafür aber häufiger, was sich ebenfalls negativ auf die Gesamtflüssigkeit auswirkt.

Beim Valley-Benchmark gibt es weniger Änderungen, da die durchschnittliche Framerate dem für beide Modi verfügbaren 30-FPS-Schritt am nächsten kommt: 60- und 120-Hz-Bildwiederholfrequenz. Die deaktivierte Synchronisierung bietet weichere Bildübergänge, jedoch mit visuellen Artefakten, und die V-Sync-Ein-Modi zeigen wieder abgestufte Linien. In diesem Unterabschnitt bleibt uns noch, uns das Spiel Just Cause 2 anzusehen.

Und wieder sehen wir deutlich, wie mangelhaft die vertikale Synchronisation ist, die keinen reibungslosen Bildwechsel ermöglicht. Selbst bei einer Bildwiederholfrequenz von 120 Hz gibt V-Sync On nur ein paar zusätzliche FPS-„Schritte“ – die Bildrate springt von einem Schritt zum anderen hin und her – all dies ist sehr unangenehm, wenn Sie sich animierte 3D-Szenen ansehen, darauf können Sie sich verlassen oder sehen Sie sich die Videobeispiele oben noch einmal an.

Auswirkung der Ausgabemethode auf die durchschnittliche Bildrate

Und was passiert mit der durchschnittlichen Bildrate, wenn all diese Synchronisationsmodi aktiviert sind, wie wirkt sich die Einbeziehung von V-Sync und G-Sync auf die durchschnittliche Leistung aus? Du kannst den Geschwindigkeitsverlust sogar grob abschätzen FPS-Diagramme oben gezeigt, aber wir geben auch die durchschnittlichen Bildraten an, die wir während des Tests erhalten haben. Den Anfang macht wieder Unigine Heaven:

Die Anzeigen in den Modi Adaptive V-Sync und V-Sync Off sind fast gleich - schließlich steigt die Geschwindigkeit fast nicht über 60 FPS. Logischerweise senkt das Einschalten von V-Sync auch die durchschnittliche Bildrate, da dieser Modus FPS-Schritte verwendet. Bei 60 Hz sank die durchschnittliche Bildrate um mehr als ein Viertel, und das Einschalten von 120 Hz brachte nur die Hälfte des Verlusts an durchschnittlichen FPS zurück.

Am interessantesten ist für uns, wie stark die durchschnittliche Framerate im G-Sync-Modus sinkt. Aus irgendeinem Grund wird die Geschwindigkeit über 60 FPS reduziert, obwohl der Monitor auf 144 Hz eingestellt war, sodass die Geschwindigkeit bei eingeschaltetem G-Sync etwas niedriger war als im deaktivierten Modus. Generell können wir davon ausgehen, dass es keinerlei Einbußen gibt, die sicherlich nicht mit der fehlenden Geschwindigkeit bei V-Sync On zu vergleichen sind. Betrachten Sie den zweiten Maßstab – Valley.

In diesem Fall verringerte sich der Rückgang der durchschnittlichen Rendering-Geschwindigkeit in Modi mit aktiviertem V-Sync, da die Bildrate während des gesamten Tests nahe bei 30 FPS lag - einer der "Schritte" der Frequenz für V-Sync in beiden Modi: 60 und 120 Hertz. Nun, aus naheliegenden Gründen fielen die Verluste im zweiten Fall etwas geringer aus.

Wenn G-Sync eingeschaltet war, stellte sich heraus, dass die durchschnittliche Bildrate erneut geringer war als die im deaktivierten Synchronisierungsmodus festgestellte, alles aus demselben Grund - das Einschalten von G-Sync "tötete" FPS-Werte über 60. Aber die Unterschied ist klein, und neuer Modus Nvidia liefert deutlich höhere Geschwindigkeiten als mit aktiviertem V-Sync. Schauen wir uns das letzte Diagramm an – die durchschnittliche Framerate im Spiel Just Cause 2:

Bei diesem Spiel litt der V-Sync-On-Modus deutlich stärker als bei den Testanwendungen auf der Unigine-Engine. Die durchschnittliche Framerate in diesem Modus bei 60 Hz ist mehr als anderthalb Mal niedriger als wenn die Synchronisation überhaupt deaktiviert ist! Das Aktivieren einer Bildwiederholfrequenz von 120 Hz verbessert die Situation erheblich, aber G-Sync ermöglicht Ihnen dennoch eine spürbar bessere Leistung selbst bei durchschnittlichen FPS-Zahlen, ganz zu schweigen vom Komfort des Spiels, der jetzt nicht nur anhand von Zahlen bewertet wird - Sie haben es um es mit eigenen Augen zu sehen.

In diesem Abschnitt haben wir also herausgefunden, dass die G-Sync-Technologie Bildraten bietet, die nahe an dem Modus mit deaktivierter Synchronisierung liegen, und dass ihre Einbeziehung fast keine Auswirkungen auf die Leistung hat. Dies steht im Gegensatz zu V-Sync, bei dem die Bildrate gestaffelt ist und häufig von einem Schritt zum nächsten springt, was zu ungeschickten Bewegungen während der animierten Bildfolge führt und den Komfort von 3D-Spielen beeinträchtigt.

Mit anderen Worten, unsere subjektive Eindrücke und Testergebnisse zeigen, dass Nvidias G-Sync-Technologie den visuellen Komfort von 3D-Spielen wirklich zum Besseren verändert. Neue Methode frei von beiden grafischen Artefakten in Form von Bildbrüchen, bestehend aus mehreren benachbarten Frames, wie wir im Modus mit deaktiviertem V-Sync sehen, so dass es keine Probleme mit der Glätte der Ausgabe von Frames auf dem Monitor und der Erhöhung gibt Ausgangsverzögerungen, wie im V-Sync On-Modus.

Fazit

Bei all den Schwierigkeiten, die Glätte der Videoausgabe objektiv zu messen, möchte ich zunächst eine subjektive Einschätzung äußern. Wir waren ziemlich beeindruckt vom Spielerlebnis auf Nvidia Geforce und dem G-Sync-fähigen Monitor von Asus. Selbst eine einmalige "Live"-Demonstration von G-Sync macht mit der Laufruhe des Framewechsels wirklich einen starken Eindruck, und nach langem Ausprobieren dieser Technik wird es sehr eintönig, weiterhin mit den alten Methoden am Monitor zu spielen das Bild auf dem Bildschirm anzuzeigen.

Vielleicht kann G-Sync seit langem als die größte Änderung bei der Anzeige visueller Informationen auf dem Bildschirm angesehen werden - schließlich haben wir etwas wirklich Neues in der Verbindung zwischen Displays und GPUs gesehen, das sich direkt auf den Komfort von 3D-Grafiken auswirkt gleichmäßig und so auffällig. Und vor der Ankündigung der G-Sync-Technologie von Nvidia steckten wir jahrelang in veralteten Anzeigestandards fest, die in den Anforderungen der Fernseh- und Filmindustrie verwurzelt waren.

Natürlich würden wir solche Funktionen gerne noch früher bekommen, aber jetzt ist ein guter Zeitpunkt, sie zu implementieren, da moderne Top-End-Grafikkarten in vielen anspruchsvollen 3D-Spielen bei maximalen Einstellungen eine Bildrate liefern, bei der die Vorteile der Aktivierung von G -Sync wird maximal. Und vor dem Aufkommen der Technologie von Nvidia wurde der in Spielen erreichte Realismus bei weitem nicht am meisten „getötet“. auf bessere Weise Aktualisierungen des Bildes auf dem Monitor, was zu Bildrissen, erhöhten Verzögerungen und Ruckeln in der Bildrate führt. Die G-Sync-Technologie hingegen ermöglicht es Ihnen, diese Probleme zu beseitigen, indem Sie die Bildrate des Bildschirms mit der Rendering-Geschwindigkeit der GPU (wenn auch mit einigen Einschränkungen) gleichsetzen - dieser Prozess ist jetzt von der GPU selbst verantwortlich .

Wir haben keine einzige Person getroffen, die G-Sync bei der Arbeit ausprobiert hat und mit dieser Technologie unzufrieden geblieben ist. Die Bewertungen der ersten Glücklichen, die die Technologie im vergangenen Herbst auf dem Nvidia-Event getestet haben, waren restlos begeistert. Unterstützte Journalisten der Fachpresse und Spieleentwickler (John Carmack, Tim Sweeney und Johan Andersson) – sie gaben auch exklusiv positive Bewertungen neue Ausgabemethode. Wir schließen uns jetzt an – nach mehreren Tagen Nutzung eines Monitors mit G-Sync möchte ich nicht mehr auf alte Geräte mit längst überholten Synchronisationsmethoden zurückgreifen. Ach, wenn es nur mehr Monitore mit G-Sync gäbe, und die nicht ausschließlich mit TN-Matrizen bestückt wären ...

Nun, von den Minuspunkten der Nvidia-Technologie können wir feststellen, dass sie mit einer Bildrate von mindestens 30 FPS arbeitet, was als unglücklicher Nachteil angesehen werden kann - es wäre besser, wenn das Bild auch bei 20-25 FPS danach klar angezeigt würde es wurde auf der GPU vorbereitet. Der Hauptnachteil der Technologie besteht jedoch darin, dass es sich bei G-Sync um eine firmeneigene Lösung handelt, die von anderen GPU-Herstellern nicht verwendet wird: AMD und Intel. Man kann Nvidia auch verstehen, denn sie haben Ressourcen für die Entwicklung und Implementierung der Technologie aufgewendet und mit Monitorherstellern über deren Unterstützung verhandelt, gerade um Geld zu verdienen. Tatsächlich fungierten sie wieder einmal als Motor des technischen Fortschritts, trotz der angeblichen Profitgier des Unternehmens, die vielen vorkommt. Lassen Sie uns das große „Geheimnis“ lüften: Profit ist das Hauptziel jedes kommerziellen Unternehmens, und Nvidia ist da keine Ausnahme.

Und doch ist die Zukunft wahrscheinlicher für universellere offene Standards, die im Wesentlichen G-Sync ähneln, wie z. B. Adaptive-Sync, eine optionale Funktion in DisplayPort 1.2a. Aber das Erscheinen und die Verbreitung von Monitoren mit einer solchen Unterstützung müssen noch einige Zeit warten - irgendwo bis Mitte nächsten Jahres, und G-Sync-Monitore von verschiedenen Firmen (Asus, Acer, BenQ, AOC und andere) sind bereits auf dem Markt Verkauf für mehrere Monate, aber nicht zu billig. Nichts hindert Nvidia daran, Adaptive-Sync in Zukunft zu unterstützen, obwohl sie sich zu diesem Thema nicht offiziell geäußert haben. Bleibt zu hoffen, dass Geforce-Fans mit G-Sync nicht nur jetzt eine funktionierende Lösung haben, sondern in Zukunft auch die dynamische Bildwiederholrate im Rahmen des allgemein akzeptierten Standards genutzt werden kann.

Neben anderen Nachteilen der Nvidia G-Sync-Technologie für Benutzer stellen wir fest, dass ihre Unterstützung durch den Monitor den Hersteller einen bestimmten Betrag kostet, was zu einer Erhöhung des Verkaufspreises im Vergleich zu Standardmonitoren führt. Unter G-Sync-Monitoren gibt es jedoch Modelle unterschiedliche Kosten, und nicht zu teuer. Die Hauptsache ist, dass sie bereits im Angebot sind und jeder Spieler jetzt maximalen Komfort beim Spielen erhalten kann, und bisher nur bei Verwendung von Nvidia Geforce-Grafikkarten - das Unternehmen bürgt für diese Technologie.

Überblick über die G-Sync-Technologie | Testen von G-Sync mit deaktiviertem V-Sync

Die Schlussfolgerungen in diesem Material basieren auf einer Umfrage unter Autoren und Freunden von Tom's Hardware auf Skype (mit anderen Worten, die Stichprobe der Befragten ist klein), aber fast alle verstehen, was vertikale Synchronisation ist und welche Nachteile Benutzer in Kauf nehmen müssen Laut ihnen greifen sie nur dann auf V-Sync zurück, wenn Tearing aufgrund einer sehr großen Streuung in der Bildrate und Bildwiederholfrequenz des Monitors unerträglich wird.

Wie Sie sich vorstellen können, ist die visuelle Wirkung des Deaktivierens von Vsync schwer zu verwechseln, obwohl dies stark vom jeweiligen Spiel und seinen Detaileinstellungen beeinflusst wird.

Nehmen wir zum Beispiel Crysis 3. Das Spiel kann Ihr Grafiksubsystem bei den höchsten Grafikeinstellungen leicht in die Knie zwingen. Und weil Crysis 3 ist ein Ego-Shooter mit sehr dynamischem Gameplay, die Lücken können durchaus spürbar sein. Im obigen Beispiel wurde die FCAT-Ausgabe zwischen zwei Frames erfasst. Wie Sie sehen können, ist der Baum komplett geschnitten.

Auf der anderen Seite, wenn wir Vsync in Skyrim ausschalten, ist das Tearing nicht so schlimm. Beachten Sie, dass in diesem Fall die Bildrate sehr hoch ist und bei jedem Scan mehrere Bilder auf dem Bildschirm erscheinen. Also Bewertungen, die Anzahl der Bewegungen pro Frame ist relativ gering. Es gibt Probleme beim Spielen von Skyrim in dieser Konfiguration, und es ist möglicherweise nicht die optimalste. Aber es zeigt, dass sich das Spielgefühl auch bei ausgeschaltetem V-Sync ändern kann.

Als drittes Beispiel haben wir eine Aufnahme von Lara Crofts Schulter aus Tomb Raider gewählt, die einen ziemlich deutlichen Riss im Bild zeigt (siehe auch die Haare und den Träger des Tanktops). Tomb Raider ist das einzige Spiel in unserem Beispiel, bei dem Sie zwischen doppelter und dreifacher Pufferung wählen können, wenn Vsync aktiviert ist.

Die letzte Grafik zeigt, dass Metro: Last Light mit G-Sync bei 144 Hz liefert im Allgemeinen die gleiche Leistung wie mit deaktiviertem Vsync. Die Grafik zeigt jedoch nicht die Abwesenheit von Lücken. Wenn Sie Technologie mit einem 60-Hz-Bildschirm verwenden, erreicht die Bildrate 60 FPS, aber es gibt keine Verlangsamungen oder Verzögerungen.

Auf jeden Fall könnten sich diejenigen von Ihnen (und uns), die unzählige Stunden mit Grafiktests verbracht haben und sich immer wieder denselben Benchmark angesehen haben, daran gewöhnen und visuell feststellen, wie gut dieses oder jenes Ergebnis ist. So messen wir die absolute Leistung von Grafikkarten. Änderungen im Bild mit dem aktiven G-Sync fällt sofort ins Auge, da es eine Glätte gibt, wie bei eingeschaltetem V-Sync, aber ohne die für V-Sync charakteristischen Pausen ausgeschaltet. Schade, dass wir den Unterschied jetzt nicht im Video zeigen können.

Überblick über die G-Sync-Technologie | Spielkompatibilität: Fast großartig

Überprüfen Sie andere Spiele

Wir haben noch ein paar Spiele getestet. Crysis 3, Tomb Raider, Skyrim, BioShock: Infinite, Battlefield 4 den Prüfstand besucht. Alle außer Skyrim haben von der Technologie profitiert G-Sync. Die Wirkung hing vom kompetitiven Spiel ab. Aber wenn Sie ihn sehen würden, würden Sie sofort zugeben, dass Sie die Mängel, die vorher vorhanden waren, ignoriert haben.

Artefakte können immer noch erscheinen. Beispielsweise ist der mit Anti-Aliasing verbundene Kriecheffekt bei glatter Bewegung stärker wahrnehmbar. Höchstwahrscheinlich möchten Sie das Anti-Aliasing so hoch wie möglich einstellen, um unangenehme Unebenheiten zu entfernen, die vorher nicht so auffällig waren.

Skyrim: Sonderfall

Die Creation-Grafik-Engine, auf der Skyrim basiert, aktiviert standardmäßig die vertikale Synchronisierung. Um das Spiel mit einer Bildrate von über 60 FPS zu testen, fügen Sie die Zeile iPresentInterval=0 zu einer der .ini-Dateien des Spiels hinzu.

So kann Skyrim auf drei Arten getestet werden: Im Originalzustand, indem man dem Nvidia-Treiber erlaubt, „Anwendungseinstellungen zu verwenden“, zu aktivieren G-Sync im Treiber und lassen Sie die Skyrim-Einstellungen intakt und aktivieren Sie sie dann G-Sync und deaktivieren Sie V-Sync in der .ini-Datei des Spiels.

Die erste Konfiguration, bei der der experimentelle Monitor auf 60 Hz eingestellt ist, zeigte stabile 60 FPS bei Ultra-Einstellungen mit einer Grafikkarte Geforce GTX 770. Folglich erhielten wir ein flüssiges und angenehmes Bild. Benutzereingaben leiden jedoch immer noch unter Latenz. Darüber hinaus zeigte der seitliche Strafe eine merkliche Bewegungsunschärfe. So spielen jedoch die meisten Leute auf dem PC. Natürlich können Sie einen Bildschirm mit einer Bildwiederholfrequenz von 144 Hz kaufen, um Unschärfen wirklich zu beseitigen. Aber seit Geforce GTX 770 eine Bildwiederholrate von etwa 90 - 100 fps bietet, ruckelt es merklich, wenn die Engine zwischen 144 und 72 fps schwankt.

Bei 60 Hertz G-Sync negativ auf das Bild auswirkt, liegt dies vermutlich an aktiver Vertical-Sync, obwohl die Technik mit deaktiviertem V-Sync funktionieren sollte. Jetzt führt seitliches Strafe (insbesondere näher an den Wänden) zu starkem Bremsen. Dies ist ein potenzielles Problem für 60-Hz-Panels mit G-Sync, zumindest in Spielen wie Skyrim. Glücklicherweise kann man beim Asus VG248Q Monitor in den 144 Hz Modus schalten und trotz aktivem V-Sync, G-Sync funktioniert bei dieser Framerate ohne Beanstandungen.

Das vollständige Deaktivieren der vertikalen Synchronisierung in Skyrim führt zu einer viel "schärferen" Maussteuerung. Dies führt jedoch zu Rissen im Bild (ganz zu schweigen von anderen Artefakten wie schimmerndem Wasser). Aufnahme G-Sync lässt das Stottern bei 60Hz, aber bei 144Hz verbessert sich die Situation deutlich. Obwohl wir das Spiel in unseren Grafikkartentests mit deaktiviertem vsync testen, würden wir nicht empfehlen, ohne es zu spielen.

Für Skyrim wäre die Deaktivierung vielleicht die beste Lösung G-Sync und spielen Sie mit 60 Hz, wodurch Sie bei den von Ihnen gewählten Grafikeinstellungen konsistente 60 fps erhalten.

Überblick über die G-Sync-Technologie | G-Sync – worauf warten Sie noch?

Noch zuvor haben wir ein Testexemplar eines Asus-Monitors mit Technik erhalten G-Sync, wurden wir bereits durch die Tatsache ermutigt, dass Nvidia an einem sehr realen Problem arbeitet, das Spiele betrifft und das noch angegangen werden muss. Bisher konnten Sie V-Sync nach Belieben ein- oder ausschalten. Gleichzeitig ging jede Entscheidung mit Kompromissen einher, die das Spielerlebnis negativ beeinflussen. Wenn Sie es vorziehen, V-Sync nicht zu aktivieren, bis das Bildreißen unerträglich wird, können wir sagen, dass Sie das kleinere von zwei Übeln wählen.

G-Sync löst das Problem, indem es dem Monitor ermöglicht, den Bildschirm mit einer variablen Frequenz zu scannen. Innovationen wie diese sind die einzige Möglichkeit, unsere Branche weiter voranzubringen und gleichzeitig den technischen Vorteil von PCs gegenüber Spielkonsolen und Plattformen zu wahren. Nvidia wird sicherlich der Kritik standhalten, keinen Standard entwickelt zu haben, den Konkurrenten anwenden könnten. Allerdings setzt das Unternehmen für seine Lösung auf DisplayPort 1.2. Als Ergebnis nur zwei Monate nach der Ankündigung der Technologie G-Sync Sie war in unseren Händen.

Die Frage ist, liefert Nvidia mit G-Sync alles, was es versprochen hat?

Drei talentierte Entwickler, die die Qualitäten einer Technologie anpreisen, die Sie noch nie in Aktion gesehen haben, können jeden inspirieren. Aber wenn Ihre erste Erfahrung mit G-Sync Anhand von Nvidias Pendel-Demo-Test fragt man sich sicher, ob ein so großer Unterschied überhaupt möglich ist oder ob der Test ein spezielles Szenario darstellt, das zu schön ist, um wahr zu sein.

Beim Testen der Technik in realen Spielen ist der Effekt naturgemäß nicht so eindeutig. Auf der einen Seite gab es Ausrufe von "Wow!" und "Go crazy!", auf der anderen - "Ich glaube, ich sehe den Unterschied." Beste Aktivierungswirkung G-Sync bemerkbar, wenn die Bildwiederholfrequenz von 60 Hz auf 144 Hz geändert wird. Wir haben aber auch versucht bei 60Hz mit zu testen G-Sync um zu sehen, was Sie in Zukunft (hoffentlich) mit billigeren Displays bekommen. In einigen Fällen wird es Sie umhauen, wenn Sie einfach von 60 auf 144 Hz wechseln, insbesondere wenn Ihre Grafikkarte hohe Bildraten verarbeiten kann.

Heute wissen wir, dass Asus plant, Unterstützung für zu implementieren G-Sync im Modell Asus VG248QE, die nach Angaben des Unternehmens im nächsten Jahr für 400 US-Dollar verkauft werden. Der Monitor hat eine native Auflösung von 1920 x 1080 Pixel und eine Bildwiederholfrequenz von 144 Hz. Ausführung ohne G-Sync hat bereits unseren Smart Buy Award für herausragende Leistungen erhalten. Für uns persönlich ist ein 6-Bit-TN-Panel aber ein Nachteil. Ich möchte wirklich 2560 x 1440 Pixel auf einer IPS-Matrix sehen. Wir geben uns sogar mit einer Bildwiederholfrequenz von 60 Hz zufrieden, wenn dies dazu beiträgt, den Preis niedrig zu halten.

Obwohl wir auf der CES mit einer ganzen Reihe von Ankündigungen rechnen, gibt es offizielle Kommentare von Nvidia zu anderen Displays mit Modulen G-Sync und wir haben ihre Preise nicht gehört. Außerdem sind wir uns nicht sicher, welche Pläne das Unternehmen für ein Upgrade-Modul hat, mit dem Sie das Modul implementieren können. G-Sync in einem bereits gekauften Monitor Asus VG248QE in 20 Minuten.

Jetzt können wir sagen, dass sich das Warten gelohnt hat. Sie werden sehen, dass bei manchen Spielen die Auswirkungen der neuen Technologie nicht zu verwechseln sind, während sie bei anderen weniger ausgeprägt sind. Aber wie auch immer G-Sync beantwortet die "bärtige" Frage, ob die vertikale Synchronisierung aktiviert werden soll oder nicht.

Es gibt noch eine weitere interessante Idee. Nachdem wir getestet haben G-Sync, wie lange kann AMD sich Kommentaren noch entziehen? Das Unternehmen neckte unsere Leser in seinem Vorstellungsgespräch(Englisch) und weist darauf hin, dass sie bald über diese Möglichkeit entscheiden wird. Was ist, wenn sie etwas im Sinn hat? Das Ende des Jahres 2013 und der Anfang des Jahres 2014 bringen uns eine Menge spannender Neuigkeiten, über die wir diskutieren können, einschließlich Battlefield 4 Mantle-Versionen, die kommende Nvidia Maxwell-Architektur, G-Sync, eine AMD xDMA-Engine mit CrossFire-Unterstützung und Gerüchte über neue Dual-Chip-Grafikkarten. Im Moment haben wir nicht genug Grafikkarten mit mehr als 3 GB (Nvidia) und 4 GB (AMD) GDDR5-Speicher, aber sie kosten weniger als 1000 US-Dollar ...