Bitte helft meinem gefährlichen Grafikkarten-Halbwissen

rookie_09

Mitglied
Themen-Ersteller
Jul 7, 2025
26
2
Hallo,
Ich denke, der Titel ist schon relativ aussagekräftig. Um euch etwas abzuholen : Ich gehöre zu den gefährlichen Leuten, die dachten, dass intelligente Upscaling-Technologien wie DLSS und MFG eine Art "Wunderwaffe" gegen anspruchsvolle Spiele sind. Zum Beispiel habe ich heute folgendes Video gefunden, welches mich vom Kauf einer GeForce RTX 5060 fast überzeugt hätte. Hier mal ein paar meiner Fragen :
1. Sind NVidias Upscaling-Algorithmen wie DLSS 4 und Multi-Frame-Generation viel besser als RDNA von AMD-Produkten ?
2. Welchen Unterschied macht es, wenn ein Bild in 1080p gerendert und mit DLSS hochskaliert wird, als wenn ein Bild nativ in einer höheren Auflösung gerendert werden kann ? Sind da, mit dem mentschlichen Auge tatsächlich relevante Unterschiede erkennbar ?
3. Kann man ein Spiel mit hohen Details in einer niedrigen Auflösung wie 1080p rendern und mit DLSS dann hochkonvertieren ? Sind auch hier dann wirklich erkennbare Unterschiede erkennbar, als wenn das Bild nativ gerendert wird ?
4. Wie kommt es, dass eine Asrock Challenger Radeon RX 7700 XT OC mit 378 Euro soviel günstiger ist als eine Asus Dual Radeon RX 7700 XT OC mit 466 Euro, wenn doch hinter beiden Produkten dasselbe Produkt, nur eben ein anderer namhafter Hersteller dahinter steht ?

Vielen Dank für eure Antworten ?

 

Nobbi56

Ehrenmitglied
Feb 8, 2022
7.711
2.828
Hallo,

ja, insbes. nVidia - die ja diese upscaling Technologie quasi "erfunden" und mit der RTX2xxx-Generation eingeführt haben - ist sehr kreativ, wen es draum geht, die Vorzüge dieser Tehcnologie anzupreisen. Und wie (fast) immer: AMD zieht brav nach. Nicht alles, aber viel davon ist reines Merketing.

Letztlich hat dieses Feature Vor- und Nachteile:; Unbestreitbar kann es die die fps-Zahl in grafisch aufwändigen Spielen erhöhen, weil die Frames eben intern mit einer geringeren Auflösung als nativ (also wie der Monitor) berechnet und anschließend mittels KI auf die Bildschirmauflösung hochskaliert werden. Da somit die GPU für die Darstellung eines Frames weniger Pixel berechnen muss, kann sie mehr Pixel pro Zeiteinheit berechnen => die Framerate steigt (jedenfalls., solange die CPU mitmacht). Durch die KI Hochskalierung wird zwar etwas zuzätzliche Zeit benötigt, unter'm Stich bleibt aber eine - je nach gewählter Renderskalierung (s. u.) - deutliche Erhöhung der Framerate.

Der Nachteil gegenüber der Auflösung ist, dass durch diesen Prozess Bildfehler (wie z. B. Ghosting,. Artefakte usw.) entstehen können und somit die Bildqualität gegenüber nativer Auflösung verschlechtert werden kann - d. h. das gameplay iwrd zwar flüsioger, aber ru. u, auch "hässlicher". Allerdings ist es nVidia lt. Tests gelungen,. mit der sukzessiven Weiterentwicklung von DLSS (insbes. der kI) bis zur aktuellen Version 4 diese Bildfehler immer mehr zu minimieren. Es gibt einige Tester, die behaupten, dass in manchen Spielen das Bild mit DLSS 4 sogar besser ausschaut als mit nativer Auflösung.

AMD konnte mit FSR 4 ebenfalls die Bildqualität gegenüber FSR 3 deutlich verbessern, kommt aber lt. Tests noch nicht ganz an DLSS 4 herin, zudem wird FSR 4 bis dato von viel weniger Spielen unterstützt als DLSS 4 (aktuelles Beispiel:; BF 6 hat bisher nur DLSS 4, kein FSR 4 - ist aer bei einem MP Shooter evtll auch nicht ganz so wichtig...).

Was MFG angeht, das ist eine ganz andere Technologie als DLSS, wird nur leider von NVidia unglücklich mitreinander in der Bezeichnung DLSS 4 vermischt. Bei FG bzw. MFG werden zwischen zwei "reale" gerenderte Frames 1-3 "künstliche" Frames eingeschoben, welche von einer KI mittels Interpolation erzeugt werden. Dabei vergleich die KI die Darstellung im ersten und im zweiten "realen" Frame und ermittelt die Verändeurngen zwischen beiden Bildern. Auf Grund diesers Vergleichs versucht sie dann, die dazwischen liegende Entwicklung im Spielgeschehen zu "erraten" und erzeugt dementsprechende "Fake.-Frames". Auch bei diesem Prozess können Bildfehler entstehen (und zwar umso eher, je größer der zeitliche Abstand zwischen den beiden "realen" Frames ist, weshalb die Nutzung von MFG auch erst ab ca. 50-60 fps empfohlen wird) , außerdem erhöht sich die Eingabelatenz, d. h. es dauert länger,, bis ein Eingabebefehl mit Tastatur, Maus oder Gamepad im Spiel umgesetzt wird. Durch die zusätzlich erzeugten "Fake frames" kann ein Spiel zwar füssiger erscheinen, das gameplay kann aber u. U. durch die höhere Eingabelatenz "zäher" wirken.

Letztlich ist das aber alles sehr subjektiv und kann von Spiel zu Spiel auch sehr unterschiedlich ausfallen.

Damit habe ich hoffentlich deine Fragen 1 und 2 schon beantwortet.

Zu 3.: Du kannst DLSS prinzipiell bei jeder nativen Auflösung in verschiedenen Presets (quailty, balenced, performance und mitunter auch ultra performance) aktivieren, sofern im Spiel implementiert. Aber je geringer die intern gerenderte Aiuflösung ist, desto eher können Bildfehler entstehen. Bei "quality" wird die Auflösung am wenigsten intern reduziert, dadurch werden Bildfehler minimiert, aber die Framerate auch nur am wenigsten erhöht. Bei "performance" ist es genau umgekehrt: mehr fps, aber evtl. mit mehr Bildfehlern. "balenced" liegt dazwischen.

Zu 4.: Tja, da musst du Asus fragen, bei denen gehört es quasi zur "corporate identity", oftmals bissl mehr zu verlangen, weil man sich dadurch gerne als "Premium-Hersteller" präsentiert mit entsprchendem "Marken-Bonus" (wie z. B. auch Corsair)... "Apple light" sozusagen..😅

AsRock dagegen war schon immer dafür bekannt, Prrodukte mnit sehr gutem P/L-Verh. anzubieten. Vor einigen Jahren hatten sie zwar eine unschöne Phase, wo sie bei der Qualität gespart und dafür mit falschen Marktingaussagen verärgert haben, aber diese Zeit ist lange vorbei, mittlerweile muss sich AsRock qualitativ nicht mehr hinter den anderen Herstellern verstecken, wie zahlreiche Tests belegt haben.

(Aber keine Regel ohne Ausnahme: Es gibt von Asus auch preislich attraktive gute AM 5 Mainboards, während z. B. die AsRock RX 9700XT Taichi maßlos überteuert ist. war bis vor kurzem)

Gewisse Preisdifferenzen zwischen einzelnen Custom-Modellen eine r GPU sind aber normal und beruhen z. B. auf unterschiedlich aufwändigen Kühlern mit 2 oder 3 Lüftern unterchiedlicher Größe, mit oder ohne vacuum chamber usw. oder besonderen Features wie Dual BIOS, regelbare ARGB o. ä.

LG N.
 
Zuletzt bearbeitet:
  • Gefällt mir!
Reactions: rookie_09 und MWild

MWild

Stammgast II
Sep 28, 2023
273
71
Ich versuche das mal zu beantworten. Also, meiner Meinung nach gibt's keine Wunderwaffen.

1. Die kurze Antwort ist, JA, sie sind besser.
Die lange Antwort ist, sie sind besser aus Gründen, aber die Konkurrenz von AMD schläft auch nicht und wird langsam ähnlich gut.

Aber mal zur Erläuterung: DLSS und FrameGeneration sind Software-Features der Grafikkarte, die jedoch bei Nvidia propriäter sind, also nur mit den Hauseigenen Grafikkarten ("GeForce") funktionieren. Das Upscaling von Nvidia basiert auf KI und sieht besser aus. Vor allem in Standbildern kannst du zum Teil mit dem bloßen Auge keine Unterschiede zu einem Vergleichsbild in nativer Auflösung erkennen! In Bewegung gibt es aber Unterschiede, z.B. Artefaktebildung, Ghosting, "Shimmering" usw. die je nach dem, von welcher Auflösung hochskaliert wird, mehr oder minder stark auffallen. Als guter Kompromiss gilt z.B. das Upscaling von 1080p auf WQHD. Die anderen Upscaling Technologien (FSR und XESS) bieten eine schlechtere Bildqualität, u.a. ein verschommeneres Bild und stärkere Artefaktbildung. Jedoch gibt es einen Pferdefuß, nämlich dein Input Lag (Eingabeverzögerung) erhöht sich! Bei reinem DLSS zwar nicht sehr groß, aber dazu später mehr.
Zum Thema Frame Generation wäre zu sagen, dass dies "on top" kommt, also bei aktiviertem DLSS (Upscaling) kann man Frame Gen aktivieren - damit werden Ki-Generierte (also nicht echte) Zwischenbilder erzeugt, um eine höhere Bildwiederholrate (Framerate) zu erzielen und somit eine deutlich flüssigere Wiedergabe auf den Bildschirm zu zaubern. Das Problem hierbei ist: Der Input Lag wird durch diese Zauberei nochmals verstärkt und somit fühlt sich manches Spiel spürbar träge an. Manche juckt das nicht, aber ich persönlich schalte diese Option daher bei den meisten Spielen am liebsten ab. Außerdem macht Frame Generation nur dann überhaupt Sinn, wenn du nativ schon mindestens 60 FPS hast, da man von niedrigeren FPS werten mit Frame Gen nicht zocken kann, da es total laggy wirkt.
Beispiel: Ich spiele gerne Diablo IV und ich schalte dabei sowohl Frame Gen als auch DLSS komplett ab, damit das Spiel so reaktiv wie möglich wiedergegeben wird! Es fühlt sich halt besser an. Ich spiele mit Keyboard und Maus.
Bei Spielen, die ich mit dem Controller spiele, nutze ich jedoch z.T. DLSS, u.a. auch weil es doch ein stückweit performanter läuft.

Fazit: Upscaling sollte eigentlich eine untergeordnete Rolle bei der Kaufentscheidung spielen. Upscaling und FrameGen sind fast schon eher Marketing Tricks. Besser ist, du hast eine Grafikkarte, die genug native Leistung hat, um deine Spiele in deiner Wunschauflösung zu rendern. Natürlich geht das bei manchen Games nicht so gut, weil die zu fordern sind, z.B. in 4K, da kann man dann noch Upscaling nutzen. Generell macht Upscaling eher Sinn bei sehr hohen Auflösungen. Am Besten ist aber, die Spiele nativ + DLAA (das ist Nvidias KI basierte Kantenglättung) zu nutzen. Damit bekommst du die beste Bildqualität. Kostet jedoch ein paar Punkte in der Performance als nativ ohne DLAA.

2. Unterschiede sind merkbarer, je größer der Monitor ist, auf dem du das widergibst. Kleinere Monitore mit höherer Pixeldichte vertuschen die Unterschiede besser!

3. Sind erkennbar, aber merkst du in der Praxis nicht...

4. ASUS = Premium Hersteller, ASRock = der ALDI unter den Herstellern (kurz gesagt) :D
 
Zuletzt bearbeitet:

rookie_09

Mitglied
Themen-Ersteller
Jul 7, 2025
26
2
ASUS = Premium Hersteller, ASRock = der ALDI unter den Herstellern (kurz gesagt) :D
Wow, das wusste ich nicht. Ich kenne viele Produkte von ASRock, aber dass da wirklich die Qualität bissl geringer ist, hätt ich nie erraten.

Ich zocke gerade oft mit meinem Laptop. Das hat ne GeForce GTX 4060 drinnen mit 8 GB VRAM. Die leistet auch, für meine Lieblingsspiele (Age of Empires 3 DE, Desperados 3) sehr gute Dienste.

Hab mir allerdings vor kurzem nen neuen Stand-PC mal zusammengebastelt und da fehlt jetzt nur noch eine Grafikkarte. Wollte etwas stärkeres als die 4060, um auch ein bissl für die Zukunft gerüstet zu sein, also hab ich mir die 5060 angeschaut, die mal um rund 20% schneller ist. Dazu hab ich dann noch die AMD Konkurrenten 6700 XT und 7700 XT angeschaut. Die haben mir auch gefallen, vor allem anhand des höheren VRAM. Aber der enorme Stromverbrauch der AMD-Karten in Verbindung mit der besseren Unterstützung von NVidia-Karten bei einigen Spielen hat mich eher wieder mehr in RIchtung NVidia gedrängt, auch wenn 8 GB VRAM nicht mehr zeitgemäß sind. Hab schon mit der 5060 TI mit 16 GB geschaut, aber da ist der Preisunterschied zu einer 4070 dann auch nimmer weit.

Was habt Ihr so für Grafikkarten im Einsatz und gibt es eine, die Ihr empfehlen würdet ?
 

MetallicaSun

Ehrenmitglied
Okt 3, 2022
15.062
3.495
Naja, der Stromverbrauch ist jetzt nicht mehr so enorm bei der 9000er Serie und du kannst keine Laptop GPU mit dem Desktop Modell vergleichen.
Die heißen zwar beide RTX4060 aber es liegen paar FPS dazwischen, Je stärker die GPU ist umso größer wird der Unterschied
PS: ASRock ist die Günstig Sparte von ASUS ;)

Meine nächste GPU wird eine RX9070 Pure Sapphire werden, doof das die Pulse gerade unter 600€ gefallen ist, ich hoffe die Pure zieht nach, dann werd ich wohl meine RTX2060 austauschen
 
Zuletzt bearbeitet:

Willi2505

Ehrenmitglied
Jan 26, 2020
11.852
5.419
  • Gefällt mir!
Reactions: CalvinLuca

Nobbi56

Ehrenmitglied
Feb 8, 2022
7.711
2.828
4. ASUS = Premium Hersteller, ASRock = der ALDI unter den Herstellern (kurz gesagt) :D

Ach, das hatte ich ganz überlesen..:sleep:

Na ja, so würde ich das jetzt nicht formulieren, jedenfalls, sofern der Vergleich mit ALDI abwertend gemeint sein sollte.

Asus "verkauft" sich gerne als "Premium" Brand (um die z. T. objekriv überhöhten Preise zu rechtfertigen), aber wer schon mal Kondensatoren falsch herum aufs Board lötet, CPUs durch eine zu hohe SoC-Spannung grillt (und den Sockel wg. fehlender Schutzschaltungen gleich mit...) oder - zumindest in USA - durch sehr fragwürdige RMA Praktiken negativ aufgefallen ist, den würde ich nicht unbedingt als "Premium" bezeichnen ... alles Dinge, die bei Asus in den letzten 2 Jahren passiert und die im www gut dokumentiert sind, kann man da alles recherchieren und überprüfen (z. B. bei Gamers Nexus, Actually Hardware Overclocking aka Buildzoid u. a. renommierten Quellen).

AsRock dagegen hat wie gesagt in den letzten Jahren qualitativ zugelegt und ich kenne aktuell keinen Test, wo ein AsRock Produkt durchgefallen wäre. Sie bieten oft ordentliche Qualität zu einem attraktiven Preis - keine Ahnung, ob das auch für ALDI gilt, bei mir gibts nur Edeka und Netto...:p

LG N.