Ratchet & Clank Rift Apart: 4K/30 FPS oder 60 FPS stehen auf der PS5 zur Wahl

D

DominikZwingmann

Gast
Jetzt ist Deine Meinung zu Ratchet & Clank Rift Apart: 4K/30 FPS oder 60 FPS stehen auf der PS5 zur Wahl gefragt.


Bitte beachtet: Der Kommentarbereich wird gemäß der Forenregeln moderiert.


lastpost-right.png
Zum Artikel: Ratchet & Clank Rift Apart: 4K/30 FPS oder 60 FPS stehen auf der PS5 zur Wahl
 
Würde bestimmt auch gehen, dann müssten sie die Ressourcen wohl nur anders nutzen. Dann müsste die Grafik wohl etwas weniger opulent daherkommen.

Das ist ja eine freie Entscheidung der Entwickler. Ich denke mal dass kompetitive Games dann voll auf Performance gegen und 4k/60 darstellen.
 
So opulent ist die Grafik jetzt gar nicht, und nicht weit weg vom Vorgänger. Opulent ist für mich ein GoW oder Uncharted. Wenn sie das hier nicht hinkriegen , werden sie es bei anderen Spielen auch nicht hinkriegen. Zumal die Grafik mit der Zeit immer besser wird.
Ich denke dass ich eine meine größten Hoffnungen im Bezug auf Nextgen , begraben kann.
 
So opulent ist die Grafik jetzt gar nicht, und nicht weit weg vom Vorgänger. Opulent ist für mich ein GoW oder Uncharted. Wenn sie das hier nicht hinkriegen , werden sie es bei anderen Spielen auch nicht hinkriegen. Zumal die Grafik mit der Zeit immer besser wird.
Ich denke dass ich eine meine größten Hoffnungen im Bezug auf Nextgen , begraben kann.

Die ersten Spiele sind nie Grafikbretter gewesen, die kamen erst viel später. Das war bei der PS3 und PS4 genauso. Vergleiche Resistance 1 oder Motorstorm 1 mit Last of Us. Oder vergleiche Killzone und Knack mit Last of Us 2, Horizon, Ghost of Tsushima oder God of War. Jetzt rein technisch/grafisch

Du bist viel zu negativ zu der neuen Generation eingestellt

Außerdem kann ja theoretisch irgendwann auch wie ne PS5 Pro kommen
 
Zuletzt bearbeitet:
Die ersten Spiele sind nie Grafikbretter gewesen,
Ja gut , aber was soll mir das jetzt sagen? Im Endeffekt stimmst du mir sogar zu.
Mein Post bezog sich in erster Linie auf die Frames. Wenn sie 60fps bei den ersten Titel nur mit Kompromissen hinkriegen , was ist dann später, wenn die Grafikqualität anzieht?
Verstehe zudem nicht was daran wieder zu negativ sein soll?
Zumal ich schon in meinen früheren Posts , bloß Fakten zusammentrage und benenne .
 
wenn die Grafikqualität anzieht?
Dadurch wird aber nicht mehr Leistung benötigt. Ratchet läuft garantiert schon nahe am Limit, sonst könnten sie ja einfach die Regler auf 4k/60 drehen und es würde laufen ;)
Die später bessere Grafikquali kommt nur durch Optimierungen zu Stande.
Ratchet macht es für mich perfekt mit hochskalierten 4k und 60fps. So kann noch etwas Power in die Grafikquali fließen. Native 4k brauche ich ehrlich gesagt nicht, dafür ist der Unterschied einfach zu gering, wobei 60fps einen echten Mehrwert darstellen.
 
Wenn sie 60fps bei den ersten Titel nur mit Kompromissen hinkriegen , was ist dann später, wenn die Grafikqualität anzieht?

Die Grafikqualität und die Performance sind aber das selbe Paar Schuhe. Desdo mehr Erfahrung die Programmierer mit der Next-Gen haben, desdo wahrscheinlicher ist auch 4k/60fps... auch bei schönerer Grafikpracht.
Ich weiß noch das viele Entwickler Probleme hatten bei den ersten Spielen für XBOXONE auf 1080p zu kommen. Spiele wie AC Black Flag liefen in 720p, einige mit irgendwas um die 900.
Später gab's das "Problem" aber nicht mehr. Soweit ich weiß liefen nach recht kurzer Zeit alle Spiele auf 1080p.
Die Meldung in der News klingt für mich ganz ähnlich.
 
Soweit ich weiß liefen nach recht kurzer Zeit alle Spiele auf 1080p.
Eben nicht. Die One hat heute noch Probleme damit. Und die PS4 schafft es auch nicht bei allen Games.
Ich bin aufgrund der Erfahrungswerte aus vergangenen Generationen, erstmal skeptisch. Und egal was kommt , an 60fps als Standard ohne Kompromisse , glaube ich nicht.
 
an 60fps als Standard ohne Kompromisse , glaube ich nicht.
Das ist ja das Entscheidende. Jedes Spiel sollte über einen Quality und Performance Modus verfügen. Und sei es Unterschied zwischen 30fps und 60fps bzw 60fps und 70-80fps.

Frames sind wichtiger als Auflösung. Ich spiele auf der One X supportete Spiele nur im Performance Modus. Bei langsamen Titeln ist es mir egal. Bei Ratchet & Clank Rift Apart brauche ich schon 60fps. Das Spiel ist grundsätzlich etwas flotter als das PS4 Remake und da sind hohe fps wichtig.

Auf Konsolen wie auch auf Heim-PCs sind immer Kompromisse notwendig. Wenn man im PC nicht investiert wird es schwer sein aktuelle Games in Ultra Setting mit 4K und Kantenglättung in 60fps darzustellen. Dann ist die Frage gehe ich für mehr Frames auf High oder Medium Setting.

Das ist das Geile an Konsolen. Du kannst darauf für Konsolen optimierte Spiele spielen. Am PC ist es nett wenn ein Spiel 8K und 120fps unterstützt. Aber den Krempel muss man sich erst einmal leisten und zusammenbauen. Die Konsole hat man einmal und ist gut fünf bis sieben Jahre damit beschäftigt.

Auf 60fps will ich bei solcher Hardware nicht verzichten, daher möchte ich schon, dass sämtliche Games die nicht im Voraus 60fps unterstützen mit einem Performance Modus ausgestattet werden. Bei 500 Euro Konsolen erwarte ich das. Zumal einige Games der One X das auch schon hat - wahrscheinlich auch die PS4 Pro.
 
60fps als Standard ohne Kompromisse , glaube ich nicht.

Wenn man bedenkt, das grafisch immer Raum nach oben ist (in Sachen Framerate auch, ist aber auf Konsole ab 60 fps aufwärts Verschwendung), ist es immer und ausnahmslos ein Kompromiss zwischen Leistung und Performance. Ich stimme zu, jedes Spiel sollte 60fps ermöglichen und entsprechend optimiert werden. 60fps muss auch auf Konsolen endlich ein Standard werden. Die 30fps-Variante mit mehr Grafik-Features sollte immer on-top zu sehen und damit wünschenswert sein.

So bleibt jedem Spieler zum Einen die Entscheidung zwischen Performance und noch mehr Grafik inklusive (teils sehr im Detail versteckten) High-End-Features, die bei allen Optimierungen sonst nicht in 60fps möglich wären. Die 30fps-Variante ist dann zum Anderen auch deshalb interessant, wenn es um teils experimentelle Grafik-Features und Technologien wie Raytracing geht, die mit aktueller Hardware dann nur so möglich werden. Viele grafische Leistungsfresser wie diese kann man aber auch nicht anhand von Gameplay-Material bewerten, das nicht auf dem passenden System + kompatiblen Monitor/Fernseher abgespielt wird.

Hinzu kommt: Mechaniken wie das Rift-Gameplay bei Ratchet & Clank müssen auch bedacht werden. Grafik und Performance werden ja nicht nur von der oberflächlich betrachteten Optik bestimmt. Flüssiges Gameplay mit Features wie den Rifts verbraucht natürlich auch Leistung, wirken sich aber erstmal nicht direkt auf die Grafik aus. Deshalb würde ich nicht so weit gehen, die Grafik und Performance anhand von Material nur hinsichtlich der Optik zu beurteilen, wenn es am normalen PC-Monitor über ein komprimiertes Video ausgespielt wird und Mechaniken für flüssiges Gameplay auch noch eine Rolle spielen.
 
Ich hoffe dass sich die Möglichkeit zwischen Performance und Auflösung wählen zu können etabliert. Ich nehme niedrige Auflösung in Kauf wenn ich dafür 60fps bekomme.
Angeblich soll das nächste CoD auf Konsole in 120fps laufen , sagt Activision. Bin mal gespannt wie sie das hinkriegen wollen. Zumal Activision nicht grade für saubere Programmierung steht.
 
Angeblich soll das nächste CoD auf Konsole in 120fps laufen , sagt Activision. Bin mal gespannt wie sie das hinkriegen wollen. Zumal Activision nicht grade für saubere Programmierung steht.

Das ist eh nur Marketing-Gelaber. Da würde ich gar nicht weiter drüber nachdenken, weil - selbst, wenn sie es schaffen - es völlig egal wäre. Damit man als Spieler davon was hat, braucht man für 120fps auch ein Ausgabegerät, das effektive 120Hz unterstützt. Das machen Monitore mit entsprechend hoher Hz-Angabe, aber nicht Fernseher. Bei TVs sind es 120 interpolierte Hz, keine effektiven. Kennt man: Das ist dieser dämliche Soap-Opera-Effekt, teils durch Bildverbesserer herbeigeführt - und damit kommt auch immer ein Input-Lag, der es vor allem in Online-Shootern kontraproduktiv macht. Es existieren TVs, die effektive 120Hz können, aber die wird kaum ein Gamer aufgrund der Preise besitzen. Und es würde aufgrund der Tatsache auch keinen Sinn für einen Entwickler machen, ein Konsolenspiel absichtig dahin zu optimieren. Wenn das nächste CoD 120fps schafft, dann weil es ein positiver Nebeneffekt der neuen Hardwareleistung ist, nicht weil es das Ziel war. Interessant für PC-Spieler, mit entsprechenden Monitoren, nicht interessant für Konsolenspieler. Also Vorsicht bei diesen (teilweise immer noch existierenden) TV-Angeboten nach dem Motto "unser Viech kann 200/300/600Hz", weil nein - können sie nicht wirklich. Das ist nur simuliert.
 
Das ist eh nur Marketing-Gelaber. Da würde ich gar nicht weiter drüber nachdenken, weil - selbst, wenn sie es schaffen - es völlig egal wäre. Damit man als Spieler davon was hat, braucht man für 120fps auch ein Ausgabegerät, das effektive 120Hz unterstützt. Das machen Monitore mit entsprechend hoher Hz-Angabe, aber nicht Fernseher. Bei TVs sind es 120 interpolierte Hz, keine effektiven. t.
Das ist mir klar. Die Wenigsten könnten es nutzen. Abgesehen davon dass ich nicht glaube dass die Entwickler dies vernünftig hinbekommen.
 
Das ist mir klar. Die Wenigsten könnten es nutzen. Abgesehen davon dass ich nicht glaube dass die Entwickler dies vernünftig hinbekommen.
Man kann ja schon 80 - 90fps als 120fps verkaufen, wenn einmal in einer Spielszene nicht viel los ist. CoD war jetzt nie das Spiel, dass mit einer aufwendigen Grafik glänzte, abgesehen von den Cutscenes vielleicht. Man braucht sich auch nur die Spielgröße der jüngeren Ableger anschauen. Die sind nur so mit Daten vollgestopft. Da kann ich mir schon vorstellen, dass die zu Lasten einer aufwendigeren NextGen Grafik lieber auf hohe fps setzen.
 
Mehr wie 60 fps brauch ich nicht, sollen die Mehrpower lieber in Sachen wie RayTracing, weniger PopUps, mehr Details und kurze Ladezeiten stecken.
 
Es existieren TVs, die effektive 120Hz können, aber die wird kaum ein Gamer aufgrund der Preise besitzen.
Gewagte These. Ich würde eher behaupten, wenn jemand solche TVs besitzt, dann gerade Gamer, denn in keinem anderen Bereich sind 120Hz von Nöten. Generell wird es aber schon stimmen, da es einfach nicht viele Hdmi2.1 TVs auf dem Markt gibt. Der Preis geht aber langsam auch in Ordnung, denn einer der Besten TVs (LG OLED55C9) war schon unter €1500 zu haben. Ich habe mir den Nachfolger geholt, da ich unbedingt freesync wollte und deren 48" Modell wird sich in naher Zukunft bestimmt bei €1000 einpendeln.
 
Gewagte These. Ich würde eher behaupten, wenn jemand solche TVs besitzt, dann gerade Gamer, denn in keinem anderen Bereich sind 120Hz von Nöten. Generell wird es aber schon stimmen, da es einfach nicht viele Hdmi2.1 TVs auf dem Markt gibt. Der Preis geht aber langsam auch in Ordnung, denn einer der Besten TVs (LG OLED55C9) war schon unter €1500 zu haben. Ich habe mir den Nachfolger geholt, da ich unbedingt freesync wollte und deren 48" Modell wird sich in naher Zukunft bestimmt bei €1000 einpendeln.

Grundsätzlich richtig, es würde sich am ehesten für Gamer lohnen. Aber nun gibt es bislang nun mal effektiv keine Games für diese Technik und in (naher) Zukunft wird das auch eher die Ausnahme sein (wie vielleicht CoD). Die Gründe für die Anschaffung bis zum Zeitpunkt jetzt war dann sicherlich eine andere. Das dürften Early-Adopter/Technikfreaks gewesen sein. Hinzukommt: Der Großteil der Gamer tickt nicht so wie die Enthusiasten, die sich auch in Foren wie diesen tummeln.

Muss man letztendlich dann einfach anteilig betrachten: Auf dem PC ist solche Technik zwar längst etabliert und überhaupt mehr Technikspielerei möglich, statistisch gesehen ist der prozentuale Anteil an Gamern, die auch so viel für den Mehrwert auf den Tisch legen, eine Randgruppe. Bei Konsolen wäre das ein nochmal kleinerer Anteil, weil a) zu wenige bis gar keine Games, die davon profitieren b) Preisdiskrepanz zu normaler Technik, weil der "normale" Konsolenspieler (sprich, eher nicht die hier anwesenden) entscheidet sich ja auch (unter anderem) primär aus Kostengründen für eine Konsole anstelle eines (High-End-)PCs. Hinzukommen natürlich Faktoren wie "kein Bock auf die Auseinandersetzung mit der Technik", etc.

Das ist jetzt nur eine von vielen Statistiken, aber zumindest ein Indikator:
https://uk.pcmag.com/why-axis/126712/pc-gamers-prioritize-high-end-graphics-and-back-support
Interessant sind auch die Statistiken von Microsoft und Steam, die regelmäßig Report herausgeben, welche Hardware bei den Spielen zur Anwendung kommt.

Der Großteil besteht aus Leuten die, hätten sie sich für Konsole statt PC entschieden, eben nicht viel Geld auf den Tisch legen wollen. Sprich, für eine auf Konsolen noch verschwindend geringere Zielgruppe werden dann natürlich erst gar nicht Spiele erschaffen, die mehr leisten können als sie es tun. Lohnt sich für die Entwickler nicht. Deshalb sind auch die TVs mit effektiven 120Hz erstmal nur ein absoluter Luxus für Technik-Freaks mit vollem Geldbeutel für Spiele, die aktuell auf Konsolen nicht existieren und in absehbarer Zukunft auch kein Standard werden. Dass es da preislich nach oben kein Limit gibt, ist auch klar, aber Gamer, die 1.000€ aufwärts für einen PC, geschweige denn zusätzliche Peripherie wie einen Monitor oder einen Fernseher ausgeben, sind halt hart in der Unterzahl. Ist halt eine Wechselwirkung aus den oben genannten Faktoren, welche die ganze Sache ganz weit entfernte Zukunftsmusik (für Konsolen) macht.
 
Zuletzt bearbeitet von einem Moderator:
Zurück