PS3 - Keine Kantenglättung?!

Diese Seite verwendet Cookies. Durch die Nutzung unserer Seite erklären Sie sich damit einverstanden, dass wir Cookies setzen. Weitere Informationen

  • PS3 - Keine Kantenglättung?!

    Bin jetzt "stolzer" Besitzer einer PS3 und wundere mich derzeit extrem über die Tatsache, dass in vielen Spielen kein Antialiiasing integriert ist. Ich finde das für eine Next-Gen Konsole, die für sich in Anspruch nimmt die technisch fortschrittlichste zu sein, einfach nur erbärmlich. Meiner Meinung nach grenzt das schon an Betrug.

    Insbesondere nachdem mir ein Freund dann mal dieselben Titel auf seiner Xbox360 gezeigt hat. Hier waren alle Kanten einwandfrei geglättet, die Grafik sah dadurch natürlich bedeutend besser aus. Und trotzdem lief es sogar noch einen Tick besser.

    Kann mir jetzt einer erklären, weshalb die PS3 kein Antialiasing beherrscht? Habe in einem anderen Forum gelesen, dass die PS3 einen Grafikchip besitzt, der immer nur Antialiasing oder HDR darstellen kann. Stimmt das??!! Wenn ja, dann kann man die Hoffnung, dass PS3-Titel irgendwann grafisch an den Xbox360-Titeln wohl einmotten...
  • Original von Pandemonium
    Um welche Titel handelt es sich denn im Konkreten?


    NBA Street Homecourt und Def Jam: Icon. Wie gesagt, PS3 hat hier keine Kantenglättung, die Xbox360 schon und sieht dadurch viel besser aus.

    Fenrseher ist ein Samsung LE-40R51B. Hat aber damit sicherlich überhaupt nichts zu tun, da mein Kumpel seine Box an meinem TV angeschlossen hatte.
  • Bei diesen Spielen (und ein paar anderen) habe ich leider auch schon gelesen, dass die Kantenglättung mangelhaft sein soll. Live gesehen habe ich es leider noch nicht, weis also nicht wie schlimm es im Vergleich ist. Das mit HDR oder AA habe ich auch schon gehört, allerdings verstehe ich ncht, warum z.B. bei Resistance oder Motorstorm das AA einwandfrei zu funktionieren scheint. Wenn hardwaretechnisch das eine das andere ausschließt, scheint es zumindest softwareseitig in den Griff zu bekommen sein.

    Im Moment schiebe ich es deshalb noch auf die Anfangsprobleme bei der Programmierung und hoffe auf grundsätzliche Besserung. PGR3 hatte teilweise ja auch geflimmert (z.B. Garage), heute würde das den Programmierern sicher nicht mehr passieren.
    Mein Verkaufsthread: Pandemoniums Spieleallerei
  • Das Problem ist bekannt, die nVidia-Karten der Generation NV40/NV45 beherrschen kein AA + HDR. Bei F1 und MotorStorm wird mit reinen Blur-Effekten (ähnlich Blooming) gearbeitet, da fällt es in Bewegung nicht auf. Das hat einen technischen Hintergrund:

    Anti-Aliasing, eines der grundlegendsten Features von Next-Gen-Konsolen, quasi das bilineare Filtering der Neuzeit, funktioniert auf Sonys Großer nur, wenn man dafür auf HDR-Lichteffekte verzichtet.
    - klick (weitere Quelle: [url=Positiv anzumerken ist dagegen die Möglichkeit, bei FP16-HDR auf einer Radeon X1800, X1600 oder X1300 Multi-Sampling-Anti-Aliasing hinzuzuschalten. Dies ist auf einem G70 im Gegenzug nicht möglich.]Computerbase[/url]).

    Pseudo FS-Effekte wie der bekannte Bloom-Effekt funktionieren hingegen mit AA (siehe z.B. Gothic 3 auf dem PC oder PGR3 @ X360 + 2xAA).

    Keine Multisample-Kantenglättung in Kombination mit FP16-Rendertargets (meist verwendet für HDRR) möglich, nur jeweils eines von beiden


    ABER: Die richtigen Checker kennen auch Wege, wie man dies umgeht, siehe die Heavenly Sword Macher:

    PSINext: So NAO32 is a means for you to preserve memory while at the same time retaining image quality, is that correct?

    Marco: Correct. The main idea behind NAO32 is that we want to trade shading power to regain memory space and bandwidth (very precious resources on a console). So instead of encoding our HDR colors into a FP16 or FP32 frame buffer, we devised a scheme to use RSX pixel shading units to convert an RGB color in a CIE Luv color that only requires a common RGBA8 frame buffer (4 bytes per pixel, half the space of a FP16 pixel) to be fully stored.

    The quality of this format is really outstanding. Even if it uses half the space/bandwidth of common HDR rendering solutions, it really makes no compromises at all in image quality.

    There's no magic here: HDR rendering costs are shifted from memory to shaders, and so our shaders are a bit longer now (between 3 and 5 cycles). We believe it's a very good trade-off. Furthermore, it enables HDR rendering and multisample anti-aliasing on GPUs that do not natively support AA with floating point render targets such as FP16 and FP32.

    We also developed a faster 3 bytes per pixel version called NAO24 (predictable, isn't it?) that supports a narrower dynamic range with less accuracy. And although the quality was quite decent in most cases, we decided against making any compromises, and so in the end we did not use it.

    My final answer is totally positive: NAO32 can be considered a real HDR format.


    Das ist der Weg, den nVidia auch bei der Serious Sam 2 Engine gegangen ist:

    Laut nVidia hat man hier einen neuen Weg für die Programmierer gefunden, HDR mit Anti-Aliasing zu ermöglich.
    klick

    Problem ist: Diese Technik muss an die Engine angepaßt werden und es wird dabei noch viel rumexperimentiert, der Chip selbst ist eigentlich nicht dazu in der Lage, wenn HDR verwendet wird, erst nVidias 8800er GeForce kann das:

    klick

    Die X360 kann es, allerdings in Kombination mit Fullscreen-Effekten wie HDR auch nicht immer, wie zahlreiche Beispiele belegen. Trotzdem sind z.B. die neusten Titel wie eben NBA Street Homecourt und Def Jam: Icon Beispiele, dass es geht.

    Problem ist also: Auch die PS3 wird die meisten Spiele entweder nur mit AA aber ohne HDR/Fullscene-Effekte darstellen oder eben alleinig letzteres. Man kann vielleicht in Zukunft diverse Kracher-Spiele wie HS erwarten, die irgendwie beides auf die Reihe bekommen, aber das wird aller Vorraussicht nach die Ausnahme bleiben - so wie auch die X360 trotz Tiling und 10MB embedded RAM in vielen Fällen auf HDR/FS-Effekte + AA verzichtet.

    Dieser Beitrag wurde bereits 2 mal editiert, zuletzt von Riptor ()

  • Original von Pandemonium
    Bei diesen Spielen (und ein paar anderen) habe ich leider auch schon gelesen, dass die Kantenglättung mangelhaft sein soll. Live gesehen habe ich es leider noch nicht, weis also nicht wie schlimm es im Vergleich ist. Das mit HDR oder AA habe ich auch schon gehört, allerdings verstehe ich ncht, warum z.B. bei Resistance oder Motorstorm das AA einwandfrei zu funktionieren scheint. Wenn hardwaretechnisch das eine das andere ausschließt, scheint es zumindest softwareseitig in den Griff zu bekommen sein.

    Im Moment schiebe ich es deshalb noch auf die Anfangsprobleme bei der Programmierung und hoffe auf grundsätzliche Besserung. PGR3 hatte teilweise ja auch geflimmert (z.B. Garage), heute würde das den Programmierern sicher nicht mehr passieren.


    Im Internet gibt es viele Artikel die sich damit beschäftigen. Anscheinend ist es so, dass die GPU der PS3, also der RSX auf einem Nvidia-Chip basiert, der immer nur Antialiasing oder HDR darstellen kann. Resistance und Motorstorm nutzen also kein HDR (sondern nur das schlechtere Bloom). Eines von beiden per Software zu emulieren schluckt dermaßen viel Ressourcen, dass selbst der tolle Cell-Prozessor ins Schwitzen kommt. CPU hui, GPU pfui! Mit dem Können der Programmierer hat das also weniger zu tun und das stimmt mich nicht gerade positiv für die Zukunft.

    Denn ich frage mich jetzt echt, wie sich da in Zukunft die Grafik noch deutlich verbessern soll? Das kotzt mich echt an. Ich kann ja wohl darauf bestehen, dass ich eine bessere bzw. mindestens gleichwertige Grafik wie auf der über 1 Jahre alten Xbox360 meines Kumpels zu sehen bekomme?!
  • Original von Riptor
    Das Problem ist bekannt, die nVidia-Karten der Generation NV40/NV45 beherrschen kein AA + HDR. Bei F1 und MotorStorm wird mit Blur-Effekten gearbeitet, da fällt es in Bewegung nicht auf. Bei Standbildern allerdings sieht man, dass kein AA verwendet wird. Das hat einen technischen Hintergrund:

    Anti-Aliasing, eines der grundlegendsten Features von Next-Gen-Konsolen, quasi das bilineare Filtering der Neuzeit, funktioniert auf Sonys Großer nur, wenn man dafür auf HDR-Lichteffekte verzichtet.
    - klick (weitere Quelle: [url=Positiv anzumerken ist dagegen die Möglichkeit, bei FP16-HDR auf einer Radeon X1800, X1600 oder X1300 Multi-Sampling-Anti-Aliasing hinzuzuschalten. Dies ist auf einem G70 im Gegenzug nicht möglich.]Computerbase[/url]).

    Pseudo FS-Effekte wie der bekannte Bloom-Effekt funktionieren hingegen mit AA (siehe z.B. Gothic 3 auf dem PC oder PGR3 @ X360 + 2xAA).

    Keine Multisample-Kantenglättung in Kombination mit FP16-Rendertargets (meist verwendet für HDRR) möglich, nur jeweils eines von beiden


    ABER: Die richtigen Checker kennen auch Wege, wie man dies umgeht, siehe die Heavenly Sword Macher:

    PSINext: So NAO32 is a means for you to preserve memory while at the same time retaining image quality, is that correct?

    Marco: Correct. The main idea behind NAO32 is that we want to trade shading power to regain memory space and bandwidth (very precious resources on a console). So instead of encoding our HDR colors into a FP16 or FP32 frame buffer, we devised a scheme to use RSX pixel shading units to convert an RGB color in a CIE Luv color that only requires a common RGBA8 frame buffer (4 bytes per pixel, half the space of a FP16 pixel) to be fully stored.

    The quality of this format is really outstanding. Even if it uses half the space/bandwidth of common HDR rendering solutions, it really makes no compromises at all in image quality.

    There's no magic here: HDR rendering costs are shifted from memory to shaders, and so our shaders are a bit longer now (between 3 and 5 cycles). We believe it's a very good trade-off. Furthermore, it enables HDR rendering and multisample anti-aliasing on GPUs that do not natively support AA with floating point render targets such as FP16 and FP32.

    We also developed a faster 3 bytes per pixel version called NAO24 (predictable, isn't it?) that supports a narrower dynamic range with less accuracy. And although the quality was quite decent in most cases, we decided against making any compromises, and so in the end we did not use it.

    My final answer is totally positive: NAO32 can be considered a real HDR format.


    Das ist der Weg, den nVidia auch bei der Serious Sam 2 Engine gegangen ist:

    Laut nVidia hat man hier einen neuen Weg für die Programmierer gefunden, HDR mit Anti-Aliasing zu ermöglich.
    klick

    Problem ist: Diese Technik muss an die Engine angepaßt werden und es wird dabei noch viel rumexperimentiert, der Chip selbst ist eigentlich nicht dazu in der Lage, wenn HDR verwendet wird, erst nVidias 8800er GeForce kann das:

    klick

    Die X360 kann es, allerdings in Kombination mit Fullscreen-Effekten wie HDR auch nicht immer, wie zahlreiche Beispiele belegen.

    Problem ist also: Auch die PS3 wird die meisten Spiele entweder nur mit AA aber ohne HDR/Fullscene-Effekte darstellen oder eben alleinig letzteres. Man kann vielleicht in Zukunft diverse Kracher-Spiele wie HS erwarten, die irgendwie beides auf die Reihe bekommen, aber das wird aller Vorraussicht nach die Ausnahme bleiben - so wie auch die X360 trotz Tiling und 10MB embedded RAM in vielen Fällen auf HDR/FS-Effekte + AA verzichtet.


    Wieso haben die dann nicht diesen besseren 8800er Chip eingebaut?!
  • Hat die PS2 zum Launch eine bessere Grafik gebracht als der DC?
    Nein
    Hat die PS2 den DC mittlerweile grafisch weit überflügelt?
    Ja

    Immer schön die Kirche im Dorf lassen... das bisherige Lineup kratzt nur an der Oberfläche. Lair stellt bereits eindrucksvoll unter Beweis in welche Richtung der Zug fährt... ;)
    Administrator
    ---
    PSN: neXGamJehuty
  • Original von Southpaw
    Wieso haben die dann nicht diesen besseren 8800er Chip eingebaut?!


    Weil der...

    1. zu teuer ist (der Chip kostet ca. 120 Euro mehr)
    2. zu spät rauskam
    3. zu viel Strom aufnimmt (bei Vollast ca. 30% mehr)

    Der RSX ist ein G70-Chip mit leicht veränderten MHz-Zahlen. Der G80 (GeForce 8800) kam erst im November 2006 raus! Das war einfach unmöglich, irgendwie den Chip noch in die PS3 zu packen. Irgendwie logisch.

    Original von Jehuty
    Immer schön die Kirche im Dorf lassen... das bisherige Lineup kratzt nur an der Oberfläche.


    Es geht jetzt hier auch gar nicht um die reine Grafikqualität an sich, es geht um die technische Möglichkeit und Fakt ist, dass nVidia HDR-Effekte + AA nicht vorgesehen hat... Allerdings gibt es Hintertürchen, wie man es doch irgendwie nutzen kann. Das Problem ist aber ähnlich dem der X360: Das bedeutet eine komplette Anpassung an die Engine und einen höheren Zeitaufwand. Multiplattform-Titel wie DefJam Icon oder so werden sicherlich nicht optimiert, da aktiviert man eben HDR und läßt AA weg.

    Dass das LineUp nur an der Oberfläche kratzt ist klar: Vergleicht mal PDZ mit GearsoW, dann kann man erahnen, was Titel in einem Jahr aus der PS3 kratzen werden. :)

    Dieser Beitrag wurde bereits 2 mal editiert, zuletzt von Riptor ()

  • Original von Jehuty
    Hat die PS2 zum Launch eine bessere Grafik gebracht als der DC?
    Nein
    Hat die PS2 den DC mittlerweile grafisch weit überflügelt?
    Ja

    Immer schön die Kirche im Dorf lassen... das bisherige Lineup kratzt nur an der Oberfläche. Lair stellt bereits eindrucksvoll unter Beweis in welche Richtung der Zug fährt... ;)


    Hier muss man dann aber fairerweise dagegen stellen, daß sich die DC Grafik sicherlich auch noch weiter verbessert hätte, wenn man die Hardware länger am Markt unterstützt hätte. Imo ein leicht hinkender Vergleich von Dir.

    Der 4MB Flaschenhals der PS2 ist natürlich ohne Frage sehr gut kompensiert worden. Von einem sehr großen Unterschied zum möglichen des DC würde ich heute aber dennoch nicht ausgehen.

    Aber das sind eh alte Kamellen, von daher bleiben wir lieber bei der aktuellen Generation :)


    M.C.



    Der beste Grund auf einen Berg zu steigen ist..... weil er da ist!

    James T. Kirk
  • Original von Jehuty
    Hat die PS2 zum Launch eine bessere Grafik gebracht als der DC?
    Nein
    Hat die PS2 den DC mittlerweile grafisch weit überflügelt?
    Ja

    Immer schön die Kirche im Dorf lassen... das bisherige Lineup kratzt nur an der Oberfläche. Lair stellt bereits eindrucksvoll unter Beweis in welche Richtung der Zug fährt... ;)


    Die Programmierer können lernen die Hardware besser auszunutzen aber nicht existente Hardware-Features zu emulieren ist immer schwierig und ausnahmslos langsamer. Da geht dann viel Rechenpower flöten, nur weil etwas emuliert wird, was eigentlich systemsseitig integriert sein sollte. Ich mein, nur weil man einen Cell-Prozessor hat, muss man seine Ressourcen ja nicht unnötig verschwenden... Sooo schnell ist er dann nämlich auch nicht.

    Ich frage mich einfach nur wie Sony solch einen solch gravierenden Fehler in der Hardware-Architektur machen konnte. Die hätten doch einfach nur diesen verdammten Xenos-Chip der Xbox360 kopieren müssen. In Verbindung mit der Cell-CPU wäre dann wirklich ne saugeile Grafik möglich gewesen oder zumindest Kantenglättung + HDR bei den Starttiteln.
  • Original von Riptor
    Original von Southpaw
    Wieso haben die dann nicht diesen besseren 8800er Chip eingebaut?!


    Weil der...

    1. zu teuer ist (der Chip kostet ca. 120 Euro mehr)
    2. zu spät rauskam
    3. zu viel Strom aufnimmt (bei Vollast ca. 30% mehr)

    Der RSX ist ein G70-Chip mit leicht veränderten MHz-Zahlen. Der G80 (GeForce 8800) kam erst im November 2006 raus! Das war einfach unmöglich, irgendwie den Chip noch in die PS3 zu packen. Irgendwie logisch.

    Original von Jehuty
    Immer schön die Kirche im Dorf lassen... das bisherige Lineup kratzt nur an der Oberfläche.


    Es geht jetzt hier auch gar nicht um die reine Grafikqualität an sich, es geht um die technische Möglichkeit und Fakt ist, dass nVidia HDR-Effekte + AA nicht vorgesehen hat... Allerdings gibt es Hintertürchen, wie man es doch irgendwie nutzen kann. Das Problem ist aber ähnlich dem der X360: Das bedeutet eine komplette Anpassung an die Engine und einen höheren Zeitaufwand. Multiplattform-Titel wie DefJam Icon oder so werden sicherlich nicht optimiert, da aktiviert man eben HDR und läßt AA weg.

    Dass das LineUp nur an der Oberfläche kratzt ist klar: Vergleicht mal PDZ mit GearsoW, dann kann man erahnen, was Titel in einem Jahr aus der PS3 kratzen werden. :)



    Ok, wusste ich nicht mit dem 8800er-Chip. Bin ja kein Pc-Spieler (zu teuer ;)
    Die 120 Euro hätte ich aber dennoch mehr investiert, wenn ich dafür wenigstens Kantenglättung + HDR in ALLEN Spielen hätte.

    Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von Southpaw ()

  • Original von Southpaw
    Ich frage mich einfach nur wie Sony solch einen solch gravierenden Fehler in der Hardware-Architektur machen konnte. Die hätten doch einfach nur diesen verdammten Xenos-Chip der Xbox360 kopieren müssen. In Verbindung mit der Cell-CPU wäre dann wirklich ne saugeile Grafik möglich gewesen oder zumindest Kantenglättung + HDR bei den Starttiteln.


    Stop, stop, stop. Nicht Sony ist für die GPU zuständig, sondern nVidia! Deren Chip wurde verwendet und er hat ja auch Vorteile (z.B. 2 Bus-Bandbreiten):

    PSINext: As previously discussed, beyond it's high quality one of the primary reasons for the use of NAO32 is that it saves bandwidth in a bandwidth-hungry environment. In the future do you feel RSX will be at a disadvantage to Xenos when it comes to framebuffer effects due to the 128-bit bus and lack of eDRAM?

    Marco: Not at all; in fact for many framebuffer effects I believe RSX will have an edge over Xenos. Don't want to go into details, but let me just point out that RSX is connected to two seperate busses, not just one.


    Der Xenos ist eine Spezial-Entwicklung für die X360 basierend auf ATIs R520 (Radeon X1800). Auch dieser hat seine Probleme mit HDR UND AA:

    Der R520 beherrscht zwar FP16-Alphablending, jedoch nicht die Filterung von FP16-Texturen. Dies sehen wir als Nachteil, da HDR-Lightmaps für vernünftige Qualität gefiltert werden sollten. Auf der anderen Seite bieten die R520-ROPs Multisampling-Antialiasing auch in Verbindung mit HDR-Rendering, was beim NV40 und G70 nicht vorgesehen ist.
    - klick

    Wobei die Hardware zumindest selbst keinen Strich durch die Rechnung macht. Der G70 kann aber schon Kantenglättung + HDR, aber nicht das optimale Multisampling-AA (MSAA), sondern nur Supersampling (SSAA). Das sieht zwar geiler aus, läßt die Performance aber satt eingehen. Mehr zum Thema HDR gibts super geil aufgearbeitet beim 3DCenter: Die wichtigsten Punkte:

    Stellt man die Frage "Ist diese und jene Karte für HDR-Rendering" geeignet, kann man angesichts verfügbarer Hardware nicht "ja" oder "nein" antworten. Alle bisherigen GPUs bieten nur eine Teillösung:

    - NV40 und G70 (PS3) bieten vom Featureset her für HDR-Rendering das meiste (der NV40 enthält zudem eine nicht richtig funktionierende, daher deaktivierte Tonemapping-Unit). Die Verwendung von vierkanaligen FP16-Texturen als Eingangsmaterial und Framebuffer-Format zieht natürlich im Vergleich zu FX8 eine verdoppelte Bandbreitenlast nach sich. Damit wird die Framerate bei Verwendung von HDR-Rendering im Vergleich zum LDR-Rendering deutlich gedrückt. Kantenglättung ist schwierig zu realisieren. Das ist inbesondere deshalb tragisch, da HDR-Rendering für bessere Kontraste sorgen sollte – Kantenglättung wäre besonders hilfreich, um den damit deutlicher hervortretenden Treppeneffekt zu vermeiden.

    R520 (X360) bietet keine FP16-Texturfilterung, nur FX16-Texturen können in den TMUs gefiltert werden. FX16 ist aber klar nur ein MDR-Format. HDR-Texturen müssten aufwändig im Pixelshader gefiltert werden, wobei bilineare Filterung schon sehr aufwändig, anisotrope Filterung praktisch unmöglich ist. Kantenglättung wird im Prinzip geboten, bishin zu 6x sparse Multisampling. In welcher Endgeschwindigkeit das resultiert, wissen wir noch nicht.


    Kleine Korrektur zu Serious Sam 2:

    Wie man anhand der Screenshots gut erkennen kann, ist der Nutzen von High-Dynamic-Range-Rendering in Serious Sam 2 sehr gering, da das Spiel unseren Informationen zu Folge kein dynamisches „Tone Mapping“ benutzt.
    - Quelle

    Ergo wären die HS-Entwickler die ersten, die es integrieren würden...

    Ok, wusste ich nicht mit dem 8800er-Chip. Bin ja kein Pc-Spieler (zu teuer ;) Die 120 Euro hätte ich aber dennoch mehr investiert, wenn ich dafür wenigstens Kantenglättung + HDR in ALLEN Spielen hätte.


    Das ist keine Frage der Kosten allgemein (ist sowieso nur ein Schätzwert, ohne jetzt zu berücksichtigen, wie die Konsole verändert werden müsste: Größeres Netzteil, anderes Motherboard, etc.), sondern vor allen Dingen eine Frage der Entwicklung und Ende 2006 hätte dich die Konsole mindestens 250 Euro mehr gekostet. Zudem brauchten die Entwickler ja die Specs weit vor dem Launch. IMO also ein Ding der Unmöglichkeit!

    Dieser Beitrag wurde bereits 3 mal editiert, zuletzt von Riptor ()

  • Original von Mistercinema
    Original von Jehuty
    Hat die PS2 zum Launch eine bessere Grafik gebracht als der DC?
    Nein
    Hat die PS2 den DC mittlerweile grafisch weit überflügelt?
    Ja

    Immer schön die Kirche im Dorf lassen... das bisherige Lineup kratzt nur an der Oberfläche. Lair stellt bereits eindrucksvoll unter Beweis in welche Richtung der Zug fährt... ;)


    Hier muss man dann aber fairerweise dagegen stellen, daß sich die DC Grafik sicherlich auch noch weiter verbessert hätte, wenn man die Hardware länger am Markt unterstützt hätte. Imo ein leicht hinkender Vergleich von Dir.

    Der 4MB Flaschenhals der PS2 ist natürlich ohne Frage sehr gut kompensiert worden. Von einem sehr großen Unterschied zum möglichen des DC würde ich heute aber dennoch nicht ausgehen.

    Aber das sind eh alte Kamellen, von daher bleiben wir lieber bei der aktuellen Generation :)


    M.C.


    Es soll hier natürlich keine PS2 vs DC-Technik Diskussion entstehen, allerdings finde das Thema recht interessant, da ich mich momentan wieder sehr häufig mit meiner DC beschäftige (z.B. Headhunter).
    Ich denke, dass die PS2 sowie Dreamcast jeweils eigene Vorteile für sich verbuchen können.

    Das Problem der DC ist definitiv die Menge der darstellbaren Polygone (maximal ca. 3 Millionen?).
    Spielen wie Headhunter merkt man doch deutlich an, dass sie etwas polygonarm sind: die Hauptfigur ist merkwürdig proportioniert, die Bewegungen sind steif und kantig, die Levels (bzw. Fahrzeuge, Häuser usw.) sehen irgendwie "globig" und "unförmig" aus - und das, obwohl Headhunter doch zu den grafisch besseren DC-Titel zählt.
    Da ist die PS2 einfach deutlich im Vorteil (ein MGS2 - der damalige Konkurrent von Headhunter - sieht da besser aus).

    Die DC hat dafür den Vorteil des größeren V-Rams (der Power VR Chip war ebenfalls eine sehr gute Wahl von Sega!):
    Titel wie Sonic A.2 oder Soul Calibur sehen extrem scharf (im wahrsten Sinne des Wortes) aus. Derartig knackige Texturen habe ich bisher noch bei keinem PS2-Titel gesehen. Ich finde, dass einige DC-Spiele dadurch sehr "edel" wirken, während bei der PS2 vieles unscharf/verschwommen wirkt.

    Letztendlich ist halt die Frage, was man bevorzugt, beide Konsolen haben ihre Vor-und Nachteile bzw. unterschiedliche Grafikstile, ähnlich ist es wohl auch bei der jetzigen Generation.
  • Original von Mistercinema
    Original von Jehuty
    Hat die PS2 zum Launch eine bessere Grafik gebracht als der DC?
    Nein
    Hat die PS2 den DC mittlerweile grafisch weit überflügelt?
    Ja

    Immer schön die Kirche im Dorf lassen... das bisherige Lineup kratzt nur an der Oberfläche. Lair stellt bereits eindrucksvoll unter Beweis in welche Richtung der Zug fährt... ;)


    Hier muss man dann aber fairerweise dagegen stellen, daß sich die DC Grafik sicherlich auch noch weiter verbessert hätte, wenn man die Hardware länger am Markt unterstützt hätte. Imo ein leicht hinkender Vergleich von Dir.

    Der 4MB Flaschenhals der PS2 ist natürlich ohne Frage sehr gut kompensiert worden. Von einem sehr großen Unterschied zum möglichen des DC würde ich heute aber dennoch nicht ausgehen.

    Aber das sind eh alte Kamellen, von daher bleiben wir lieber bei der aktuellen Generation :)


    M.C.


    Dem kann ich mich nur anschließen. Dass PS2 die DC überflügelt hat liegt ja wirklich nur daran, dass es für DC seit 2001 nimmer viele Spiele gab, im Vergleich dazu hatte die PS2 dann 2002 bis gar 2007 (FF XII, GoW 2) ihr hoch...

    Aber die Kantenglättung wird unnötig bei hohen Auflösungen, bei VF 5 und Genji hab ich bei 1080i bzw 720p nicht viel Kantenflimmern gesehen, aber bei einem Standardfernseher kann das schon mal der Fall sein...