PlayStation 3

    Diese Seite verwendet Cookies. Durch die Nutzung unserer Seite erklären Sie sich damit einverstanden, dass wir Cookies setzen. Weitere Informationen

    • Original von *SONIC*
      Original von Black Sun
      Ein Spiel wie zB Halo 2 könnte als X360 Version mit gleicher Grafik aber 100% HDR ( nicht nur einige FX wie aktuell bei PC Spielen ) die Hardware vielleicht bis ans Limit treiben, würde aber dabei nur etwas besser aussehen als die XBOX Version. Um es mal etwas überspitzt zu formulieren. Jedenfalls nicht soviel besser das die Leute niederknien würden :D

      Das ist nicht nur überspitzt formuliert sonder auch total falsch. :ray2:
      Erstens kann die XBOX 360 sicher mehr als nur Halo 2 mit richtigen HDR darstellen ohne dabei bis ans Hardware Limit zu kommen.
      Und zweites sind das nicht nur einfache FX in FarCry, SplinterCell 3 und der Nvidia Demo(Luna),
      sondern richtiges HDR, ich habs in FarCry und der Nvidia Demos selber mit eigenen Augen gesehen
      und kann dir versichern das es ECHT ist.
      (in der Luna Demo kommen sogar ein "einfaches" Raytracing-Verfahren zum Einsatz *g*)



      es kommt aber immer auch drauf an auf wieviele Objekte sich das HDR bezieht und in welcher Präzision es arbeitet. Mehr Objekte = mehr Leistung die benötigt wird. Aktuell bezieht sich das HDR bei Far Cry und Co nur auf einige Schlüsselobjekte aber nicht auf jedes einzelne Detail. Das meinte ich damit und schrieb auch extra 100%. Es ist sicher "echtes" HDR (*) und sieht auch gut aus, aber es wird nicht vollständig auf alles angewand.

      (*) Bin da nicht so ganz auf dem laufenden :unschuld: .... war es nicht so das GF6 Hardwareseitig nur 16Bit pro Kanal erlaubt, für echtes HDR aber min 32Bit benötigt werden ? Stimmt es nicht das die GF6 Karten eigentlich ehr MDR nutzen anstelle von HDR ? Das aktuelle Karten garnicht in der Lage sind echtes HDR darzustellen ? Und es eigentlich nur aus Werbetechnischen Gründen so genannt wird da es das gleiche Prinzip ist nur auf 16Bit gedrosselt.

      Dieser Beitrag wurde bereits 3 mal editiert, zuletzt von Black Sun ()

    • Original von Crazytype
      sieht echt nett aus, lets wait and see, die Konsolenspiele werden auf jeden Fall wieder erstmal besser als auf dem PC aussehen.


      genau mal abwarten was da kommt da stimme ich dir zu.
      Currently playing: Final Fantasy XIII (PS3-Pal), No More Heroes 2: Desprate Struggle (Wii-Pal)
      Order:


      :sakura:
    • Original von Black Sun
      Aktuell bezieht sich das HDR bei Far Cry und Co nur auf einige Schlüsselobjekte aber nicht auf jedes einzelne Detail. Das meinte ich damit und schrieb auch extra 100%. Es ist sicher "echtes" HDR (*) und sieht auch gut aus, aber es wird nicht vollständig auf alles angewand.

      Bei FarCry wird HDR auf ALLE Objekte angewannt ob das nun ein Stuhl, ein Gewehr
      oder gleich eine Ganze Höllenwand ist, spielt dabei keine Rolle. :zwinker:

      Original von Black Sun
      (*) Bin da nicht so ganz auf dem laufenden :unschuld: .... war es nicht so das GF6 Hardwareseitig nur 16Bit pro Kanal erlaubt, für echtes HDR aber min 32Bit benötigt werden ? Stimmt es nicht das die GF6 Karten eigentlich ehr MDR nutzen anstelle von HDR ? Das aktuelle Karten garnicht in der Lage sind echtes HDR darzustellen ? Und es eigentlich nur aus Werbetechnischen Gründen so genannt wird da es das gleiche Prinzip ist nur auf 16Bit gedrosselt.

      Ich hoffe mal das du das mit MDR nicht ernst meinst. :lol1:
      Zu dem anderen, ja man benutzt 32bit pro Kanal für HDR im professionellen Bereich. (Kino usw.)
      Aber wenn du 128Bit Rechengenauigkeit verlangst, kannst die PS3 und XBox 360 auch abschreiben. :ray2:
      Das menschliche Auge kann eh nur 24Bit sehen und da ist die 64Bit Rechengenauigkeit,
      der aktuellen GeForce Karten schon net schlecht.
      Der einzige Unterschied bei HDR mit 32bit zu 16bit pro Kanal ist
      das die Übergänge "noch" sauberer/weicher sind. :)
    • Das menschliche Auge kann eh nur 24Bit sehen und da ist die 64Bit Rechengenauigkeit,
      der aktuellen GeForce Karten schon net schlecht.


      ist schon ne Weile her (so um die 8-10 Jahre), allerdings meine ich mal gelesen zu haben, dass das Menschliche Auge eher Richtung 65.000 Farben sehen kann (wenn mann es so nennen will also 16 Bit) allerdings nicht das gesamte Farbspektrum gleichmässig gut "erkennen bzw. unterscheiden" kann, weshalb auf die grössere Farbpalette von 24 Bit zurückgegriffen wird, damit bestimmte Farben, die das menschliche Auge besonders gut erkennen / unterscheiden kann auf jedenfall in allen erkennbaren Farbnuancen darstellbar sind... allerdings sind viele Töne bestimmter Farben dabei, die man sowieso nicht unterscheiden kann...

      jedoch erlaubt eine grössere Farbpalette natürlich genauere Berechnungen, allerdings würden selbst bei einer Auflösung von 1280*1024 Auflösungsbedingt nur maximal 1,3 Millionen Farben gleichzeitig dargestellt werden können, und auch nur dann, wenn wirklich jeder Bildpunkt eine andere Farbe hätte

      Dieser Beitrag wurde bereits 2 mal editiert, zuletzt von Lossl ()

    • eigentlich wird das Ergebnis immer genauer, je mehr Zahlen hinter dem Komma erscheinen (können), da so das Ergebnis immer mehr einem analogen Signal ähnelt, da bei der digitalen Reproduktion von Bildern bzw. Geräuschen zumindest meistens versucht wird, möglichst nah an ein für uns Menschen (und natürlich auch jedem anderem Lebewesen) angenehmes analoges Signal heranzukommen....
      die Zahlen hinter dem Komma werden eher durch das Auf- / Abrunden kleiner.
      Natürlich gibt es "Ausnahmen", wo auch mal "glatte" Ergebnisse herauskommen können.

      Dieser Beitrag wurde bereits 5 mal editiert, zuletzt von Lossl ()

    • Bei FarCry wird HDR auf ALLE Objekte angewannt ob das nun ein Stuhl, ein Gewehr oder gleich eine Ganze Höllenwand ist, spielt dabei keine Rolle.


      Es ging in erster Linie um Lichtquellen usw... wüßte nicht das in Far Cry hunderte von Lasersalven, Feuer und Lampen gleichzeitig vorhanden sind ;) Bei Far Cry, Splinter Cell usw gibt es immer nur ein paar wenige Lichtquellen (Lampen,Lagerfeuer/eigene Gun..) auf die HDR angewand wird bzw deren Wirkung auf andere Objekte.
      Bei einer Halo 2 Massenschlacht...zig Aliens/Soldaten feuern, am Rand liegen brennede/explodierende Fahrzeuge, eventuell noch ne Lampe und die Sonne selbst... wo jede Lasersalve/Lichtquelle die Umgebung beeinflußt und auch die anderen Lichtquellen, muß wesentlich mehr berechnet werden wie wenn in Splinter Cell ein Gang mit 2 Lampen ist. Weil jedes Objekt das andere und dessen Lichteigenschaften beeinflußt.
      Und nochmal um Mißverständnisse zu vermeiden. Das Halo 2 Beispiel sollte lediglich sagen das es immer Grenzen gibt wie intensiv man einen Effekt anwenden kann. Ich wollte NIE behaupten das dies das garantierte Limit der Konsole ist oder sowas. Es sollte lediglich sagen das man nur weil eine Karte FX Y unterstützt und beherscht dies nicht unbegrenzt einsetzen kann.

      Ich hoffe mal das du das mit MDR nicht ernst meinst. Zu dem anderen, ja man benutzt 32bit pro Kanal für HDR im professionellen Bereich. (Kino usw.)


      Natürlich war MDR nicht ernst gemeint, den Begriff gibt es ja offiziell garnicht. Wird aber trotzdem gerne verwendet wenn es um HDR bei GraKas geht. Schau mal in einige PC Mags ;)
      Der Punkt ist doch einfach "echtes" HDR schreibt 32 Bit vor. Alles was darunter liegt ist kein "echtes" HDR sondern nur etwas ähnliches. Es gibt klare Definitionen für diesen Effekt und die aktuellen Karten können dies nunmal nicht erfüllen. Von daher wäre ich eigentlich vorsichtig von "echtem" HDR in zusammenhang mit aktuellen Systemen zu reden.
    • Wisst ihr was mich bei der neuen Konsolengeneration jetzt schon stört! Es geht nur noch um den Technikoverkill! Innovative Goodies oder Games sehe ich bis jetzt nicht! Und auch die Diskussionen laufen nur auf irgendwelche technischen Spezifikationnen aus, anstatt man über präsentierte games etc. diskutiert! Stimmt mich irgendwie traurig! Denn mir als Zocker ist relativ egal was in meiner Konsole steckt, solange es geile Games gibt!
      Systems: PS5, XBSX, Switch
    • Wie willst du denn über Games diskutieren, die noch nicht erschienen sind? Willst du über irgendwelche Game-Features diskutieren, die am Ende aus der Final-Version wieder rausgenommen werden? Außerdem ist das der PS3-Topic, da gehts halt primär um die Technik der Konsole :D
      You see, in this world there's two kinds of people, my friend: Those with loaded guns and those who dig. You dig.
    • Original von Lossl
      eigentlich wird das Ergebnis immer genauer, je mehr Zahlen hinter dem Komma erscheinen (können), da so das Ergebnis immer mehr einem analogen Signal ähnelt, da bei der digitalen Reproduktion von Bildern bzw. Geräuschen zumindest meistens versucht wird, möglichst nah an ein für uns Menschen (und natürlich auch jedem anderem Lebewesen) angenehmes analoges Signal heranzukommen....
      die Zahlen hinter dem Komma werden eher durch das Auf- / Abrunden kleiner.
      Natürlich gibt es "Ausnahmen", wo auch mal "glatte" Ergebnisse herauskommen können.


      Hab wirklich ein großen Logikfehler drinne, liegt vielleicht daran, dass ich noch nie gut in Mathe war.

      Wollte eigentlich folgendes sagen, mit höherer internen Genauigkeit ist es nicht so wahrscheinlich, dass Weiß + Schwarz = Grau ist. (Also Übergänge etc.)
    • Original von Black Sun
      ...wüßte nicht das in Far Cry hunderte von Lasersalven, Feuer und Lampen gleichzeitig vorhanden sind ;)

      Wüßte nicht das es Hunderte von Lasersalven, Feuer und Lampen gleichzeitig in Halo 2 gibt. o_O

      Original von Black Sun
      Bei Far Cry, Splinter Cell usw gibt es immer nur ein paar wenige Lichtquellen (Lampen,Lagerfeuer/eigene Gun..) auf die HDR angewand wird bzw deren Wirkung auf andere Objekte.
      Bei einer Halo 2 Massenschlacht...zig Aliens/Soldaten feuern, am Rand liegen brennede/explodierende Fahrzeuge, eventuell noch ne Lampe und die Sonne selbst..

      In FarCry gibt es zB. eine Szene in der sehr viele Trigenen ein Lager der Söldner angreifen
      (wobei statt der Sonne der Vollmond scheint) und da gibt es einiges an Explosionen
      und die großen Trigenen mit dem Raketenwerfer Arm decken die Basis mir ihren Geschossen ein. :tooth:

      Original von Black Sun
      Und nochmal um Mißverständnisse zu vermeiden. Das Halo 2 Beispiel sollte lediglich sagen das es immer Grenzen gibt wie intensiv man einen Effekt anwenden kann. Ich wollte NIE behaupten das dies das garantierte Limit der Konsole ist oder sowas.
      Original von Black Sun
      Ein Spiel wie zB Halo 2 könnte als X360 Version mit gleicher Grafik aber 100% HDR ... die Hardware vielleicht bis ans Limit treiben,


      Original von Black Sun
      Der Punkt ist doch einfach "echtes" HDR schreibt 32 Bit vor. Alles was darunter liegt ist kein "echtes" HDR sondern nur etwas ähnliches. Es gibt klare Definitionen für diesen Effekt und die aktuellen Karten können dies nunmal nicht erfüllen. Von daher wäre ich eigentlich vorsichtig von "echtem" HDR in zusammenhang mit aktuellen Systemen zu reden.

      Es ist aber >>ECHTES<< HDR bei PCs und der nächsten Konsolengeneration, der einige Unterschied ist
      das die Überblendungen/Übergänge bei 128bit Rechengenauigkeit noch ein wenig sauberer/weicher sind.
      Das ändert aber überhaupt nichts am Ergebnis das der Effekt auch mit 128Bit Rechengenauigkeit der gleiche ist. :zwinker:
    • Wüßte nicht das es Hunderte von Lasersalven, Feuer und Lampen gleichzeitig in Halo 2 gibt


      Naja, gezählt hab ich sie nicht, aber wenige sind es auch nicht wenn einem von allen Seiten die Salven um die Ohren fliegen weil man so lebensmüde war und in ein Rudel Feinde gesprungen ist. Jedenfalls mehr Objekte( potentielle Lichtquellen ) als bei einem Far Cry. Ein Rakenwerfer leuchtet nämlich nur einmal auf und nicht ständig. Die Feuersequenz ist auch nicht gerade so hoch wie bei einem Needler zB. Und warum willst du eigentlich ständig über solche unwichtigen Details streiten ? Das sollte alles lediglich ein theoretisches Beispiel sein um zu verdeutlichen das der massive Einsatz eines FX auch eben große Mengen an Rechenleistung schluckt. Halo 2 habe ich nur genommen weil es das erstbeste Beispiel war welches mir einfiel und wo eben solche Situationen sehr oft auftreten.

      Dir ist bestimmt aufgefallen das ich bei Halo 2 die Wörter "könnte" sowie "vielleicht" verwendet habe ;) Schließlich hast du den Satz ja oben nochmals zitiert. Die Bedeutung ist dir doch sicher geläufig oder ?

      Definition von HDR laut Wikipedia ( man möge mir verzeien das ich einfach von der erstbesten Seite kopiere ).

      High Dynamic Range Rendering bezeichnet einen größeren Farbraum, da für jeden der 4 Farbkanäle (rot, grün, blau und Alpha bzw. Transparenz) 32 Bit Information, also insgesamt 128 Bit zur Verfügung stehen (z.B. für Blend-Effekte) statt wie bisher 8 Bit, also 256 Farben je Kanal, was insgesamt 32 Bit Information bedeutet. Somit stehen statt wie bisher 4,3 Milliarden verschiedener Farben mit HDR über 3,41038 verschiedene Farben zur Verfügung.
      nVidia bietet zwar mit der GeForce 6-Serie schon eine Genauigkeit von 16 Bit pro Kanal, dies erfüllt jedoch nicht die Anforderungen von HDR, das ja 32 Bit für jeden Kanal vorschreibt. ATI bietet in der aktuellen Radeon-Reihe weiterhin nur 8 Bit pro Kanal, so dass davon auszugehen ist, dass es sich nicht um echte, sondern um simulierte HDR-Effekte handelt


      und nochmals aus 3DCenter:

      Nun, die GeForce 6800 Ultra führt einen optionalen 64 Bit Floating Point Framebuffer ein. Das ist dann RGBA FP16 FP16 FP16 FP16. Den größeren Darstellungs-Bereich verglichen mit FX8 besprachen wir schon. Während nVidia von "high dynamic range" (HDR) spricht, ist es tatsächlich medium dynamic range (MDR). HDR braucht mindestens 32 Bit für jeden einzelnen Wert, NV40 bietet 16. Trotzdem ist FP16 ein großer Sprung nach vorne. Der Hauptvorteil: Man muss nicht mehr in FP-Texturen rendern, wenn man MDR-Rendering betreibt. Einfach den FP16-Framebuffer aktiveren und man bekommt ein akzeptables MDR Render-Target. Der NV40 unterstützt mit seinem 64 Bit Framebuffer auch alle Alphablending-Funktionen.

      Dieser Beitrag wurde bereits 2 mal editiert, zuletzt von Black Sun ()

    • Original von Black Sun
      Wüßte nicht das es Hunderte von Lasersalven, Feuer und Lampen gleichzeitig in Halo 2 gibt


      Naja, gezählt hab ich sie nicht, aber wenige sind es auch nicht wenn einem von allen Seiten die Salven um die Ohren fliegen weil man so lebensmüde war und in ein Rudel Feinde gesprungen ist. Jedenfalls mehr Objekte( potentielle Lichtquellen ) als bei einem Far Cry. Ein Rakenwerfer leuchtet nämlich nur einmal auf und nicht ständig. Die Feuersequenz ist auch nicht gerade so hoch wie bei einem Needler zB. Und warum willst du eigentlich ständig über solche unwichtigen Details streiten ? Das sollte alles lediglich ein theoretisches Beispiel sein um zu verdeutlichen das der massive Einsatz eines FX auch eben große Mengen an Rechenleistung schluckt. Halo 2 habe ich nur genommen weil es das erstbeste Beispiel war welches mir einfiel und wo eben solche Situationen sehr oft auftreten.

      Dir ist bestimmt aufgefallen das ich bei Halo 2 die Wörter "könnte" sowie "vielleicht" verwendet habe ;) Schließlich hast du den Satz ja oben nochmals zitiert. Die Bedeutung ist dir doch sicher geläufig oder ?

      Definition von HDR laut Wikipedia ( man möge mir verzeien das ich einfach von der erstbesten Seite kopiere ).

      High Dynamic Range Rendering bezeichnet einen größeren Farbraum, da für jeden der 4 Farbkanäle (rot, grün, blau und Alpha bzw. Transparenz) 32 Bit Information, also insgesamt 128 Bit zur Verfügung stehen (z.B. für Blend-Effekte) statt wie bisher 8 Bit, also 256 Farben je Kanal, was insgesamt 32 Bit Information bedeutet. Somit stehen statt wie bisher 4,3 Milliarden verschiedener Farben mit HDR über 3,41038 verschiedene Farben zur Verfügung.
      nVidia bietet zwar mit der GeForce 6-Serie schon eine Genauigkeit von 16 Bit pro Kanal, dies erfüllt jedoch nicht die Anforderungen von HDR, das ja 32 Bit für jeden Kanal vorschreibt. ATI bietet in der aktuellen Radeon-Reihe weiterhin nur 8 Bit pro Kanal, so dass davon auszugehen ist, dass es sich nicht um echte, sondern um simulierte HDR-Effekte handelt


      und nochmals aus 3DCenter:

      Nun, die GeForce 6800 Ultra führt einen optionalen 64 Bit Floating Point Framebuffer ein. Das ist dann RGBA FP16 FP16 FP16 FP16. Den größeren Darstellungs-Bereich verglichen mit FX8 besprachen wir schon. Während nVidia von "high dynamic range" (HDR) spricht, ist es tatsächlich medium dynamic range (MDR). HDR braucht mindestens 32 Bit für jeden einzelnen Wert, NV40 bietet 16. Trotzdem ist FP16 ein großer Sprung nach vorne. Der Hauptvorteil: Man muss nicht mehr in FP-Texturen rendern, wenn man MDR-Rendering betreibt. Einfach den FP16-Framebuffer aktiveren und man bekommt ein akzeptables MDR Render-Target. Der NV40 unterstützt mit seinem 64 Bit Framebuffer auch alle Alphablending-Funktionen.


      Ich bin gespannt wie Sonic antwortet, sind nunmal gute Quellen, die er nicth zerpflücken kann :)
    • Original von Black Sun
      Definition von HDR laut Wikipedia ( man möge mir verzeien das ich einfach von der erstbesten Seite kopiere ).
      ATI bietet in der aktuellen Radeon-Reihe weiterhin nur 8 Bit pro Kanal, so dass davon auszugehen ist, dass es sich nicht um echte, sondern um simulierte HDR-Effekte handelt


      Mir ist durchaus bekannt was bei Wiki steht, weshalb ich auch sofort sehe das wichtige Teile fehlen. ;)

      Original von Crazytype
      Ich bin gespannt wie Sonic antwortet, sind nunmal gute Quellen, die er nicth zerpflücken kann :)

      Du solltest mal denn Originalen Wiki Eintrag sehen und nicht den "verstümmelten", denn zB. der Satzteil mit "so dass davon auszugehen ist, dass es sich nicht um echte, sondern um simulierte HDR-Effekte handelt" bezieht sich ausschließlich auf den Lost Cost Level von Half Life 2.
      (Womit er höchst wahrscheinlich auch noch falsch liegt da die nächste ATI Generation ja PS 3.0 besitzt und der Level als TechDemo benutzt wird.) :D

      Hier mal das Original. -->
      de.wikipedia.org/wiki/HDR
      Was noch auffällt ist das der Autor sich scheinbar sehr auf den Lost Cost Level spezialisiert(sieh Link Liste),
      aber schon existierende Spiele (FarCry, SC) und HDR Demos(zB. Luna) ignoriert.

      Und es bleibt weiterhin dabei das der Effekt absolut der selbe ist
      nur das bei 128bit die Übergänge ein wenig sauberer/weicher sind. :tongue:
      [SIZE=7]Hab ich jetz glaub zum dritten mal geschrieben. *g*[/SIZE]

      Dieser Beitrag wurde bereits 2 mal editiert, zuletzt von *SONIC* ()

    • Und es bleibt weiterhin dabei das der Effekt absolut der selbe ist
      nur das bei 128bit die Übergänge ein wenig sauberer/weicher sind.
      Hab ich jetz glaub zum dritten mal geschrieben. *g*

      gut, ich kenn mich in diesem Bereich nicht so aus, aber wenn HDR vorschreibt, dass jeder Kanal 32 Bit haben muss, dann ist alles andere halt kein HDR... oder bezeichnest du 8 bit 11 kHz sound als CD qualität?