Eine Norm gibt es aber nur ohne Tone Mapping. BT.2020 ist ja ein absoluter Standard*. Für das Tone Mapping gibt es zwar auch ein Paper, das kam aber erst raus, nachdem BT.2020 veröffentlicht war. Also viel zu spät. Und soweit ich weiß, sind dort auch nicht alle Feinheiten definiert (wie z.B. Sättigungsanpassung usw.), sondern nur die Verzerrung der EOTF. Das Tone Mapping von madVR basiert jedenfalls nicht auf einem offiziellen Standard.
Ich sehe darin keinen Widerspruch zu dem was ich oben im Beitrag 100 schrieb. Dieses nachgereichte Paper adressiert das Problem, dass die Consumer Geräte die Norm mangels physikalischer Voraussetung gar nicht erfüllen können und wir uns mit bspw. einem Gamma D von JVC herumschlagen mussten ; auch bei Sony war es kaum besser. Bei den TV lief es ähnlich und obwohl teilweise die gleichen Panels verbaut wurden, sah das HDR Bild je nach Marke beträchtlich anders aus: ein echter Wildwuchs. Das ist IMO der Hintergrund dieses Papers und man muss klar festhalten, dass das sich auf statische Kurven bezieht. Wir reden hier bei madVR aber von einem dynamische Tonemapping und deshalb muss man sich IMO von diesen "best-Kompromiss-Kurven" lösen.
Zitat
Ich persönlich habe von Anfang an eher niedrige "Display Peak Luminance" bevorzugt.
Das heisst, Du trägst bei real target nits einen Wert ein, der tatsächlich weniger beträgt, als tatsächlich vorhanden ist ?
Ich hatte das als "cheap trick" auch ausprobiert und ich kann verstehen, dass Leute mit wenig Nits auf der LW versucht sind, das so zu machen. Das Problem ist u.a. dass der Schwarzwert (gerade bei 0.005 Nits Titeln) plus sehr dunkle Bereiche (Nachthimmel) aufgehellt werdem. Bspw. Skyfall , Cityline beim Anflug auf Shanghai, als 007 auf den Auftragmörder Patrice wartet. Da ich eine Hochkontrastleinwnad benutze, die einen Hotspot von etwass über 20% aufweist kam mir irgendweinmal auch der Gedanke, wie das zu berücksichtigen ist. Ich trage deshalb unter real target nits effektiv einen Durchschnittswert gemittelt über den Bereich der Leinwand (wobei ja durch Black Bar Detection das Bild immer an der unteren Lw-Kante ist und dadurch übrigens eine bessere Immersion erlaubt). Bei einer Spannbreite von 125-150 Nits sieht man natürlich sofort (minimale) Unterschiede, aber ich könnte in der Regel nicht sagen, was besser wäre : das sieht dann für mein Empfinden nämlich gleich gut aus. Von daher würde ich mir auch keine grossen Gedanken machen, wenn ich als User mangels Messgerät nicht ganz genau weiss, was jetzt genau vorliegt.
Beim Envy kann man übrigens sogar einen separaten Wert für 21:9 btw. 16:9 eintragen.
Beim Wert für das dynamische Target Nits hatte ich auch relativ viel experimentiert. Für meinen Geschmack bin ich immer bei einem hohen Wert gelandet. D.h ist nehme den gleichen Wert wie für real target nits. IMO bekommt man mehr Kontrast und Pop und mehr "HDR-Effekt". Helligkeit habe ich ausreichend. Selbst beim Nero 3 setzte ich DT=RT=75 Nits. Erst dann gefiel es mir. Wenn man madVR verwendet reichen 75 Nits reichen IMO für ein sehr gutes HDR Bild .
Das führt direkt zu einer weiteren Interessanten Frage: welche Helligkeit braucht es denn für HDR, damit es opimal funktioniert ? Auch hier wieder: optimal (perfekt) ist natürlich nur jene eines Referenzmonitors, den wir aber durch den wunsch nach grossen Bildgrössen nicht haben ...
Wie ich festgestellt habe, gibt es diesbzgl. 2 Glaubensrichtungen: Sim2 verwendet die DLP Technologie, die mit einem schlechten Schwarzwert (SW) verbunden ist. Dort vermeidet man das Thema SW und verweist darauf, dass
"a higher brighness leads to an increased percepton, according to the contrast sensitivity curve". Damit nimmt man bezug, dass wir ein helleres Bild in der Regel auch als Kontrastreicher und schärfer wahrnehmen ("Auch SDR sieht mit >30 fL im dunklen Heimkino saugeil aus"). Das ist IMO auch nicht von der Hand zu weisen, ignoriert aber IMO vollend die Tatsache, dass Im Kino auch sehr dunkle Szenen vorkommen und ein akzeptabler SW sehr wichtig ist und bleibt. Einfach das Bild dann unter Umständen doppelt oder mehr heller darstellen als auf dem Referenzmonitor ist zu hinterfragen. Tatsächlich ist dynamische Tonemapping bei Sim2 kein Thema und noch nicht angekommen. Dort versucht man HDR über Doppelstak Setup: 2 Projektoren, die mit statischen Kurven für unterschiedliche Helligkeitsbereiche zuständig sind.
Die andere extreme Richtung sagt, die effektiv zur Verfügung stehende Helligkeit für HDR sei ziemlich unwichtig und es käme eigentlich nur auf den Dynamikumfang an, d.h. das wichtigste ist der SW. Im AVS Forum vertritt K. Deering diese These. Auch das ist zu hinterfragen und ignoriert völlig den obigen Sachverhalt, den Sim2 aufgreift. Tatsächlich habe ich bei mir festgestellt, dass es bei meinem VW760 nicht optimal ist, bei madVR die volle Helligkeit von 180 Nits zu nutzen, da der SW unnötig leidet. Vergleiche ich 100 Nits vs. 150 Nits dann gefällt mir aber wiederum ein 150 Nits wesentlich besser und die Sim2 Philosophie wird also IMO insofern bestätigt. Den Sweetspot fand ich dann bei mir bei ca. 140-150 Nits, wobei das in dem Bereich dann nur noch Nuancen sind. Das hat ausserdem noch den Vorteil, den Laser nur bei 55% (von 100%) zu fahren. Bei anderen Projektoren wird dieser Sweetspot sicherlich wieder etwas anders zu liegen kommen.
Ich möchte aber hier nochmals klar festhalten, dass HDR wie gesagt IMO auch mit deutlich unter 100 Nits ausgesprochen gut funktiniert. Vorausgesetzt natürlich man verwendet echtes DTM, das wie madVR ohne Metadaten auskommt und ausschliesslich auf die Daten jeden einzelnen Frames und Pixel zurückgreift und diese für ein ideales Tonemapping verwendet. Bei unter 100 Nits und madVR muss man allerdings zunehmend auch mit kleineren zusätzlichen Problemchen / Artefakten rechnen (Flackern, Farbsättigungsfehler). Ach madVR kann also letztlich nicht zaubern kann: Je grösser der Spagat, desto mehr die potentielle Probleme.