Vorher zu Zeiten des statischen Tonemappings - war das bei weitem nicht der Fall. Deshalb braucht es auch keine "Referenzkurven" mehr. Es gibt genau eine Norm und die schreibt vor, wie hell genau ein bestimmter Pegel (Code Value) sein zu muss und wie der Helligkeitsverlauf aussieht. Deshalb braucht es solche "besten Kompromiss-Kurven" gar nicht mehr.
Eine Norm gibt es aber nur ohne Tone Mapping. BT.2020 ist ja ein absoluter Standard*. Für das Tone Mapping gibt es zwar auch ein Paper, das kam aber erst raus, nachdem BT.2020 veröffentlicht war. Also viel zu spät. Und soweit ich weiß, sind dort auch nicht alle Feinheiten definiert (wie z.B. Sättigungsanpassung usw.), sondern nur die Verzerrung der EOTF. Das Tone Mapping von madVR basiert jedenfalls nicht auf einem offiziellen Standard.
Grundsätzlich macht madVR aber auch nichts anderes als eine Verzerrung der Tonwertkurve, nur eben pro Bild und nicht pro Film. Das Prinzip ist aber dasselbe, es wird das Gamma verbogen. Man könnte sogar sagen, dass wir uns durch das dynamische Tone Mapping noch weiter von "richtig" oder "falsch" entfernen, denn das Bild ändert sich jetzt ständig, es ist also innerhalb des Films nicht mal konsistent. Da aber auch das statische Tone Mapping das Bild insgesamt verändert, kann man sich einfach für die besser aussehende Variante entscheiden und das ist meist das dynamische Tone Mapping mit HSTM.
* was für eine Fehlentscheidung!
Der zweite wichtige Wert, der das Bild massgeblich beeinflusst ist der Wert für das "Dynamische Target Nits". Dieser ist ziemlich frei wählbar und man kann selber wählen, welchen Tod man sterben will. Es geht darum, dass unserer Helligkeiten auf der LW zu gering sind. Jetzt kann man entweder tendenziell ein dunkleres Bild mit mehr Kontrats wählen oder ein helleres Bild mit tendenziell weniger Kontrast. Es gibt hier also kein richtig oder falsch, weil beides suboptimal ist im Vergleich zur Referenz und eben eine Folge der Limititierungen unserer Projektoren ist.
Grundsätzlich richtig, aber der Kontrast bleibt natürlich immer identisch, denn er ist ja durch das Anzeigegerät vorgegeben. Man kann mit den "Target Nits" und "Display Peak Luminance" lediglich festlegen, wo die Kurve ungefähr abrollt, also welche Töne man komprimieren möchte. Entscheidend ist letztendlich, wie der native Kontrast des Projektors auf die Tonbereiche aufgeteilt wird.
Clipping (mit 3D-LUT möglich):
- hohe durchschnittliche Helligkeit (maximale Leuchtdichte bei 100 Nits)
- der Bereich bis 100 Nits bekommt den vollen nativen Kontrast zugewiesen
- alle Highlights werden auf einen Wert komprimiert
Niedrige Display Peak Luminance:
- höhere durchschnittliche Helligkeit
- der Bereich bis 100 Nits bekommt viel vom nativen Kontrast zugewiesen (und wird teilweise komprimiert)
- Highlights bekommen wenig vom nativen Kontrast zugewiesen (werden stark komprimiert)
Hohe Display Peak Luminance:
- niedrigere durchschnittliche Helligkeit
- der Bereich bis 100 Nits bekommt wenig vom nativen Kontrast zugewiesen (und bleibt unkomprimiert)
- Highlights bekommen mehr vom nativen Kontrast zugewiesen (werden schwächer komprimiert)
Ich persönlich habe von Anfang an eher niedrige "Display Peak Luminance" bevorzugt. Die maximale Leuchtdichte ist gerade bei größeren Leinwänden sehr begrenzt. Ich halte es für Verschwendung, sie den (relativ unwichtigen) Highlights zuzuordnen und dafür die Mitteltöne weiter nach unten zu schieben, so dass selbst die Sättigung nicht mehr gut wahrgenommen wird. Auch SDR sieht mit >30 fL im dunklen Heimkino saugeil aus. Es gibt keinen Grund, warum HDR durchschnittlich dunkler sein sollte. Interessanterweise nutzen inzwischen anscheinend viele niedrigere "Display Peak Luminance" als noch zu Beginn der UHD.