Hallo Zusammen,
am Samstag versuchte ich "Laie" den Stammtischkollegen zu erklären, wofür man einen HTPC mit madVR denn übrhaupt braucht
Ich erklärte es so, dass das HDR der UHD Filme keiner Norm unterliegt und jeder Film anders gemastert ist.
Es gibt zwar Helligkeitsangaben (Nits) wie 1000 oder 4000Nits, aber es kann sein das in einem Film der 120Minuten läuft es z.B. nur 1-2 mal für paar Sekunden vorkommt, dass diese angegebene Heligkeit erreicht wird und der Rest der Laufzeit es wesentlich dunkler ist.
Stellt man aber alles nach den Helligkeitsangaben ein, sieht man einen Film viel zu dunkel.
Also alles nicht im Sinne des Erfinders, geschweige das man in dunklen sowie in hellen Bildinhalten Details sieht.
Bestes Beispiel, Wolken am Himmel was im Fehlerfall eine weiße Fläche ist. Korrekt wären die Konturen der einzelnen Wolken zu sehen, Differenzierungen usw.
Oder bei dunkler Kleindung wenn man z.B. bei einer Jacke keinen Kragen, Taschen geschweige Textur des Stoffes sieht.
Ein HTPC mit madVR und dessen Tool rechnet sozusagen perfekt in Echtzeit Bild für Bild des Film genau darauf um, wie "hell" der Projektor es anzeigen kann.
Somit hat man im Grunde das bestmöglichste Bild was es derzeit gibt und braucht sich nicht mit den negativen Auswirkungen von irgendwelchen Kontrastfiltern, statischen Regler von Playern oder Projektoren rum ärgern.
Dazu kann ein HTPC wohl so gut ein 1080 auf 2160 hochrechnen, wie nichst anderes inkl. Schärfeanhebung, Rauschfilter usw.
Das als Laienerklärung : q aber gestern hat ein Wissender in der HTPC Facebook Gruppe freundlicherweise eine Erklärung verfasst.
Teilweise technisch wo ich noch nicht durchgestiegen bin aber auch wird anhand von bestimmten Filmen es erklärt.
Nach Rücksprache mit ihm, poste ich seinen Text hier mal.
Vielleicht interessiert es den einen oder anderen:
https://www.facebook.com/group…ermalink/393860154506513/
Guten Abend,
nach einiger Zeit des stillen Mitlesens kommt nun ein kleiner Bericht zu der aktuellen Version von MadVR bzw. dem neuen Tool von Anna und Florian.
Gestern haben wir uns mal wieder getroffen und es gab für mich einiges aufzuarbeiten was den Fortschritt des Tools angeht. Die beiden haben wirklich viel Zeit investiert und programmiert, um allen das beste HDR Erlebnis bieten zu können - und es hat sich gelohnt!
Worum geht es nun hauptsächlich, was macht das Tool Stand jetzt so besonders?
- Dynamische Target Nits und Dynamisches Clipping.
Was ist der Vorteil dieser beiden Features?
Es bedarf zum einen keiner Regeln in MadVR mehr und mit entsprechender Feinjustierung in den Settings hat man ein dauerhaft optimales HDR Erlebnis.
Die Target Nits ist dafür zuständig, wie hell oder Dunkel ein Frame oder eine Szene dargestellt wird. Dazu ist es notwendig zu wissen, wie hoch die Durchschnittshelligkeit des Frames (FALL Algo) oder auch die Durchschnittshelligkeit der Highlights (über 100 Nits Helligkeit) (AvgHLAlgo) ist. Dafür lässt man den Film erstmal analysieren. Nach diesem Prozess kann man im Programm alles analysierte sehr genau ablesen. Das dynamische Clipping ist relativ zu den Werten, wie groß die geclippte Bildfläche sein darf und erst, wenn es sich im Verhältnis zu dem Clipping lohnt.
Das Dynamische Target Nits richtet sich an mehrere Faktoren.
Zum einen an die minimal target nits/real display peak nits, als auch an das "No compression limit". Wie oben schon genannt, gibt es dazu zwei Algorythmen, welche ebenso auf die Target Nits greifen. Der FALL Algo setzt sich aus der Formell (200+X*FALL) zusammen. Das X ist wiederum abhängig vom Dynamic Tuning. Je höher das Dynamic Tuning ist, desto häufiger wird die FALL multipliziert. Bsp. Dyn. Tuning:50 = 2*FALL. Dyn. Tuning: 100= 4*FALL. Dyn.Tuning: 200= 8*FALL.
Die Konsequenz: Je häufiger FALL multipliziert wird bzw. je höher Dynamic Tuning eingestellt ist, desto DUNKLER kann das Bild werden, da die TArget Nits höher steigen kann. Das obere Limit ist dann durch die "Maximal Target Nits" beschränkt. EDIT: Außerdem kann der FALL Algo die target nits *nie* höher stellen als 2*AvgHL.
Der AvgHL Algo basiert auf der Durchschnittshelligkeit der Highlights eines Frames/Szene. Es kann aber sein, dass der Avg der HL geringer als 100nits beträgt, dann greift wiederum das "No compression Limit".
Die Maximal Target Nits bedarf m.M.n. keiner großen Erklärung. Da es genug Algorythmen gibt, kann sie durchaus so hoch wie 1500 o.höher gestellt werden, für Ausnahmen wie "The Meg", da dieser Film extreme Highlight Sprünge macht.
Zusätzlich zu den minimal target nits, no compression highlights und dem FALL/Avg HL Algo gibt es noch den Rolling Algo.
Wie aggressiv oder smooth er greifen kann, ist in den Advanced Settings einzustustellen. Also, wie viel Zeit hat er, um die Target Nits anzupassen. Wenn er zu lange Zeit hat, kann die Target Nits zu früh sich auf den nächsten Highlight vorbereiten, wenn er zu wenig Zeit hat, gibt es eventuell Bildpumpen.
Das Bildpumpen wird aber durch den Szenen"restore" verhindert. Das heißt, wenn die Bildhelligkeit zu stark von einem Frame zum anderen steigt, macht er einen harten Cut und setzt gleich die passende Target Nits. So kann diese dann von bspw. 50 auf 700 steigen, OHNE, dass es für das Auge sichtbar ist.
Nun, ich hoffe dieser kleine Theoretische Schlänker kann euch bei den Anpassungen für die dynamischen Target Nits (wenn Ihr diese nicht einfach auf den default Settings stehen lasst und nur eure minimal target nits/real peak nits angebt!).
Nun zu dem Vergleich static target nits mit dynamic clipping und dynamic target nits.
Hierzu haben Anna und Flo mir freundlicher Weise Szenen aus "The Meg", X-Men Apocalypse und Harry Potter 4 gezeigt.
Wir haben bei The Meg einen harten Gegner, denn der Film ist extrem dynamisch was die Helligkeit angeht. Er geht in den Innenraumszenen auf sehr niedrige Framewerte zurück, aber in den Außenaufnahmen springt er bis in die Tausende (ca. 6500nits). Als der Film raus kam, konnte man ihn statisch mit ca 1000 target nits anschauen, als Kompromiss. Draußen wurde nicht zu viel "geclippt" oder komprimiert, aber drinnen wurde es schon arg dunkel.
Wenn wir ihn mit 400target nits anschauen, passt es drinnen zwar besser, aber draußen verblasst vieles. Der Himmel ist weiß, ohne Wolken, das Wasser hat keine Tiefenwirkung und selbst Personen wirken eindimensional (schwierig zu beschreiben). Nun mit dynamischen target Nits.
Das Intro ist sehr dunkel unter Wasser und in dem Uboot, es gibt aber dennoch immer wieder hellere Peak Nits. Aufgrund der verschiedenen Algorythmen passt sich das Bild aber unauffällig an und es gibt keine abrupten Sprünge der target nits. Man hat ein dauerhaft stimmiges Bild. Wechselt die Szene nun über Wasser mit extremen target nits, gibt es einen Szenenwechsel und die target nits werden deutlich angehoben. Fürs Auge ist der Wechsel nicht sichbar und es bleibt stimmig. Das Wasser ist wieder als solches zu erkennen, die Differenzierung des Himmels ist wieder gegeben und Gesichter wirken wieder plastisch: So soll es sein!
Bei Harry Potter 4 ein ähnliches Szenario: Die Friedhofszene gegen Ende des Filmes, wo sich Harry und Voldemort duellieren ist gemeint.
Harry versteckt sich hinter einem kleinen Steinbrocken, es gibt kaum Helligkeit im Bild, die frame avg liegt bei ca. 10 bis 60.
Dann tritt er hervor und tada: Es gibt ein Zauberspruchspektakel wie es sich gehört. Problem: Die Frame Highlights gehen auf >1000nits hoch. Es ist unmöglich hier eine static nits zu finden, die passt. Entweder ist die dunkle Szene ein VIELFACHES zu dunkel (zu hohe target nits wegen des Spektakels), oder die helle Szene zwingt die Augen zum schließen (wegen der sehr dunklen Frames davor).
Was macht das Tool? Es greift erstmal die minimal target nits und darauf folgend die No Compression Highlights. (Dadurch ergibt sich folgendes: Die peak nits liegt unter der minimal target nits, das heißt, es ergibt sich helles (aber nicht zu helles) Bild. Ebenso in solchen Szenen/Frames wo die peak nits, der minimal target nits entspricht. Dann wird das Bild, wie vom Regisseur/Mastering beabsichtigt, 1:1 wiedergegeben. Also, obwohl es eine sehr dunkle Szene ist, ist eine gewisse Helligkeit gewollt und das Bild wird nicht aufgehellt.)
Bis zu dem Zeitpunkt, wo es mit den Zauberspruch-Strahlen losgeht. Wie bei MEG: Eine neue Szene beginnt, die target nits steigt und wir können immernoch Struktur in den Highlight erkennen. Außerdem verlieren die Strahlen nicht an Farbe, was zu einem super kontrastreichen und plastischem Bild führt.
**************************
Grüße
Sven
Nachtrag Mai 2020: Das Tool ist hinfällig, da inzwischen madVR dies alles in Echtzeit kann.