Da wir ja im Moment recht viel über die ADL-Kontrastmessung von Projektoren diskutieren, habe ich mir durchschnittliche Helligkeit von Filmen mal genauer angeschaut. Anna & Flo haben ja damals hervorragende Arbeit geleistet, als sie eine Menge an Filmen analysiert haben. Die Daten an sich sind völlig korrekt, allerdings sehe ich da noch Verbesserungsbedarf bei der Auswertung und den Schlussfolgerungen. Folgende Punkte wurden bisher nicht berücksichtigt:
1. Der Durchschnittswert für alle Filme ist für den einzelnen Film nicht relevant (wir schauen ja nicht alle Filme gleichzeitig )
2. Die Darstellung der ADL-Achse ist linear (wir nehmen aber Helligkeit in Verhältnissen, also logarithmisch wahr)
3. Das Diagramm beginnt bei 1 % ADL, was zu hoch ist
Also habe ich mir mal angeschaut, wie die Verteilung einzelner Filme eigentlich aussieht. Hier anhand eines Beispiels für einen relativ dunklen und eines relativ hellen Films. Die Darstellung erfolgt zunächst mit linearer X-Achse. Es handelt sich ja um eine Verteilung. Das heißt, die Häufigkeit für Balken X enthält immer alle Helligkeitswerte, die zwischen dem vorherigen Balken und dem aktuellen liegen. Der 2-%-Balken enthält also alle Werte > 1% und <= 2%. Man könnte jeden Balken als "Topf" bezeichnen, der eine Menge an Werten in ähnlicher Größenordnung enthält.
"Parasite" (ADL-Durchschnitt: 4,8 %)
"Ice Age" (ADL-Durchschnitt: 19,5 %)
Wie man sieht, tummeln sich die hohen Ausschläge in dieser Darstellung am linken Rand. Ich könnte daraus nicht wirklich erkennen, ob ein Film generell hell oder dunkel ist. Der höhere ADL-Bereich ist einfach zu fein aufgelöst, der untere dagegen zu grob. Hier also dieselben Filme mit logarithmisch verteilten Töpfen (Verhältnis 1,5 zum vorherigen Topf):
"Parasite" (ADL-Durchschnitt: 4,8 %)
"Ice Age" (ADL-Durchschnitt: 19,5 %)
Da wird der Unterschied zwischen den beiden Filmen sofort sichtbar. Wie man sieht, liegen 1/4 aller Bilder in "Ice Age" über 29 % ADL und ein signifikanter Teil sogar über 44 % ADL. Der Durchschnittswert von 19,5 % gibt das so nicht wieder und verleitet eher dazu, niedrigere ADLs stärker zu gewichten.
Bei "Parasite" ist es dagegen andersherum. Ca. 1/4 aller Bilder sind unterhalb von 1,1 % ADL angesiedelt. Der Film besitzt also viele dunkle Szenen. Der Durchschnittswert von 4,8 % zeigt das so auch nicht.
Die logarithmische Aufteilung ist aus meiner Sicht besser lesbar als die lineare und spiegelt viel stärker unserer Wahrnehmung wider. Wir alle erkennen sofort helle oder dunkle Filme, wenn wir sie sehen. Diese Erkenntnis wird ja z.B. auch bei der Auswahl von Demomaterial auf Messen genutzt. Bei der logarithmischen Auswertung wird der generelle Helligkeitscharakter eines Films besser sichtbar.
Was hat man nun davon?
Erstmal einen Erkenntnisgewinn. Ansonsten könnte ich mir vorstellen, dass man Einstellungen/Profile usw. anhand so einer Verteilung steuern könnte, wenn man sie denn vorher kennt. Vielleicht kommt ja noch die eine oder andere Idee zu dem Thema.
Anmerkungen und Korrekturen sind gerne willkommen!