Beiträge von FoLLgoTT

    oto

    Keine Ahnung, was für krude Sachen du da zusammenrechnest. Ich korrigiere dich da auch nicht weiter. Das ist mir einfach zu hanebüchen. Bleib einfach in deiner Märchenwelt, aber belästige mich nicht damit.

    Der envy erkennt sehr zuverlässig die Black bars und kann damit zum einen über ip eine Leinwandmaskierung steuern (dies kann der Radiance meinen Informationen nach nicht und madvr besitzt aktuell nicht die Weiterentwicklung).

    Zum anderen ist doch sicherlich davon auszugehen, dass madshi für die Berechnung u.a. des Tonemappings nur den aktiven Bildinhalt hinzuzieht und somit würde auch der Beamer diese Informationen erhalten.

    Nein, der Envy kann die Information, wo schwarze Balken sind, nicht an den Projektor weiterreichen. Das ist über HDMI nicht vorgesehen. Für das Laserdimming muss der Projektor die Informationen selbst ermitteln.


    EDIT: die Informationen weiterreichen könnte der Envy nur, wenn er im Projektor per TCP/IP oder RS232 ein Blanking-Preset setzt. Das hattest du wahrscheinlich gemeint, oder?

    Das du von Quatsch schreibst ist Quatsch. Ich nehme mal dein Beispiel Bild, was du mal als 0,5% gespostet hast, die wenigsten pixel, auch die die du für schwarz hälts haben einen wert von 0! Rechne doch noch mal, selbst wenn die dunklen in Summe 0,5 (was keine Differenzierung zulassen würde) haben und die anderen weit mehr, kommt da nicht 0,5% raus! Die Auswertungen die man so hört/liest sind Quatsch.

    Ach oto. Es ist ja legitim, dass du Analysen, die weltweit von verschiedenen Personen transparent (!) durchgeführt wurden, anzweifelst. Aber versuche sie dann bitte mit realen Daten und nicht mit ausgedachten Fantasiewerten und naiven Annahmen zu widerlegen. Das klappt nicht mal mäßig gut.


    Ein kleiner Tipp für dich, weil du es anscheinend auch nach Jahren noch nicht verstanden hast: die ADL wird in linearem Licht berechnet. Damit alle Pixel 0,5 % erzeugen, müssten sie den digitalen Wert 36 besitzen (ausgehend von 16). Das wäre dann schon ein ziemlich milchiger "Schwarzwert".

    Wie schon mal erwähnt, werden wirklich selten Werte von 0 für schwarz ausgegeben! Wenn also schon alle pixel einen wert von 1 haben, haben wir ein 1% Bild und was sehen wir :?: nichts :rofl:

    1 % für die schwarzen Balken ist viel zu hoch gegriffen, falls es das ist, was du sagen wolltest. Die meisten Pixel dort haben tatsächlich einen Y-Wert von 0 (bzw. 16 oder 64). Höhere Schwarzwerte sind eher Ausnahmen, auch wenn sie vorkommen.


    Also löst euch erst mal von dem Gedanken das es 1% Bilder gibt bei denen es was zu sehen gibt. Den Kontrast bei 1% zu messen ist also sinnlos!

    So ein Quatsch. Auch in Bildern mit weniger als 1 % ADL kann man problemlos Dinge erkennen.

    Da ein Envy dies anscheinend gut hinbekommt zeigt das, dass es grundsätzlich möglich ist.

    Das ist ja nichts Neues und neben dem Envy können es auch der Lumagen und diverse PC-Lösungen schon ewig. Die Frage war nie, ob die Erkennung der schwarzen Balken grundsätzlich möglich ist, sondern ob JVC so etwas implementiert hat. Der Test drüben von Vern müsste aber noch mal etwas umfangreicher durchgeführt werden. Er hat ein CIH-Setup mit einer 2,76:1-Leinwand (Anamorphot mit 1,5x). "2001" hat ein Seitenverhältnis von 2,2:1, das er dann extern einmal auf konstante Höhe runterskaliert und einmal im Vollbild darstellt. Die Erkenntnis ist also valide für ein CIH-Setup und externer Skalierung, lässt sich aber aber nicht zwingend auf ein CIW-Setup mit Blanking im Projektor übertragen. Beides kann sich theoretisch unterschiedlich verhalten, je nachdem, was der Projektor da macht.

    Mir geht es ja explizit um das Blanking durch den Projektor- da ist ja vorgegeben welcher Teil nicht zum Content gehört. Damit wäre keine Analyse notwendig und der Algo könnte diese Information direkt auswerten.

    Selbst wenn man für alle (oder die wichtigsten) Seitenverhältnisse Presets für das Blanking hinterlegt und automatisiert ansteuert, blieben noch die Filme/Serien, die Formatwechsel als Stilmittel benutzen. Eine 100%-Lösung wäre auch das nicht. Man kann es drehen und wenden wie man will. Ein Algorithmus, der die Lichtquelle anhand des Bildinhalts steuert, wird immer Fehler machen. Die Frage ist nur, wie gering diese am Ende sind.

    Je nachdem wie intelligent der Algo von JVC implementiert wurde, wäre dies mindesten eine einfache Möglichkeit um Schwarz zu identifizieren, welches nicht zum Content gehört…

    Der Projektor müsste immer die schwarzen Balken analysieren und von der ADL-Berechnung ausschließen. Es gibt ja neben breiteren Formaten auch 4:3 im 16:9-Container. Sowas sollte schon berücksichtigt werden, denn ein Wissen hat der Projektor selbst über bestimmte Modi darüber nicht. Selbst der Player/HTPC weiß es nicht, ohne das Bild zu analysieren. Das Grundproblem ist einfach, dass immer eine feste Auflösung zugespielt wird.

    In der Realität nicht, aber bei so einem Film ist das ein gewünschtes Stilmittel für eine bedrohlichere Stimmung. War bei Alien noch viel ausgeprägter.

    Ja, aber die UHD sieht bezüglich der Grundhelligkeit völlig anders aus. Ok, es ist eine Sony, die sind ja häufiger zu hell gemastert. Das wirkt bei dieser aber nicht unbedingt so. Der Bereich <100 Nits ist in den Innenaufnahmen signifikant heller und selbst die Highlights sehen auf der Blu-ray in diesen Szenen zu dunkel aus. Die Außenszenen passen dagegen wieder sehr gut zueinander.


    Man achte in der ersten Szene auf die Lichter. Die sind weit weg vom Maximalwert. Das zieht sich so durch alle Innenaufnahmen der BD.


    Blu-ray:

    innen bd.jpg


    UHD:

    innen uhd.jpg



    Außen dagegen ist die Grundhelligkeit praktisch dieselbe.


    Blu-ray:

    außen bd.jpg


    UHD:

    außen uhd.jpg

    Der Film ist ja schon fast ein echter Geheimtipp für jeden Freund des Horror-Science-Fiction. Ich empfand ihn als extrem spannend und habe das letzte Mal bei "Cloverfield" so verkrampft auf dem Sessel gesessen. Logiklöcher mal außen vor, es gibt viele positive Dinge, die man an dem Film aufzählen kann. Der langsame Aufbau zählt für mich eindeutig dazu. Dann das


    Oder auch, dass

    Mir hat er jedenfalls richtig Spaß gemacht!:thumbup:


    Das Bild der UHD ist recht ansehnlich. Erstaunlicherweise ist die Blu-ray im Vergleich extrem dunkel gemastert und erzeugt damit eine völlig andere Stimmung. Mir gefällt die hellere UHD aber deutlich besser. Denn warum sollte es auf einer Raumstation, auf der geforscht wird, düster sein?

    Leider zeigen beide Scheiben immer mal wieder Aliasing, das mir negativ aufgefallen ist. Vor allen an feinen Strukturen "flirrt" es ab und zu. Hier z.B. an den Kanten der Knöpfe:

    pasted-from-clipboard.png


    Der Ton braucht sich auch nicht zu verstecken. Die Musik unterstützt schön die bedrohliche Stimmung.

    Mein motorisiertes Podest hatte mal wieder ein wenige zu tun und konnte mit so manchem Schlag aufwarten, wenn das Untier gegen eine Scheibe flog oder ähnliches. Zumindest bis 18 Hz ist der LFE linear, darunter fällt er dann ab.

    pasted-from-clipboard.png

    Es geht um die Verfärbung der Sonne, das hat wohl nichts mit jpg Kompression zu tun - zumal dann alle 3 Bilder gleichermaßen betroffen sein sollten.

    Dass es drüben darum geht, ist mir klar. Du sprachst aber von Artefakten. :zwinker2:


    PS: zu dem Problem, was drüben aufgezeigt wird. Eigentlich müsste man im Projektor definieren, wo sich der aktive Bildinhalt befindet. Im Grunde produziert das Laser-Dimming mit CIH-Setups nicht das, was sich die Entwickler gedacht haben, weil der zugrunde liegende ADL-Messwert kleiner ist als er sollte.

    das Problem ist das der Raum nicht gleich ist, sondern eine Ecke drin, das kann ich ja so leider nicht in REW simulieren

    Irregularitäten im Raum kann man mit ABEC zwar grundsätzlich simulieren, wie gut sie mit der Realität übereinstimmen, ist aber ungewiss. Das Problem ist, dass ABEC immer schallharte Flächen annimmt. Man kann zwar einen Absorptionskoeffizienten definieren, der ist aber frequenzneutral. Und Transmission wird gar nicht unterstützt. Daher werden immer Abweichungen zum realen Raum auftreten. Für die Evaluierung von groben Geometrien ist ABEC gut geeignet, für Schallführungen auch. Aber reale Räume weichen dann doch immer davon ab, so dass es letztendlich bei solchen Irregularitäten immer besser ist, mit mehreren Subwoofern zu messen.


    Abgesehen davon sind solche Irregularitäten per Hand umständlich zu erzeugen, weil man alle Eckpunkte in ein Script eingeben und dann auch manuell die Flächen definieren muss. Man kann zwar auch 3D-Modelle aus CAD-Programmen einfügen, das ist aber auch Aufwand und ich habe mich da nie wirklich eingearbeitet.

    Wir starten bei min Zoom und 6495 Kelvin und landen bei max Zoom bei unter 6147 Kelvin...

    Die Blende verändert die Farbtemperatur sogar noch stärker Bei mir beträgt der Unterschied zwischen geschlossen und offen satte 900 K. Nicht, dass ich die Blende brauchen würde, aber schön ist das nicht.

    Die Fenstergröße beim Messen hat beim X7900 dagegen keinen Einfluss auf die Farbtemperatur. Hätte mich auch gewundert.


    Das sollte gestern der Ansatz sein, für meinen Envy nochmal eigene LUTs je Farbraum für die Zoomeinstellung "1.85 FIlm innerhalb der 2.4 LW" zu erstellen.

    Oder CIH mit einem Anamorphoten umsetzen, dann existiert das Problem nicht.* :)


    * dafür bei dynamischer Lasersteuerung wohl andere, weil ja bei einigen Projektoren anscheinend die schwarzen Balken in die ADL-Berechnung eingehen, was in dem Fall kontraproduktiv ist.

    So, nach dem Schauen der 6. Staffel der bekannten Science-Fiction-Serie, habe ich mal ausprobiert, wie gut ein zeitbasiertes Verschieben des Bildes bei Filmen mit IMAX-Szenen (16:9) funktioniert. Dafür habe ich mir die DVDs von "The Dark Knight" und "Interstellar" geholt. Diese liegen komplett in 2,4:1 vor und die entsprechenden Szenen besitzen ein korrektes Framing, das manuell beim Mastering angepasst wurde.


    Die schlechte Nachricht: es gibt Szenen, in denen die Kamera Schwenks vollführt. In diesen Szenen wurde der Bildausschnitt anscheinend für jedes Bild einzeln gewählt, so dass sich am Ende ein komplett anderer Schwenk ergibt. Das heißt, am Anfang der Szene kann z.B. der obere Bildausschnitt gewählt worden sein und am Ende der untere. Das gilt generell für Szenen, in denen sich die Kamera bewegt. Technologisch kann man hierfür zwar auch für jedes Bild Metadaten hinterlegen, aber das ist extrem zeitaufwändig. Und MPV reagiert dafür nicht schnell genug. Die Abarbeitung müsste komplett synchron pro Frame erfolgen.


    Die gute Nachricht: für Szenen, in denen die Kamera eine feste Position einnimmt, funktioniert das sehr gut. :)

    Hier ein Beispiel:


    Bildausschnitt ist die Mitte:

    middle crop_klein.jpg


    Bildausschnitt wie vom Regisseur gewünscht (DVD als Referenz):

    pan scan_klein.jpg

    Ich bin erstmal wieder zurück auf gpu gewechselt. gpu-next hat mir noch zu viele Fehler. Die Farben stimmen nicht ganz und die Sättigung ist in hellen, gesättigten Tönen zu hoch. Mit Dolby Vision sogar noch höher. Dafür habe ich ein Issue angelegt. Und mit Hardwaredekodierung ist das Bild zu dunkel. Ich denke, da müssen wir noch ein bisschen warten, bis gpu-next wirklich komplett nutzbar ist. Immerhin mit SDR konnte ich bisher keine Probleme feststellen.

    Dieses Verhalten, dass Madvr dunkle Bildanteile unabhängig von hellen und umgekehrt bearbeitet/bearbeiten kann, ist ja auch exakt ein Teil an dem Madhsi intensiv gearbeitet hat und was gerade für lichtschwache Beamer ein sehr guter Kompromiss ist.

    Mit madVR kann man besonders gut die mittlere Helligkeit einstellen, ohne, dass die Zeichnung obenrum leidet. Man kann quasi die Belichtung (ähnlich wie in Adobe Lightroom) und das Bild bleibt immer in sich gut und kontrastreich. Das ist bei MPV schlechter. Hier sind engere Grenzen gesetzt und mit extrem hellen Szenen kommt es bekanntlich nicht gut klar.


    Kannst du mir mal die Szenen nennen, die du verglichen hast und in denen madVR gewonnen hat? Ich würde die gerne mal nachprüfen.

    Was dann ja bedeuten würde, dass man mit den derzeitigen Implementierungen in MPV eigentlich nicht zum gewünschten Ziel kommen kann, oder verstehe ich hier etwas falsch?

    Keine Ahnung, was er damit meint. Dass Tone Mapping unmöglich sei, ist ja Quatsch. Wir sehen ja, dass es geht. :)

    Es ist halt nicht eindeutig und ein Kompromiss, aber da ist ja bekannt.



    @alle

    Inzwischen unterstützt gpu-next auch D3D11, was unter Windows die Rechenlast auf der GPU etwas senkt im Vergleich zu vulkan. Hier gibt es tägliche Windows-Builds.