Hallo Zusammen,
ich erzeuge mal dieses neue Thema mit dem Titel "HDR Brainstorming ", da mein folgender Text den ich heute in einem anderen Thema schrieb, dort OT war.
Mein Anliegen:
Wie den bestmöglichst einzustellenden "Berechnungswert" oder wie auch immer man es nennen will, bzgl. dynamisches Tonemapping sprich madVR, Lumagen & Co., für sich herausfinden.
Als mein HTPC mit madVR lief, war ich erst einmal recht enttäuscht und fragte mich "das soll alles sein"
Nach zwei Tagen habe ich einfach mal zwei Werte, welche individuell zu verändern sind geändert und tata, geniales Bild ... vorerst einmal.
Seitdem habe ich auch nichts mehr geändert sondern Filme gesehen, aber ich denke, da geht noch mehr und würde schon gerne das bestmöglichste raus holen.
Bei madVR gibt es das Feld "real Display nits" was somit hoffentlich selbsterklärend ist. 100IRE messen und gemessene Nits eintragen oder vielleicht doch besser das Ganze umrechnen, wie das die Profi unter Einbeziehung der Leinwandgröße, Gain Faktor usw. machen?
Dann gibt es bei madVR das Feld "dynamic tuning" und da bekam ich am Anfang mal gesagt "trage 75" ein.
War aber wie geschrieben alles andere als toll.
Erst als ich 150 oder 200 (weis es gerade nicht) eingetragen habe, machte es tata und das Bild sah toll aus.
Nur wie am besten vorgehen um z.B. bei madVR diesen Wert am perfektesten herausbekommen.
Rechnerrisch?
Testbilder wie die von R.Masciola nutzen?
Bestimmte Filmszenen/bilder nutzen?
Fragt man diejenigen die mit madVR zu tun haben, bekommt man einfach Zahlen zum eintragen genannt.
Ziel des ganzen sollte aber sein, dass man nicht nur "doof" eine Zahl einträgt, sondern grob weis wie diese zustande kommt und vor allem, wie dieses am Besten zu bestimmen ist.
Freue mich auf regen Wissensaustausch, nicht nur von den wenigen madVR Besitzern, sondern auch den Lumagen Cracks und anderen, welche ja schon länger in diesen Themen stecken.
Danke und Grüße
Sven