ANSI kontrast schreibt damit auch ADL mit höhrern helligkeiten meint
ANSI Kontrast Messung/Angabe ist genau definiert.
Wenn dieser Griff für andere ADL ist Angaben verwendet wird, dann ist das schlicht und einfach: Falsch!
Sie sind in Begriff, Heimkinoverein zu verlassen, um auf die folgende Adresse weitergeleitet zu werden:
Bitte beachten Sie, dass wir für den Inhalt der Zielseite nicht verantwortlich sind und unsere Datenschutzbestimmungen dort keine Anwendung finden.
ANSI kontrast schreibt damit auch ADL mit höhrern helligkeiten meint
ANSI Kontrast Messung/Angabe ist genau definiert.
Wenn dieser Griff für andere ADL ist Angaben verwendet wird, dann ist das schlicht und einfach: Falsch!
ANSI Kontrast Messung/Angabe ist genau definiert.
Wenn dieser Griff für andere ADL ist Angaben verwendet wird, dann ist das schlicht und einfach: Falsch!
ADL ist aber nicht definiert, ach was soll's, du denkst dir doch sowieso was neues aus. Falsch ist auch dein pixelkontrast, bestehst aber auf Definitionen? Schlimm nur das dein falsches Zeug dann übernommen wird... weitermachen...
Jeder kennt das fliegengitter bei der auflösung die der Pana hat, kann man da wirklich von Pixelkontrast reden Ist es nicht so das die schärfefilter auch gerne um objekte lienen ziehen um den schärfeeindruck oder kontrast zu verbessern, ist schon ähnlich wie wenn ich einen kleineren füllfaktor habe wie ein fleigengitter zwischen den pixeln
Ein Fliegengitter erhöht definitiv die wahrgenommene Schärfe. Da stimme ich zu. Ich hatte dazu vor Urzeiten mal ein Beispielbild erstellt. Das war aber noch aus der 576p-Zeit.
Wenn dieser Griff für andere ADL ist Angaben verwendet wird, dann ist das schlicht und einfach: Falsch!
Auch hier Zustimmung. ANSI-Kontrast ist ein standardisierter Wert und sollte nicht für andere ADL verwendet werden.
Pixelkontrast halte ich aber nach wie vor auch für unglücklich, da er relativ nichtssagend ist. Das gesamte Bild besteht in der digitalen Domäne aus Pixeln (nach der D/A-Wandlung sollte das eigentlich nicht so sein, kann seit der Röhren aber kein Anzeigegerät mehr). Genauer wäre es, von der Amplituden der Ortsfrequenzen zu sprechen (->MTF).
@alle
Das Problem ist, dass versucht wird, eine Kurve auf einen einzelnen Wert/Begriff zu reduzieren. Das funktioniert nie! Kontrast über ADL ist eine Kurve, Amplitude über Ortsfrequenz ist eine Kurve. Also kann nur genau von einem Wert auf der Kurve gesprochen werden, wenn man es denn unbedingt reduzieren möchte.
Es fehlen im Heimkinobereich leider standardisierte Metriken, die ein Anzeigegerät ausreichend charakterisieren. Die Anzahl der Pixel oder der ANSI-Kontrast sind dafür völlig ungeeignet und stammen aus dem letzten Jahrtausend. Insofern ist es nicht verkehrt, wenn wir eigene Definitionen treffen. Sie müssen nur klar definiert und am besten irgendwo beschrieben sein. Dazu gehört dann aber auch, wie man sie ermitteln kann. Bei Kontrast über ADL haben wir das gemacht, die MTF misst dagegen niemand. Die wäre sehr aussagekräftig.
ADL ist aber nicht definiert
Aber ANSI Kontrast ist genau definiert, den Begriff, welche Du Jahre lang wahllos und falsch verwendet hast.
ADL ist ein weiterer Begriff, Abkürzung, für InBild Kontrast, so wie Pixelkontrast ein weiterer Begriff zum Mikrokontrast, ist.
Pixelkontrast halte ich aber nach wie vor auch für unglücklich, da er relativ nichtssagend ist.
Ja, Pixel zu Pixel Kontrast wäre korrekter.
Aber IMHO versteht grundsätzlich jeder, der im Thema ist. Ist halt bißerl ein aus dem Gebrauch entstandener Begriff.
wäre es, von der Amplituden der Ortsfrequenzen zu sprechen (->MTF).
Und genau dies versteht jedoch kaum Jemand, ohne nähere Erklärung. Verwende den Begriff mal, außerhalb dieses Forums ;)
Die Begriffe Pixelkontrast und Mikrokontrast werden nun schon Jahrelang im TV-Sektor, wohl seit dem Aufkommen der OLEDs verwendet. Sind Begriff, die Umgangssprachlich verwendet werden, wie z.B. auch Flex statt Winkelschleifer, usw.
Bei Kontrast über ADL haben wir das gemacht, die MTF misst dagegen niemand. Die wäre sehr aussagekräftig.
Ist halt technisch auch schwierig.
Mit Fotokameras weiß man nicht, ob nicht die Cam selbst der limitierende Faktor ist, zumindest ob das Ergebnis korrekt ist.
Sensoren fokussieren nicht so genau.
Die Begriffe Pixelkontrast und Mikrokontrast werden nun schon Jahrelang im TV-Sektor, wohl seit dem Aufkommen der OLEDs verwendet. Sind Begriff, die Umgangssprachlich verwendet werden, wie z.B. auch Flex statt Winkelschleifer, usw.
Solange ein Begriff, der einen technischen Parameter definiert, nicht messbar gemacht wird, ist er quasi nutzlos. Man kann dann ja nicht mal mit Zahlen belegen, dass das eine Bild einen höheren %PlatzhalterFürBegriff besitzt. Dann ist sogar nicht einmal bewiesen, dass der %PlatzhalterFürBegriff für den gesehenen Effekt überhaupt verantwortlich ist. Da ohnehin immer Äpfel mit Birnen verglichen werden.
"Pixelkontrast" finde ich im Internet übrigens gar nicht. Das ist also kein etablierter Begriff. Unter "Pixel zu Pixel Kontrast" findet man ein wenig, aber definiert ist der auch nicht.
Zumal das Bild gar nicht quantisiert dargestellt werden soll, sondern kontinuierlich. Pixel sind nur ein Artefakt von digitalen Anzeigegeräten, das aber nicht gewollt, sondern technisch nicht anders möglich ist. Der Pixel stellt gar nicht die physikalische Einheit dar, um die es hier geht. Es geht um die Amplitude von Ortsfrequenzen. Und die hohen Ortsfrequenzen fangen schon vor der Nyquist-Frequenz an (also gröber als 1 Pixel). Meist liegen sogar dort die Details, die für den Schärfeeindruck verantwortlich sind, weil die volle Bandbreite gar nicht ausgeschöpft wird.
Zu "Mikrokonstrast" finde ich mehr aus dem Kamerabereich, aber dann in Zusammenhang mit MTF-Messungen. Das heißt hier wird z.B. bei Objektiven eine Messung durchgeführt und das dann als "Mikrokontrast" in einem Begriff verwurstet. Für mich ist das immer noch nicht wirklich ausreichend, aber immerhin etwas besser.
Ist halt technisch auch schwierig.
Schwierig ist nicht unmöglich.
Mit Fotokameras weiß man nicht, ob nicht die Cam selbst der limitierende Faktor ist, zumindest ob das Ergebnis korrekt ist.
Sensoren fokussieren nicht so genau.
Ja. Zum einen messen wir immer die Projektion (also nicht nur den Projektor, sondern auch den aktuellen Fokus und die Leinwand) und zum anderen sind Kameras nicht fehlerfrei. Von daher werden wir wohl nie absolut vergleichbare Werte bekommen.
Allerdings kann man bei den Bildgrößen mit einer Kamera eine starke Überabtastung durchführen, indem man die feinsten Linien sehr viel größer fotografiert als die Kamera auflöst. Damit kommt man in einen Bereich, in dem das Objektiv noch nicht abfällt. Zumindest sollte man damit mit derselben Kamera (Abstand, Bildgröße usw.) verschiedene Projektoren vergleichen können. Auch wenn das keinen Anspruch auf absolute Werte erhebt.
Aber ANSI Kontrast ist genau definiert, den Begriff, welche Du Jahre lang wahllos und falsch verwendet hast.
ich möchte dich bitten deine unverschämtheit zu unterlassen und zeige dir wo du falsch liegst:
ADL ist ein weiterer Begriff, Abkürzung, für InBild Kontrast,
aha, und bevor es die ADL messungen gab war eben der ANSi der begriff für inbild kontrast, genua so hab ich den jahrelang (eben auch vor ADL) verwendet, also nichts falsch!!!!
Was du aber total falsch machst ist deine höchallerliebste auswertung zu ANSi oderr ADL. Nach deiner auswertung sollte ab dem Kreuzpunkt der ADL messungen der PJ mit den besseren ADL werten einen vorteil im bild haben, hat nur noch kein schwein gesehen, also eine haltlose behauptung deinerseits seid jahren!
ich kann dir gerne sagen was die messungen sagen, zum einem geben sie auskunft zu der raumoptimierung. und zu zweiten sagen sie etwas über die qualität des lichtwegs des PJ. Ja und ab einen bestimmten wert der unterschrietten wird hat es auch auswirkungen auf die bildqualität, ist dieser wert aber überschrietten ist alle gut und der wert wird latte.
und jetzt wieder zum pixelkontrast den einzig und alleine du hier als verständlich für alle hinstellst, also erst mal an die eigene nase fassen!
Das richtige Dokument sitzt leider hinter einer Paywall (https://webstore.ansi.org/stan…focomm/ansiinfocomm3m2011) , daher hier eine der vielen Quellen:
"Messverfahren 2: Ansi
Das American National Standards Institute entwickelte eine Norm zur Messung des Kontrastwertes, das den willkürlichen Verfahren ein Ende machen sollte. Hier nimmt man ein Testbild, das in neun gleichgroße Segmente aufgeteilt ist, wechselnd in Schwarz und Weiß. Damit ist es natürgemäß sehr schwer, zu tricksen und Fabelwerte aufzustellen.
Von Millionen ist hier nicht mehr die Rede, doch zuletzt sind beachtliche Fortschritte zu verzeichnen. Sowohl LCD- wie Plasmaschirme erreichen Werte um die 600:1, wenn sie gut sind, normal sind eher 300:1 bis 400:1. Das ist auch die Größenordnung, die man bei Projektoren findet, wobei selbst ein eher schwacher Kandidat wie der LG AF-115 mit 170:1 deswegen noch nicht unbedingt ein schlechtes Gerät ist.
Bemerkenswerterweise schneiden Bildröhren, denen man eigentlich viel Kontrast zutraut, in dieser Disziplin schlecht ab. Das liegt daran, dass sie einerseits ihre Vorteile im Spitzenweiß nicht so richtig aussspielen können, andererseits viel Licht bei ihnen auch viel interne Reflexion bedeutet."
Quelle: https://burosch.de/technik/157-alles-ueber-kontrast.html
Solange ein Begriff, der einen technischen Parameter definiert, nicht messbar gemacht wird, ist er quasi nutzlos.
Nun ja.
Wir haben hier viele Begriffe, die Bild- und Tonwahrnehmung beschreiben, die nicht messbar oder nur so aufwendig messbar sind, dass keine ausreichende Datenbasis vorliegt.
Und zur Bezeichnung ...
Es geht um die Amplitude von Ortsfrequenzen.
Aus wissenschaftlicher Sicht hast Du recht.
Allerdings ist eine dahingehende Bezeichnung sehr abstrakt während sich wohl jeder etwas unter Pixelkontrast vorstellen kann.
Allerdings ist eine dahingehende Bezeichnung sehr abstrakt während sich wohl jeder etwas unter Pixelkontrast vorstellen kann.
ich habe dich ja gefragt was du dir unter pixelkontrast vorstellst und tue es hiermit nochmal. Dann sehen wir ja ob sich alle das gleiche vorstellen Und gleich noch die frage, was siehst du bei unterschiedlichen pixelkontasten?
ich habe dich ja gefragt was du dir unter pixelkontrast vorstellst und tue es hiermit nochmal.
Okay, ein Beispiel speziell für Dich:
10001
01010
00100
01010
10001
1 = weiß; 0 = schwarz
Wie exakt werden weiß und schwarz an 01 Übergängen abgebildet?
-> Pixelkontrast
Gilt natürlich auch für andere Farben und für übernächste Pixel etc.
Ist doch klar das der PJ mit kleinem füll Faktor weniger überstrahlt.
Aber auch ein Dlp überstrahlt, wie gesagt gibt es einige Gründe dafür. Doch was sagt uns das jetzt bei deinen beobachten die du in dem Vergleich gemacht hast, das ist mir überhaupt nicht klar?
Wir haben hier viele Begriffe, die Bild- und Tonwahrnehmung beschreiben, die nicht messbar oder nur so aufwendig messbar sind, dass keine ausreichende Datenbasis vorliegt.
Das stimmt, wir haben aber genauso viele die mess- und darstellbar sind. Und die MTF ist definitiv eine davon. Bei Kameraobjektiven wird sie seit langer Zeit gemessen. Sogar Filter der Bildbearbeitung (z.B. Schärfefilter) kann man im Frequenzbereich bewerten. Und beim Anzeigegerät ist dann plötzlich Schluss und wir begnügen uns mit einem kryptischen Begriff? Das leuchtet mir nicht ein.
Gilt natürlich auch für andere Farben und für übernächste Pixel etc.
Was dann nichts mehr mit Pixeln zu tun hat.
Ich habe es ja oben beschrieben: Pixel sind ein Artefakt, keine Einheit die man messen könnte. Sie existieren in einem sauber gewandelten Bild überhaupt nicht. Streng genommen handelt es sich bei dem Pixelmuster um Aliasing.
Es geht am Ende immer um ein kontinuierliches Signal, also um ein Frequenzgemisch. Sowohl bei Audio als auch bei Video. Bei Audio spricht ja auch niemand von "Sampledynamik" wenn er hohe Töne (=Details) meint, sondern vom Amplitudengang. Die MTF entspricht dem Amplitudengang. Nur, dass erstere zweidimensional ist (horizontal/vertikal).
"Pixelkontrast" usw. sind künstliche Begriffe, die weder messbar sind noch irgendwie definiert. Wir täten gut daran, auf bestehende Metriken umzusteigen, die quantisierbar sind (=MTF). Ich wollte das immer mal angehen, vielleicht mache ich das demnächst einfach mal.
Nun ja.
Wir haben hier viele Begriffe, die Bild- und Tonwahrnehmung beschreiben, die nicht messbar oder nur so aufwendig messbar sind, dass keine ausreichende Datenbasis vorliegt.
Das stimmt, wir haben aber genauso viele die mess- und darstellbar sind. Und die MTF ist definitiv eine davon. Bei Kameraobjektiven wird sie seit langer Zeit gemessen. Sogar Filter der Bildbearbeitung (z.B. Schärfefilter) kann man im Frequenzbereich bewerten. Und beim Anzeigegerät ist dann plötzlich Schluss und wir begnügen uns mit einem kryptischen Begriff? Das leuchtet mir nicht ein.
Hallo,
ging es nicht im Ursprung darum warum DLP Technik (Der Panasonic) hier generell eine schärfere Abbildung darstellen kann ?
Das Thema hatten wir doch eigentlich schon zigmal, weil die DLP Technik generell die Pixel (also die dargestellten auf dem DMD Chip ) nativ viel klarer abgrenzend auf der LW zeigen kann. Ähnlich auch der LED Wall Technik.
LCOS/Dila verschmiert den Grundpixel (Auflösung) zu einer Subpixel Einheit, daher viel weniger definierte Abgrenzungen zum Bezug Pixel in der Auflösung (bedingt durch die andere Technik).
Daher sieht Profi 3 Chip DLP Technik (und LED Wände erst Recht) immer schärfer aus.
Damit das auch übertragbar ist (die hohe Grundschärfe zur Leinwand) braucht es natürlich auch beste Objektive, auch die sind in der Profi DLP Bereich ebenso besser, als alle Consumer Objektive.
Insofern produziert auch ein FHD 3 Chip DLP im Grundsatz den "schärferen Pixel" (Darstellung seines DMD Chip auf der LW), als jede andere PJ Technik.
Nur das Gesamtbild kann ja dann trotzdem zu Gunsten des andere PJ (JVC in dem Fall) ausfallen, weil dann dazu die eigentlich höhere Bild Auflösung dazu gekommen ist, was der JVC natürlich feiner zeigt (ergo bedingt seiner nativ 4K Chipauflösung).
Man muss daher auch immer hinzufügen was man genau meint, die Darstellung des Pixel vom PJ Chip auf der LW oder die gesamte Abbildungsschärfe/Auflösung vom Bildsignal.
Gilt natürlich auch für andere Farben und für übernächste Pixel etc.
Was dann nichts mehr mit Pixeln zu tun hat.
Ich habe es ja oben beschrieben: Pixel sind ein Artefakt, keine Einheit die man messen könnte. Sie existieren in einem sauber gewandelten Bild überhaupt nicht. Streng genommen handelt es sich bei dem Pixelmuster um Aliasing.
Es geht am Ende immer um ein kontinuierliches Signal, also um ein Frequenzgemisch. Sowohl bei Audio als auch bei Video. Bei Audio spricht ja auch niemand von "Sampledynamik" wenn er hohe Töne (=Details) meint, sondern vom Amplitudengang. Die MTF entspricht dem Amplitudengang. Nur, dass erstere zweidimensional ist (horizontal/vertikal).
"Pixelkontrast" usw. sind künstliche Begriffe, die weder messbar sind noch irgendwie definiert. Wir täten gut daran, auf bestehende Metriken umzusteigen, die quantisierbar sind (=MTF). Ich wollte das immer mal angehen, vielleicht mache ich das demnächst einfach mal.
Ich glaube da redet Ihr aneinander vorbei.
Aries meinte sicherlich den "Pixel" der nativ auf der Leinwand dargestellt wird, also den PJ Bildchip in seiner Auflösung zeigend.
Du hast den "Pixel" beschrieben, der ggf. in der Signalverarbeitung entsteht, aufgrund zu geringer Bildauflösung.
Also das Bild wird "pixelig", rauschig ...schlechter.
Nochmal zum Begriff "Pixelkontrast" (natürlich werden hier unterschiedliche Meinungen dazu herrschen) bzw. was ich darunter verstehe (klar den Begriff gibt es so normal gar nicht) :
a)
Die Fähigkeit das dargestellte Pixel (also vom Bildchip kommend die native Auflösung) auf der Leinwand sauberer abgrenzend zu zeigen. (direkt sichtbar)
b)
Auch bedingt durch das Signalprocessing werden alle Farbabstufungen ebenso klarer abgrenzend dargestellt
c)
Es entstehen so auch deutlich weniger Überstrahlungen was insgesamt (a-c) einen höhere Grundkontrast sichtbar macht.
ANDY
ging es nicht im Ursprung darum warum DLP Technik (Der Panasonic) hier generell eine schärfere Abbildung darstellen kann ?
Das mag sein, dann wechselte die Diskussion aber auf eine Abstraktionsebene höher, nämlich um die Begriffsdefinition dieser Abbildung (Pixelkontrast, Mikrokontrast MTF usw.).
Man muss daher auch immer hinzufügen was man genau meint, die Darstellung des Pixel vom PJ Chip auf der LW oder die gesamte Abbildungsschärfe/Auflösung vom Bildsignal.
Das sehe ich auch so. Und am Ende messbar wird nur das Ergebnis auf der Leinwand sein. Es sei denn es wird direkt auf einen Kamerasensor projiziert. Dann könnte man die Leinwand aus der Gleichung entfernen.
Ich glaube da redet Ihr aneinander vorbei.
Aries meinte sicherlich den "Pixel" der nativ auf der Leinwand dargestellt wird, also den PJ Bildchip in seiner Auflösung zeigend.
Du hast den "Pixel" beschrieben, der ggf. in der Signalverarbeitung entsteht, aufgrund zu geringer Bildauflösung.
Also das Bild wird "pixelig", rauschig ...schlechter.
Nein, wir sprechen von derselben Sache. Ich denke, es herrscht nur Unklarheit darüber, was ein Pixel eigentlich ist.
Daher mal etwas Grundsätzliches: jedes Bild besteht in der digitalen Domäne aus Samples, also quantisierten Werten, die in der analogen Welt eine kontinuierliche Wellenform ergeben. Das ist nichts anderes als bei Audio. Auch dort gibt es Samples, die nach der A/D-Wandlung eine kontinuierliche Wellenform ergeben. Die Samples existieren in der analogen Welt bei Audio überhaupt nicht mehr. Man kann sie im Signal auch nicht sehen. Dafür muss man sich ein bisschen mit der Signaltheorie beschäftigen und alles was dazu gehört (Nyquist, Shannon usw.).
Beim Bild ist das prinzipiell nichts anderes. Bei Audio ist die X-Achse die Zeit, beim Bild dagegen die Breiten- bzw. die Höhenrichtung. Daher spricht man dort auch von Ortsfrequenzen. Der Helligkeitswert entspricht der Amplitude eines Samples (schwingt um das mittlere Grau). Am Ende werden diese Samples beim Bild Pixel genannt. Das ist aber einfach nur ein anderer Begriff. Hier mal die Beschreibung aus Wikipedia dazu:
Oft werden Pixel als rechteckig oder quadratisch betrachtet. Dies ist jedoch eine nicht allgemeingültige Modellvorstellung. Im Sinne der digitalen Signalverarbeitung ist ein Pixel ein diskreter Abtastwert; über andere Punkte als die Pixel lassen sich keine Aussagen treffen. Deutlich wird dies bei der Vergrößerung von Rastergrafiken: Das Erscheinungsbild variiert je nach gewählter Skalierungsmethode, und die Pixel des Ausgangsbildes erscheinen in der Vergrößerung nicht zwangsläufig als Quadrate (siehe Bild rechts). Ein vergleichbarer Fehler wäre es, die Abtastwerte eines digitalen Audiosignals als über ein bestimmtes Zeitintervall gleichbleibende Werte zu interpretieren, weil das Signal vom Audioeditor in der Vergrößerung treppenartig dargestellt wird.
Die Modellvorstellung eines quadratischen Pixels ist unangemessen, weil sie die unterschiedlichen Möglichkeiten bei der Umwandlung von Bildinhalten zu Rastergrafiken vernachlässigt. In der Computergrafik, bei der künstliche Bilder erzeugt werden, können die gewünschten Bildinhalte als Vektorgrafik, 3D-Szenenbeschreibung oder eine andere Art der Bildbeschreibung vorliegen. Diese Bildbeschreibung definiert ein kontinuierliches Signal, das in eine Rastergrafik umgewandelt (gerastert oder gerendert) werden muss, indem die Bildinhalte abgetastet werden. Der verwendete Rekonstruktionsfilter bestimmt, wie die Farben der ursprünglichen Bildbeschreibung in der Nähe eines Pixels gewichtet werden und in die Pixelfarbe einfließen. Bei einem bilderfassenden System, das ein natürliches Bildsignal auf einer optischen Bildebene oder -zeile digitalisiert, bestimmt sich der entsprechende theoretische „Rekonstruktionsfilter“ (die Punktspreizfunktion) durch die optischen und elektronischen Elemente des Systems.
Es ist zwar möglich, Pixel als Quadrate zu betrachten, dies ist jedoch allenfalls dann sinnvoll, wenn als Rekonstruktionsfilter ein Box-Filter gewählt wurde, denn hier würde der Farbwert eines Pixels dem Mittelwert aller Farbbeiträge innerhalb des Quadrates entsprechen. Für die nachfolgende Bildbearbeitung muss jedoch das resultierende Pixel allgemein als diskreter Abtastwert betrachtet werden. Wenn von „einer Pixelbreite“ die Rede ist, dann ist damit tatsächlich der Abstand zwischen zwei benachbarten Pixeln gemeint; der „Mittelpunkt“ eines Pixels bezeichnet in Wirklichkeit das Pixel selbst. Mit Formulierungen wie „Überdeckung eines halben Pixels“ ist die Überdeckung der Bildinhalte durch den verwendeten Rekonstruktionsfilter gemeint.
Kurz gesagt: ein Pixel hat in der digitalen Domäne weder eine Breite noch eine Höhe. Es ist ein Abtastwert, also ein Punkt ohne Ausdehnung.
Eine Videokamera nimmt übrigens eine mehr oder weniger saubere A/D-Wandlung vor. Denn zu jeder Wandlung von einer Domäne in die andere gehört ein Tiefpass. CCD-Sensoren haben in der Regel optische Tiefpässe verbaut, um Aliasing zu vermeiden. Das verhält sich genauso wie beim A/D-Wandler im Audiobereich.
Nun ist es so, dass Röhrenprojektoren horizontal komplett analoge Wellenformen darstellen konnten. Nur vertikal waren die Zeilen quantisiert. Bei digitalen Projektoren sind beide Dimensionen quantisiert, daher sieht man die festen Pixel mit ihrer Ausdehnung. Das ist aber eben nur so, weil der optische Tiefpass fehlt. Es ist also ein Artefakt.
Je höher die Auflösung wird, desto mehr fungiert unser Auge als Tiefpass und desto geringer wird das Problem in der Wahrnehmung. Aber grundsätzlich lasst sich sagen, dass digitale Anzeigegeräte keine saubere Rekonstruktion des digitalen Signals erzeugen können. Weder D-ILA noch DLP oder LED-Wand. Keins.
Ich hatte oben noch den Schwenk in die Signalverarbeitung unternommen, um zu zeigen, dass es sich immer um Ortsfrequenzen handelt. Denn diverse Filterarten (z.B. Schärfefilter) transformieren ein Bild erst in den Frequenzbereich (Fouriertransformation), ändern dann irgendwas und wandelt das Bild wieder zurück in den Ortsbereich. Es geht dort nie darum, dass am Ende Pixel dargestellt werden, sondern um ein quantisiertes Bild, das verändert wird und am Ende sauber ins Analoge gewandelt werden sollte. Wird es nur eben nie.
Kurz gesagt: auf die Pixel zu schauen, wirkt offensichtlich, ist aber von der ganzheitlichen Betrachtung ziemlich weit entfernt.
Die MTF entspricht im Groben dem Amplitudengang im Audiobereich. Der zeigt dann in der Ganzheit, was Sache ist. Bei Kameraobjektiven wird sie gemessen, im Heimkinobereich gibt man sich mit undefinierten, subjektiven Begriffen zufrieden. Mal ehrlich: wir verbringen Stunden damit, unsere Projektoren zu kalibrieren, messen sogar den Kontrast über der ADL. Aber den Kontrast über der Frequenz vernachlässigen wir einfach? Kann irgendwie nicht sein.
PS: Ich weiß, das Thema ist nicht trivial. Wir hatten eine ganze Vorlesung zu Signale & Systeme in der Uni. Das hilft zumindest ein wenig.
Aber den Kontrast über der Frequenz vernachlässigen wir einfach?
Eben nicht!
Daher schreibe ich auch so gerne über den Pixelkontrast.
Das ist nichts anderes als bei Audio. Auch dort gibt es Samples, die nach der A/D-Wandlung eine kontinuierliche Wellenform ergeben.
Genau da liegt DER entscheidende Unterschied.
Die Audiokette wechselt immer in die analoge Domäne weil Lautsprecher Schwingungen in der Luft erzeugen.
Die Videokette bleibt bei den heute üblichen Systemen in der digitalen Domäne.
Ich kann die Pixel einzeln auf der Leinwand sehen (wenn ich nahe genug herangehe), aber ich kann nicht die einzeln Audio Samples hören.
Das abgestrahlte Licht eines Pixel ist allerdings analog ;)
Nur weil in der Audiotechnik die Digitaldaten vom CD Mastering einfach technisch schon so hoch war und man mit unseren Ohren nicht mehr differenzieren kann.
Mann müsste nur die Abtastung des analogen Signals beim Digitalisieren viel gröber machen als bei der CD (dass man sehr große digitale "Treppchen" hat).
Irgendwann "schmiert" der LS das nichtmehr zu. Vor allem AMT Hochtöner sollten das gut differenzieren können wenn die Abtastrate abnimmt.
Im Stereobereich reichte halt die Kapazität der CD schon aus aus um 2 Kanäle genügend Platz bei der Digitalisierung zur Verfügung zu stellen.
Das abgestrahlte Licht eines Pixel ist allerdings analog ;)
Photonen würde ich nicht als analog bezeichnen.
Also ich bin da nun kein Wissenschaftler oder sowas. Aber nach meiner bescheidenen Kenntnis wird Licht in Wellen ausgestrahlt. Oder? Wenn ja, ist es auch analog.
Kann überhaupt irgendetwas digital wiedergegeben werden, was wir „korrekt“ wahrnehmen können?
sehr große digitale "Treppchen"
Exakt das ist der Unterschied:
Bei Audio gibt es keine Treppchen!
Die digitalen Werte sind Stützstellen, durch die bei der DA Wandlung eine analoge Kurve gelegt wird.
Eine gröbere Diskretisierung vermindert "nur" die maximal mögliche Wiedergabefrequenz bzw. den Rauschabstand.
Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!