@atom: dann klär mich bitte auf, warum die HDMI Spezifikation einen max HDMI data jitter fordert: "HDMI specification requires 102 pS or less for 18 GHz"
Produkte von Cinemike - Der Versuch einer sachlichen/fachlichen Diskussion
-
-
Ohne das jetzt groß zu recherchieren, gehe ich mal stark davon aus, dass dieser max. Jitter eingehalten werden muss, um die oben erwähnte Rekonstruierbarkeit nicht zu gefährden. Da wir hier von einer Echtzeit-Anwendung mit Toleranzgrenzen für die Übertragung sprechen, macht das Sinn. Mein Beispiel bezog sich natürlich auf das Übertragungsverfahren im Allgemeinen. Wenn man jetzt Anforderungen an ein gewisses Zeitverhalten stellt, hat das logischerweise Auswirkungen.
Was der Jitter dennoch nicht tun wird (und darum ging es eigentlich), ist Dein Bild irgendwie verschlechtern. Wird der jitter zu groß, ist die Rekonstruierbarkeit ist nicht mehr gegeben und gibt es Ausfälle. Daher habe ich ja auch die Rekonstruierbarkeit als Grundvoraussetzung genannt, in deren Rahmen sich die Parameter natürlich bewegen müssen.
-
Aus der HDMI1.3a Spec, falls jemand Zugang zu neueren hat immer her damit:
ZitatAll TMDS Clock and Data signal jitter specifications are specified relative to an Ideal Recovery
Clock defined below. The Data jitter is not specified numerically, but instead, an HDMI device or
cable shall adhere to the appropriate eye diagram(s) when the TMDS data signals are measured
using an Ideal Recovery Clock as a trigger source.
Sind wir jetzt analog oder digital? Denn digital ist der Jitter egal, der Interessiert erst bei der DA-Wandlung. So lange die Daten in der Richtigen Reihenfolge ankommen und verarbeitet werden, ist alles in Butter. Auch die Spannungsversorgung ist egal, das GND Konzept usw., so lange es so ausgelegt ist, dass die Daten jederzeit sauber rekonstruiert werden können. Genau hier setzen ja unzählige Voodo Maßnahmen an, da hier eine große Unsicherheit zu bestehen scheint.
Noch mal eben zum Jitter: Ich kann eine Folge 010 zu jeder beliebigen Zeit senden, 0 heute früh, 1 heute Abend, und die letze 0 übermorgen. Wenn die dann jemand nacheinander in den Wandler schiebt, muss genau zu diesem Zeitpunkt erst der Takt stimmen.
ja ganz so einfach ist es nun auch wieder nicht. Wenn der Jitter zu hoch wird dann bekommst man ISI, Intersymbolinterferenzen, und das wird man sicher irgendwann merken.
Ein genauerer PLL oder eine Glättung der Spannungsversorgung mag da schon helfen den Jitter zu reduzieren, aber wenns einmal funktioniert und die Symbole richtig ankommen, können die Daten durch besseren/weniger Jitter nicht mehr besser werden als sie vor dem senden schon waren.
-
Ok, da bin ich bei Euch, dass es hauptsächlich was mit der Robustheit der Übertragung zu tun hat und in keinster Weise den zu übertragenden Inhalt verändern kann. Einen signifikanten Einfluss auf das Signalalter sollte es dadurch auch nicht geben.
-
Ja, wenn keine Zeitkritische Übertragung und abhängig von der Leistungsfähigkeit der CRC. Was aber bestehen bleibt ist Übertragungsjitter, EMC Entkopplung der Spannungsversorgung, GND Konzept u.s.w. Ich finde sehr gut formuliert sind die Verbesserungen beim Lumagen 5348 im White papier, siehe Link
Danke für den Link. Für diejenigen, die Mühe mit dem englischen Text haben: Im "White Paper" finden sich auch quantitative Messergebnisse, wonach Jitter und EMI (electromagnetische Interferenzen) dramatisch reduziert würden . Im Bezug auf Audio ist zumindest Lumagen davon überzeugt, dass der Ton durch solche Modifizierungen bei ihren Geräten besser würde. Bei Video soll es bei digitalen Projektoren (bspw. DLP) keine Vorteil bringen, bei analogen angesteuerten Panels wie LCOS / DILA soll das durchaus auch der Fall sein. Man müsse das aber dann individuell vom Sitzplatz aus beurteilen, ob es etwas bringt oder nicht.
Meine Meinung: behaupten und publizieren kann man vieles. Die Frage, die sich mir dann als nächstes stellt, ist, ob die Messungen für andere reproduzierbar sind und wie weit der Aufwand dann individuell in der Praxis überhaupt wahrnehmbar ist. Für Jim Peterson scheint das der Fall zu sein. Allerdings zeigt es sich am Beispiel der Homöopathie , dass auch ein mangelnder wissenschaftlicher Nachweis inkl mangelnder Reproduzierbarkeit keine notwendige Bedingung ist, um etwas erfolgreich zu verkaufen und überzeugte Anhänger zu finden. Die Leute glauben daran oder halt nicht.
Daher noch mal die Frage.
Gibt es solche Hör-Sehtests von CineMike Komponenten mit positivem (=Unterschied erkennbar) Ergebnis?
Zumindest beim Radiance Pro behaupten einige fest, dass es sich gelohnt hat, auf die neuste Version umzusteigen. Anderslautende Stimmen sind mir nicht bekannt.
-
Zumindest beim Radiance Pro behaupten einige fest, dass es sich gelohnt hat, auf die neuste Version umzusteigen. Anderslautende Stimmen sind mir nicht bekannt
Die Kette ist nur so gut, wie das schwächste Glied. Wenn die anderen Gräte das Niveau nicht erreichen, bring es aus meiner Sicht recht wenig.
-
Das stimmt IMO so nicht: wenn nur ein Glied in der Kette ein Eigenleben entwickelt und bei der Signalumwandlung fehlerhaft arbeitet, können die anderen Glieder noch so perfekt sein. Deshalb ist es auch ein Tipp, den Projektor tetsweise direkt an den Player anzuschliessen (ohne AVR oder Lumagen dazwischen) und schauen, wie es aussieht.
-
Ich habe ja einen ganz guten Draht zu den Jungs und so habe ich auch die Tunings vor Ort miterlebt und kiritische Fragen gestellt.
So habe ich z.B. auch gefragt wie sich das tuning des Beamers, positiv auf den Klang auswirken kann? Für alle Fragen bekommt man immer bereitwillig und freundlich eine Auskunft.So wie ich das verstanden habe geht es bei dem Tuning hauptsächlich um Schmutz im Signal von hochfrequenten Störungen. Diese HF Störungen machen sich dann am Ende auch bei der Wandlung vom Signal bemerkbar. Eines kann ich mit Sicherheit sagen. Die Kunden von Cinemike sind sehr zufrieden mit Ihren Produkten und auch bereits für das Tuning lange Lieferzeiten in Kauf zu nehmen. Die von Cinemike getunten Heimkinos hatten meist eine sehr gute Performance.
Nach dieser Philosophie dürfte sinnlos sein, ein von Cinemike getuntes Gerät, in einer nicht optmierten Umgebung zu testen. -
Aus der HDMI1.3a Spec, falls jemand Zugang zu neueren hat immer her damit:
ja ganz so einfach ist es nun auch wieder nicht. Wenn der Jitter zu hoch wird dann bekommst man ISI, Intersymbolinterferenzen, und das wird man sicher irgendwann merken.
Ein genauerer PLL oder eine Glättung der Spannungsversorgung mag da schon helfen den Jitter zu reduzieren, aber wenns einmal funktioniert und die Symbole richtig ankommen, können die Daten durch besseren/weniger Jitter nicht mehr besser werden als sie vor dem senden schon waren.
Es ist immer schwierig, etwas schnell und allgemein verständlich auf den Punkt zu bringen, ohne gleich eine Abhandlung dazu zu schreiben. Das die Bits in der richtigen Reihenfolge ankommen müssen, sehe ich in dem Zusammenhang halt als gegeben an, ebenso das sich bei den sehr hohen Übertragungstakten von Sachen wie Digitalvideo ein gewisser zeitlicher Korridor für die Daten ergibt. Das ist systembedingt und sollte eigentlich klar sein. Wenn eine Übertragungsstrecke solche Krankheiten aufweist, ist natürlich Hopfen und Malz verloren. Da dann mit irgendwelchen Voodo-Maßnahmen was verbessern zu wollen, halten ich persönlich für den falschen Ansatz. Das gehört ins Design des eigentlichen Systems und man landet also da, worauf ich auch eigentlich hinaus wollte: Ein ordentlich designetes System wird (meiner Meinung nach) durch solches Tuning in der digitalen Domäne keinerlei erfassbare Qualitätsverbesserungen erfahren. Bei der Wandlung D/A sieht das anders aus, aber auch da bin ich ein Freund davon, doch lieber gleich Equipment anzuschaffen, das seinen Job von Haus aus ordentlich macht. Glücklicherweise gibt der Markt das heutzutage auch im mittleren, teils sogar niedrigen Preissegment her.
-
Die von Cinemike getunten Heimkinos hatten meist eine sehr gute Performance.
Kann ich mir gut vorstellen, aber die Gretchenfrage ist doch, ob sie das nicht auch ohne das Tuning bereits hätten.
-
Im Bezug auf Audio ist zumindest Lumagen davon überzeugt, dass der Ton durch solche Modifizierungen bei ihren Geräten besser würde.
Schließt man den Lumagen wirklich vor dem AVR/Vorstufe ins System?
Ich hätte gedacht: Diverse Player > Vorstufe > Video Prozessor > Display.ei Video soll es bei digitalen Projektoren (bspw. DLP) keine Vorteil bringen, bei analogen angesteuerten Panels wie LCOS / DILA soll das durchaus auch der Fall sein.
Also wäre ein Voll-Glasfaserkabel das beste Tuning für Sony/JVC ;)
Ich war bei HDMI auch länger auf dem Holzweg, es ist auch schwer Etwas über das Protokoll selbst zu finden.
Scheinbar erfolgt der Sync "Digital" steht oder nicht, Bild oder Nicht.
Aber die Bilddaten werden dann als Stream mit geringer Fehlerkorrektur durch geschickt. Ist die Korrektur über die Prüfsumme nicht möglich, dann geht es einfach weiter, gibt es Artefakte. Es gibt keine weitere Sendung des Datenpaketes.
Die Datenpakete sind jedoch so groß, dass die Artefakte deutlich zu sehen sind."Lustig" wird es jedoch, wenn Netzwerk-Switches modifiziert werden: Das Netzwerkprotokol sendet die Datenpakete so oft wie nötig, damit Alles Bit genau ankommt. In der EDV kann man sich kein einziges, falsches Bit leisten.
-
Kann ich mir gut vorstellen, aber die Gretchenfrage ist doch, ob sie das nicht auch ohne das Tuning bereits hätten.
Am Ende war es auch so, das die Cinemikes sich die Mühe gemacht haben, die Heimkinos ihrer Kunden ganzheitlich zu analysieren und zu optimieren. So kann es durchaus auch sein, dass ein bessere Lautsprecheraufstellung und Akustikoptimierung auch Teil des Gesamtkonzeptes sind. Ich kann dir nicht sagen wie viel Prozent am Ende die Raumakustik und wie viel die Elektronik bringt.
-
Speziell bei der Übertragung von AV-Daten in Netzwerken wird meist Multicast verwendet. Da gibt es auch keine Möglichkeit, dem Absender mitzuteilen, dass er das Paket noch mal schicken soll, da ein Absender an beliebig viele Empfänger sendet. Da ist also "weg" dann auch wirklich weg. Hier muss man also auf der IT-Seite dafür Sorge tragen, dass die Übertragungsstrecke so performant ist, dass die Pakete nicht verloren gehen. Ich erlebe es gerade auf der Arbeit: Netzwerkadministratoren, die aus der Büro-Welt kommen, müssen erst mal gründlich umdenken/umlernen, um überhaupt mit so einem Konzept umgehen zu können.
-
dann klär mich bitte auf, warum die HDMI Spezifikation einen max HDMI data jitter fordert: "HDMI specification requires 102 pS or less for 18 GHz"
Ohne das jetzt groß zu recherchieren, gehe ich mal stark davon aus, dass dieser max. Jitter eingehalten werden muss, um die oben erwähnte Rekonstruierbarkeit nicht zu gefährden.
Ist zwar eigentlich schon geklärt, aber so ganz klar ist mir das nicht. Die 102 ps kommen mir eher recht hoch vor, um die Reproduzierbarkeit zu gewährleisten.
Denn wenn ich mich nicht verrechnet habe, beträgt die Periodendauer bei 18 GHz gerade mal 55 ps, somit wäre der zulässige Jitter fast das doppelte der Periodendauer.
Wobei: Wenn ich so darüber nachdenke, könnte das ja gerade das Kriterium sein: 2 Zustände müssen auch in zwei Perioden geliefert werden, wenn auch nur knapp.
Und was ich bei der Jitter Diskussion auch noch nie so recht verstanden habe:
Bei unkomprimierter Übertragung kann ich mir ja vorstellen, dass Jitter tatsächlich einen Einfluss auf das analoge Signal hanen kann, das am Ende rauskommt. Zumindest wenn der Takt zusammen mit dem Nutzsignal über das gleiche Medium übertragen wird (wie das wohl z,B. bei Toslink der Fall ist) und dieser Takt auch für die D/A Wandlung hergenommen wird.
Wie sieht das aber bei Paketbasierten Tonformaten aus, die auf Empfängerseite erst einmal dekodiert werden müssen? Muss da der Empfänger nicht zwangsläufig einen eigenen Takt verwenden, der dann nicht den Schwankungen im übertragenen Signal unterliegt?
-
Es spricht auch gar nichts dagegen ein nicht getuntes Gerät in eines cinemike Kette zu testen.
Wichtig ist doch nur dass der Test sauber ist.
Wenn die Frage ist ob man ein getuntes von einem nicht getunten unterscheiden kann durch hören oder sehen, dann ist damit nicht gemeint indem man das Gerät anschaut mit cinemike Logo, sondern ein Blindtest.
Also das ist Grundvoraussetzung.
Was mir dabei "komisch" vorkommt ist dass das ja eigentlich auch einfach machbar ist, und bei den kolportierten großen Unterschieden es trotzdem nach meinem Wissensstand keinen solchen Test gibt.
Ich habe einigen solchen Test mitgemacht. Teils von mir organisiert teilweise andere.
Das ist in der Größenordnung der beworbenen Verbesserungen echt keine Raketenwissenschaft.
mfg
-
Jein, denn der Grundtakt des Empfängers muss schon mit dem Takt des Senders synchron laufen, damit eben gewährleistet ist, dass das Ereignis auch wirklich bei den angegebenen 9 Minuten, 3 Sekunden und 2 Frames stattfindet und nicht eine Sekunde später oder so. Auch darf natürlich der Takt des Empfängers nicht vorauseilen, weil der ja sonst irgendwann alle Daten verarbeitet hat und auf dem Trockenen sitzt. Man kann natürlich einen Riesenpuffer verwenden und alles frei laufen lassen, aber dann werden die Latenzen wieder zu groß.
Komprimierte Daten müssen erst mal ausgepackt werden und kommen dann üblicherweise in einen Pufferspeicher, der es abfängt, wenn die Übertragung mal einen Tick länger dauern sollte, weil z.B. ein Paket wiederholt geschickt werden muss. Die Verarbeitung dauert auch ein wenig und diese Verarbeitungszeit kann auch je nach Inhalt schwanken.
-
Es spricht auch gar nichts dagegen ein nicht getuntes Gerät in eines cinemike Kette zu testen.
Wichtig ist doch nur dass der Test sauber ist.
Wenn die Frage ist ob man ein getuntes von einem nicht getunten unterscheiden kann durch hören oder sehen, dann ist damit nicht gemeint indem man das Gerät anschaut mit cinemike Logo, sondern ein Blindtest.
Also das ist Grundvoraussetzung.
Was mir dabei "komisch" vorkommt ist dass das ja eigentlich auch einfach machbar ist, und bei den kolportierten großen Unterschieden es trotzdem nach meinem Wissensstand keinen solchen Test gibt.
Ich habe einigen solchen Test mitgemacht. Teils von mir organisiert teilweise andere.
Das ist in der Größenordnung der beworbenen Verbesserungen echt keine Raketenwissenschaft.
mfg
Naja, ein richtiger Doppelblindtest (um den Kluger-Hans-Effekt zu umgehen) ist schon viel Arbeit.
Pegelabgleich, Umschalter, uvm und nicht zuletzt mindestens 10 Wiederholungen des Tests um wirklich jede Möglichkeit des Ratens auszuschließen und ein aussagekräftiges Ergebnis zu bekommen.
Zudem muss man noch genau protokollieren, Testaufbau beschreiben etc. Sonst kommt wieder die übliche Kritik an solchen Test von Leuten die sie nicht verstehen (wollen).
Das ist auch meine Sorge... Kann man Leute wirklich mit solchen objektiven Ergebnissen überzeugen? Ich glaube sie müssen schon selber dabei gewesen sein damit das einen Effekt auf sie hat. Zu anderen Themen/Produkten gibt es ja schon hunderte Blindtests und trotzdem weigern sich viele Menschen die Ergebnisse anzuerkennen.
-
Als Hersteller würde ich das allein deshalb machen um den Kritiker in Foren zu beweisen dass mein Zeug "funktioniert".
Und ja ein wasserdichter Test ist aufwändig, aber ich als Skeptiker wäre ja schon viel früher zufrieden.
Denn es geht hier nicht um 0,0005dB bei 17kHz sondern um kolportierte Unterschiede die man "sofort", "deutlich",... sieht/hört.
Und demnach brauche ich keinen ultra sensitiv Test. Denn wenn die Unterschiede so groß sind wie beschrieben sollte das "überall" locker zu erkennen sein.
Nur zumindest soweit ich weiß gibt es in dieser Richtung nichts. Und die paar privaten Tests die es versucht haben ergaben negative Ergebnisse.
Aber wie ich auch schon oft gesagt habe, der physikalische Ton/Bild-output einer Komponente ist nur ein Faktor am Spaß oder der Freude an selbiger.
mfg
-
Ist zwar eigentlich schon geklärt, aber so ganz klar ist mir das nicht. Die 102 ps kommen mir eher recht hoch vor, um die Reproduzierbarkeit zu gewährleisten.
Denn wenn ich mich nicht verrechnet habe, beträgt die Periodendauer bei 18 GHz gerade mal 55 ps, somit wäre der zulässige Jitter fast das doppelte der Periodendauer.
Wobei: Wenn ich so darüber nachdenke, könnte das ja gerade das Kriterium sein: 2 Zustände müssen auch in zwei Perioden geliefert werden, wenn auch nur knapp.
18Ghz ist ein wenig Markting. weil ansonsten hätten wir ein Bündel Hohlleiter oder Koax zum AVR liegen.
TMDS hat in der HDMI2.0 Spec 600Mhz Kanalbandbreite mit 8b10b Kodierung (25% Overhead) und 3 Kanäle (RGB).
600 x 3 x 10 = 18Ghz Symbolrate - 25 % = 14,4 Gbit
-
Als Hersteller würde ich das allein deshalb machen um den Kritiker in Foren zu beweisen dass mein Zeug "funktioniert".
Nein... warum auch. Dort ist eine ganz andere Zielgruppe unterwegs - und mal ehrlich, viele von uns sind ja schon was Freaky. Wer schaut sich denn freiwillig Videos über Jitter und Co. an, ließt Bücher über Audiotechnik usw.
Ich erinnere mich da immer noch an den Besuch vom Cinemike beim Latenight... 2 Takte Musik und Film und schwupps: Stimmwiedergabe könnte was besser sein. Der Player ist schuld.
Wenn die da nun an einen Kunden geraten der drauf anspringt und ihm dann gleich noch eine Optimierung des Raumes mit verkaufen können - warum nicht. Aus wirtschaftlichen Aspekten doch gut.
Das das Konzept aufgeht zeigt doch der Erfolg.
Interessant finde ich übrigens diesen Channel auf Youtube:
https://www.youtube.com/channe…Y1KXGwcOh1RxKp_-FA/videos
Er wäre sicher auch in der Lage zu prüfen, ob ein Player wirklich besser ist als das Original.
Jetzt mitmachen!
Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!