022D062C-9F39-45EF-9997-3D48C2EA60D3_autoscaled.jpg
Kleines Apple TV 4K Special: Optimale Einstellungen von Bild und Ton
Es ist wieder mal Zeit für ein kleines Special, in dem ich kurz die Einstellungen am Apple TV 4K erläutern möchte.
Für mich stellt der Apple TV 4K das aktuell beste Streaming Device dar, der beste Bild und Tonqualität liefert, sofern man das im Hinblick auf das Video-Streaming via Internet beziehen kann.
Dass das Bild und der Ton bei physikalischen Medien weiterhin zu bevorzugen ist, sollte jedem klar sein, und benötigt keine weitere Erläuterung.
Ich bin langjähriger Nutzer sämtlicher Linux-Derivate wie Neutrino, Enigma, TitanNit, Enigma2, Android und deren Ableger wie z.B. auch das FireOS. An Hardware hatte ich neben diversen Linux-Sat-Receivern auch den Amazon FireTV seit Gen.1 im Einsatz und von Anfang an auch die Probleme mit der Frame Rate-Anpassung… ich hatte damals auch wirklich viel Zeit für Feedback an den Amazon-Support investiert und auch die Hintergründe erläutert, warum eben gerade 24p so wichtig ist. Irgendwann hat man aber auf das androidlastige Software-Gestückel keine Lust mehr.
Ob nun Fire Stick oder Fire TV 4K, als das Apple TV 4K rausgekommen ist, und die Amazon Prime-App ebenfalls ENDLICH auf Apple verfügbar war, gab es keinen Grund mehr, weiterhin auf den FireTV zu setzen.
Seitdem habe ich drei Apple TV 4K im Einsatz, den aktuellen Apple TV 4K (6. Generation, 64GB RAM) im Keller-Heimkino, einen Apple TV 4K (5. Generation, 32GB RAM) im Wohnzimmer im Familienbetrieb und einen weiteren Apple TV 4K (5. Generation, 64GB), der auf Reisen und im Urlaub dabei sein darf. Der Reise-Apple TV 4K holt dann seinen Daten übrigens per WLAN-Hotspot über das iPhone.
Leider besitzt der Apple TV 4K keinen internen Internet-Browser, so dass einem das freie Hotel-WLAN wegen fehlender Authentifizierungs-Möglichkeit nicht nutzbar ist.
Netflix, Amazon Prime, Disney+ und AppleTV+ sind problemlos mit dem Apple TV 4K nutzbar und das bei bester Bild- und Tonqualität.
Bei der initialen Einstellung muss man ein paar Punkte beachten, dann hat man aber fast den perfekten Streaming-Player!
Genau, Streaming, und erst mal nichts anderes soll das Ding können. Da ist mir auch egal, ob Kodi-Forks wie MrMC oder Infuse von NAS keinen Atmos-Ton mit TrueHD-Kern ausgeben können. Für solche Spielereien hat man zumindest in meinem Fall einen vernünftigen Heimkino-HTPC, mit madVR (und aktiven HSTM), KODI (mit Python-Unterstützung…) und MPC-BE bzw. DS-Player…
ZU DEN BASIS-EINSTELLUNGEN AM APPLE TV 4K:
Am besten ist die Auflösung fest auf 4K/50Hz/SDR einzustellen, da das Menü eh in SDR dargestellt wird, genauso wie alles vorliegende Standard-FullHD-Material der diversen Anbieter.
Dann werden in den Settings die automatische SDR/HDR-Umschaltung und die automatische Framerate-Anpassung aktiviert. Dadurch ist der Apple TV 4K in der Lage, selbstständig je nach vorliegendem Source-Material des Providers, automatisch zwischen den Kontrastbereichen SDR, HDR10 und Dolby Vision sowie den diversen Frame Rates 23.976Hz, 24.000Hz, 50Hz und 60Hz umzuschalten.
Man muss sich dann also normalerweise um nichts weiter mehr kümmern.
Falls allerdings die Auto-Update-Funktion aktiviert ist, kann es sein, dass sich die oben gemachten Einstellungen wieder auf Default zurück setzen, nachdem ein Update installiert wurde. Das ist ein Bug und Apple auch bekannt. Man sollte das also im Auge behalten.
BEZÜGLICH DER SOUND-VERARBEITUNG:
Maximal liegt der Sound beim Streamen, egal von welchen Provider, in verlustbehaftet komprimierten Dolby Digital Plus (bitstream) vor. Also maximal 7.1 im Kanalbett, eventuell auch mit Dolby Atmos-Metadaten versehen.
Der Apple TV 4K decodiert das bitstream DD+ Source-Material und konvertiert dann alles intern in 7.1 Linear-PCM-Ton. Durch diese Konvertierung nach PCM gibt es übrigens keinerlei Nachteile, worüber öfters fälschlicherweise berichtet wird.
Wichtig: Wenn „Dolby Atmos“ im Menü des Apple TV 4K aktiviert ist, ändert sich im Falle von im Source-Material vorliegenden „DD+ mit Atmos-Metadaten“ das Ton-Ausgabeformat:
Es wird dann ein spezielles Signal-Format namens „Dolby MAT“ ausgegeben. Im AV-Receiver wird dann meist „ Dolby Atmos / PCM“ oder ähnliches angezeigt.
Achtung: „Dolby MAT“ enthält kein 7.1 Kanalbett, deshalb kann kein Upmixer wie z.B. DTS Neural:X oder die Auro-Matic aktiviert werden! Upmixer benötigen ein entsprechendes Kanalbett, auf das die Upmix-Algorithmen angewendet werden können. Bei Dolby MAT ist dies folglich nicht möglich, da es einfach nicht vorhanden ist.
Falls man also die Upmixer auch bei Atmos-Sourcen nutzen möchte, muss „Dolby Atmos“ wieder im Menü deaktiviert werden!
Dolby Digital+ ist übrigens der verlustbehaftet komprimierte codierte bitstream, dieser wird aber nicht vom Apple TV ausgegeben, sondern dieser wird intern IMMER nach 7.1 LPCM decodiert, was normalweise ja erst im AV-Receiver geschieht. Nur im Falle von Atmos im DD+ Container wird dann Dolby MAT ausgegeben.
Der AV-Receiver bekommt also nichts mit, in welchen Format der Ton ursprünglich vorlag, ob nun als DD+ der DD 5.1. Der AVR zeigt immer Multichannel PCM oder Atmos/PCM an.
ZUSATZ ZUR FORMATÄNDERUNG NACH “DOLBY DIGITAL 5.1“ IN DEN TONOPTIONEN:
Falls das Source-Material als Tonspur Dolby Digital Plus 7.1 enthält, dann wird vom Apple TV 4K intern nach Multichannel PCM 7.1 decodiert
Liegt die Source in Dolby Digital 5.1 vor, dann wird nach PCM 5.1 decodiert.
Bei vorliegenden Stereoton bzw. Dolby Digital 2.0 folglich nach PCM 2.0.
Es hängt also immer vom jeweiligen Ausgangsmaterial ab, wieviele Kanäle in Mehrkanal-PCM-Ton umgewandelt werden.
Es gibt aber eine Ausnahme:
Wenn man nun im Apple TV 4K das Tonformat umwandelt, da man die Ausgabe von „Dolby Digital 5.1“ aktiviert hat, dann wird in einem ersten Schritt zuerst decodiert und nach PCM konvertiert und anschließend in einem zweiten Schritt wieder nach Dolby Digital 5.1 neu encodiert!
Aus einer Source mit Dolby Digital Plus 7.1 (inklusive darin codiertes Atmos) wird LPCM 7.1 und danach Dolby Digital 5.1 (unter Verlust zweier Kanäle der unteren Ebene). Bei Atmos werden die oberen Kanäle ebenfalls ignoriert.
Natives Source-Material in 7.1 Dolby Digital Plus (inklusive darin codiertes Atmos) würde demnach nach 7.1 LPCM umgewandelt und dann zu Dolby Digital 5.1 neu encodiert werden.
Das resultierende DD5.1-Signal hat dann nichts mehr mit dem ursprünglichen Signal zu tun. Deshalb ist diese zweimalige Umwandlung die denkbar schlechteste Lösung.
KLEINER HINWEIS NOCH ZU SONY-TVS UND SONY-PROJEKTOREN:
Dort sollte das „HDMI Signalformat“ von Default “Standard“ auf „Optimiert“ gesetzt werden!
Das HDMI Signalformat stellt die mögliche Daten-Bandbreite für die HDMI-Eingänge ein.
„Standard“ entspricht dabei 10 Gbit/s, was den Eingang auf maximal 4K/24p/HDR limitiert!
Erst mit der Einstellung “Optimiert“ wird der Eingang auf volle Bandbreite von 18 Gbit/s gestellt, was auch die Zuspielung und Verarbeitung von Signalarten wie 4K/BT2020/60p/4:2:2/HDR 10bit und 4K/BT2020/60p/4:4:4 8bit ermöglicht.
Dieser Beitrag ist ebenfalls Bestandteil der Linksammlung “Wichtige Beiträge“ in meiner FB-Gruppe “Heimkino und 3D-Sound“
Link: Heimkino und 3D-Sound