Der Trinnov Altitude Thread

  • Als ich zuletzt vor einigen Jahren mit dem Storm Entwickler gesprochen habe konnte Sie es nicht. Würde mich auch interessieren, ob die mittlerweile mehr kann. Scheint aber nicht so zu sein. Vielleicht kann ein Storm Besitzer mal einen Screenshot vom Menü machen, wo man das Boxenlayout auswählt?


    - Remapping: Heißt bei der Storm "Channel Remapping" wurde vor über einem Jahr angekündigt. Ist aber noch nicht umgesetzt
    - Nutzung von weiteren LS: Das heißt bei der Storm StormXT und nutzt vom Decoder nicht genutzter LS um die Immersion zu erhöhen

  • Als ich zuletzt vor einigen Jahren mit dem Storm Entwickler gesprochen habe konnte Sie es nicht. Würde mich auch interessieren, ob die mittlerweile mehr kann. Scheint aber nicht so zu sein. Vielleicht kann ein Storm Besitzer mal einen Screenshot vom Menü machen, wo man das Boxenlayout auswählt?

    Falls du Zeit hast, schaut die das Neuste Video von Lars Mette an, da zeigt er wie der die Storm einstellt, also Layouts, Profile, Subkinos oder sogar mehrere getrennte Kinos. Ich meine genau für den Fall die Layouts unterschiedlich zu nutzen.

  • Im aktuellen Video zu Genelec und 3d-Musik wurde im Interview gesagt, dass der Soundingenieur das Bett zb gar nicht benutzt hat und alles über Objekte (auch im unteren Bett) regelt um mehr Möglichkeiten für die Räumlichkeit zu bieten

    Das ist auch der Weg wie man es eigentlich machen sollte. In dem Fall sind auch die Beds Objekte ("bed objects"). Diese sind im Gegensatz zu "active objects", auf eine Position fixiert und in ihrer Größe definiert. Diese object beds können dann auf die passenden LS im Setup gerendert werden, je nachdem wieviele vorhanden sind. Das hat dann noch nichts mit Remapping zu tun.

    Leider wird dies eher selten genutzt und diese bed objects werden stattdessen vom Mixer auf fixe LS-Positionen gemappt (nennt man dann "channel-based"). Dann tritt tatsächlich folgendes Problem auf:

    wo auch die Trinnov leider keine Objekte wieder dazu rechnen kann


  • - Nutzung von weiteren LS: Das heißt bei der Storm StormXT und nutzt vom Decoder nicht genutzter LS um die Immersion zu erhöhen

    Das scheint mir aber ein Upmixer zu sein so wie es auf der Storm Seite beschrieben wird.

    Das wäre dann schon noch mal ein grosser Unterschied zum Renderer der Trinnov.

    Viele Grüsse


    Farshid


    R-T-F-S

    Authorized Dealer for Ascendo, Barco, Sim2, Trinnov, Stormaudio, Wisdom Audio, Screen-Research, Stewart, HCM, Moovia, MadVR, Acurus, Cinemike, Hegel, JVCKenwood, Sony, Rotel, B&W, Marantz, Arcam, KEF, Anthem, Screen-Excellence, Audio-Excellence, Lumagen, Panamorph, Focal, Primare, HMS, In-Akustik, ProgressiveAudio, Parasound, Manger, Monitor Audio, Wharfedale, Audiolab, Keces, Furutech, Elac, Pro-Ject, Roon, Nucleus, Waversa, ATC, Zappiti, Mutec, IsoTek, Acousence.

  • Sieht dann so aus mit XT ist mehr möglich...

    Das mit mehr Layouts ist auch neu...

    Das sieht jetzt wiederum so aus, als könnte der Dolby Chip die Boxen doch alle fürs Rendering verwenden. Zumindest stimmen die Namen.

    Wäre spannend da mal wieder mit dem Entwickler zu sprechen. Bin leider dieses Jahr nicht auf der ISE.

    Vielleicht kann ja jemand der da ist einmal berichten.

    Viele Grüsse


    Farshid


    R-T-F-S

    Authorized Dealer for Ascendo, Barco, Sim2, Trinnov, Stormaudio, Wisdom Audio, Screen-Research, Stewart, HCM, Moovia, MadVR, Acurus, Cinemike, Hegel, JVCKenwood, Sony, Rotel, B&W, Marantz, Arcam, KEF, Anthem, Screen-Excellence, Audio-Excellence, Lumagen, Panamorph, Focal, Primare, HMS, In-Akustik, ProgressiveAudio, Parasound, Manger, Monitor Audio, Wharfedale, Audiolab, Keces, Furutech, Elac, Pro-Ject, Roon, Nucleus, Waversa, ATC, Zappiti, Mutec, IsoTek, Acousence.

  • Woher "nimmt" eine Storm (oder andere) die Information wo die (vielen?) Lautsprecher sind?


    Gerade das ist ja mMn. DAS Feature bei Trinnov.

    Das Wissen wo die Lautsprecher sind, was Direktschall ist, was Reflexion,... das kann sie sich selbst beschaffen - über das mehrkapslige Mikro.

    Und dann entsprechend mit dieser Information arbeiten.


    mfg

  • Ich weiss es nicht genau, aber wie es aussieht läuft es hier so wie bei einem AVR. Man geht davon aus: Die Boxen sind an einer Referenzposition und dann wird dafür berechnet. Die Storm hat auch kein 3D-Mikrofon. Und durch die enorm vielen Positionen, wie in dem Bild kannst du sagen wo deine Boxen nun stehen. Den Rest macht der "Renderer" oder was auch immer in dem Gerät drin ist. Ich denke das läuft alles etwas klassischer, aber auch auf enorm hohem Niveau.

  • Wenn man sie an der Referenzposition platzieren kann, dann braucht es ja keinen Re-Mapper um das Schallereignis dort zu projizieren wo es gedacht ist.


    Einfaches Beispiel:

    3m Basisbreite zwischen L und R. Center kann aus baulichen Gründen aber nicht genau 1,5m jew. entfernt stehen. Sondern 1,8m von L und 1,2m von R.

    Ein reines Center Signal würde jetzt eben immer um die ~30cm außer der Mitte Richtung R kommen.


    Der Trinnov Re-Mapper bildet jedoch eine Phantomschallquelle (zwischen R + C) und zwar so dass diese dann wieder genau aus der Mitte zwischen L+R kommt.


    Hat irgendein anderer AVR/System hier die Möglichkeit zumindest manuell die LS Position zu bestimmen?

    Klar, das Beispiel oben ist nicht wirklich realsitsch, FCR geht ja meist, bei den Surrounds oder Tops ist es aber oft nicht möglich, auch in dezidierten HKs.



    mfg

  • Das ist auch der Weg wie man es eigentlich machen sollte. In dem Fall sind auch die Beds Objekte ("bed objects"). Diese sind im Gegensatz zu "active objects", auf eine Position fixiert und in ihrer Größe definiert. Diese object beds können dann auf die passenden LS im Setup gerendert werden, je nachdem wieviele vorhanden sind. Das hat dann noch nichts mit Remapping zu tun.

    Leider wird dies eher selten genutzt und diese bed objects werden stattdessen vom Mixer auf fixe LS-Positionen gemappt (nennt man dann "channel-based"). Dann tritt tatsächlich folgendes Problem auf:

    Also wenn ich das mal (ohne weiteres Wissen um die Interna) modellieren müsste, also sprich: Wie würde ich es als Informatiker/Software-Enwickler programmieren?


    Grundsätzlich würde ich erstmal einen dem Atmos-Objekt-Modell ähnliches Objektrenderer entwickeln, als Basis bzw übergeordnete Rendering-Instanz. Diese würde ähnlich arbeiten wie der Dolby Renderer für die Objekte. Da man Kanäle auch als "Bed-Object" + grösse Modellieren kann, ist im Grunde jedes kanalbasierte Format immer auch ein Objektformat, wenn man es zu den Bed-Objects umwandelt. Somit kann man den eigenen Objectrenderer nun nutzen, um alle Format zu berechnen.


    Also wäre die Rendering-Pipeline wie folgt:


    * Abfrage der Konfigurierten Lautsprecher-Konfiguration

    * Erstellung der Ausgabepuffer für das Lautsprecher-Layout


    Dann unterscheidet man folgende Fälle:


    Remapping Aktiv:


    * Erstellung eines Ausgabepuffers für das native Layout (LS Anzahl wird nicht beachtet, sondern das gerendert was auf der Quelle nativ ankommt)

    * Decodierung des vorhandenen Formats auf die native Kanalanzahl => Ablage in den Ausgabepuffer

    * Bei Atmos: Speicherung der Atmos-Objekte werden im Objektspeicher

    * Upmixing an => Upmixing innerhalb der Kanäle zur Entstehung des kanalbasierten Ergebnisses im Upmix

    * Umwandlung der Kanäle in Objekte auf die 3d-Koordination auf der Audiokugel auf Referenzposition + Hinzufügen zum Objektspeicher => Ab hier nur noch Objekte

    * Rendern des Objektspeicherns auf die eingestellten Lautsprecherkanäle und entsprechenden Ausgabepuffer


    Remapping Aus:


    * Decodierung des vorhandenen Formats auf Ausgabekanäle der Lautsprecher

    * Bei Atmos: Rendering der Objekte + Hinzügen in die Ausgabepuffer der Lautsprecher

    * Rendern des Objektspeicherns auf die eingestellten Lautsprecherkanäle und entsprechenden Ausgabepuffer


    (Hier spart man sich einen extra Objektspeicher und einen extra Kanalpuffer) ist also der einfacherer Fall


    Dann geht es normal weiter:


    * Hinzufügen der Raumkorrektur pro LS

    * (Optional: Abgreifen der Lautsprecherkanäle für Dante/AES) ;)


    Ich gehe hier davon aus, dass die kanalbasierte Decodierung einen alten Renderer nutzt oder wegen Lizenz nicht anders geht. Ggf müsste man auch im Remappingfall noch die eingestellte Decodierung beachten, zb könnte man ja 7.1 Quellen nach 5.1 dekodieren und dann nochmal remappen, würde aber wohl keiner tun ;)


    Hat das hier alles einen Sinn... eher nicht, aber ich hatte mal Lust mir drüber Gedanken zu machen, wie man sowas bauen würde :)

  • Das scheint mir aber ein Upmixer zu sein so wie es auf der Storm Seite beschrieben wird.

    Das wäre dann schon noch mal ein grosser Unterschied zum Renderer der Trinnov.

    Ja, so verstehe ich es auch. Storm kann nativ 24 Kanäle decodieren. Mittels StormXT könnte man dann z.B. zusätzlich den Height Center und VOG (falls man die LS verbaut hat) nutzen.
    Dabei arbeitet StormXT als eine Art Upmixer . Es soll dann aber auch nur der "Ambience" Anteil der benachbarten LS extrahiert, gerendert und über die zusätzlichen LS wiedergegeben werden.
    Ich nutze es aktuell auch nicht und die Doku ist eher mau

  • Es geht doch um die Richtung von Schallereignissen und nicht um das Abstrahlverhalten der Lautsprecher. Der Remapper verschiebt Schallereignisse durch die Anpassung von Pegel und Laufzeit auf die vorhandenen Lautsprecher. Es bilden sich also neue Phantomschallquellen. Voraussetzung dafür ist, dass sich die Zielwinkel innerhalb des aufgespannten Raums der Lausprecher befinden.

    Hier mal das patent: https://www.freepatentsonline.com/8213621.html


    Ist schon etwas komplizierter.

  • Rendering und Remapping laufen hintereinander ab.

    Erst wird gerendert auf das eingestellte LS-Layout (inkl. ggf. Upmixer), dann wird "geremapped" (oder auch nicht).

    Das kann man auch ganz gut an den Meters sehen. Auf der Source-Seite findet sich nicht etwa das Roh-Material von der Quelle wieder, sondern hier findet sich bereits das in der LS-Konfiguration eingestellte Ziel-Layout wieder. Das kann man ganz schön sehen wenn man den Upmixer umstellt:
    Upmixer auf "native":


    Upmixer auf Auro3D:


    Man sieht, das Layout ändert sich bereits auf der ankommenden Seite (Source). Auf dieses Layout rendert nun die Rendering Engine (ggf. unter Berücksichtigung eines ggfs. aktivierten Upmixings).

    Ist Remapping aus, dann ist hier Ende, das Signal wird dann genau auf den dem Layout entsprechenden Output ausgegeben, egal wie gut dieser zur tatsächlichen LS-Position im Raum passt.

    Ist Remapping an, dann wird das Signal unter Zuhilfenahme der verfügbaren tatsächlichen LS-Positionen auf die optimale Position verschoben.

  • Ja, aber nicht wie das mit dem Lautsprecher funktioniert Mankra.

    Die befriedigende Antwort von Nils, welche Du von den Gewerblichen erwartet hast, hat in dem einen Satz auch nicht mehr ausgesagt.
    Ich denk, Du hängst zu sehr beim Lautsprecher und dessen Abstrahlverhalten.

    Die Lautsprecher möglichst genau im Raum positioniert, eingewinkelt. Die Vorstufe teilt das Signal auf die Zwischenkanäle auf. Sicher inzwischen weiter entwickelt, aber so ähnlich wie früher die DolbyPrologic Decoder, oder andere Vorstufen für > 7 Kanäle ebenfalls berechnen.

    Bzgl. Der Messungen. Wurde da die gleiche ZIekurve verwendet bei DIRAC und Trinnov?

    Wahrscheinlich ja, ist aber egal, da jede Wunsch-Zielkurve aus den Mess-Rohdaten berechnet wird.

    Sorry, dass ich nicht 246 Seiten vorher gelesen habe.

    War nicht notwendig, das von Nils Geschriebene wurde schon mehrfach, als direkte Antwort an Dich, geschrieben.

  • Da mankra mich schon in den letzten paar Tagen mehrfach erwähnt hat, hier ein kurzer Statusbericht von mir nach fast 2-3 Monaten "Trinnov-Nutzung"



    Ich habe ein 9.4.6-System zu Hause. Ich wechselte von Storm Audio ISP3D MKI 20 Kanal Prozessor zu Trinnov A16.


    Ich habe Storm zuvor mit DLBC, Dirac Art ausprobiert und ich hatte ein Preset mit Cavern, das vom Entwickler von Cavern bei mir vor Ort eingerichtet wurde. Das war übrigens die Einstellung, die mir am besten gefiel, aber auch Dirac Art lieferte sehr gute Ergebnisse. Überraschend gute Ergebnisse...


    Trinnov habe ich vorerst selbst eingestellt und eingemessen. Die Kalibrierung hat gut geklappt, ich habe die Mikrofonposition fast perfekt hinbekommen.


    Das erste Ergebnis war sehr gut. Trotzdem bin ich mir sicher, dass da noch mehr drin ist, und gibt es noch Luft nach oben. Im Bassbereich gibt es noch einige Reserven.

    Dirac ART und Cavern QuickEQ erreichten eine punchigere, präzisere Basswiedergabe mit einer geringeren Abklingzeit (Multisub-Setup mit 4 geschlossenen bms18n862 Subs auf 1/4 Punkten).


    Was eine klare Verbesserung ist, ist der 3D-Sound und der Surround-Sound. Die Surround Kulisse. Die physischen Dimensionen meines Zimmers scheinen größer zu sein als vorher. Sowohl in der Breite als auch in der Höhe. Wirklich brilliant.

    Der Bassbereich ist auch nicht schlecht, aber ich weiß, dass ich in diesem Raum schon bessere Bässe erlebt habe. Ein Trinnov Profi könnte sicher noch mehr rausholen. Trotzdem bin ich ganz zufrieden und sehr begeistert immer, wenn ich Zeit finde ein paar Demoscene, oder Filme zu anschauen mit Trinnov.


    Letzte Zeit habe ich meine Atmos LS getauscht, und in ein paar Wochen kommen die HKV110 Surround und Wide Speakers zu mir, ergänzend die HKV 1615 Speakers. Dann macht mehr Sinn meine gesammte System mit einem Profi einmessen und optimieren zu lassen.


    Eine kleine Enttäuschung für mich ist die "Langsamkeit des HDMI-Handshakes" und die Tonaussetzer beim Umschalten der Tonspuren. Es gab auch ein paar Fälle, in denen der Ton nach vielen Versuchen nicht durchkam. Nur ein Neustart hat geholfen. In dieser Hinsicht war der Storm zuverlässiger. Es gab einen 10-sekündigen Aussetzer zwischen dem Wechsel zwischen Atmos und dts X Tonspur, aber ansonsten war er stabil. Das kann man positive anerkennen, wer zum Beispiel schon emotiva rmc 1 hatte... Mit dem hatte ich sehr zu kämpfen. Ich fühlte mich wie ein Beta-Tester...

  • Hi,

    tja, irgendwas ist ja immer mein Lieber, aber damit kann man sich ja arrangieren.


    Du hast da aber wirklich sehr anschaulich geschildert👍, super.


    Hört sich ja fast so an, als wäre ein Vorhang aufgegangen.


    So muss es ja auch sein.


    Berichte mal bitte weiter. Sehr spannend 👍

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!