Beiträge von Mule

    @((( atom ))): ich habe noch die Option "image-lut=<file>" in Verbund mit "vo=gpu-next" gefunden, das funktioniert aber nicht unter Windows. Man kann dann eine .-cube-Datei angeben, die auf den Input angewendet wird. Hast du das mal ausprobiert?

    "gpu-next" scheint aber leider wohl kein Hardwaredecoding zu unterstützen: "Currently, this only supports Vulkan, OpenGL and no hardware decoding". Damit wäre es wohl auch eine Sackgasse.

    MPV lässt sich unter Ubuntu 21.10 doch sehr einfach kompilieren.

    Aktuelle Release-Version (derzeit V0.34):

    Code
    sudo apt-get install devscripts equivs
    cd ~
    git clone https://github.com/mpv-player/mpv-build.git
    cd mpv-build
    ./use-mpv-release
    ./update
    mk-build-deps -s sudo -i
    dpkg-buildpackage -uc -us -b -j4
    sudo dpkg -i ../mpv_0.34.0_amd64.deb 

    Aktuelle Master-Version:

    Code
    sudo apt-get install devscripts equivs
    cd ~
    git clone https://github.com/mpv-player/mpv-build.git
    cd mpv-build
    ./update
    mk-build-deps -s sudo -i
    dpkg-buildpackage -uc -us -b -j4
    sudo dpkg -i ../mpv_<version>_amd64.deb

    Die so kompilierten und installierten MPV-Versionen beinhalten jeweils gleich die aktuellen master Versionen von ffmpeg und libass

    improved fine details (especially shadow details) and coming along with the brightness bump.

    Das eine Linse bessere "shadow details" ermöglicht klingt für mich zunächst ungewöhnlich. Kann es eventuell eher am erwähnten Helligkeitsaspekt liegen, also dass die unteren Graustufen beim NZ9 schlicht heller dargestellt und somit besser erkennbar waren? Für einen korrekten "Linsenvergleich" der verschiedenen Modelle, müsste man eigentlich Parameter wie bspw. die Helligkeit zuvor zunächst angleichen.

    Evtl. könnt ihr es gebrauchen. Ansonsten ignoriert es einfach. Ich hab da keine Ahnung von. Die Überschrift ließt sich aber gut. :zwinker2:

    How to Install The Latest MPV video player 0.34 in Debian 11, Ubuntu 20.04

    https://fostips.com/install-mpv-media-player-debian/?amp=1

    Hatte ich ein paar Posts drüber schon verlinkt. Die Version 0.34 aus dem im Artikel genannten Repo funktioniert unter Ubuntu. Getestet mit 20.04LTS.


    Edit: Ansonsten kann ich für Ubuntu empfehlen zunächst nur die Server-Version zu installieren und dann den minimal Desktop, wenn man das System nur als HTPC nutzen möchte. Anbei ein Link zur weiteren Erklärung bzw. Installation: Link

    Super Sache! Wäre toll, wenn man mit MPV eine MadVR-Alternative schaffen könnte.

    Ist es eventuell sogar möglich MPV mit dem Videoprocessor-Projekt unter Linux zu kombinieren? Dann könnte man ja auf Linuxbasis einen reinen Videoprozessor bauen und mit einem beliebigen Zuspieler betreiben.

    Mir fehlt derzeit leider die Zeit um Tests durchzuführen, daher bin ich Allen extrem dankbar, die sich hier praktisch mit dem Thema auseinander setzen!

    Es gibt da einen Unterschied. Das bisherige eShift verschob einmal diagonal, auch im NX9. Hier wird das erste mal ein 4-Fach eShift eingesetzt.

    Ok, sorry meinte nicht das e-Shift der JVCs, sondern dass der DLPs, die mittlerweile auch in 4 Richtungen mit erhöhter Bildwiederhokfrequenz verschieben und hier ist mir noch kein entsprechender Bericht bekannt oder gibt es da etwas entsprechendes?

    Ich kann mir höchstens vorstellen, dass durch das vermutlich auftretende Übersprechen der Pixel das Bild „weicher“ aussieht und damit auch eine Bewegung „weicher“ wird. Aber ehrlich gesagt glaube ich auch nicht wirklich daran, denn man hätte dann ja den identischen Effekt auch mit 4k-eShift erleben müssen.

    Das hier nun plötzlich 8k eine Magicnumber sein soll, die positive Auswirkungen auf Bewegungen haben soll, kann ich mir ehrlich gesagt nicht wirklich vorstellen.

    Zumal in anderen Berichten nach meinem Kenntnisstand hiervon bisher auch (noch?) nie etwas erwähnt wurde.

    Ich denke, diese Herangehensweise ist sehr viel näher an der Praxis als nur mit nackten Zahlen zu jonglieren, mit denen keiner richtig etwas anfangen kann. Die 2-dimensionale Gamutabdeckung ohne die Nennung von den Primärkoordinaten ist so ein Beispiel. Eine einzelne Zahl wirkt halt sehr griffig, hat aber kaum Aussagekraft. :)

    Da bin ich absolut bei Dir und habe auch verstanden worum es Dir geht. Dass die reinen 2-Dimensionalen Zahlen zur Bewertung von gut und schlecht nicht alleinig ausschlaggebend sind, ist mir durchaus bewusst.

    Nur kam die Diskussion just in dem Moment auf, als mehr oder minder klar wurde, das die NZ-Serie mit hoher Wanhrscheinlichkeit eine geringere Abdeckung aufweist und daher kam es mir so vor, als wolle man diesen Nachteil nun durch „andere Dinge sind doch auch wichtiger“-Argumentationen ausgleichen. Aber eventuell lag ich da mit meinem Gefühl auch falsch.

    Aber mal unabhängig davon, ob man meint PE2 entspricht nicht der Realität oder bei GOT2 wäre das Mastering nicht sinnhaft: Ist unser aller Anliegen nicht das, dass das was auf den Discs oder im Stream drin ist, auch möglichst komplett wiedergegeben werden kann und nicht das, was uns am besten gefällt bzw. etwas Kompromissbehaftetes?

    Jeder der dieser Meinung ist kann doch eigentlich nur sagen, das der ideale Projektor derjenige ist, der einen möglichst großen Farbraum Richtung BT.2020 abdecken kann.


    Einige der letzten Posts erinnern mich etwas an die Fragestellung „Braucht man nativ 4k oder reicht auch eShift?“ zu einer Zeit als JVC noch keine nativen 4k-Beamer im Portfolio hatte. Auch damals kamen diverse Argumentationsketten auf, weshalb man es nicht brauchen würde und heute will es niemand mehr missen.


    Seien wir doch ehrlich zu uns selbst: Niemand hätte etwas dagegegen, wenn die NZ-Serie auch ohne Filter eine Farbraumabdeckung wie die N-Serie hätte.