Beiträge von madshi

    Naja, unmöglich würde ich nicht sagen, für AI ist vieles möglich. Aber ob es in Echtzeit in 4K möglich ist, bin ich mir nicht sicher.

    Interessanterweise ist aber so, daß der Sample-and-Hold-Effekt das Bild an sich schon blurrt, selbst (oder gerade!) bei nativer 24 fps Wiedergabe. Durch Interpolation auf 48 fps wird das Bild (bei Bewegungen) eher schärfer, weil der Sample-and-Hold-Effekt stark reduziert wird. Also im Grunde sorgt die FI jetzt schon dafür, daß weniger (sichtbarer) Blur da ist.


    Aber ok, wäre eine Option, zusätzlich den Motion-Blur gezielt noch weiter zu reduzieren. Das kann unser Algo bisher nicht.

    Du meinst, das Bild ist zu verwischt, und wirkt dadurch soapy? Das denke ich eher nicht. Der Begriff SOE (Soap Opera Effect) kommt ja daher, daß der Look verglichen wird damit, wie Soap Operas früher mal ausgesehen haben - und die wurden nativ mit 50 oder 60 Bildern pro Sekunde aufgenommen (na gut, in der Regel interlaced, aber das ist ein anderes Thema). Ich würde mal nicht sagen, daß die Soap-Operas zu verwischt ausgesehen haben, oder?

    madshi

    Eine rein technische Frage zur FI.

    Wenn aus einem 24fps ein 48fps errechnet wird, sind dann die "Originalbilder" unbehandelt und es wird nur jedes 2te Bild neu gerechnet, oder wird auch das Originalbild (irgendwie) behandelt?


    Oder ist das von div. Einstellungen und/oder der Art der FI abhängig und somit - "kommt drauf an".

    Bei deaktivierter FI wird einfach jedes originale Bild 2x ausgegeben. Bei aktivierter FI wird jedes originale Frame 1x unbehandelt ausgegeben und dazwischen jeweils ein neues berechnet.

    120Hz wird eine etwas niedrigere Latenz als 60Hz ermöglichen (sowohl bei 24fps als auch 60fps Content), aber wie niedrig die genau sein wird, bzw wie groß der Unterschied zwischen 120Hz vs 60Hz sein wird, kann ich im Moment noch nicht mit Sicherheit sagen. Wir werden u.U. irgendwann auch VRR (Variable Refresh Rate) unterstützen, aber das können die heutigen Beamer leider noch nicht (soweit ich weiß).


    Das mit dem Anpassen am AVR ist möglicherweise nicht nötig, weil wie gesagt, man könnte den Mittelwert nehmen, und wenn die Differenz klein genug ist, wäre das 100% unsichtbar.

    Wenn Du mal 24 fps und mal 60 fps vom Envy ausgeben willst, dann wird der Low-Latency-Mode bei 60 fps eine niedrigere Latenz ermöglichen als bei 24 fps. Das heißt, Du hast dann die Wahl, entweder die gleiche Latenz für beides zu nehmen - das wäre dann aber die höhere von 24 fps. Oder Du könntest eine unterschiedliche Latenz für beide Framerates akzeptieren.


    Bei dieser Überlegung hängt es aber auch davon ab, wie groß der Latenz-Unterschied sein wird zwischen Low-Latency 24 fps und 60 fps. Wenn wir hier von 50 ms oder weniger Unterschied reden, dann ist das für die meisten Menschen wahrscheinlich nicht wahrnehmbar. Das heißt, Du könntest dann den AVR einfach auf den Mittelwert einstellen und gut ist. Ich weiß allerdings noch nicht genau, wie die endgültige Latenz des Gaming-Modes für 24 fps und 60 fps sein wird. Von daher kann ich Dir leider im Moment noch keine eindeutige Empfehlung geben.

    Der Envy selbst sollte immer ein festes Delay von 220 ms haben. Komplett unabhängig von Input und Output Framerate, und auch unabhängig davon ob MotionAI aktiv ist oder nicht. Es kann allerdings sein (wie Joe sagt) daß der Projektor selbst sich unterschiedlich verhält, je nachdem welche Framerate er bekommt, und natürlich auch je nach Projektor-Einstellungen (z.B. Low Latency Mode on/off).


    @ Honda Steffen, wenn der AVR Auto-Lipsync hat, sollte der Envy sein Delay von 220 ms dem AVR berichten, und dann sollte die Konfiguration automatisch funktionieren. Allerdings läuft das ganze über das EDID, das die Geräte untereinander austauschen, und da kann die Reihenfolge der Geräte beim Ein- und Ausschalten eine Rolle spielen. Wenn es mit dem Auto-Lipsync nicht automatisch perfekt klappt, kann man das natürlich alternativ auch im AVR manuell einstellen. Das sollte man nur 1x machen müssen, und sollte für alle Auflösungen & Framerates passen - solange der Projektor selbst nicht unterschiedliche Delays pro Framerate hat.

    Ok, ich gucke mir das hier mal an. Ich sag mal so: Der MK2 sollte definitiv MotionAI + DTM + Sharpening machen können. Die GPU ist definitiv stark genug dafür.

    @ Lando, bei 4K sieht es schon deutlich knapper aus. Da ist kaum noch Luft. Average rendering times mit 35.45 ms, wobei ein 24 fps Frame ja nur 41.7 ms lang ist. Also da ist kaum noch Puffer, zumal die Messungen nicht 100% perfekt sind, ich also immer etwas Luft lassen muß, um sicherzustellen, daß es nicht ruckelt. Aber wie gesagt, ich habe noch etwas Hoffnung, daß ich MotionAI noch etwas schneller machen kann, kann es aber nicht versprechen. Auch das HDR Tone Mapping kann ich eventuell noch etwas schneller machen. Im Moment liegt der Focus aber eher darauf, noch mehr Features und Algos einzubauen, und weniger darauf, die Speed zu optimieren. Das kann daher noch eine Weile dauern, bis ich zur Performance-Optimierung komme...


    @ Joe, beim ersten Bild wird angezeigt "sharpen, crisp, detail", beim zweiten Bild nur "crisp". Hattest Du da die Schärfe-Einstellungen verändert? Oder ist der einzige Unterschied gewesen, daß Du MotionAI aktiviert hast? Und was für eine MotionAI Engine verwendest Du?


    Generell ist der Envy eher vorsichtig mit der Power-Einschätzung der GPU, weil wenn der Envy sich in die falsche Richtung vertut, würde er die GPU überfordern, und dann würde es ruckeln. Deshalb tendiert der Envy eher dazu, die GPU zu unterfordern. Allerdings sind die Unterschiede, die ich hier teilweise sehe zwischen der berechneten und tatsächlichen GPU Last doch ziemlich groß. Da scheint Envy dann doch deutlich zu vorsichtig zu sein, und die GPU hätte noch deutlich mehr Luft nach oben gehabt.


    Dazu überlege ich, ob der Envy vielleicht ein Auge auf die tatsächliche GPU-Last haben sollte, und wenn Envy feststellt, daß die GPU noch deutlich Luft nach oben hat (sich also quasi Envy verschätzt hat), dann könnte Envy ja seine Entscheidungen nochmal überdenken und etwas mehr Qualität oben drauf legen...

    Was ist wenn Du im Standbild (also Quellgerät auf "Pause" gesetzt) die Schärfung an machst, und dann MotionAI zwischen an und aus hin und her schaltest? Ist die Schärfung dann deutlicher zu sehen ohne MotionAI - selbst im Standbild?


    Ich frage weil die Schärfung grundsätzlich bei 4K Auflösung eine geringere (sichtbare) Wirkung hat als bei 1080p Auflösung. Solche Dinge können dann immer mit rein spielen, deshalb ist es wichtig, am bestem beim Standbild direkt MotionAI an vs aus zu vergleichen.


    Hmmmmm... Bleibt die "average stats -> rendering" Zeit wirklich bei um die 28 ms rum? Das ist deutlich weniger als Envy gedacht hat. Envy war von 39 ms ausgegangen (siehe algos Zeile). Das würde heißen, Dein Envy ist viel schneller als Envy gedacht hat. Kannst Du das auch nochmal mit einem 1080p und einem 4K Film prüfen? Ist die average rendering Zeit immer deutlich niedriger als die vom Envy geschätzte Zeit (algos Zeile)?

    Aber wenn Du das Quellgerät auf Pause setzt, dann sieht man die Schärfe deutlich?


    Debug OSD kriegst Du bei normaler Tastenbelegung mit 2 Sekunden Druck auf gelbe Taste. Wichtiger als ein Foto wäre, daß Du mal die Schärfer deaktivierst und wieder aktivierst und guckst, ob die "algos" Zeile im Debug OSD auf diese Änderungen reagiert. Die "algos" Zeile zeigt praktisch an, welche Algos der Envy gerade aktiv hat.

    No problem. Die nächste Build wird einen optimierten Wake-On-LAN Algo benutzen. Vielleicht wird das dann für Trinnov klappen?


    Ich nehme an dies betrifft nicht die MK1 Extreme 2080?

    Bei mir werden diese immer noch deaktiviert, wenn Motion AI (Alpha 8 oder 9) aktiv ist.

    Selbst wenn ich alle anderen Algos und Geo Korrektur außer Schärfe deaktivieren, schaltet der Envy diese Schärfe Algos bei aktiver Motion AI aus.


    Ich habe es gestern kurz geschaft, dass Motion AI und die Schärfe Algos bei einem 4k HDR Film aktiv waren. Konnte ich jedoch leider nicht reproduzieren und nun geht die Kombi weiterhin nicht.

    Ich nehme an, Du verwendest 60 fps? Kannst Du mal ein Foto vom Debug OSD machen? Bei der 2080 ist leider MotionAI schon sehr eng, besonders bei 60 fps. Ist u.U. denkbar, daß es dann für Schärfung nicht mehr reicht. Wobei Schärfung eigentlich nicht *so* teuer ist.


    Ich habe die letzten Tage auch nochmals MotionAI und Schärfe Alogs ausprobiert.

    Dabei habe ich (in meinen Setup) festgestellt, dass die Schärfe Algos zwar wirken, jedoch deutlich schwächer, als ohne aktivierter MotionAI.


    Bei meinen Versuchen war die Geometriekorrektur aktiv, MotionAI mit 60Hz, Algo Hybrid V2, Stufe high und eine drunter, Zuspielung ATV mit UHD mit jeweils 23,976Hz.

    Sowohl beim Menu in SDR als auch beim Content in HDR sieht man Unterschiede in der Ausprägung der Schärfung (am besten im Standbild sichtbar), im laufenden Bild kann man den geringen Unterschied zwischen aktivierten/deaktiverten Schärfe Algos dann quasi nicht mehr erkennen (obwohl diese auf "Anschlag" stehen), bei MotionAI!

    Was für einen Envy hast Du? MK1 2080, MK1 3080 oder MK2? Mit was für einer Firmware-Version hast Du das getestet?


    Grundsätzlich sollte es eigentlich so sein, daß wenn Du die Schärfung im Standbild siehst, dann sollte sie auch im laufenden Bild sichtbar sein - weil der Envy gar nicht weiß, ob gerade ein Standbild aktiv ist oder ein laufendes Bild.


    Kannst Du mal im Debug OSD gucken, ob die "algos" Zeile darauf reagiert, wenn Du die Schärfer einzeln aus und wieder einschaltest? Und bleiben die Schärfer in der algos Zeile drin, wenn Du dann zum laufenden Bild schaltest?


    Ich würde gerne verstehen ob es an der 2080 liegt oder weiterhin nicht ganz zuverlässig läuft.

    Ich muss sagen mit der neuen Software sind wirklich viele tolle neue Dinge gekommen. Kompliment an madshi . Aber das nervt mich gerade...

    Das kann ich verstehen. Bei der 2080 ist es schon etwas eng, was die GPU Power angeht - vor allem bei 60 fps Output. MotionAI ist da halt schon relativ "teuer". Vielleicht kann ich das noch etwas verbessern, aber ich kann es nicht versprechen.

    Bezüglich der Automatischen Maskierungsfunktion, wäre eine ausreichend dokumentierte Standartschnittstelle die mit einer SPS wie zb. von Siemens kommunizieren kann sehr wünschenswert.

    Du meinst, Envy sollte eine Standard-Schnittstelle schaffen, an die sich dann alle Masken-Hersteller halten? Das halte ich für relativ unrealistisch, alleine schon weil manche RS232 benutzen und andere LAN, aber jedes hat sein eigenes Protokoll. Glaube nicht, daß die Lust dazu hätten, für uns eine neue Schnittstelle zu implementieren...


    Genauso ist es, wenn ich den Envy auf Standby schalte bleiben die Geräte an.

    Ok, gucke ich mir an.

    Sagst Du das Envy die anderen Geräte nicht ausschaltet wenn Du Standby im Envy verwendest statt PowerOff? Falls das so ist, wäre das ein Bug.

    So ist es bei den neuesten JVC NZ500 und NZ700 bereits passiert, nur die großen JVC Modelle NZ800 und NZ900 unterstützen noch 3D.


    Noch eine letzte Frage:

    Ende diesen / Anfang nächsten Jahres soll die RTX 5000er Generation auf den Markt kommen - was bedeutet das für den Envy?

    Autsch, das mit JVC wußte ich gar nicht.


    Was die Nvidia 5000 Generation angeht, müssen wir erstmal abwarten, wie die Leistungsdaten und Preise der neuen Modelle aussehen. Kann sein, daß wir da ein Speed-Upgrade bekommen. In dem Fall würden wir wahrscheinlich MK2 Usern ein (reines) GPU-Upgrade anbieten. Kann aber auch sein, daß wir ein 50xx Modell wählen, das von den Leistungsdaten her der 4080 entspricht (z.B. 5070 oder 5070 Ti). In dem Fall würde sich ja quasi nichts ändern, außer dem Namen der GPU. Ein GPU-Upgrade für MK2 User würde es dann erst in gut 2 Jahren mit der 60xx Generation geben.


    ja ich war Einer der das schon länger moniert hatte. :zwinker2:

    Nun klappt es endlich zusammen.

    Für mich (und für die meisten Entwickler) ist das größte Problem immer, einen Bug zu reproduzieren. Sobald ich es reproduzieren kann, ist es so gut wie gefixt. Das mit der Schärfung konnte ich nie bei mir reproduzieren, deshalb konnte ich es auch nicht fixen. Bis Oliver (unser Distributor) vor kurzem dazu in der Lage war, es zuverlässig zu reproduzieren. Da war es dann einfach für mich zu fixen.



    Mit dem MK 2 und nun auch Core ist da eine ganz andere optische Wertigkeit erreicht, zudem sind das eigenständige Gehäuse.

    Ganz klare deutliche Verbesserung. :thumbup::)

    So empfinde ich es auch. Freut mich, daß Du das genauso siehst!


    Mit der Fernbedienung anschalten sollte im Standy-Modus eigentlich funktionieren. Ist das bei Dir nicht so?

    Weiß nicht genau, wie die neuen Sony Modelle genau heißen. Die, die gerade auf der CEDIA vorgestellt wurden. Die unterstützen jetzt 48 fps, was alle älteren Sony Modelle nicht unterstützt haben. Leider haben die neuen Modelle dafür keinen 3D Support mehr... :angry: JVC unterstützt bereits 48 fps - aber leider nur mit 7680x4320 Auflösung, was nicht die kompletten Panels verwendet, also man verliert dann Licht. Ich hoffe auch, daß JVC 48 fps auch für 4K nachrüstet, vielleicht sogar für ältere Modelle via Firmware-Update, oder zumindest für neuere Modelle. Aber ich hoffe auch, daß JVC sich nicht von Sony anstecken läßt und 3D Support entfernt!!


    MotionAI macht für 120 fps intern "24 -> 48 -> 120", wobei der Schritt von 48 -> 120 ein Faktor von 2,5 ist, deshalb sind sowohl 48 fps als auch 60 fps ein bißchen smoother als 120 fps. Es sei denn man verwendet "Insane+", dann ist 120 fps tatsächlich am smoothesten. Aber Insane+ verbrät Unmengen an GPU Power und selbst der MK2 kriegt es gerade so hin und verwendet dafür dann auch nicht die beste MotionAI Engine. Daher empfehle ich Insane+ bei MotionAI 1.0 nicht zu verwenden. (Das mag sich bei MotionAI 2.0 dann vielleicht ändern.)


    MotionAI 2.0 wird technisch anders funktionieren als MotionAI 1.0, zumindest wenn meine Pläne für MotionAI 2.0 so funktionieren, wie ich mir das vorstelle. Vereinfacht ausgedrückt berechnet MotionAI 1.0 jeden interpolierten Frame komplett einzeln und getrennt voneinander, während MotionAI 2.0 stattdessen in 2 Schritten vorgehen wird: 1) Erstmal 2 benachbarte Movie-Frames analysieren. 2) Anhand der Analyse werden dann 1 oder mehrere interpolierte Frames berechnet. Es kann sein, daß MotionAI 2.0 langsamer sein wird, weil es 2 statt 1 Schritt benötigt. Aber wenn man mehrere Frames zwischen 2 Movie-Frames interpolieren will, dann wird MotionAI 2.0 möglicherweise schneller sein. Praktisch könnte damit 48 fps und 120 fps u.U. etwas langsamer werden, aber 60 fps dafür etwas schneller. Ist aber alles noch unklar. Im Moment ist MotionAI 2.0 nur ein Gedanken-Gebilde in meinem Kopf...


    Hab schon hin und wieder mal gehört, daß Leute das MK1 Design bevorzugen, und auch daß Leute das Core Design sehr gut finden (was mich sehr freut, weil das größtenteils mein Design ist). Aber ich frage mich dann immer auch, ob die Leute die Geräte auch in Echt verglichen haben oder nur auf Fotos? Weil ich kann diese Meinung schon verstehen, wenn man nur auf Fotos guckt. Aber im echten Leben ist das MK2 Gehäuse für mich schon spürbar wertiger, und das Front-Plate-Design des MK2 ist im echten Leben längst nicht so aggressiv wie es oft auf Fotos aussieht. Der Schriftzug ist beim MK2 nur ganz leicht eingefärbt (haben wir gemacht, weil man den sonst im halb-dunkeln quasi gar nicht mehr gesehen hat). Auf Fotos sieht das gerne so aus, als würde der Schriftzug extrem rausstechen. Aber im echten Leben ist das deutlich unauffälliger. Das MK1 Gehäuse besteht aus relativ dünnem Stahlblech (alles außer der Frontplatte), beim MK2 ist alles 3mm oder 5mm Aluminium, die Frontplatte ist sogar 20mm dickes massives Aluminium - was ziemlich crazy ist. Wir bezahlen beim MK2-Gehäuse extra dafür, daß die massive Alu-Frontplatte auf der (unsichtbaren) Innenseite per CNC ausgehöhlt/ausgefräst wird, damit der MK2 nicht zu extrem schwer wird. Beim MK1 kann man die Seitenwände etwas eindrücken und den Deckel etwas verschieben, beim MK2 ist alles super solid. Die Rückseite ist beim MK2 auch sehr viel hübscher.


    Ich will das Gehäuse des MK1 jetzt aber auch nicht schlecht reden. Die Frontplatte ist nice, und der Rest ist wahrscheinlich relativ unwichtig.


    Und natürlich ist Design immer Geschmackssache. Also da darf jeder gerne seine Meinung haben und auch teilen!! :sbier:

    Ja, das Thema MK1 (2080) vs MK1 (3080) vs MK2 (4080) ist schon ein schwieriges. In Sachen Features gibt's eigentlich Null Unterschied. Aber natürlich hat der MK2 das schönere bessere Gehäuse, die neue verbesserte Fernbedienung und ein etwas besseres Kühlsystem usw, aber die Algos sind genau die gleichen, und MK2 hat keine besseren und auch nicht mehr Algos als der älteste MK1. Der Hauptunterschied ist einfach die maximal zur Verfügung stehende Rechenleistung. Ob die nun tatsächlich benötigt bzw abgerufen wird, hängt aber von vielen Faktoren ab, was das ganze Thema kompliziert macht.


    Zur Info: Wenn man MotionAI benutzt mit 60 fps Ausgabe mit "Insane" smoothness, dann verbrät MotionAI genau 2x so viel GPU Power wie als wenn man MotionAI mit 48 fps oder 120 fps verwendet. Nimmt man aber nicht "Insane", sondern etwas weniger Smoothness, dann sind es bei 60 fps noch 1,5x so viel GPU Power. Also eine ganz große Frage ist immer, ob man 48 fps, 60 fps oder 120 fps ausgibt. Ich persönlich nehme 60 fps, weil das noch ein bißchen smoother als 120 fps ist. Das heißt, bei mir verbrät MotionAI 2x so viel GPU Power wie es bei einem User benötigten würde, der 48 fps oder 120 fps verwendet. Für z.B. Barco oder Christie oder die neue Sony Serie, die alle 48 fps unterstützen, sollte daher auch der älteste MK1 (2080) recht gut funktionieren, mit voller MotionAI Qualität - aber es hängt halt wieder davon ab, was sonst noch für Algos gleichzeitig aktiv sind.


    Und in der Zukunft wird es ja auch noch viele neue Algos geben. Von daher ist es echt schwierig, eine allgemein gültige Aussage zu treffen darüber ob der MK2 "nötig" ist oder nicht. Derzeit möglicherweise noch nicht, irgendwann vielleicht schon, aber es hängt halt immer von vielen Faktoren ab. Was ich sagen kann, ist daß der MK1 nicht künstlich von uns benachteiligt wird. Aber wir können natürlich keine extra GPU Power herbei zaubern, die nicht in der Hardware steckt.


    Gleichzeitig ist auch die Zukunft alles andere als klar, was die benötigte GPU Power angeht: Z.B. werde ich bald anfangen an MotionAI 2.0 zu arbeiten, und auch an anderen neuen Algos. Aber alleine bei MotionAI 2.0 schon weiß ich noch gar nicht genau, ob es mehr oder weniger GPU Leistung als MotionAI 1.0 benötigen wird. Ich entwickle immer mit 2 Zielen: 1) Möglichst gute Bildqualität und 2) möglichst effektive GPU Verwendung. Von daher kann es sowohl dahin gehen, daß MotionAI 2.0 mehr oder auch weniger GPU Power benötigen wird, ich weiß es einfach noch nicht. Neue Algos werden aber natürlich zusätzlich GPU Power verbrauchen, wenn sie gleichzeitig aktiviert werden.


    Übrigens hab ich letztens endlich den Bug gefunden (mit Olivers Hilfe), daß die Schärfe-Algos manchmal nicht gewirkt haben. Das wurde ja hier im Forum auch schon öfters mal berichtet. Es lag tatsächlich nicht an MotionAI (was die Vermutung war), sondern passierte dann, wenn der Upscaling-Faktor in einem ganz bestimmten Bereich lag. Es hatte also nichts mit der verfügbaren GPU Power zu tun oder so, sondern war ein einfacher Logik-Bug in der Firmware. Sollte in der neusten Firmware endlich behoben sein.

    Technisch möglich schon, und auch nicht schwierig. Mein größtes Problem ist immer, solche Sonderwünsche im Menü unterzubringen, ohne das Menü unnötig kompliziert zu machen. Deinen PC kann der Envy nicht automatisch finden, also müßtest Du erstmal eine IP eingeben. Und dann ist das Device IP Control Config Menü jetzt schon proppenvoll, da ist eigentlich kein Platz mehr. Aber ich schreibe mir Deinen Wunsch mal auf, vielleicht kriege ich den irgendwie irgendwo dazwischen gequetscht. Aber wahrscheinlich nicht sehr bald.