Der horizontale Lens-Shift ist in der Tat erheblich geringer als der des N5.
Das gilt auch für den vertikalen Lens-Shift.
Laser Glitzern nehme ich nicht wahr.
Sie sind in Begriff, Heimkinoverein zu verlassen, um auf die folgende Adresse weitergeleitet zu werden:
Bitte beachten Sie, dass wir für den Inhalt der Zielseite nicht verantwortlich sind und unsere Datenschutzbestimmungen dort keine Anwendung finden.
Der horizontale Lens-Shift ist in der Tat erheblich geringer als der des N5.
Das gilt auch für den vertikalen Lens-Shift.
Laser Glitzern nehme ich nicht wahr.
noch ein Faktor hinzugekommen, den ich bisher nicht auf dem Schirm hatte... das Laser-Glitzern.
Wenn damit der laser specle Effekt gemeint ist, dann kommt er bei einer Laser-Phosphor Lichtquelle nicht zum tragen, da kein roter Laser eingesetzt wird.
Übrigens ist das PWM-Rauschen stärker, als bei den großen Brüdern. Und das MPC ist ebenfalls weniger Leistungsfähig. Es gibt also nicht nur tolle Messwerte, die die größeren Modelle in die Enge treiben würden, wenn NZ500/700 eine FI hätten.
Was aber sicherlich angesichts der phänomenalen Kontraste in den Hintergrund tritt und als Abgrenzung zu den höheren Modellen nicht wirklich taugt imo, da das wahrscheinlich nicht vielen auffallen wird. In Tests liest man dazu auch sehr wenig bis so gut wie nichts
Steht in der Excel-Tabelle einer mit meinen Messungen?
Wenns meine Excel-Tabelle meinst, na natürlich:
Helligkeit, ON/OFF, ADL 1,2, 5,10,20,50
Man bekommt für den Preis eine ganze Menge Projektor. Trotzdem musste dafür der Rotstift angesetzt werden.
Entwicklung einer Extra Software, Zukauf und Ersatzteilhaltung anderer Hardware vs. Verwendung vorhandener Software-Pakete, eine Hardware-Version für alle Geräte.
Soooviel günstiger wird das nicht sein. IMHO das ist vor allem eine strategische Entscheidung.
Man weiß ja nicht was da genau für Hardware verbaut ist.
Könnte ja sein, dass da später kostenpflichtig die CMD freigeschaltet werden kann.
Tesla ging/geht ja ähnlich vor.
Ist das ein absurder Gedanke oder eventuell realistisch?
Absurd nicht, Envy Core ist so ein Beispiel.
Bei den mehr auf Multimedia/vernetzten Geräten mit diversen Diensten OnBoard, sind irgendwann kostenpflichtige Zusatzfunktionen gar nicht so unwahrscheinlich.
JVC, glaub ich, hat ein anderes Geschäftsmodell. Dafür spricht, dass immer wieder Zusatzfunktionen kostenlos nach gereicht wurden. Klar kann sich das in Zukunft ändern, aber wäre das ein neues Geschäftsfeld, dann hättens wohl, ev. für später, wohl solche Optionen auch beworben.
Bei JVC kommt das eher mit der nä Generation, auch wenn die Hardware das könnte.
Ich denke ja, dass die NZ500/NZ700 die neuen Technologieträger von JVC sind und einen Ausblick auf künftige Geräte geben. D.h. neues, kompaktes Design, neue Light Engine, flexibleres Objektiv, Energieeffizienter (Verbrauch) usw. Ich finde die zwei Geräte wirklich attraktiv!
Der Zoom bei meinem NZ500 stand auf ca. 95%.
Max Zoom bedeutet eigentlich immer mehr Licht u. weniger Kontrast
IMHO das ist vor allem eine strategische Entscheidung.
Natürlich gibt es keine Beweise; würde ich aber auch so sehen. Die Chips bspw. von der NZ7/8/9 Serie gibts schon lange. Wäre mEn doch viel „einfacher“ diese zu verwenden + die Firmware entspr. abzuspecken, anstatt neue mit weniger Leistung zu entwickeln/verbauen…
Natürlich gibt es keine Beweise; würde ich aber auch so sehen. Die Chips bspw. von der NZ7/8/9 Serie gibts schon lange. Wäre mEn doch viel „einfacher“ diese zu verwenden + die Firmware entspr. abzuspecken, anstatt neue mit weniger Leistung zu entwickeln/verbauen…
Die neuen Geräte haben sehr viel weniger Leistungsaufnahme als die alten.
Daraus lässt sich vermuten, dass die neuen Chips wesentlich einfach zu kühlen sind.
Vermutlich einfach leistungsschwächere Chips verbaut.
Wie bei den verschiedenen Grafikkarten auch.
Eine RTX 4060 hat viel weniger Leistungsaufnahme, als eine RTX 4090.
Nur per Firmeware regelt man das auch nicht.
Also wenn man sich die Leistungsaufnahme eines Lumagen anschaut, dann liegt es eher nicht an den Chips. Die Software ist ja direkt für die Hardware geschrieben und dahingehend entsprechend effizient.
Ich denke, es ist eine Kombi aus besserer Optischer Einheit, wodurch mehr Licht vom Laser auf der Leinwand ankommt und bessere effizientere Laserlichtquellen.
Der Lumagen hat ja mit dem NZ500 eine entscheidende Gemeinsamkeit: Beide können keine Zwischenbilder berechnen! 😉
Schau dir die Envy Modelle an.
Nur der ganz große Envy kann Zwischenbilder berechnen.
Der benötigt aber auch 200 Watt mehr Leistungsaufnahme, als die kleineren Modelle.
Zwischenbildberechnung braucht also offensichtlich viel Rechenpower.
Nur der ganz große Envy kann Zwischenbilder berechnen.
Der benötigt aber auch 200 Watt mehr Leistungsaufnahme, als die kleineren Modelle.
In Software berechnet, auf einer Graka, die dafür eigentlich nicht entworfen wurde, mit einem besonders hochwertiger AI Umsetzung.
Deshalb, Standardspruch: Nicht alles was hinkt ist ein guter Vergleich
Einfacher, aus der Praxis:
Wer hat seinen Beamer an einer Quelle hängen, wo der Strombedarf angezeigt wird? Dann vergleicht mal die selbe Szene mit FI on und off.
Dann haben wir Praxiswerte. Ich wette ein Internetbier, wir reden von weniger als 50W
Schätze eher um die 10-20W herum.
Der Lumagen hat ja mit dem NZ500 eine entscheidende Gemeinsamkeit: Beide können keine Zwischenbilder berechnen! 😉
Schau dir die Envy Modelle an.
Nur der ganz große Envy kann Zwischenbilder berechnen.
Der benötigt aber auch 200 Watt mehr Leistungsaufnahme, als die kleineren Modelle.
Zwischenbildberechnung braucht also offensichtlich viel Rechenpower.
Lumagen nutzt FPGA wo die SW auf Transistorebene die Logik abbildet. Das ist sehr effizient. Damit ist der Stromverbrauch bei max. 30Watt. Der ENVY Core nutzt eine Grafikkarte und zieht bis 200 Watt. Da ist noch gar keine FI im Spiel.
Dann haben wir Praxiswerte. Ich wette ein Internetbier, wir reden von weniger als 50W
Schätze eher um die 10-20W herum.
Eigentlich gehts mir nicht um den Stromverbrauch.
Was ich sagen wollte ist, dass man nicht einfach per Firmewareupdate eine FI im NZ500 freischalten können wird.
Ich gehe davon aus, dass die Chips einfach nicht die nötige Rechenleistung dafür haben, die benötigt wird.
Stromverbrauch und Kühlung (welche wiederum, über die Abwärme, mit dem Energiebedarf zusammen hängt) hast Du ins Spiel gebracht ;)
Die N und NZx + NZ800/900 haben einen FPGA verbaut. Deswegen war es z.B. möglich bei der N Serie die Frame Adapt HDR einzuführen. Diese Lösung ist zwar sehr flexibel, ist aber recht teuer. Wenn man jetzt „design to cost“ betreiben will macht es Sinn die Funktion des FPGAs ein ein ASIC (Application Specific IC) zu gießen, wenn die Stückzahlen eine solche Entwicklung tragen. Die Entwicklungskosten gehen allerdings in Millionen. Sony zB. ist genau diesen Weg gegangen. Daher muss man bei Sony immer eine neue Generation abwarten um neues Prozessing zu erhalten. Wenn also, die neue NZ500/700 Serie auch diesen Weg eingeschlagen hat wird es keine Änderungen möglich sein.
Stromverbrauch und Kühlung (welche wiederum, über die Abwärme, mit dem Energiebedarf zusammen hängt) hast Du ins Spiel gebracht ;)
Ich gehe auch weiterhin davon aus, dass es so ist.
Lässt sich natürlich nicht beweisen, da es keine genaueren Angaben zum verbauten Chip gibt.
Oder hat da jemand mehr Informationen dazu?
Bei meinem NZ 500 liegen die Umschaltzeiten mittlerweile auf Fernseher Niveau.
Überhaupt kein Vergleich zu den Vorgänger Generationen.
Von 60 auf 24 Hz synct der Projektor sogar schneller als mein ebenfalls angeschlossener LG Monitor.
Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!