Hallo,
weiß jemand, ob es eine Art Produktzyklus geben wird?
Werden also jährlich aktuelle Grafikkarten und andere Komponenten verbaut oder bleibt es bei der Ausgangshardware?
Liebe Grüße,
Nico
Sie sind in Begriff, Heimkinoverein zu verlassen, um auf die folgende Adresse weitergeleitet zu werden:
Bitte beachten Sie, dass wir für den Inhalt der Zielseite nicht verantwortlich sind und unsere Datenschutzbestimmungen dort keine Anwendung finden.
Hallo,
weiß jemand, ob es eine Art Produktzyklus geben wird?
Werden also jährlich aktuelle Grafikkarten und andere Komponenten verbaut oder bleibt es bei der Ausgangshardware?
Liebe Grüße,
Nico
Genau weiß ich es nicht. Ich denke, es werden aktuelle Grafikkarten genommen, da alte ja nicht ewig weiter produziert werden. Der Extreme soll ja dauerhaft upgegraded werden können, da glaube ich nicht an einen Produktzyklus, wäre ja unsinnig
Aktuell wartet der eine oder andere Envy-Besitzer auf ein Upgrade auf die 3080.
Mal wieder ein kleines Update zur MI:
Die erste Version ist soweit erstmal programmiert, nun läuft aktuell das AI training dafür, d.h. madshi kann nun erstmal auch wieder an anderen Themen arbeiten.
Möglicherweise kommt in Kürze ein erstes Testbuild zur MI.
Für mich als Liebhaber einer starken FI/MI, bin ich schon sehr gespannt was madshi da bringen wird.
Sobald sie fertig ist muss ich dann mal irgendwo testen im Vergleich mit JVC und SVP bevor ich das Geld ausgebe...
Vom Timing her würde ich dann fast sagen er lehnt es an die neue Google KI an.
Der Aufwand ein gutes Modell zu trainieren ist enorm hoch, also extrem teuer.
Hallo zusammen.
Zitat von Die ZweiDie erste Version ist soweit erstmal programmiert, nun läuft aktuell das AI training dafür, d.h. madshi kann nun erstmal auch wieder an anderen Themen arbeiten.
Das liest sich so, als ob es nur einen Entwickler (Mathias Rauen) dafür gibt. Ist das wirklich so?
Das fände ich schon ungewöhnlich und ginge in Richtung "Klumpenrisiko". Zumindest kenne ich es aus dem Berufsleben so, dass Kollegen in mehreren Fahrzeugen (bzw. unterschiedlichen Verkehrsmitteln) zum Kunden oder Konferenzen reisen mußten, nur damit im Fall des Falles nicht ganze Projekte gefährdet wären. Wenn hier Herr Rauen ausfiele, aus welchem Grund auch immer, gäbe es keine Neu- bzw. Weiterentwicklung mehr.
Gruß
sehnix
Wenn hier Herr Rauen ausfiele, aus welchem Grund auch immer, gäbe es keine Neu- bzw. Weiterentwicklung mehr.
Das ist in diesem Falle tatsächlich so.
Es gibt schon Unterstützung in Bereichen die nicht der Bildverarbeitung zuzurechnen sind (z.B. GUI oder Control API), aber das Ganze steht und fällt mit Mathias.
Nach meinem Dafürhalten ist Frame Interpolation ein wesentlich schwierigeres Problem als Tonemapping.
Und ich glaube auch nicht, dass das madVR Entwicklungsteam in einer Liga mit den google KI Jungs mitspielen kann.
Insofern bin ich ehrlich gesagt sehr skeptisch was die FI Entwicklung bei madVR anbetrifft.
Insofern bin ich ehrlich gesagt sehr skeptisch was die FI Entwicklung bei madVR anbetrifft.
Schaun wir mal. Mathias ist da positiv dass es wohl mind. so gut wie die vorhandenen Systeme wird.
Die Herausforderung ist ja bekannt, es geht eben darum nicht vorhandene Bildinformationen zu geht es geht vorauszusehen.
So wie es madshi beschreibt wird die erste Version auch zu heftig für die meisten von uns (inkl. mir) - das Ziel ist einen "Gemini Man" Look zu erzeugen, also so als wenn ein Film direkt in HFR gedreht wurde.
Also wahrscheinlich mit der "high" Setting bei den bekannten Implementierungen im Projektor.
Erst danach wird es wohl Abstufungen geben, die möglichst viel von dem Filmlook erhalten, aber das Ruckeln soweit wie möglich elminieren.
Achja, in der übernächsten Version soll es wohl dann auch eingebaute Funktion für die Steuerung von JVC (ich glaube auch Sony) Projektoren geben.
Schaun wir mal. Mathias ist da positiv dass es wohl mind. so gut wie die vorhandenen Systeme wird.
Wobei die vorhandenen Systeme natürlich auch nicht perfekt sind.
So oder so, ich lasse mich da gerne positiv überraschen.
Gibt es denn auch konkretere Zeitpläne?
Wobei die vorhandenen Systeme natürlich auch nicht perfekt sind.
Das stimmt - deshalb eben "mind. so gut".
Das wäre aber für Projektoren die aktuell gar keine FI haben, schon ein größer Schritt vorwärts.
Gibt es denn auch konkretere Zeitpläne?
Klang so als wenn eine erste Version (möglicherweise erstmal "intern") im Laufe des August verfügbar sein sollte.
EDIT: Hab gerade die Info bekommen "garantiert nicht im August". Also es ist fertig wenn es fertig ist.
Vom Timing her würde ich dann fast sagen er lehnt es an die neue Google KI an.
Eher nur als Ideengeber. Diese Algos sind für Offline-Rendering gedacht, also nicht so ohne weiteres für Echtzeit-FI zu gebrauchen.
Mit genug Rechenpower und optimierungen schon - aber ist richtig, die Inferencingleistung ist dafür nicht annähernd ausreichend.
Wo findet man eigentlich die integrierten Testbilder?
Wo findet man eigentlich die integrierten Testbilder?
Geh mal in die Konfiguration der Tasten für die Fernbedienung. Dort findest Du die Testbilder entsprechend zuordnen.
Wo findet man eigentlich die integrierten Testbilder?
Moin,
Normal liegt das auf der blauen Taste, wenn nicht anders konfiguriert.
Andy
Normal liegt das auf der blauen Taste, wenn nicht anders konfiguriert.
Das ist so bei neueren Auslieferungen. Bei älteren Envys, die ja ursprünglich diese Funktion gar nicht hatten, muss man sie manuell auf die FB mappen.
Wo kann ich das Gamma des Ausgangssignals ändern, ich finde es im Menu nicht?
Kann es sein dass Du eine 3Dlut benutzt? Dann verschwindet die Gamma-Einstellung.
Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!