HTPC mit MadVR

  • wie Holger schreibt, es ist eine einzige XML Datei und ist in einer Minute geändert.

    Alles kein Hexenwerk aber es zeigt mir, das wohl viele nicht wissen wie einfach das mit MPC-BE ist, denn sonst würden nicht so viele was von wochenlangem Experimenten usw. schreiben :poppy:


    Deshalb verwundert es auch nicht, dass dann so viele solche Horror Märchen glauben und es selber dann verbreiten.

  • Na ja: wenn es nicht funktioniert, ist es ja wohl kaum besser. Aber ich wäre sehr dankbar, wenn dieses Thema hier in diesem Thread endlich abgehackt wäre... es nervt. Das kann doch sehr gerne in einem separaten Thread bis in alle Ewigkeiten diskutiert werden. ich wünsche allen Diskussionsteilnehmnern schon jetzt viel Spass :mad:

  • Sven

    Richtig: Ich habe hier meine Meinung gesagt zu einem IMO hier eher belanglosen Thema (weil es nämlich nichts mit madVR zu tun hat) und und das wurde dann ins Lächerliche gezogen. Obendrein klang da noch so ein Vorwuf der Missionierung mit (so lächerlich das auch war). Von daher ist dieses leidigeThema für mich soweit gegessen. Ich hoffe, Du kannst das nachvollziehen. Meine Meinung zu diesem Thema könnte ich noch weiter ausführen, aber das ginge dann eher ins Persönliche, was ich ungern machen würde. Von daher würde ich wirklich sehr begrüssen, wenn alle bei ihren funktionierenden oder nicht funktionierenden Playern blieben und bei Problemen ihre Fragen ausshliesslich an Personen per PM richten, von denen die Wahrscheinlichkeit gering ist, einen Rat zu bekommen, den sie nicht hören wollen und worauf sie sich bloss aufregen. So: ich habe geschlossen.

  • Mori


    Da Du Dich sehr mit HSTM und der Optimierung von madVR gewidmet hast, wäre es toll wenn Du vielleicht dort Was ist madVR, was machen die Tools, Tipps & Tricks uns anderen die nicht so tief im Thema sind, ein paar “Tipps & Tricks“ zur Optimierung aufzeigen könntest.

    Würde bestimmt so einige wie mich interessieren und man käme wieder zur eigentlichen Sache zurück.


    ANDY_Cres hat ja auch was bzgl. Optimierung erwähnt und da könnten solche Infos zusammen fließen :respect:

  • sven29da

    Ja, das wäre ein guter Gedanke, das mal aufzuarbeiten und in eigenen Thread detailliert zu besprechen. Ich möchte allerdings jetzt schon die Hoffnung dämpfen, da quasi dann "die perfekte Lösung" serviert zu bekommen.

    Die Helligkeit der Leinwand spielt eine relativ wichtige Rolle, genauso welchen Projektor (oder TV) man hat und unter Umständen auch die Rechenpower, mit der man arbeiten kann. Nicht umsonst füllt dieses Thema ja ganze Foren.


    Ich bin da übrignes immer noch am lernen und Erfahrungen sammeln und habe auf diesem Weg gemerkt, wie einzelne Parameter sich aufeinander auswirken und sich teilweise auch wieder aufheben. Man kann somit auch mit sehr unterschiedlichen Wegen auf ein sehr ähnliches Resultat kommen. Für mich ist das sehr faszinierend und es begeistert mich, wenn ich sehe, wie grosse Fortschritte bei der Bildqualität durch madVR möglich sind und wie sehr man das selber auch steuern kann.


    Es gibt übrigens bereits eine gute Uebersicht im Netz, worauf man aufbauen kann : https://forum.doom9.org/showthread.php?p=1709584

    Der Effekt einzelner Parameter ist ja auch sofort sichtbar und der technische Hintergrund wird da erläutert.

  • Entscheidend soll in erster Linie schon die Graphikkartes ein, wobei es auch Anforderungen an die CPU gibt. Ich selber bin mit einem Intel Core i9-9900 (8, LGA 1151, 3.10GHz) unterwegs, Der Blick in den Taskmaanger verrät: es ginge auch mit deutlich weniger. Wo die Grenze allerdings ist, weiss ich nicht, da ich bei dem Thema mich zu wenig auskenne (obwohl ich schon in den 80ern meinen ersten PC hatte und schon online war, bevor es ein eigentliches Internet gab :opi:

  • Bei der Hardware redet Ihr nur von der Graka?

    Ich hab hier einen I3 oder I5 Rechner mit 8GB Ram herumstehen, welche mit einer 2070er Aufrüsten wollte, zum Test als MadVR Rechner.

    Ja quasi, die Graka wird halt mit Abstand am meisten belastet.

    CPU und RAM sind da nicht so ausschlaggebend, solange es zumindest halbwegs aktuell ist.


    Ich habe damals, noch bevor ich MadVR kannte, meinen alten Gaming Rechner mit einer gtx1070 aufgerüstet und dann später mit MadVR einfach mal ausprobiert, das funktioniert super bei mir.

    Klar, man kann nicht alles auf Anschlag knallen, aber mit ein wenig Fingerspitzengefühl beim Einstellen kann man damit echt tolle Ergebnisse erzielen, viel sichtbare Luft nach oben ist nicht mehr.

    Eine 2080ti oder auch die 2080 ist natürlich besser als eine 2070, Preis/Leistungs technisch würde ich mich allerdings für die 2070 entscheiden.


    Gruß Jan

  • Ich möchte allerdings jetzt schon die Hoffnung dämpfen, da quasi dann "die perfekte Lösung" serviert zu bekommen.

    sorry, ich möchte echt nicht stänkern, aber wegen der optimierungen möchte ich doch noch mal fragen.

    war es nicht die technische überlegenheit das man bei madvr nur die helligkeit einstellen braucht um ein perfektes ergebniss zu bekommen?

    verstehe ich das richtig, das es jetzt parameter gibt die das bild beeinflussen? woran erkenne ich das es jetzt so ist wie es sein soll oder ist das reine geschmacksache? gibt es eine empfehlung für eine einstellung die anhand eines referenz monitor verglichen wurde?


    ich fühle mich in die zeit versetzt als wir dem lumagen noch mit HDR ziel gamma kurven und den parameter vom lumagen kalibriert haben um ein gutes ergebniss zu bekommen und ich dafür sehr schräg angeschaut wurde :think:vieleicht könnte Karl Klammer ja mal für euch das vorgehen für die kalibrieung mal wieder aufleben lassen und das meine ich ernst.

    ich bin echt etwas verwundert, ich hoffe ich habe das alles falsch verstanden :?:

  • @Christronic

    Grundsätzlich kann man madVR auch mit einer Vega56 oder 1660 betreiben. Natürlich nur, wenn man es mit der Nachschärfung nicht übertreibt und die NR nicht nutzt. Aber auch der neueste Live Algo (Beta113) ist damit nutzbar. Aufgrund der Vielzahl an Stellschrauben kann man aber auch eine 2080ti an ihre Grenze bringen. Alles eine Frage der Einstellungen :zwinker2:

  • Ich habe damals, noch bevor ich MadVR kannte, meinen alten Gaming Rechner mit einer gtx1070 aufgerüstet und dann später mit MadVR einfach mal ausprobiert, das funktioniert super bei mir.

    Das gleiche hab ich mit meinem eh schon vorhandenen Rechner auch kürzlich ausprobiert, bekomme jedoch sobald ich das NGU upscaling aktiviere Spulenfiepen bei meiner GTX1070, das sich leider per HDMI auf die Lautsprecher fortsetzt - hatte solche Probleme schonmal wer?

  • Nabend,


    oto

    Na was willst du lesen ?:zwinker2:

    Natürlich kannst du alle Parameter verändern, verkuppeln etc.

    Vorgaben gibt es nur zur Einbindung des Grundfarbraum oder auch zur HSTM Zielhelligkeit mit Projektor xy.

    So gesehen ist es dann mit den richtigen Settings (was man noch so verändern möchte am Bild) dann getan.

    Mit den ZUsatzspeicherfunktionen sind dann auch versch. HSTM Kurven mit untersuch. Zielhelligkeiten versehen.

    Letztere nutze ich (eingebettet über ext. Steuerung Crestron) in Verbindung mit meinen unterschiedlichen. PJ Helligkeiten für entspr. versch. gemasterte HDR Filme.

    Zudem sind jederzeit alle Metadaten vom Content sichtbar inkl. Histogramm.

    Jede vorhandene HSTM Kurve kann dann noch individuell verändert werden, was ich auch schon gemacht habe.

    Oder du mißt alle HSTM Kurven nochmal noch oder oder.


    Open Source halt, du kannst machen was dir gefällt oder eben nicht.

    Ich habe irgendwann aufgehört alles penibel zu messen. Habe einen TV mit Kalibrierung dann zum Vergleich oft heran gezogen. Das brauchte gerade zu Anfang viel mehr, um zu begreifen was machen diese ganzen Regler überhaupt.

    Streng genommen braucht es schon einige Wochen wirklich alles zu erfahren, was so geht oder besser nicht gemacht werden sollte. Das wäre die reine Anwendung.

    Zeit geht ggf. zusätzlich drauf (mit Sicherheit) hier Einstellungen zu finden was max machbar ist. Und natürlich auch das es ruckelfrei läuft, was auch mit der 2080 TI voll nach hinten gehen kann.


    Also das ist definitiv kein Plug & Play, man sollte also wissen was man sich da zumutet.:big_smile:

    Das Ergebnis ist allerdings genial !!!:dancewithme


    ANDY

    arled-cinema.de Fullservice Integrator mit professioneller VR 3D Kino Planung + Akustikausarbeitung + technische Planung + Designausarbeitung.

    (zertifizierter Trinnov + Storm Audio Händler) Brands u.a. : BARCO ; CHRISTIE ; LED Wall Systeme ; ASCENDO PRO ; Display Technologie ; MAD VR ; AV pro edge ; Magnetar ; Artnovion ; ARLED Cinema Screens ; Lightboxen ; Spann - Rahmemsysteme ; Akustikstoffe uni + bedruckt uvm.

    Meine Bauthread´s

    Heimkino der Zukunft Build 1

    Wohnkino mal anders 2.0

  • Es gibt übrigens bereits eine gute Uebersicht im Netz, worauf man aufbauen kann : https://forum.doom9.org/showthread.php?p=1709584


    Danke, der Link steht bereits in der Linksammlung bzgl. madVR -> Was ist madVR und was machen die Tools dafür?
    Wenn weitere sinnvollen Quellen bekannt sind die nicht in der Linksammlung stehen, gerne Bescheid geben damit ich diese nachtrage.

    war es nicht die technische überlegenheit das man bei madvr nur die helligkeit einstellen braucht um ein perfektes ergebniss zu bekommen?

    Verwechselst Du es vielleicht gerade mit dem Envy:think:
    Bei der HTPC Lösung gibt es schon ein paar mehr Werte um ein schönes/gutes Ergebnis zu bekommen, auch wenn man eigentlich selbst da inzwischen nur die maximale Helligkeit und nach belieben die Target Nits eintragen muss.
    Dann gibt es die besagten "paar mehr Werte" und Möglichkeiten, noch mehr raus zu holen.

    Auch verstehe ich unter "Tipps & Tricks" wie man weiteres bei sich am besten prüfen kann um zu bewerten was am sinnvollsten ist usw. usw.
    Aber das wird man ja nun im besagten Thema sehen was da so an Infos und Austausch kommt.


    Aber das hat alles hier null mit dem Thema von dslmaster zu tun, den die wenigsten wohl überhaupt hier das Thema gelesen. Da waren nämlich schon so Dinge wie die Playercorefactory Datei Thema und wurde sogar gepostet :zwinker2:
    Somit hätte man z.B. schon gelesen, dass da kaum was einzustellen ist und man hätte hier nicht geschrieben wie extrem aufwändig das sei usw. :P

  • Eine Standard-madVR-Lösung beinhaltet nun einmal immer die Hardware, die Video-Renderer-Software, ein Mediacenter und eben einen Video-Player (intern oder extern) und auch noch die LAV-Filterm sofern man diese noch einzeln aufführen möchte,

    Deshalb werden diese Themen auch immer gesamtheitlich betrachtet und behandelt. Fast alle verwenden Kodi als Mediacenter, dabei gibt es eben eine auf Kodi 17 basierende DS-Player-Variante, die aber bezüglich KODI immer dem aktuellen Stand hinterherläuft. Und wahrscheinlich auch nicht mehr aktualisiert wird (zuletzt wurden „nur“ Anpassungen auf den letzten Kodi 17-Stand gemacht). Schnell rücken dann leider Kodi-Themen in den Vordergrund, die eigentlich rein gar nichts mit madVR zu tun haben (so wie die Einbindung eines externen Players).

    Das andere sind die eigentlichen Stellschrauben des Video Renderers selbst, und im speziellen aktuell der live-Algo HSTM. In der neuesten beta113 sind die HSTM-Kurven mittlerweile fest zugeordnet. Die Funktion waren ja nur für die Tester eingebaut, die mit verschiedenen Kurven experimentiert und madshi Rückmeldung gegeben haben.

    Deshalb ist der Thread hier bezüglich HTPC/madVR eigentlich zu wenig; der Thread von Sven wäre dahingehend weitaus besser geeignet, solch ein Tutorial zu erarbeiten. Alle Links sind dort bereits von Anfang an drin, auch der doom9-Link, der grob die ganzen madVR-Parameter erklärt.

    Meiner Meinung nach ist es auch überhaupt nicht notwendig, an vielen Stellschrauben zu drehen. Natürlich kann man das immer auf das persönliche Empfinden hin optimieren, was aber dann natürlich viel Einarbeitung und vor allem das Verständnis der Arbeitsweise von madVR voraussetzt. Hocky ist da ja ein Extrembeispiel, was man alles optimieren kann.

    Man kann aber schon als Einsteiger sehr weit mit den Settings von Anna&Flo kommen. So kommt man auch sehr schnell zu einem Ergebnis. Bei 60p-Filmen muss man natürlich die Trade for Performance-Parameter ändern, bei mir war das genau eine einziger Haken, und dann lief Gemini Man ruckelfrei (i7, RTX2080)

    Ich würde mich wirklich darüber freuen, wenn man den Thread von Sven mal wieder etwas mehr Leben einhauchen könnte und alle Informationen etwas zusammentragen könnte.


  • Also dann werde ich mal versuchen, die Verwirrung wieder etwas aufzulösen:

    Erstens ist ein perfektes Ergebnis grundsätzlich gar nicht möglich auf Geräten, die die Voraussetzungen eines Referenzmonitors nicht erfüllen, die da u.a. sind: Schwarzwert plus Helligkeit (woraus sich der Dynamikumfang des Gerätes ergibt) , Farbraum und Auflösung. Deshalb braucht es ja Methoden, diesem Bildeindruck auf dem Referenzmonitor möglichst nahe zu kommen. Die Limitierung wird also im Idealfall immer durch das Zielgerät diktiert, und das Ziel bei diesen Verfahren muss es sein, die Limitierung des Zielgerätes optimal zu kaschieren. Tatsächlich ist das ausgeklügelte Tonemapping von madVR heute IMO so weit, dass nicht mehr das Tonemapping der TV und Projektorhersteller die Limite darstellt, sondern das Zielgerät. Vorher zu Zeiten des statischen Tonemappings - war das bei weitem nicht der Fall. Deshalb braucht es auch keine "Referenzkurven" mehr. Es gibt genau eine Norm und die schreibt vor, wie hell genau ein bestimmter Pegel (Code Value) sein zu muss und wie der Helligkeitsverlauf aussieht. Deshalb braucht es solche "besten Kompromiss-Kurven" gar nicht mehr. MadVR liest ja in jedem Frame die einzelnen Helligkeiten jedes Pixels aus und wählt für jedes Frame eine neue Kurve, die möglichst ähnlich steil - idealerweise gleich steil - aber nie steiler als die Referenzkurve verläuft. Dahinter stehen mathematisch genau definierte Regeln, die genau das verhindern. Deshalb wird im Gegensatz zu einem Contrast Enhancer das Bild bei madVR auch niemals kontrastreicher als auf dem Referenzmonitor erscheinen.


    Was muss bei madVR getan werden , um ein optimales Bild zu erhalten - oder genauer formuliert - um ein Bild zu bekommen, das die Schwächen des Projektors besser kaschiert ?

    MadVR muss wissen, welche Helligkeit ein Pixel real auf der Leiwand effektiv hat , um eben zu verhindern, dass es heller als auf dem Referenzmonitor erscheint und gleichzweitig der Kontrast zwischen 2 unterschiedlich hellen Pixeln ebenfalls nie grösser sein wird als auf dem Referenzmonitor. Früher zu Arve Kurven Zeiten war es möglich, im Extremfall mehr Kontrast als auf dem Referenzmonitor zu bekommen, indem man eine steilere Kurve wählte (mit dem Problem, dass im hellen Bereich dann alles überstrahlte ...) . Meistens war es aber zu dunkel und zu wenig konrastreich, weil eben im Regelfall Reserven ungenutzt blieben für Helligkeiten, die im konkret darzustellendem Frame gar nicht dargestellt werden mussten. Also gibt man die real gemessene Helligkeit ein (unter real target nits).


    Der zweite wichtige Wert, der das Bild massgeblich beeinflusst ist der Wert für das "Dynamische Target Nits". Dieser ist ziemlich frei wählbar und man kann selber wählen, welchen Tod man sterben will. Es geht darum, dass unserer Helligkeiten auf der LW zu gering sind. Jetzt kann man entweder tendenziell ein dunkleres Bild mit mehr Kontrats wählen oder ein helleres Bild mit tendenziell weniger Kontrast. Es gibt hier also kein richtig oder falsch, weil beides suboptimal ist im Vergleich zur Referenz und eben eine Folge der Limititierungen unserer Projektoren ist.


    Ich habe madVR an 5 Monitoren durchgespielt (allerdings mit unterschiedlichen Intensitäten): VW760 mit Helligkeiten 120-180 Nits, VW 760 mit etwa 80 Nits, Sim2 Nero 3 plus mit 75 nits, N5 mit ca 160 nits und sogar einem ZD9 TV mit bis zu 1800 Nits. Dabei gelang letztlich immer ein sehr gutes Ergebnis und zwar bei allem Bildmaterial und mit einer einzigen Einstellung (wenn man mal von der 60p Problematik absieht). Dabei war mal eher die Helligkeit, die Farben oder der Schwarzwert des Projektors das "grösste" Problem. Aber genau dafür hat madVr ein paar Trümpfe im Aermel, die man ausspielen kann, um diese Schwächen zu minimieren. Ein Shadow Boost mag manchmal nützlich sein, aber minimiert IMO den Kontrast gegen den mittleren Helligkeitsbereich tendenziell zu stark. Deshalb fand ich bspw. es besser, bei einem Sony 760 das Gamma ganz unten zu optimieren. Beim JVC funktionierte er moderat eingesetzt IMO ausgesprochen gut. Und ein DLP hat nahe Schwarz im Normalfall eine geniale Durchzeichnung - der braucht kein Shadow Boost (dafür einen miserablen SW). Und wenn ich auf die vielen Möglichkeizten des HSTM zu sprechen komme: der Nero profitierte in der Summe von einer aggressiven HSTM Kurve, obwohl es ähnlich einem CE von Sony etwas Durchzeichnung unten kostete und Details in sehr hellen Bereichen. Dank tollen Farben und sehr gutem ANSI machte auch er einen erstaunlich guten Eindruck. Beim 760er mit genug Helligkeit und gutem SW brauche ich keine agressive HSTM Kurve, die mehr schadet als nützt. Eine moderate war die viel bessere wahl und ein echter Gewinn ohne störende Nebenwirkungen. Genau dafür sind also IMO diese Regler: um eben die Schwächen zu kaschieren und deshalb wird es auch kein Setting geben, das universell und perfekt ist. Das hatte ich in einem meiner Beiträge weiter oben ausdrücken wollen.


    Das Thema HDR und Projektoren ist top spannend und ich werde dann bei Gelegenheit noch meine Ansichten darlegen, was IMO ein Projektor haben sollte, damit das Bild möglichst optimal wird. Ohne Anspruch auf Unfehlbarkeit, aber als Diskussionsgrundlage. Da gibt es nämlich durchaus gegensätzliche Meinungen in der Fachwelt, wie ich festgestellt habe.

  • Vorher zu Zeiten des statischen Tonemappings - war das bei weitem nicht der Fall. Deshalb braucht es auch keine "Referenzkurven" mehr. Es gibt genau eine Norm und die schreibt vor, wie hell genau ein bestimmter Pegel (Code Value) sein zu muss und wie der Helligkeitsverlauf aussieht. Deshalb braucht es solche "besten Kompromiss-Kurven" gar nicht mehr.

    Eine Norm gibt es aber nur ohne Tone Mapping. BT.2020 ist ja ein absoluter Standard*. Für das Tone Mapping gibt es zwar auch ein Paper, das kam aber erst raus, nachdem BT.2020 veröffentlicht war. Also viel zu spät. Und soweit ich weiß, sind dort auch nicht alle Feinheiten definiert (wie z.B. Sättigungsanpassung usw.), sondern nur die Verzerrung der EOTF. Das Tone Mapping von madVR basiert jedenfalls nicht auf einem offiziellen Standard.


    Grundsätzlich macht madVR aber auch nichts anderes als eine Verzerrung der Tonwertkurve, nur eben pro Bild und nicht pro Film. Das Prinzip ist aber dasselbe, es wird das Gamma verbogen. Man könnte sogar sagen, dass wir uns durch das dynamische Tone Mapping noch weiter von "richtig" oder "falsch" entfernen, denn das Bild ändert sich jetzt ständig, es ist also innerhalb des Films nicht mal konsistent. Da aber auch das statische Tone Mapping das Bild insgesamt verändert, kann man sich einfach für die besser aussehende Variante entscheiden und das ist meist das dynamische Tone Mapping mit HSTM. :)


    * was für eine Fehlentscheidung!

    Der zweite wichtige Wert, der das Bild massgeblich beeinflusst ist der Wert für das "Dynamische Target Nits". Dieser ist ziemlich frei wählbar und man kann selber wählen, welchen Tod man sterben will. Es geht darum, dass unserer Helligkeiten auf der LW zu gering sind. Jetzt kann man entweder tendenziell ein dunkleres Bild mit mehr Kontrats wählen oder ein helleres Bild mit tendenziell weniger Kontrast. Es gibt hier also kein richtig oder falsch, weil beides suboptimal ist im Vergleich zur Referenz und eben eine Folge der Limititierungen unserer Projektoren ist.

    Grundsätzlich richtig, aber der Kontrast bleibt natürlich immer identisch, denn er ist ja durch das Anzeigegerät vorgegeben. Man kann mit den "Target Nits" und "Display Peak Luminance" lediglich festlegen, wo die Kurve ungefähr abrollt, also welche Töne man komprimieren möchte. Entscheidend ist letztendlich, wie der native Kontrast des Projektors auf die Tonbereiche aufgeteilt wird.


    Clipping (mit 3D-LUT möglich):

    • hohe durchschnittliche Helligkeit (maximale Leuchtdichte bei 100 Nits)
    • der Bereich bis 100 Nits bekommt den vollen nativen Kontrast zugewiesen
    • alle Highlights werden auf einen Wert komprimiert


    Niedrige Display Peak Luminance:

    • höhere durchschnittliche Helligkeit
    • der Bereich bis 100 Nits bekommt viel vom nativen Kontrast zugewiesen (und wird teilweise komprimiert)
    • Highlights bekommen wenig vom nativen Kontrast zugewiesen (werden stark komprimiert)


    Hohe Display Peak Luminance:

    • niedrigere durchschnittliche Helligkeit
    • der Bereich bis 100 Nits bekommt wenig vom nativen Kontrast zugewiesen (und bleibt unkomprimiert)
    • Highlights bekommen mehr vom nativen Kontrast zugewiesen (werden schwächer komprimiert)


    Ich persönlich habe von Anfang an eher niedrige "Display Peak Luminance" bevorzugt. Die maximale Leuchtdichte ist gerade bei größeren Leinwänden sehr begrenzt. Ich halte es für Verschwendung, sie den (relativ unwichtigen) Highlights zuzuordnen und dafür die Mitteltöne weiter nach unten zu schieben, so dass selbst die Sättigung nicht mehr gut wahrgenommen wird. Auch SDR sieht mit >30 fL im dunklen Heimkino saugeil aus. Es gibt keinen Grund, warum HDR durchschnittlich dunkler sein sollte. Interessanterweise nutzen inzwischen anscheinend viele niedrigere "Display Peak Luminance" als noch zu Beginn der UHD.

  • Das gleiche hab ich mit meinem eh schon vorhandenen Rechner auch kürzlich ausprobiert, bekomme jedoch sobald ich das NGU upscaling aktiviere Spulenfiepen bei meiner GTX1070, das sich leider per HDMI auf die Lautsprecher fortsetzt - hatte solche Probleme schonmal wer?

    Hi, ist zwar hier offtopic, aber ja ich kenne das Problem leider nur allzu gut. Ich habe eine teure einjährige Odyssee deswegen hinter mir. Ich habe anfangs auch ein "übertragenes Spulenfiepen" vermutet, da das Problem nur bei GPU Last auftrat. Letztendlich war es bei mir aber ein Masseproblem im Rack, da ich zusätzlich auch noch mehrere elektrische Verbindungen zum Rechner hatte (HDMI zum AV-Receiver, USB zu mehreren DACs etc.) Wenn Du das Problem weiter verfolgen willst, erstell doch mal einen neuen Thread, dann kann man da ausgiebig diskutieren. VG, Stefan

    Anzeigen

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!