Ich denke, dass dieses wichtige und durchaus kontrovers diskutierte Thema einen eigenen Thread verdient hat.
>>> Was bringt HFR?
Scott Wilkinson zu 120 fps:
You’ve probably read stories about the high frame rate and how many people don’t like it, saying it’s not “cinematic” or it’s “hyper-real” and actually distracts from the story.
I am not among them; I loved how it looked, and it pulled me much deeper into the story.
Granted, it does not look like a 24-fps movie, but Lee wants to push the boundaries of what movies can be.
The frame rate of 24 fps was established nearly 100 years ago because it was the slowest rate that would support decent-sounding audio tracks imprinted on film.
Now that digital capture and presentation are the norm, why must we stick with an outdated system?
Lee is trying to develop a new cinematic language, so of course, it looks different.
In my view, the high frame rate enhances and deepens the experience, making it far more immersive, which is Lee’s goal.
Movement is sharp and crisp; for example, riding along with Bravo Squad in a Humvee racing across the desert, you can still see the expressions on their faces even as they bounce up and down.
It puts you in the vehicle with them without the whole image becoming a blurry mess.
I agree that it looks more real than 24 fps, but I didn’t think it looked like a PBS special shot on video as some people describe HFR.
Part of the reason is that Lee used RealD TrueMotion and TrueImage technologies.
Starting with 120 fps and a 360° shutter angle—that is, the camera shutter remained open during each entire frame—these technologies let him “synthesize” any shutter and other parameters in post-production to change the look of motion in the image.
They also facilitate reduction of the frame rate by blending and processing groups of frames to yield a better result than shooting at a lower frame rate to being with.
Quelle:
avsforum.com/billy-lynns-long-…r-3d-120-fps-atmos-sound/
Im beisammen Forum wurde einiges zum grundlegenden Verständnis geschrieben denn es geht um viel mehr als nur die Bildwiederholfrequenz.
Die wichtigsten mMn wichtigsten Beiträge möchte ich hier verlinken und (auszugsweise) zitieren.
Sofern es ein rechtliches Problem sein sollte Beiträge aus dem beisammen Forum hier zu zitieren bitte ich um Mitteilung, dann entferne ich die Zitate wieder und belasse es nur bei den Links.
>>> Beisammen Forenmitglied andredigital zu stroboskopischer Bewegungstäuschung und Flimmerverschmelzungsfrequenz / warum 48 Frames (2x24 Frames, "verdoppelt" durch die Flügelblende) bei der Projektion und 24 fps bei der Aufnahme?
Die Aufnahme- und Projektionssysteme, basieren ja auf dem Zielobjekt - dem Menschen. … Demnach bestimmen zwei wesentliche Faktoren, den Bildaufnahme- und Wiedergabeapparat:
Die stroboskopische Bewegungstäuschung = ab 16 fps wird eine Bilderfolge als fließende Bewegung wahrgenommen.
Die Flimmerverschmelzungsfrequenz = mindestens 48 fps sind notwendig, um bei einer Bildfolge ein Flimmern zu vermeiden.
Diese Werte wurden durch Experimente ermittelt und sind in vielen Quellen nachzulesen. So muss die stroboskopische Bewegungstäuschung beim Menschen mindestens ca. 65ms (65ms = 0,065 Sekunden = ca. 16 Reize pro Sekunde) aufweisen, um als ein dauerhaftes Phänomen wahrgenommen zu werden. Ein Ton wird erst ab 16 Hertz als ein (dauerhafter, tiefster) Ton ohne Unterbrechung wahrgenommen. Unser Aufnahmesystem, die Kamera, benötigt demnach also erstmal nicht mehr als 16 fps. Die Erhöhung der Aufnahmefrequenz, kam erst durch die Einführung des Lichtons in den 30er Jahren. Um eine gewisse Ton-Qualität bieten zu können (damals 3 khz mono), musste auf 24fps erhöht werden.
Für die Projektion aber, waren die 24 fps zu wenig, denn das projezierte Bild flimmerte noch zu sehr.
Man fand heraus, dass die Flimmerverschmelzungsfrequenz bei mindestens dem dreifachen der stroboskopischen Bewegungstäuschung liegt und demnach mindestens 48 fps aufweisen muss (keine konstante Größe). Dabei sind diverse Faktoren relevant, wie z.B. welcher Bereich der Netzhaut gereizt wird (Zapfen ca. 60 Hz, Stäbchen ca. 15-25 Hz), die absolute Helligkeit des Lichtreizes, die Helligkeitsdifferenz der Phasen innerhalb der Flimmerabfolge und die Umgebungshelligkeit.
Quelle:
https://www.beisammen.de/index…&postID=645660#post645660
>>> Beisammen Forenmitglied Thechnor zu den Auswirkungen des Shuttereffekts
Die Auswirkung des Shuttereffekt lässt sich gut mit einer Videokamera selbst beobachten. Bei einer, wo man die Belichtungszeit manuell einstellen kann, kann man sehr gut diesen Stroboskop artigen Effekt bei immer kürzer werdender Belichtungszeit sehen. Z.B. bei einem Springbrunnen verliert sich zunehmend der Bewegungseindruck und er scheint bei 1/4000 sec. nur noch aus einem Haufen wild auf dem Bild springender scharfer Tropfen zu bestehen. Oder bei einem Hubschrauber kann man dann zwar die einzelnen Rotorblätter scharf sehen, aber der Bewegungseindruck geht verloren bzw. bei passender Drehgeschwindigkeit scheint der Rotor ganz langsam zu rotieren oder gar festzustehen. Gleichzeitig nimmt die Lichtempfindlichkeit stark ab. Weiterhin nimmt die Kamera aber noch 50 Bilder/sec. auf. Falls die Kamera keinen manuellen Shutter hat, kann man alternativ auch das Sportprogramm wählen.
Da man bei Filmkameras natürlich nicht die Belichtungszeit elektronisch verstellen kann, geht man hier über die Umlaufblende. Der Effekt ist aber der gleiche, vielleicht noch etwas stärker ausgeprägt wegen der 24 B/sec. statt der 50 B/s. von Video.
Quelle:
https://www.beisammen.de/index…&postID=600992#post600992
>>> Beisammen Forenmitglied hmx zu den Hobbit Filmen
Es ist die Shuttereinstellung (Belichtungszeit). Man kann auch 24p so flüssig wie mit dem soap opera Effekt filmen. Michael Mann macht das zB in seinen Filmen (public enemies, heat oder black hat). Belichtet man 24 fps mit 1/24 Belichtungszeit (360 Grad Shutter) ist das Bild flüssig, aber eben unscharf. Mit einem 180 Grad Shutter sieht es dann so aus wie oft verwendet, es ist ruckeliger, weil die Belichtungszeit nicht lang genug ist, aber eben schärfer.
Eventuell hat Peter Jackson eben beim Hobbit bei 48 fps auch eine 360 grad Shuttereinstellung verwendet. Das ist dann "soapig" aber dank 48 fps so scharf wie 24p mit 180 Grad Shutter.
Quelle:
https://www.beisammen.de/index…ostID=1433167#post1433167
>>> Beisammen Forenmitglied audiohobbit
Zur Belichtungszeit: Auch in Digitalzeiten arbeitet man bei 24p üblicherweise mit 180 Grad Shutter, d.h. 1/48 s Belichtungszeit.
Zu Filmzeiten gab es auch Kameras mit verstellbarem Shutter, aber meines Wissens nach nur kleiner als 180 Grad. Denn die anderen 180 Grad brauchte man schwarz für den Filmtransport.
Filme wo kleinere Shutter verwendet wurden sind Gladiator und Saving Private Ryan. D. h. die Einzelbilder sind schärfer aber die Abstände dazwischen länger. Das führt zu Stroboskopeffekten, die will man normalerweise eben auch nicht haben sondern werden als Stilmittel verwendet. Bei Gladiator meines Wissens nach in der Arena und bei Saving Private Ryan am Strand.
Und das gilt zu Digitalzeiten genauso, kleinere Shutter würden auch hier zu Stroboskopeffekten führen.
Man kann beiden Digitalkameras nun aber den (elektronischen) Shutter weiter öffnen (es gab oder gibt(?) aber auch digitale Filmkameras mit mechanischem Shutter). Das führt aber zu noch mehr Motion blur.
D.h. jede Abkehr vom 180 Grad Shutter verändert den Filmlook.
Der Hobbit mit 48fps wurde dagegen mit 270 Grad Shutter gedreht als Kompromiss wenn der Film nur in 24p gezeigt wird (da wurde tatsächlich nur jedes 2. Bild gezeigt bzw. ist so auf BD etc.).
Denn ein 180 Grad Shutter in 48fps entspräche einem 90 Grad Shutter in 24fps und würde zu ausgeprägtem Stroboskopeffekt führen. Der 270Grad Shutter ergibt in 48fps dann einen 135 Grad Shutter und damit noch nicht so viel Stroboskopeffekt.
Bei Film (auf "Filmband") gab es die Umlaufblende im Projektor, die zwischen den Bildern eine kurze Schwarzpause einfügte um den Weitertransport des Films nicht zu zeigen. Da das dann mit 24 Hz zu massivem Flimmern führen würde hat man eine Doppel- oder gar Dreifachumlaufblende die jedes Bild 2mal oder 3mal zeigte, was dann zu 48 Hz führt, was erträglich ist, oder 72 Hz (selten) was sehr gut war.
Die Dunkelphase führte aber dazu dass sich zumindest eine Art Stroboskopeffekt einstellte und man Bewegungen als ruckelig empfang.
Bei den Sample&Hold-Displays gibt es das aber nicht (außer bei Sony... aber das will man auch nicht freiwillig einschalten) sondern hier bleibt jedes Einzelbild so lange stehen bis es vom nächsten überschrieben wird.
Das führt, insbesondere bei bestimmten Schwenks, dann zu Geschmiere. Da gibts auch gut Filmemacher die achten darauf dass solche Schwenks und Schwenkgeschwindigkeiten nicht vorkommen oder dass zumindest ein Objekt scharf bleibt auf das man dann fokussieren kann, aber oft genug schmiert bei einem Schwenk das gesamte Sichtfeld vor einem vorbei... das ist dann grauslig, da wünsche ich mir im Kino (ja ich gehe nach wie vor ins "richtige" Kino) regelmäßig eine Zwischenbildberechnung.
Was in jüngerer Zeit noch dazu kam ist die Unart (sorry, das Stilmittel) der Handkamera mit total verwackelten Actionaufnahmen nach dem Motto mittendrin statt nur dabei... dafür reichen die 24 fps einfach nicht aus.
Quelle:
https://www.beisammen.de/index…ostID=1512422#post1512422
https://www.beisammen.de/index…ostID=1512084#post1512084