Bildberechnung erfolgt live während der Aufnahme oder Wiedergabe — GPU rendert, während die Kamera läuft. Erspart Render-Farm-Warteschlangen bei Virtual Production.
Die GPU berechnet Bildmaterial in dem Moment, in dem du es brauchst — während die Kamera läuft, während der Schnitt spielt, während du im Editor Parameters adjustierst. Das erspart dir die klassische Warteschlange beim Render-Farm-Betrieb und macht Virtual Production erst praktikabel. Am Set siehst du das Ergebnis sofort auf dem Monitor: LED-Wall im Hintergrund, dynamische Lichter, komplexe Geometrie — alles live berechnetet, nicht vorgerendert.
Der entscheidende Unterschied zur klassischen Offline-Produktion: Statt die komplette Szene nachts auf einer Farm zu berechnen (was Stunden oder Tage dauert), nutzt du moderne Game-Engines wie Unreal Engine oder Unity im Echtzeit-Modus. Die GPU — meist NVIDIA RTX-Hardware oder AMD RDNA — kalkuliert jeden Frame im Moment der Aufnahme. Das funktioniert nur, wenn du Qualitäts-Kompromisse eingehst: Weniger Raytracing-Bounces, optimierte Texturen, clevere LOD-Systeme (Level of Detail). Du arbeitest nicht mit finaler Kinoqualität, sondern mit produktionsreifer Bildqualität, die im On-Set-Kontext glaubwürdig aussieht. Der LED-Wall dahinter muss nicht fotorealistisch sein — sie muss zur Beleuchtung des Schauspielers passen und perspektivisch korrekt reagieren.
In der Praxis heißt das: Der Kameramann bewegt die Kamera, die Tracking-Systeme erfassen die Position in Echtzeit, die Engine berechnet sofort neu. Wenn du einen Parameter änderst — Lichtstärke, Objektposition, Materialien — siehst du das unmittelbar auf dem Monitor. Das beschleunigt Entscheidungen massiv. Früher hast du einen Shot geplant, rendernt overnight, merktest morgens: «Das war die falsche Farbe» — und fängst neu an. Mit Echtzeitrendering probierst du live durch, solange die Kamera läuft. Auch im Schnitt wird dieser Ansatz relevant: Wenn du mit Motion-Graphics arbeitest oder 3D-Compositing in Echtzeit brauchst, sparst du Render-Zeit erheblich.
Die Limitierungen sind real. Du wirst keine filmischen Effekte mit 30+ Raytracing-Bounces oder komplexe volumetrische Lichter in voller Auflösung erhalten. Komplexe Fluidsimulationen oder Cloth-Physics laufen nicht flüssig. Manchmal braucht es Hybrid-Ansätze: Echtzeitrendering für das Live-Setup, anschließend High-Quality-Render für sensitive Detailmomente. Aber die Zeit, die du sparst — und die Flexibilität, die du am Set gewinnst — machen Echtzeitrendering heute zum Standard bei Virtual Production und LED-Volume-Workflows.