Filmlexikon.
Game engine
Vfx

Game engine

Spiele-Engine
Murnau AI illustration

Real-time rendering software—Unity, Unreal Engine—generates live backgrounds for LED walls or virtual production. Replaces green screen with photorealistic imagery captured in real time.

Spiele-Engines revolutionieren die Filmproduktion, seit sie ins Studio wanderten. Was Spieleentwickler seit zwei Jahrzehnten nutzen — Echtzeit-Rendering, physikalische Simulation, Licht-Berechnung — packen wir jetzt in LED-Walls hinter den Schauspielern. Statt Greenscreen und Compositing im Schnitt bekommen Kamera und Schauspieler Live-Bilder zu sehen, die sich mit jeder Kamerabewegung verändern. Das ist der Kern: Photorealistische Umgebungen, berechnet in Echtzeit, synchronisiert mit der Kamera.

Die technische Basis funktioniert so: Eine Spiele-Engine — typischerweise Unreal Engine 5 oder Unity — lädt 3D-Szenen, Lichter, Materialien. Die Kamera am Set sendet ihr Tracking-Signal (Position, Brennweite, Rotation) via NDI, SDI oder Echtzeit-Tracking-Hardware an einen Render-Engine-PC. Der berechnet in jedem Frame die exakte perspektivische Ansicht und spielt sie auf die LED-Wall. Der Schauspieler sieht nicht grau, sondern eine Canyon-Landschaft, ein Penthouse, eine Alien-Stadt — mit korrektem Lichtwurf auf sein Gesicht. On-Set-Compositing, nennen wir es. Das spart nicht nur Greenscreen-Arbeit im Schnitt, es verbessert auch die Schauspiel-Performance: Der Darsteller reagiert auf echtes Licht, echte Farben, echte Proportionen.

In der Praxis braucht es volumetrisches Tracking — Kameras erfassen Position und Linse exakt, teilen die Daten dem Render-Engine-PC mit. Dann entsteht ein kleiner Versatz zwischen Tracking-Input und LED-Output: typischerweise 1–3 Frames Latenz. Bei 24fps akzeptabel, aber bei schnellen Kamerabewegungen merkt man es. Deshalb: Predictive Tracking, Motion-Smoothing, starke Hardware (GPU-Cluster). Die Engine selbst muss 60+ fps auf 4K-Auflösung werfen, oft sogar in Stereo — das verlangt nach RTX 6000 Ada oder A6000-Generationen, mehrfach parallel.

Spiele-Engines bringen Vorteile mit: Sie können Echtzeit-Raytracing, Partikeleffekte, physikalische Deformation in Sekunden-Schnelle rechnen. Ein Fensterbruch, fallende Trümmer — live sichtbar, nicht im Schnitt hinzugefügt. Lichtstimmung kann der VFX-Supervisor interaktiv anpassen, noch während die Kamera läuft. Das Gegenteil von Greenscreen-Starrheit. Gleichzeitig entsteht eine neue Abhängigkeit: Gut aussehende 3D-Assets kosten Zeit im Vorproduzieren. Eine komplexe Innenarchitektur braucht Wochen Modeling — das spart man sich nicht durch die Engine.

Virtual Production nennt sich die Disziplin, in der Spiele-Engines dominerend sind. LED-Stages wie die MPC-Vollflächen-Wände, Pixomondo-Setups oder Disney-Virtual-Production-Stages laufen heute mit Unreal Engine als Standard. Der Grund: Photorealism-Qualität, Plugin-Ökosystem, Dokumentation. Aber auch DaVinci Resolve hat inzwischen Echtzeit-Engine-Integration — die Grenzen verschwimmen.

Aus dem Filmfarm-Ökosystem

Bildsprache verstehen, Equipment finden, Crew vernetzen.

Das Lexikon ist eine von sieben Komponenten von Filmfarm. Equipment-Picker (FilmBalance), Term-Auto-Linker (FilmCircus), Curator-Validation (Admin-Cockpit) — alle greifen auf dieselben Begriffe zu via mcp.thefilmradar.com.

FilmFarm FilmBalance FilmCircus FilmLab FilmRadar FilmNumbers FilmPulse