Delay between input and real-time output — critical in motion capture, virtual production, VR scenes. Above 40ms noticeable, beyond 100ms unusable.
Wer Motion-Capture dreht oder an einem Virtual-Production-Set arbeitet, muss Latenz verstehen — sonst wird's zum Desaster. Die Verzögerung zwischen einer physischen Bewegung und ihrer Echtzeit-Darstellung im digitalen System bestimmt darüber, ob ein Schauspieler flüssig performen kann oder sich wie in Treibsand bewegt. Bei unter 40 Millisekunden merkt das Auge kaum etwas. Aber ab 100ms wird jede Geste zur Qual — der Actor sieht seinen virtuellen Avatar am Monitor mit spürbarem Lag reagieren, die Synchronisation zwischen Körper und Feedback bricht zusammen.
Im Motion-Capture-Studio sitzt die Latenz überall. Die Kameras erfassen die Marker, die Tracking-Software rechnet Position und Rotation, der Host-Rechner interpoliert das Skelett, der Echtzeit-Engine rendert die Geometrie, das Video wird zum Monitor geschickt. Jede Station kostet Frames. Professionelle Systems halten sich unter 16ms — das ist der Standard, bei 60fps. Aber sobald du komplexe Rigging, Cloth-Simulation oder viele virtuelle Kameras hinzufügst, kann's schnell 40–80ms werden. Und dann sitzt der Actor da, schaut auf den Monitor und kann sein Timing nicht halten.
Virtual Production verschärft das weiter. Der real gefilmte Schauspieler muss in Echtzeit mit der Live-Rendering-Engine der LED-Wand synchron sein. Wenn die Kamera schwenkt und die Welt rendert sich einen Frame zu spät, sieht man das sofort — die Parallaxe stimmt nicht, die Perspektive bricht. Das ist kein subjektives Unbehagen, das ist technisches Scheitern. Deshalb laufen VP-Systeme auf speziellen Hardware-Stacks, optimalem Netzwerk und dedizierter GPU-Architektur.
Praktisch: Latenz messen, nicht raten. Mit Timing-Tests arbeiten — eine blinkende LED im Motion-Cap-Raum, eine Stoppuhr, ein Framework-Counter auf dem Monitor. 20ms akzeptabel, 30ms okay, 40ms merkbar, 60ms problematisch. Bei VR-Anwendungen (siehe: Immersive Production) sind die Anforderungen noch strenger — das menschliche Vestibular-System registriert Latenz ab 20ms als Unbehagen. Deshalb arbeiten VR-Headset-Hersteller an Sub-20ms-Systemen.
Für den DoP und den VFX-Supervisor heißt das konkret: Systeme kalibrieren vor dem Dreh, Buffer-Zeiten und Frame-Puffer-Konfiguration anpassen, und bei langen Takes mit komplexer Simulation immer eine Puffer-Margin einplanen. Bei Virtual Production kann man auch technisch kompensieren — mit Predictive Rendering, also die nächsten Frames vorab spekulativ rendern. Aber das ist Band-Aid. Am Ende funktioniert es nur, wenn die gesamte Pipeline für minimale Latenz designed ist.