Grayscale map encoding pixel distance from camera — white near, black far. Essential for post-production depth effects and 3D scene recovery.
Im digitalen Compositing brauchst du neben dem RGB-Bild noch Information über die räumliche Tiefe — genau das liefert die Z-Tiefe-Bild (oder Depth Map). Jeder Pixel bekommt einen Grauwert, der seine Entfernung zur Kamera kodiert: weiß bedeutet nah dran, schwarz liegt weit weg. Das ist kein optisches Phänomen, sondern reine geometrische Information — essentiell, um nachträglich Fokus-Effekte zu simulieren oder 3D-Layer korrekt zu positionieren.
Am Set oder in der 3D-Software generierst du diese Maps parallel zur Beauty-Plate. In der Produktion kommt sie meistens aus dem Rendering-Engine (Arnold, RenderMan, V-Ray) oder aus einer Depth-Pass-Berechnung bei Live-Action-Footage (Photogrammetrie, Lidar-Scan, oder manuelles Rotoscoping). Die technische Implementierung variiert: Linear-Depth speichert die echte Entfernung in Welteinheiten, Normalized-Depth komprimiert die Range auf 0–1 für bessere Bit-Tiefe-Effizienz. Manche Pipelines nutzen auch Logarithmische Encoding, um Nah- und Fernbereich gleichmäßig zu erfassen.
In der Nachbearbeitung wird die Z-Tiefe-Bild zur Steuerkarte für Depth-of-Field-Effekte (siehe Focal-Plane-Compositing). Du definierst eine Fokus-Ebene — alle Pixel mit Z-Wert X bleiben scharf, alles davor und dahinter wird mit variabler Unschärfe versehen. Moderne Compositing-Software (Nuke, After Effects mit Plugins) kann damit photorealistisch rechnen: die Unschärfemenge skaliert kontinuierlich mit der Tiefe. Das ermöglicht dir auch, eine Schärfeebene nachträglich zu verschieben — Fokus-Racking im Schnitt, ohne neu zu drehen.
Eine häufige Anfängerfalle: lineare Z-Maps können bei großen Tiefenräumen zu Quantisierungsartefakten führen. Wenn dein Motiv von 1 Meter bis 500 Meter Entfernung reicht und du nur 8-Bit-Genauigkeit hast, entstehen Banding-Fehler in den Unschärfe-Übergängen. Deswegen exportierst du besser in 16 oder 32 Bit und nutzt Normalisierungs-Techniken, die den verfügbaren Wertebereich intelligent verteilen. Auch wichtig: Die Z-Map muss perfekt mit dem RGB-Bild registriert sein — jede Sub-Pixel-Verschiebung führt zu Halo-Artefakten um Kanten. Bei Motion-Footage brauchst du entsprechend für jeden Frame eine separate Depth-Map, nicht nur eine statische.