Color model with luminance (Y) and two chrominance components (U/V)—industry standard for digital video and streaming. Bandwidth-efficient compression versus RGB.
Die Trennung von Helligkeit und Farbinformation — das ist der praktische Kern von YUV, und genau darum funktioniert das Modell so verdammt effizient in der digitalen Videoproduktion. Die Y-Komponente trägt die Luminanz, also die Helligkeitsinformation; U und V codieren die Chrominanz, die Farbabweichungen vom Grauton. Dein Auge ist bei Farbe träger als bei Helligkeit — eine Eigenschaft, die YUV direkt ausnutzt. Das ermöglicht Chroma-Subsampling: Du kannst die Farbinformation mit niedrigerer Auflösung speichern oder übertragen, während die Helligkeit in voller Auflösung erhalten bleibt. Das spart Bandbreite, Speicher, Rechenpower.
Am Set und im Schnitt begegnet dir YUV ständig, ohne dass du es beim Namen nennst. Dein Kamera-Output — ob ProRes, DNxHR oder natives Kamera-Format — arbeitet intern mit YUV. Streaming-Codecs wie H.264 und H.265 bauen auf YUV auf. Selbst wenn deine NLE dir RGB anzeigt, konvertiert sie im Hintergrund. Das klassische 4:2:0-Subsampling beispielsweise — das bedeutet: Für jeden Helligkeitswert speicherst du nur jeden vierten Farbwert. Bei 1080p kriegst du dadurch massiv kleinere Datenmengen, während das Auge den Unterschied kaum sieht. In deinem Color-Grading-Workflow machst du diese Feinheit oft nicht bewusst, aber wenn deine Gradeerin mit sehr aggressiven Sättigung-Anpassungen anfängt, merkst du plötzlich Banding oder Artefakte — genau dort, wo die Chroma-Auflösung zu niedrig war.
Für VFX und Compositing ist YUV relevanter, als viele denken. Wenn du Rotoscope, Keying oder Farbkorrektur machst, arbeiten viele Tools intern mit YUV, weil Grün-Fringing oder Halo-Effekte sich in der Chrominanz-Ebene leichter isolieren lassen. Tracking und Stabilisierung profitieren ebenfalls — die Y-Komponente allein reicht oft für robuste Feature-Erkennung, während die Farbinformation störanfällig ist. Beim Export zur Post-Produktion musst du wissen: Wenn deine VFX-Plate und deine CGI-Render unterschiedliche Farb-Subsampling-Grade haben, entstehen im Composite sichtbare Kanten und Übergänge. Deshalb setzen sich Teams auf 4:4:4 oder mindestens 4:2:2 ein, wenn es um kritische Kompositing-Arbeiten geht.
Der praktische Rat: Kenne dein Projekt-Farbraum-Setup von Anfang an. YUV ist nicht gleich YUV — ITU-R BT.709 für HD, BT.2020 für UHD, BT.601 für SDi — die Matrizen unterscheiden sich. Ein falscher Farbraum bei der Konvertierung RGB ↔ YUV führt zu Farbverstimmung, die erst im grading oder bei der DCP-Erstellung auffällt. Deine Post-House wird dir danken, wenn du das von Anfang an dokumentierst.