High Dynamic Range
HDR am TV: Was Sie wissen müssen
Mit High Dynamic Range (HDR) wird sich die Brillanz von TV-Displays enorm steigern. Doch aktuelle Infos sind oft irreführend. Worum geht es hier wirklich?

Dank unserer adaptiven Iris ist der Bereich an Lichtstärke, den das menschliche Auge wahrnehmen kann, absolut gigantisch. Nur eine ganz kleine Spanne davon kann überhaupt von einem TV-Gerät zwischen Schwarzwert und Weißpeak übertragen werden. Was dabei Sinn macht wurde vor fünfzig Jahren in den noch heute gültigen TV-Basisnormen festgelegt. Für 1 bis 100 candela pro Quadratmeter (Nits) sollten TV-Programme produziert werden. Ein Kontrastverhältnis 100:1 galt damals noch als technische Herausforderung. Und beim Übergang von Analog- zu Digital-TV bis hin zu HDTV wurde daran nicht gerüttelt.
Die Displaytechnik ist jedoch deutlich weiter und kann native Kontraste von über 1000:1 darstellen, dynamisch in Clustern gar 10.000:1. Bislang gab es jedoch genausowenig eine Norm für Quellmaterial für diesen hohen Dynamikbereich (HDR) wie für den erweiterten Farbraum (WCG). Die wirklich größte TV-Revolution seit 50 Jahren steht jedoch nun im Rahmen der aufgewerteten Ultra-HD-Spezifikation ins Haus.
HDR überall
Dieses Jahr wurden wir von überall mit Infos über High Dynamic Range überflutet, die jedoch oft verwirrten und falsche Hoffnungen schürten. Da sind viele LCD-Panels HDR-tauglich oder unterstützen HDR – oder Streamingdienste nennen es bereits in einem Atemzug mit satteren Farben und SD-Kompatibilität. Richtig fassbare Konzepte gab es bislang kaum, denn Experten bahnen gerade erst die Wege, über die uns neue umwerfend brillante Qualität des Fernsehen erreichen wird.
Die klassische Definition von HDR ist eine erhöhte Quantisierung (mehr Bits), um Helligkeitsschwellen bei nun deutlich mehr Maximallichtstärke unsichtbar zu halten. Hilfreich ist dabei die mittlerweile als Zukunftsnorm (ST-2084) anerkannte HDR EOTF, die elektrooptische Transferfunktion, die die altbekannte Gammakurve ersetzt. Sie ist im Diagramm deutlich stärker gebogen, sieht also erheblich mehr Werte des Quellsignals für dunkle Inhalte vor. Hier ist das menschliche Auge extrem empfindlich, und so stören Helligkeitssprünge stärker als in hellen Bereichen.
Um die neue Bittiefe richtig ausnutzen zu können, benötigt ein LCD-oder OLED-Panel neben mindestens 1.000 candela Leuchtstärke übrigens am besten deutlich mehr als die für die Quelle vorgeschlagenen 12 oder 10 bits. In der Hardware sind die Abstufungen andere als im Quellsignal, sodass für die Umrechnung mehr Tiefe erforderlich ist.
Um ein Quellgerät, das ja vor allem „normale“ Fernseher erwartet, dazu zu bringen, HDR auszugeben, braucht es eine passende Kommunikation der neuen Möglichkeiten. Hier sind Signalisierungen von der SMPTE standardisiert worden, die auch schon in der kommenden Ultra-HD-Blu-ray genutzt und über HDMI 2.0a transportiert werden.
Streamingdienste haben es hier einfacher. Amazon bietet beispielsweise bereits HDR-Filme für Samsung- TVs an. Hier muss kein Quellsignal verändert oder auf weltübergreifende Normen Rücksicht genommen werden. Die App im Samsung-TV holt sich direkt den passenden Film in HDR vom Server und bereitet ihn für sein individuelles Panel speziell auf.
Hingegen werden wir bei TV-Sendern lange auf einen HDR-Regelbetrieb warten müssen. Das neue Signal ist nicht kompatibel zu klassischen Sendungen und müsste von einem zusätzlichen Sender übertragen werden, was sich nur Pay-TV-Anbieter leisten. Hier ist die Lösung von Dolby, genannt Dolby Vision, zukunftsweisend. Sie addiert HDR als Zusatzdaten, die nur 20–30% mehr Kapazität benötigen zum alten HDTV-Datenstrom. Dazu muss dann aber in jedem HDR-Fernseher der Dolby-Decoder integriert werden.
HDR bringt sensationelle Brillanz ins Fernsehleben, doch die Technologie muss erst noch fertig standardisiert und zum Endnutzer gebracht werden. Ein guter Weg wäre die Kombination mit Ultra-HD-Auflösung, erweitertem Farbraum und erhöhter Bildrate. Dann hätten wir das umwerfende Fernseherlebnis der Zukunft komplett.
Technik Extrem: HDR
Technologien Hand in Hand
Um eine perfekte Bildwiedergabe zu erzielen, müssen alle technischen Parameter zusammenpassen. So war die alte Technik, also 8-Bit-Auflösung und eine exponentiale Gammakurve korrekt für Bildröhren mit maximal 200 candela Helligkeit und analogem Grundrauschen. Da moderne Schirme viel präziser arbeiten und deutlich heller sind, werden die kleinsten Bitstufen (Quantisierung) nun oft aufgezogen, bis das Auge sie als Schlieren differenzieren kann. Das stört vor allem in dunklen Szenen.
Lesetipp: HDR am PC erklärt: Monitore und Games im Überblick
Noch schlimmer wird es bei erweitertem Farbraum. Bei 8 Bit Auflösung beschreiben nur 120 Farbsättigungsstufen den Weg vom Graupunkt zu einer Ecke des Farbdreiecks. Vergrößert sich der Weg von der aktuellen Norm (BT.709, schwarz) zu dem von Ultra-HD (BT.2020, weiß), werden auch die einzelnen Stufen größer und leichter sichtbar.
Im Ultra-HD-Farbraum sind 8 Bit also inakzeptabel, weshalb 10 Bit (viermal so viele Werte) die Minimalanforderung sind. Die neue EOTF (Elektrooptische Transferfunktion, Bild oben in gelb) zeichnet kritische dunkle Bereiche dazu noch erheblich feiner als das klassische Gamma.