9. Juni 2023, 13:00 Uhr | Lesezeit: 6 Minuten
Sowohl iPhones als auch Android-Smartphones besitzen mittlerweile standardmäßig Kameras, die den sogenannten HDR-Modus unterstützen. Auch bei Fernsehgeräten findet sich der Standard. Doch was steckt hinter dem Begriff? TECHBOOK klärt auf.
Der Begriff HDR ist in den vergangenen Jahren zum Trend der Branche geworden. Fernseher, Kameras und Smartphones beherrschen HDR, doch nicht immer steckt hinter dem Begriff eine identische Bedeutung. Während HDR bei Fernsehern auf spezieller Hardware beruht, ist die Kamera-Technik in Smartphones mit und ohne den Standard die gleiche. Die Hersteller ermöglichen HDR-Aufnahmen hier nämlich mithilfe spezieller Software, die Aufnahmen mit mehr Kontrast und Details ermöglichen kann. Doch wozu dient HDR überhaupt?
Übersicht
Was bedeutet der Begriff?
HDR ist die Abkürzung für „High Dynamic Range“, übersetzt „hoher Dynamikumfang“. Die Technologie beschreibt also die Fähigkeit, mehr wahrzunehmen, als eine normale Optik es tut. Erstmals genutzt wurde sie Mitte der 1980er-Jahre im Bereich der Bildbearbeitung am Computer, etwas später fand sich die Technologie aber auch in der Fotografie wieder. Seit etwa 2012 gibt es auch Smartphones mit HDR. Das Google Nexus 4 war eines der ersten Modelle, bei dem die HDR-Funktion standardmäßig in der Kamera integriert war. Bei Fernsehern wird High Dynamic Range dafür genutzt, das Bild zu verbessern und die Realität so authentisch wie möglich darzustellen.
Wie funktioniert HDR auf dem Smartphone?
Die HDR-Funktion ist Teil der Kamera-Software auf Android-Smartphones und auf iPhones, beruht also nicht auf der verbauten Hardware. Die Aktivierung der Funktion ist einfach. In der Regel findet sich der passende Menüpunkt dafür in den Einstellungen der Kamera-App.
HDR in der Smartphone-Kamera aktivieren
Android-Nutzer erreichen die Funktion direkt über die Kamera, klicken hier auf „Einstellungen“ und auf „HDR“. Anschließend können sie auswählen, ob sie den Modus „immer“ oder „nur bei Bedarf“ aktivieren möchten (automatisch, wenn die Belichtung es erfordert).
Besitzer eines iPhones von Apple gehen in die Einstellungen ihres Gerätes und wählen dort den Punkt „Kamera“ aus. Hier finden sie etwas weiter unten den Bereich „HDR“ und aktivieren „Intelligente HDR“. Sofern sie neben der optimierten Aufnahme auch eine Version ohne den Modus speichern möchten, können sie zusätzlich noch den Haken bei „Normales Foto behalten“ setzen.
Kommt HDR bei Fotoaufnahmen mit dem Smartphone zum Einsatz, nimmt die Kamera in kurzer Zeit mehrere (meistens drei) Aufnahmen hintereinander auf – jeweils mit einem unterschiedlichen Belichtungswert. Anschließend fügt die Software die aufgenommenen Bilder zu einem einzelnen Foto zusammen. Das Ergebnis sind Bilder mit mehr Details, einer optimalen Belichtung und starken Kontrasten, die näher an der Wahrnehmung des menschlichen Auges liegen als ein herkömmliches, ohne HDR aufgenommenes Foto.
Prinzipiell ist High Dynamic Range bei Smartphone-Kameras also von Vorteil. Probleme wie zu helle oder zu dunkle Aufnahmen, platte Details und zu wenig Dynamik beseitigt die Technologie.
In diesen Situationen sollten Sie HDR nutzen
- Landschaftsaufnahmen: Insbesondere bei Landschaftsaufnahmen können durch ungünstige Belichtung einige Details verloren gehen. HDR gleicht hierbei den Belichtungsunterschied zwischen Himmel und Landschaft aus und verhindert, dass bestimmte Bereiche überbelichtet wirken.
- Immer dann, wenn die Sonne blendet: Starke Sonnenstrahlen verwaschen die Farben und lösen oft auch Blendungen in der Linse aus. Zudem können störende Schatten auftreten. All diese Punkte können Nutzer durch das Zuschalten von High Dynamic Range auf dem Smartphone verhindern.
Lesen Sie auch: Die Smartphones mit der besten Kamera
Nicht immer ist HDR bei Fotoaufnahmen empfehlenswert
Es gibt allerdings auch einige Situationen, in denen High Dynamic Range die Aufnahme eher verschlechtert.
- Aufnahmen mit Bewegung: Da bei HDR mehrere Fotos schnell hintereinander geschossen werden, entsteht bei Bewegungen schnell Unschärfe.
- Hoher Kontrast geht verloren: Wenn Sie etwa die Silhouette eines Körpers im Dunkeln fotografieren möchten, würde der HDR-Modus den Kontrast verwaschen.
Fazit: Eine dunkle Kulisse kann auch der HDR-Modus nicht retten. Bei richtiger Anwendung werden Ihre Fotos jedoch deutlich detailreicher.
High Dynamic Range auf dem Fernseher
Auch bei TV-Geräten findet sich häufig der Begriff HDR. Anders als bei der Smartphone-Kamera wird High Dynamic Range hier aber nicht über Software umgesetzt, sondern setzt spezielle Hardware voraus. Doch auch bei Fernsehern soll der Standard für kontrastreichere und plastischere Bilder sorgen.
Der höhere Bildkontrast entsteht durch eine Vergrößerung der Helligkeitsspanne und erzielt dadurch eine stärkere Tiefenwirkung. Das Bild wirkt plastischer, weil HDR mehr Helligkeitsnuancen erkennt und Objekte besser schattiert. Gleichzeitig werden dank High Dynamic Range Bilder mit mehr Farben dargestellt. Während SDR noch über eine Bildtiefe von 8 Bit verfügt, sind es bei HDR 10 oder sogar 12 Bit. Allein durch die Erhöhung auf 10 Bit – auch bekannt als HDR10 – steigt die Zahl darstellbarer Farben von 16,77 Millionen auf über eine Milliarde. Ob der TV aber tatsächlich ein HDR-Bild anzeigt, hängt von mehreren Faktoren ab.
Zunächst muss der gesamte Übertragungsweg den Standard unterstützen, also der Bildschirm, der Player, das Verbindungskabel und der Datenträger. Wird der Weg auch nur an einer Stelle unterbrochen, wird das Endbild nicht in HDR ausgestrahlt. Es gibt zudem TV-Geräte, die High Dynamic Range nicht wirklich darstellen können, auch wenn sie sich mit besagtem Logo schmücken. Das Logo bedeutet nur, dass das Gerät die Signale lesen kann. Die Übertragung scheitert meistens daran, dass die Geräte nicht die notwendige Spannbreite bei der Helligkeit erreichen.
Lesen Sie auch: Das perfekte Fernsehbild mit wenigen Einstellungen
TECHBOOK BASICS QLED, 8K, HDR, Micro-LED – was bedeuten die TV-Kürzel?
Kommentar zur CES 2018 Liebe TV-Hersteller – Schluss mit dem Kürzel-Wirrwarr!
Ausprobiert Das kann das neue Apple TV 4K wirklich!
Unterschiede zwischen HDR, HDR10, HDR10+ und Dolby Vision
HDR gibt es in verschiedenen Stufen und Normen. Die einfachste Variante bildet HLG (Hybrid Log Gamma), das keine Informationen übermittelt, dafür aber auf durchschnittlichen 4K-Fernsehern HDR-Bilder mit der geringsten Qualität wiedergeben kann. Der Standard ist optimiert auf die begrenzten Bandbreiten, die TV-Sendeanstalten zur Verfügung stehen.
Weitaus bekannter und am weitesten verbreitet ist HDR10, welches einmalig Grundinformationen überträgt, um das hellste und dunkelste Bilddetail des gesamten Films abzustecken. Die Norm ist statisch, sodass eine HDR-Einstellung für einen gesamten Film gilt. Einzelne Szenen können daher nicht davon profitieren, zudem überträgt HDR10 nicht so viele Helligkeitsnuancen. Dafür erhöht HDR10 die Bildtiefe bereits deutlich.
HDR10+ ist dagegen ein dynamisches HDR, was bedeutet, dass es für jede Szene einzeln die Kontrast-Informationen anpasst. Was die Nuancen-Anzahl angeht, ist es mit HDR10 zu vergleichen. Eingeführt wurde der Standard von Samsung, da diese für HDR10 Dolby Vision keine Lizenzgebühr zahlen wollten und daher eine eigene Lösung entwickelt haben. Samsung erlaubt die Nutzung von HDR10+ ohne Lizenzgebühr. HDR10+ weist nahezu keine Qualitätsunterschiede zum besagten Dolby Vision (DV) auf. Dolby Vision arbeitet ebenfalls dynamisch und bietet eine Vielzahl an Nuancen.