Fragen und Antworten zur HDR-Fotografie

Definitionen
HDR-Fotografie
HDR-Verarbeitung von Fotos
Definitionen

Was ist der Dynamikbereich?

Der Dynamikbereich (auch Dynamikumfang genannt) ist das Verhältnis zwischen dem maximalen und dem minimalen Wert einer physikalischen Messung. Seine Definition hängt davon ab, worauf sich der Dynamikbereich bezieht.

Für ein Motiv: Der Dynamikbereich ist das Verhältnis zwischen den hellsten und dunkelsten Teilen des Motivs.

Für eine Kamera: Der Dynamikbereich ist das Verhältnis von Sättigung zu Rauschen, genauer gesagt, das Verhältnis zwischen der Intensität, die den Kamerasensor gerade sättigt (gemessene Signalstärke 100%), und der Intensität, die die Kamerareaktion gerade um die Standardabweichung über das Kamerasensorrauschen hebt.

Für einen Bildschirm: Der Dynamikbereich ist das Verhältnis zwischen der maximalen und der minimalen Lichtintensität, die vom Bildschirm abgegeben wird.

Wie lautet die Einheit für den Dynamikbereich?

Der Dynamikbereich ist ein Verhältnis und als solches eine dimensionslose Größe. In der Fotografie und Bildgebung stellt der Dynamikbereich das Verhältnis zwischen zwei Leuchtdichten dar, wobei die Leuchtdichte in Candela pro Quadratmeter ausgedrückt wird.

Der Bereich der Leuchtdichte, den das menschliche Sehen verarbeiten kann, ist recht groß. Während die Leuchtdichte des Sternenlichts etwa 0,001 cd/m² beträgt, liegt die Leuchtdichte einer sonnenbeschienenen Szene bei etwa 100.000 cd/m², also hundert Millionen Mal höher. Die Leuchtdichte der Sonne selbst beträgt etwa 1.000.000.000 cd/m².

Das menschliche Auge kann einen Dynamikbereich von etwa 10.000:1 in einem einzigen Blick aufnehmen.

Um die Darstellung von Werten zu erleichtern, die so stark variieren, wird häufig eine logarithmische Skala für die Darstellung der Leuchtdichte verwendet. Die nachstehende Scala stellt die logarithmische Leuchtdichte verschiedener Scenarien zur Basis 10 dar, so dass ein Übergang von 0,1 auf 1 den gleichen Abstand hat wie beispielsweise der Übergang von 100 auf 1000.

Lum.

(cd/m²)

 0.00001  0.001   1 100 10,000 1,000,000 10^8  
  | | | | | | |
  Sternenlicht Mondlicht Innenraum Außen
Schatten
Außen
Sonnenlicht
Sonne

Ein Motiv, welches das Innere eines Zimmers mit einem sonnenbeschienenen Blick aus dem Fenster zeigt, hat zum Beispiel einen Dynamikumfang von etwa 100.000:1.

Was ist ein HDR-Bild?

Der Dynamikbereich von realen Szenen kann sehr hoch sein - Verhältnisse von 100.000:1 sind in der Natur üblich. In einem HDR-Bild (High Dynamic Range) werden Pixelwerte gespeichert, die den gesamten Tonwertbereich realer Motive abdecken.

Daher wird ein HDR-Bild in einem Format kodiert, das den größten Wertebereich zulässt, z. B. Gleitkommawerte, die mit 32 Bit pro Farbkanal gespeichert werden.

Ein weiteres Merkmal eines HDR-Bildes ist, dass es lineare Werte speichert. Das bedeutet, dass der Wert eines Pixels eines HDR-Bildes proportional zu der von der Kamera gemessenen Lichtmenge ist.

In diesem Sinne sind HDR-Bilder szenenbezogen und repräsentieren die ursprünglichen Lichtwerte, die für die Szene erfasst wurden.

Ob ein Bild als Bild mit hohem oder niedrigem Dynamikbereich eingestuft wird, hängt von mehreren Faktoren ab. Meistens wird die Unterscheidung anhand der Anzahl der Bits pro Farbkanal getroffen, die das digitalisierte Bild aufnehmen kann.

Die Anzahl der Bits selbst kann jedoch ein irreführender Hinweis auf den tatsächlichen Dynamikbereich sein, den das Bild wiedergibt - die Umwandlung eines Bildes mit niedrigem Dynamikbereich in eine höhere Bittiefe ändert natürlich nicht seinen Dynamikbereich.

  • 8-Bit-Bilder (d.h. 24 Bits pro Pixel für ein Farbbild) gelten als niedriger Dynamikbereich.
  • 16-Bit-Bilder (d.h. 48 Bits pro Pixel für ein Farbbild), die aus der RAW-Konvertierung resultieren, gelten immer noch als Bilder mit geringem Dynamikumfang, obwohl der Wertebereich, den sie kodieren können, deutlich größer ist als bei 8-Bit-Bildern (65536 gegenüber 256).

    Bei der Konvertierung einer RAW-Datei wird eine Tonwertkurve angewendet, die den Dynamikbereich der RAW-Daten komprimiert, so dass das konvertierte Bild auf Monitoren mit geringem Dynamikbereich korrekt angezeigt wird.

    Die Notwendigkeit, die Ausgabebilddatei an den darstellbaren Dynamikbereich des Bildschirms anzupassen, ist der Faktor, der bestimmt, wie stark der Dynamikbereich komprimiert wird, nicht die Ausgabe-Bittiefe. Durch die Verwendung von 16 statt 8 Bit gewinnt man zwar an Präzision, aber nicht an Dynamikumfang.

  • 32-Bit-Bilder (d.h. 96 Bits pro Pixel für ein Farbbild) gelten als High Dynamic Range.

    Im Gegensatz zu 8- und 16-Bit-Bildern, die eine begrenzte Anzahl von Werten annehmen können, werden 32-Bit-Bilder mit Fließkommazahlen kodiert, was bedeutet, dass die Werte, die sie annehmen können, unbegrenzt sind.

    Es ist jedoch wichtig zu beachten, dass die Speicherung eines Bildes in einem 32-Bit-HDR-Format eine notwendige, aber keine hinreichende Bedingung für ein HDR-Bild ist. Wenn ein Bild aus einer einzigen Aufnahme mit einer Standardkamera stammt, bleibt es ein Low-Dynamic-Range-Bild, unabhängig von dem Format, in dem es gespeichert wird.

Es gibt verschiedene Formate zum Speichern von HDR-Bildern, wie Radiance RGBE (.hdr) und OpenEXR (.exr), die zu den am häufigsten verwendeten gehören. Auf der Seite HDR Image Encodings von Greg Ward findest Du einen hervorragenden Überblick über HDR-Formate.

Verwechseln wir nicht Dynamikumfang mit Bittiefe?

Gute Frage. Bittiefe und Dynamikbereich sind in der Tat unterschiedliche Konzepte und es gibt keine direkte Beziehung zwischen ihnen.

Die Bittiefe eines Aufnahme- oder Wiedergabegeräts gibt Aufschluss über die Kapazität seines Dynamikbereichs. Das heißt, der höchste Dynamikbereich, den das Gerät wiedergeben kann, wenn alle anderen Einschränkungen beseitigt sind.

Eine Bittiefe von 12 für einen CCD-Sensor bedeutet beispielsweise, dass der maximale Dynamikbereich des Sensors 4096:1 beträgt, aber der erfasste Dynamikbereich ist wahrscheinlich viel geringer, wenn man das Rauschen berücksichtigt (die meisten 12-Bit-Sensoren haben im Durchschnitt nur einen Dynamikbereich von etwa 1.000:1).

Bei einer Bilddatei sagt die Bittiefe an sich nicht viel über den von der Datei erfassten oder wiedergegebenen Dynamikbereich aus.

Erstens ist die Bittiefe einer Bilddatei kein zuverlässiger Indikator für den Dynamikbereich eines Wiedergabegeräts.

Wird beispielsweise eine RAW-Datei in eine 16-Bit TIFF-Datei im linearen Farbraum konvertiert, beträgt die tatsächliche Bittiefe - und damit der maximale Dynamikbereich - der aufgenommenen Daten höchstwahrscheinlich nur 12 Bit, was der Bittiefe von Standard-Digitalkameras entspricht. Nur weil 12 Bit für Computer unpraktisch sind, wird die Datei in 16 Bit gespeichert, aber das ändert natürlich nichts am Dynamikbereich der gespeicherten Informationen.

Zweitens ist die Bittiefe einer Bilddatei noch weniger ein zuverlässiger Indikator für den Dynamikbereich der wiedergegebenen Szene. Wenn in einem 32-Bit-HDR-Bild die Tonwertanpassung (Tonemapping) ordnungsgemäß ausgeführt wurde, zeigt es den ursprünglich aufgenommenen Dynamikbereich, auch wenn es in einem 8-Bit-Bildformat gespeichert wurde.

Deshalb wird ein solches mit Tonemapping behandeltes Bild oft mit einem HDR-Bild verwechselt. Ein mit Tonemapping verarbeitetes Bild ist kein HDR-Bild, da es nicht mehr die ursprünglichen Werte des aufgenommenen Lichts darstellt. Es reproduziert lediglich den Dynamikbereich, der auf Standardmonitoren oder Ausdrucken zu sehen ist.

Ist 24-Bit nicht größer als 16-Bit? Was bedeuten all diese Zahlen?

Es gibt zwei Möglichkeiten, Bits für ein Bild zu "zählen" - entweder die Anzahl der Bits pro Farbkanal oder die Anzahl der Bits pro Pixel.

Ein Bit ist die kleinste Einheit der in einem Computer gespeicherten Daten. Für ein Graustufenbild bedeutet 8 Bit, dass jedes Pixel eine von 256 Graustufen haben kann (256 ist 2 hoch 8).

Bei einem RGB-Farbbild bedeutet 8-Bit, dass jeder der drei Farbkanäle eine von 256 Farbstufen darstellen kann. Da jedes Pixel in diesem Fall durch 3 Farben dargestellt wird, bedeuten 8 Bit pro Farbkanal eigentlich 24 Bit pro Pixel.

Gleichermaßen bedeutet 16 Bit für ein RGB-Bild 65.536 Stufen pro Farbkanal und 48 Bit pro Pixel.

Wenn ein Bild als 16-Bit klassifiziert wird, bedeutet dies lediglich, dass es maximal 65.535 Werte pro Farbkanal speichern kann. Es bedeutet nicht zwangsläufig, dass es diesen Bereich tatsächlich abdeckt.

Wenn die Kamerasensoren nicht mehr als 12 Bit an Tonwerten erfassen können, beträgt die tatsächliche Bittiefe des Bildes bestenfalls 12 Bit und wegen des Sensorrauschens wahrscheinlich weniger.

Die folgende Tabelle versucht, die obigen Ausführungen für den Fall eines RGB-Farbbildes zusammenzufassen.

Art der Unterstützung Bittiefe pro Farbkanal Bittiefe pro Pixel Theoretischer maximaler Dynamikbereich Realität
(effektiver Dynamikbereich)
12-Bit CCD-Sensor 12 36 4,096:1 reales Maximum durch Sensorrauschen begrenzt
14-Bit CCD-Sensor 14 42 16,384:1 reales Maximum durch Sensorrauschen begrenzt
16-Bit TIFF 16 48 65,536:1 Bittiefe steht in diesem Fall nicht in direktem Zusammenhang mit dem erfassten Dynamikbereich
HDR-Bild
(z.B. im Radiance-Format)
32 96 unendlich reales Maximum durch den aufgenommenen Dynamikbereich begrenzt
HDR-Fotografie

Wie nehme ich HDR-Fotos auf?

Die meisten Digitalkameras sind nur in der Lage, einen begrenzten Dynamikbereich zu erfassen (die Belichtungseinstellung bestimmt, welcher Teil des gesamten Dynamikbereichs erfasst wird). Aus diesem Grund werden HDR-Bilder in der Regel aus Fotos desselben Motivs erstellt, die mit unterschiedlichen Belichtungsstufen aufgenommen wurden.

Nachfolgend sind einige allgemeine Empfehlungen für die Aufnahme von mehreren Belichtungen für HDR aufgeführt.

(Eine Anleitung findest Du in unserem HDR-Tutorial Immobilienfotografie).

  1. Montiere deine Kamera auf ein Stativ.
  2. Stelle deine Kamera auf den manuellen Belichtungsmodus ein. Wähle eine für dein Motiv geeignete Blende (z.B. 8 oder höher, wenn Du mehr Schärfentiefe benötigst) und die niedrigste ISO-Einstellung.
  3. Miss das Licht im hellsten Bereich deines Motivs (Spotmessung oder im Av-Modus, um nur die Lichter zu erfassen) und notiere die Belichtungszeit. Führe dasselbe für die dunkelsten Schatten deines Motivs durch.
  4. Bestimme die Anzahl und den Wert der notwendigen Belichtungen.

    Gehe dabei von der für die Lichter gemessenen Belichtungszeit aus. Multipliziere diese Zahl mit 4, um die nächste Belichtung mit einem Blendenabstand von 2 EV zu ermitteln. Multipliziere für die nächsten Belichtungen nacheinander weiter mit 4, bis Du die für die Schatten gemessene Belichtungszeit erreicht hast.

    (Hinweis: Für die meisten Tageslichtszenen im Freien, mit Ausnahme direkter Sonneneinstrahlung, sind 3 Belichtungen mit einem Abstand von zwei EVs oft ausreichend, um den Dynamikbereich ausreichend abzudecken).
  5. Du kannst die Belichtungsreihenautomatik verwenden, wenn deine Kamera diese unterstützt und wenn sie einen ausreichenden Belichtungsabstand sowie eine ausreichende Anzahl von automatischen Belichtungen zulässt, um den in Schritt 4 festgelegten Dynamikbereich abzudecken. Ansonsten musst du die Belichtungszeiten manuell variieren.

Kann ich nicht einfach verschiedene Belichtungen aus einem Raw-Foto erzeugen?

Nicht wirklich. Deine RAW-Datei enthält Daten, die von den Sensoren für nur eine Belichtung aufgenommen wurden. Der gesamte Dynamikbereich, den Du aus einem Foto mit verschiedenen Belichtungseinstellungen rekonstruieren kannst, kann nie größer sein als der von deiner Kamera erfasste Dynamikbereich, und der ist ziemlich begrenzt (siehe oben).

Wenn Du nur eine Belichtung zur Aufnahme der Szene verwendest, ist deine RAW-Datei bereits dein HDR-Bild.

Die Umwandlung der RAW-Datei in Bilder mit unterschiedlichen Belichtungsstufen ist ein bisschen so, als würde man den Dynamikbereich der RAW-Datei in mehrere Teile zerlegen. Wenn man diese Teile wieder zu einem HDR-Bild kombiniert, wird bestenfalls der Dynamikbereich der ursprünglichen RAW-Datei wiederhergestellt.

Wenn Du jedoch einen guten RAW-Konverter verwendest, um aus einer einzelnen RAW-Datei die sogenannten Pseudo-Belichtungen abzuleiten, wirst Du wahrscheinlich feststellen, dass das aus den Pseudo-Belichtungen erstellte HDR-Bild einen größeren Dynamikumfang aufweist als das Pseudo-HDR-Bild, welches durch die direkte Konvertierung der einzelnen RAW-Datei gewonnen wurde.

Das liegt daran, dass Dein RAW-Konverter über eine gute Rauschunterdrückung verfügt, die sich stark auf den Dynamikbereich auswirkt. Möglicherweise verfügt Dein RAW-Konverter auch über die Fähigkeit, weitere Lichterdetails hervorzubringen, wenn ein oder zwei der Farbkanäle bereits die Sättigung erreicht haben.

Ein guter RAW-Konverter verfügt also über Funktionen zur Optimierung des aus den Sensor-Rohdaten gewonnenen Dynamikumfangs. Aber das ändert nichts an der Tatsache, dass der Dynamikumfang einer RAW-Datei auf eine einzige Belichtung beschränkt ist.

Du musst sehr wahrscheinlich mehr als eine Aufnahme machen, um ein HDR-Bild des Motivs zu erstellen, es sei denn, der Dynamikumfang deines Motivs ist relativ gering.

Warum empfehlt ihr, digitale Kameras für HDRI nicht zu kalibrieren?

Der Zweck der Kalibrierung besteht darin, die Tonwertkurve einer Kamera zu ermitteln. Eine solche Kurve gibt das Verhältnis zwischen einem von der Kamera ausgegebenen Pixelwert und der Leuchtdichte (d.h. der in Candela/m^2 ausgedrückten Lichtmenge) dieses Pixels an.

Da High-Dynamic-Range-Werte die Leuchtdichte der Szene darstellen, ist es notwendig, die Reaktionskurve der Kamera zu kennen, um ein HDR-Bild aus Fotos zu rekonstruieren.

Filme haben eine Reaktionskurve. Digitalkameras funktionieren jedoch anders.

Die Sensoren von Digitalkameras reagieren meist linear, d.h. die Reaktionskurve der Sensoren ist einfach eine gerade Linie und eine Kalibrierung der Kamerasensoren ist somit nicht notwendig.

Die Firmware von Digitalkameras verarbeitet die Rohdaten dieser Sensoren mit einer nichtlinearen Umwandlung vor.

Die Tonwertkurve, die für die kamerainterne Rohdatenkonvertierung verwendet wird, hat jedoch wenig mit den festen Eigenschaften der Kamera zu tun. Sie wird von der Software bestimmt, nicht von der Hardware, und kann sogar von den Merkmalen der Szene oder den Lichtverhältnissen bei der Aufnahme abhängen.

Das bedeutet, dass es so etwas wie eine spezifische Reaktionskurve für eine Digitalkamera nicht gibt.

Außerdem gibt es selbst bei einer bestimmten Szene keine Garantie dafür, dass die von der Firmware auf die Sensorwerte angewandte Kurve für alle Belichtungen gleich ist.

Ein weiteres Problem ist, dass die Kamera-Firmware beschließen kann, einen unterschiedlichen Multiplikationsfaktor auf die Sensorwerte jedes Bildes anzuwenden, um eine Unter- oder Überbelichtung zu korrigieren. Wenn dies geschieht, sind die Annahmen, die den Algorithmen zur Wiederherstellung der Reaktionskurven zugrunde liegen, nicht mehr gültig.

Deshalb empfehlen wir, die Tonwertkurve aus dem Farbprofil der Quellbilder zu verwenden, anstatt zu versuchen, eine Kalibrierungskurve zu berechnen.

Wenn Du ein genaues HDR-Bild benötigst und eine Digitalkamera verwendest, solltest Du im RAW-Modus fotografieren. Erstelle dann das HDR-Bild entweder direkt aus den unterschiedlich belichteten RAW-Dateien oder konvertiere die RAW-Dateien in TIFF oder JPEG, ohne die Tonwertkurve im Raw-Konverter zu verändern.

Warum zeigt mein HDR-Bild nicht die Details der Belichtungen, aus denen ich das HDR erzeugt habe?

Wenn Du ein HDR-Bild aus mehreren Belichtungen erstellst, repräsentieren die Tonwerte des erstellten Bildes die Details jeder einzelnen Belichtung.

Wenn Du genügend Aufnahmen gemacht hast, um den gesamten Dynamikbereich Deiner Szene abzudecken, dann wird Dein HDR-Bild die Leuchtdichtewerte aller Details der Szene wiedergeben, unabhängig davon, ob es sich um Details in den Schatten, den Lichtern oder den Mitteltönen handelt.

Dabei ist jedoch zu bedenken, dass das Kontrastverhältnis von Standardmonitoren eher niedrig ist, viel niedriger als der Dynamikumfang der meisten Szenen.

Das bedeutet, dass Dein Monitor nicht in der Lage ist, den gesamten Tonwertbereich eines HDR-Bildes, das aus mehreren Belichtungen entstanden ist, darzustellen. Nur ein Monitor mit einem wesentlich besseren Kontrastverhältnis (z.B. ein HDR-Monitor) wäre in der Lage, Dein HDRI ohne spezielle Bearbeitung für die Betrachtung korrekt wiederzugeben.

Bei einem Standardmonitor müsstest Du eine Art "Skalierung" auf die Werte Deines HDRIs anwenden, um alle darin enthaltenen Details auf Deinem Monitor darstellen zu können. Dieser Vorgang wird als Tonemapping bezeichnet und weiter unten erläutert.

Wofür werden HDR-Bilder (HDRIs) im 3D-Rendering verwendet?

High Dynamic Range Images (HDRIs) werden für die realistische Beleuchtung von 3D-Szenen durch eine Technik namens Image Based Lighting (IBL = bildbasiertes Beleuchten) verwendet. Da HDRIs den gesamten Bereich der "realen" Luminanzinformationen speichern, verwenden Global Illumination-Algorithmen, die beim bildbasierten Beleuchten zum Einsatz kommen, sie zur Simulation von natürlichem Licht.

Damit die Beleuchtung einer 3D-Szene in allen Richtungen möglich wird, handelt es sich bei HDRIs für die 3D-Beleuchtung häufig um 360º-Panoramabilder.

Diese können durch das Fotografieren einer Spiegelkugel (schnell und einfach, aber von geringer Qualität), das Zusammenfügen mehrerer Ansichten oder die direkte Aufnahme mit einer High-End-Panoramakamera gewonnen werden.

Ein 360º-Panorama ist jedoch nicht unbedingt erforderlich - ein HDRI, das aus einer einzigen Ansicht, vorzugsweise mit einem Weitwinkelobjektiv aufgenommen wurde, kann in speziellen Fällen ausreichen.

Was jedoch immer notwendig ist, ist die Verwendung eines "echten" Bildes mit hohem Dynamikumfang. Ein von Ihrer Kamera erzeugtes JPEG-Bild ist kein High-Dynamic-Range-Bild und eignet sich nicht für bildbasierte Beleuchtung in 3D-Programmen.

Erstens, weil es unwahrscheinlich ist, dass es den gesamten Dynamikbereich der Szene enthält. Um dies zu gewährleisten, müsstest Du mehrere Aufnahmen fotografieren.

Zweitens, weil seine Bildwerte nicht linear sind (was notwendig ist, damit es auf Monitoren gut aussieht), während die Rendering-Algorithmen von linearen Werten ausgehen, d.h. von Werten, die proportional zur erfassten Leuchtdichte sind.

Haben HDR-Bilder einen Gammawert?

High Dynamic Range-Bilder sind szenenbezogen. Das bedeutet, dass ein HDR-Bild die Lichtwerte so speichert, wie sie von der Kamera aufgenommen wurden.

Im Gegensatz zu ausgabebezogenen Jpeg-Dateien, die von Kameras erzeugt werden, werden HDR-Bilder nicht für eine angenehme Darstellung auf Monitoren vorbearbeitet. Die Werte eines HDR-Bildes bleiben proportional zum Licht, d.h. sie sind lineare Werte. Der Gammawert für ein HDR-Bild wäre also 1 (linear), was gleichbedeutend damit ist, dass HDR-Bilder keinen Gammawert haben.

Die Linearität von HDR-Bildern macht sie für die direkte Anzeige auf Standardmonitoren ungeeignet. Aus diesem Grund wenden Programme, die HDR-Bilder unterstützen, in der Regel ein Gamma an, um sie anzuzeigen. Dieses Gammakorrektur ist eine Form der Tonwertzuordnung (Tonemapping), gehört aber nicht zum HDR-Bild selbst.

Sind HDR-Bilder farbverwaltet?

Die beiden beliebtesten Formate für die Speicherung von HDR-Bildern, OpenEXR und Radiance, bieten einen Mechanismus zur Charakterisierung des Bildes. Da HDR-Bilder lineare Werte speichern, ist das Einzige, was zur Bestimmung des Farbraums benötigt wird, die Farbmatrix, die die RGB-Werte des Aufnahmegeräts mit Standard-XYZ-Koordinaten verbindet.

Beide Formate, OpenEXR und Radiance, bieten die Möglichkeit, ein Chromatizitätsattribut im Dateikopf zu speichern. Dieses Attribut enthält die CIE x,y-Koordinaten der drei Grundfarben (R, G, B) und den Weißpunkt.

Aus ihnen kann die Farbmatrix, die die Grundfarben mit den CIE-XYZ-Koordinaten verbindet, wiederhergestellt werden. Diese Farbmatrix reicht aus, um ein ICC-Profil für das Bild festzulegen (das Profil ist vom Typ "matrix/trc", mit einem Gamma von 1 für trc).

HDR-Verarbeitung von Fotos

Was ist mit Anhebung des Dynamikbereichs (DRI) gemeint?

Ein allgemeines Problem in der Fotografie ist die Wiedergabe von Szenen mit sehr hellen Lichtern und tiefen Schatten. Das Problem besteht bereits bei der traditionellen Silberhalogenidfotografie und ist bei Diafilmen noch ausgeprägter.

Bei der Digitalfotografie wird das Problem noch verschärft, da die lineare Reaktion der Sensoren eine abrupte Begrenzung des erfassten Dynamikbereichs zur Folge hat, sobald die Sensorkapazität erreicht ist.

Deshalb kann eine Aufnahme einer HDR-Szene mit einer Standardkamera nicht das, was das menschliche Auge sieht.

Wenn man dank langer Belichtungszeiten Details in den Schatten einfängt, erhält man ausgeblendete Lichter. Umgekehrt kann man mit kurzen Belichtungszeiten Details in den Lichtern einfangen, verliert dann aber den Kontrast in den Schatten.

Die Erstellung eines HDR-Bildes aus unterschiedlich belichteten Aufnahmen ist eine Möglichkeit, dieses Problem zu lösen. HDR-Bilder haben jedoch einen großen Nachteil für die Fotografie: Sie können auf normalen Computerbildschirmen nicht richtig angezeigt und auf Papier noch weniger gut wiedergegeben werden.

Das Verfahren zur korrekten Wiedergabe von Lichtern und Schatten einer kontrastreichen Szene auf herkömmlichen Monitoren und Druckern wird auf Englisch "Dynamic Range Increase" (DRI) genannt. Man kann das mit Anhebung des Dynamikbereichs übersetzen. Das heißt, es wird ein standardmäßiges 24-Bit-Bild erzeugt, welches die ursprüngliche Szene mit hohem Dynamikumfang so wiedergibt, wie das menschliche Auge sie gesehen hat.

Es gibt grundsätzlich zwei Möglichkeiten, den Dynamikumfang von digitalen Fotos oder gescannten Filmen zu erhöhen.

  1. Belichtungsüberblendung - Bei diesem Verfahren werden unterschiedlich belichtete Fotos der Szene zu einem Bild mit Details in den Lichtern und Schatten zusammengefügt.
  2. Tonemapping - Dieser Prozess komprimiert den Tonwertbereich eines HDR-Bildes der Szene, um die Details in den Lichtern und Schatten sichtbar zu machen.

    Das diesen beiden Verfahren als Quelle dienende HDR-Bild wird entweder:

  • aus unterschiedlich belichteten Fotos erzeugt
  • oder

  • mit einer HDR-Kamera wie der Spheron SceneCam aufgenommen.

Was ist Tonemapping (Tonwertzuordnung)?

Tonemapping ist der Prozess der Umwandlung der Tonwerte eines Bildes von einem hohen in einen niedrigeren Wertebereich. So wird zum Beispiel ein HDR-Bild mit einem Dynamikumfang von 100.000:1 in ein Bild mit Tonwerten zwischen 1 und 255 umgewandelt.

Du fragst dich vielleicht, warum jemand den Tonwertumfang verringern möchte, wenn ein HDR-Bild so viele Vorteile gegenüber einem Bild mit geringem Dynamikumfang bietet. Schließlich enthalten HDR-Bilder einen viel höheren Detailgrad und sind näher am menschlichen Sehvermögen.

Der Grund dafür ist einfach: Herkömmliche Anzeigegeräte können nur einen geringen Bereich wiedergeben (etwa 100 oder 200:1), und bei bedrucktem Papier ist der Bereich sogar noch geringer.

Das Ziel des Tonemapping ist es also, das Erscheinungsbild von Bildern zu reproduzieren, die einen höheren Dynamikbereich haben als die Wiedergabemedien wie Drucke oder Standardmonitore darstellen können.

Viele Motive, die wir fotografieren, haben einen hohen Kontrast, oder besser gesagt einen hohen Dynamikbereich: ein Teil der Szene liegt in den Schatten, ein Teil in den Lichtern. Fotografen müssen sich bei solchen Szenen mit hohem Dynamikumfang mit der Lösung von zwei Arten von Problemen auseinandersetzen.

  • Problem I: Beschränkung der Kamera überwinden

    Das erste Problem besteht darin, den Dynamikbereich der Szene aufzunehmen.

    Dies wird in der Regel dadurch gelöst, dass man mehrere Fotos de Motivs mit unterschiedlichen Belichtungseinstellungen aufnimmt und diese Fotos dann zu einem HDR-Bild zusammenfügt.

  • Problem II: Beschränkung der Anzeige überwinden

    Das zweite Problem besteht darin, den aufgenommenen Dynamikbereich auf Bildschirmen mit geringem Dynamikbereich wiederzugeben. Das heißt, es muss sichergestellt werden, dass die Details in den Lichtern und Schatten des HDR-Bildes auf Ausdrucken und Standardmonitoren trotz ihrer begrenzten Fähigkeiten hohe Dynamikbereiche wiederzugeben, korrekt angezeigt werden können.

    Das Tonemapping befasst sich speziell mit diesem Problem der Reproduktion des aufgenommenen Dynamikbereichs.

In gewisser Weise dient das Tonemapping demselben Zweck wie das Überblenden von Belichtungen, das in der digitalen Bildbearbeitung traditionell für die Verarbeitung von HDR-Szenen verwendet wird. Die Unterschiede und Gemeinsamkeiten zwischen beiden werden hier ausführlich erläutert.

Arten des Tonemapping

Tonemapping-Algorithmen verkleinern den Dynamikbereich und versuchen dabei, das Aussehen des aufgenommenen Originalbildes zu erhalten. Tonemapping-Operatoren werden in zwei wesentliche Kategorien unterteilt: globale und lokale Operatoren

  • Globale Operatoren

    Jedes Pixel wird auf der Grundlage seiner Intensität und seiner globalen Bildeigenschaften abgebildet, unabhängig von seiner räumlichen Position. Ein Beispiel für eine globale Art der Tonwertzuordnung ist eine Tonwertkurve.

    Globales Tonemapping eignet sich gut für die Verarbeitung von 12-Bit-Sensordaten, ist aber weniger in der Lage, fotografisch ansprechende Bilder zu erzeugen, wenn der Dynamikbereich der Szene besonders hoch ist. Dies liegt daran, dass alle Pixel im Bild auf ähnliche Weise verarbeitet werden, unabhängig davon, ob sie sich in einem hellen oder dunklen Bereich befinden.

    Das Ergebnis ist oft ein Tonemapping-Bild, das "flach" aussieht, weil es bei der Umwandlung seine lokalen Details verloren hat.

  • Lokale Operatoren

    Die Lage eines Pixels im Bild wird berücksichtigt, um die geeignete Skalierung für diesen Pixel zu bestimmen. So wird ein Pixel mit einer bestimmten Intensität auf einen anderen Wert abgebildet, je nachdem, ob es sich in einem dunklen oder hellen Bereich befindet.

    Lokale Farbtonzuordnung erfordert das Nachschlagen von Umgebungswerten für jedes zugeordnete Pixel, was es zwar langsamer macht (der Speicherzugriff ist der größte Geschwindigkeitsengpass auf heutigen Computern), aber tendenziell zu angenehmeren Ergebnissen führt (unser Auge reagiert auf den lokalen Kontrast).

    Wenn es richtig gemacht wird, führt dies zu einem Bild, das sowohl den lokalen Kontrast als auch Details in den Lichtern und Schatten bewahrt.

Werden bei der Raw-Konvertierung die Tonwerte komprimiert?

Ja. Tonemapping ist notwendig, wenn das reproduzierte Bild einen höheren Dynamikbereich hat als das reproduzierende Medium, und das ist bei den RAW-Daten von Digitalkameras der Fall.

Standardmäßige 12-Bit-Sensoren können einen Tonwertumfang von 1.000:1 erfassen, und das ist viel mehr, als Dein Monitor oder Deine Ausdrucke wiedergeben können (Standardanzeigegeräte haben einen Dynamikumfang von etwa 100:1).

Wenn also eine Kamera - oder ein RAW-Konverter - 12-Bit-RAW-Daten zu einem Bild verarbeitet, das auf Deinem 8-Bit-Monitor gut aussieht, ist dies eine Form des Tonemapping.

Das Tonemapping eines 12-Bit-Tonwertumfangs ist jedoch relativ einfach, verglichen mit dem Tonemapping eines "echten" hohen Dynamikumfangs, z. B. 100.000:1 oder mehr, der in 32-Bit-Bildern erfasst wird. Aus diesem Grund ist das Tonemapping von HDR-Bildern ein aktives Forschungsgebiet, und der Begriff "Tonemapping" wird gewöhnlich mit der Arbeit in diesem Bereich in Verbindung gebracht.