Digitale Fotografie - Test & Praxis
Dateiformate im Vergleich

Grundlagen

Nun, das Objektiv bildet das Motiv auf den Sensor ab, und so treffen auf manche Sensorpartien viele Lichtteilchen also Photonen (Lichterpartien des Fotos) und auf andere wenige Photonen (Schatten).  Je nach Kamera gibt es verschiedene Sensortypen, CCD oder CMOS, die aber alle die wesentliche Aufgabe haben, diese Photonen in ein elektrisches Signal umzuwandeln. Die Auflösung des Bilds steigt mit der Pixelzahl auf dem Sensor, bis andere Faktoren wie Objektivqualität, Rauschen oder Beugung sie begrenzen.

Vor jedem Pixel sitzt ein kleiner Farbfilter in Rot, Grün oder Blau (Ausnahme Foveon- Dreischichtsensor). Das heißt: Ein Pixel mit Rotfilter liefert auch nur eine Information zum Rotanteil im Licht an dieser Stelle, es fehlen die Grün- und Blauinformationen. Diese fehlenden Werte interpoliert die Kamera (JPEG-Bild) oder die RAW-Software anhand der benachbarten Pixel hinzu und ordnet so jedem Bildpunkt einen Rot-, Grün- und Blau-Wert zu, obwohl immer nur einer real erfasst wird.

© Image Engineering

Die Mosaik-Struktur, weil jedes Pixel nur eine Farbe sieht.

StörungenDie Umwandlung der Lichtteilchen in ein elektrisches Signal verläuft zudem nie ganz störungsfrei. Das heißt, es entsteht z.B. auch dann ein sehr kleines Signal, wenn kein Licht auf den Sensor trifft, ein Effekt der z.B. von der Temperatur abhängt. Aber auch bei der Umwandlung von Licht selber treten Schwankungen auf, die sich nicht ganz vermeiden lassen. Diese Störungen werden als Rauschen bezeichnet. Ist nun das Licht in elektrische Ladungen überführt, so lässt sich dieses Signal weiter verstärken.

Eine solche Verstärkung wird durch die Einstellung der Empfindlichkeit der Kamera geregelt. Bei ISO 100 ist die Verstärkung um den Faktor 16 geringer, als bei ISO 1600. Vergleichbar ist der Effekt mit einer Tonaufnahme über den guten alten Kassettenrecorder. Ist die Musik gut aufgenommen, so hört man keine Störungen und muss den Lautstärkeregler (Verstärker) nicht allzu weit aufdrehen. Ist die Musik zu leise aufgenommen, dann muss man die Lautstärke hoch drehen. Dabei werden dann auch Störungen wie Knistern oder Rauschen hörbar. Ähnlich ist es beim Bild. Bei guten Lichtverhältnissen regelt man die Verstärkung herunter z.B. auf ISO 100 und kann keine Störungen im Bild wahrnehmen.

Bei geringem Lichteinfall muss man das Signal kräftiger verstärken und damit werden auch die Störungen sichtbar. Dieses alles passiert in der Kamera auf Basis der jeweiligen vom Fotografen gewählten Kamera-Einstellungen.

Im nächsten Schritt folgt die Umwandlung des elektrischen Signals in eine Zeichenfolge, die für den Computer verständlich wird (Analog-Digital-Wandlung). Das Signal, das aus dieser Wandlung hervorgeht, kann direkt in einer Datei gespeichert werden und wird als Rohdaten bezeichnet. Bei einem RAW-Bild speichert die Kamera also tatsächlich für ein Rot-Pixel nur den realen Rotwert und keine hinzu interpolierten Blau- und Grün-Werte.

© Archiv

Rohdaten sind zunächst zu dunkel und als Schwarzweißbild dargestellt.

DigitalisierungDie Umwandlung des Lichts in elektrische Ladung ist weitgehend linear. Das bedeutet, dass die doppelte Menge an Photonen der doppelten Ladung und damit dem doppelten Signal entspricht. Das menschliche Auge hingegen hat eine annähernd logarithmische Empfindlichkeit. Damit sieht für das Auge eine beleuchtete Fläche etwas halb so hell aus, wenn nur noch ein 1/10 der Lichtmenge darauf trifft.

Das bedeutet, eine Kamera sieht feine Helligkeitsunterschiede in den Lichtern besser als der Mensch, der dafür in den dunklen Bereichen Details feiner abgestuft sieht. Um der Kamera die Details in den Schatten zu entlocken, versucht man feine Signalunterschiede herauszuarbeiten, indem man das Signal bei der Digitalisierung in kleinere Stufen unterteilt und mit 12 Bit oder 16 Bit je Farbkanal arbeitet (mehr Bit oder im Fachjargon eine höhere Digitalisierungstiefe). Es ist bei Verwendung der Rohdaten die Aufgabe der Nachbearbeitungssoftware aus diesen Stufen die passenden herauszuarbeiten. Bei JPEG-Daten aus der Kamera macht die Kamera dieses intern auf Basis der gewählten Voreinstellungen und der Algorithmen, die der Hersteller implementiert hat.

Da die Fähigkeit der Kameras zu solchen Rechenoperationen eingeschränkt  und die zur Verfügung stehende Zeit bis zum nächsten Bild kurz ist, kann man mit der Nachbearbeitungssoftware kompliziertere und damit oft bessere Algorithmen z.B. zur Farbinterpolation (Demosaicing), zur Farboptimierung oder zum Entrauschen verwenden. Hinzu kommt ein zweiter Vorteil der RAW- Verarbeitung am Rechner: Wer JPEGs fotografiert, legt die Signalverarbeitung vor der Aufnahme fest. Bei RAWs kann man dagegen im Nachhinein für jedes Bild eine angepasste Signalverarbeitung wählen und mehrere Lösungen testen.

Mehr lesen

Chronologische Liste und Netflix-Links -

Neuerscheinungen in der Übersicht -

Vorschau auf Film- und Serien-Highlights -

Mehr zum Thema

Micro- Four-Thirds-Kamera

Olympus OM-D E-M5 Mark II - in der zweiten Generation erhält die OM-D den Truepix VII-Bildprozessor und eine Sensorshift-Funktion für unbewegte…
SLR-Kamera

Spritzwasserschutz, 100-Prozent-Sucher und Schwenkmonitor: Die Pentax K-S2 ist die derzeit kleinste wetterfeste Spiegelreflexkamera. Was sie kann,…
DSLR-Kamera

Die Nikon D7200 tritt mit 24 Megapixel Auflösung, aber lichtempfindlicherem Sensor, neuem Prozessor, schnellerem Autofokussystem und NFC-Modul die…
Kameras im Test

Die NX500 ist Samsungs Neue in der Mittelklasse mit viel High-End-Technik aus dem Topmodell NX1.
DSLR-Kameras

Canon baut seinen neuen 24-Megapixel-Sensor gleich in zwei Modelle ein: Das Design der EOS 750D ähnelt dem der abgelösten EOS 650D. Die EOS 760D folgt…