Wissen Digitalfotografie
Leica über die Zukunft der Sensortechnik
In den Entwicklungslabors von Leica diskutiert ColorFoto über die Zukunft von Sensoren, Signalverarbeitung und die Herausforderungen des M-Systems.

Leica und die Digitalfotografie - glaubt man dem Flurfunk in Internetforen, ist das vor allem eine Geschichte der verpassten Gelegenheiten. Zu spät, technologisch überholt und allein auf Design und Markenimage fixiert seien die Leica-Modelle, ist dort zu lesen. Tatsächlich gab es eine Zeit, in der die Firma aufgrund finanzieller Turbulenzen den Anschluss zu verpassen drohte. Doch mit neuem Investor und erfolgreichen Eigenentwicklungen im High-End-Bereich hat man die Kurve wieder gekriegt. Davon zeugt nicht allein der neue Firmensitz, den Leica im Mai 2014 bezog.
In einem Punkt ist man bei Leica allerdings tatsächlich rückwärts gewandt: Damit alle M- und R-Objektive ab Baujahr 1954 an der digitalen Leica M benutzt werden können, war der ein oder andere Klimmzug nötig. Denn bei der Rechnung der analogen Objektive war noch nicht abzusehen, dass hinter der Linse irgendwann noch einmal ein Stück Glas sitzen würde - das auf dem Sensor. Man musste also einen Sensor entwickeln, der diesen Unterschied kompensiert und dem es egal ist, in welchem Winkel die Strahlen auftreffen. So kam man zu dem Schluss, einen eigenen Sensor entwickeln zu lassen, statt von der Stange zu kaufen.
Angenehmer Nebeneffekt: Wer seine Sensoren individuell designen lässt, kann mit vertretbarem Aufwand auch Sonderwünsche bedienen - wie mit der Leica M Monochrom. Darin kommt prinzipiell der Sensor der Leica M zum Einsatz, allerdings ohne Farbfilter. Die dadurch verursachten Unterschiede gleicht Leica im Strahlengang aus und passt die Software entsprechend an. Dadurch kann jedes einzelne Pixel Helligkeitswerte liefern, statt nur für eine von drei Farben zuständig zu sein - so steigen Grundempfindlichkeit und Auflösung des Sensors.

Sensoren
Was ist alles zu bedenken, wenn man einen Sensor entwickelt? Der CMOS ist als "System on a chip" konzipiert, ein Teil der Verarbeitungselektronik ist also schon heute integriert, und der Integrationsprozess geht rapide weiter. Steckt in zehn Jahren vielleicht hinter jedem Pixel ein Prozessor? "Das würde ich mir nicht wünschen", sagt Dr. Volker Zimmer, Abteilungsleiter Digital Imaging bei Leica. "Denn das würde wieder Lichtempfindlichkeit kosten."
Das Problem mit der fortschreitenden Integration: Zusätzliche Elektronik braucht Platz. Die ersten CMOS-Sensoren hatten einen Füllfaktor von 25 Prozent, drei Viertel der Sensorfläche mussten also für die nicht lichtempfindliche Elektronik geopfert werden. Mittlerweile sind wir bei einem Füllfaktor von 80 Prozent, den die aufgesetzte Linse noch steigern kann. Weitere Integration bedingt eine Verschlechterung des Füllfaktors - und beschert einen zusätzlichen Wärmeerzeuger neben der lichtempfindlichen Diode, die ja eigentlich nicht rauschen soll. Sorgfältiges Ausbalancieren ist also gefragt.
Nächstes Thema beim Sensor: Wie unterscheidet man Farben? Es gibt ja durchaus verschiedene Ansätze - Stichwort Foveon - aber wo geht die Reise hin? "Eine stochastische Verteilung der Pixel - ähnlich der Verteilung von Kristallen im Film - könnte helfen, die Probleme durch die regelmäßige Anordnung der Farbfilter im Bayer-Pattern zu lösen", erklärt Dr. Zimmer. Das klingt einfach, ist es aber nicht. Denn auf der anderen Seite braucht man die regelmäßigen Strukturen nämlich zum Auslesen der Daten. Es gibt aber auch ganz andere Ansätze. "Sphärische statt plane Sensoren würden manche Dinge einfacher machen und zum Beispiel deutlich kompaktere Objektive erlauben", sagt Oliver Giesenberg, Director Development & Engineering. Aktuell ist das noch Zukunftsmusik, aber es gibt weltweit schon vielversprechende Ansätze in der Entwicklung.
CMOS-Sensoren
CMOS-Sensoren haben die meisten Schritte der Signalaufbereitung bereits auf dem Pixellevel implementiert und benötigen im Vergleich zu den früher gebräuchlichen CCD-Sensoren weniger externe Verdrahtung (Off Chip Circuitry).
Jedes Pixel trägt darum außer einer Fotodiode zusätzlich eine Vielzahl von Transistoren, die Ladungsänderungen der Diode in messbare Spannungen umwandeln und auf den vertikalen Spaltenbus übertragen. Diese Technik erlaubt es, jedes einzelne Pixel mit sehr hohen Bildwiederholraten auszulesen.

Erst der Übergang zum CMOS erlaubt daher das Erstellen von Videos in hochauflösenden Formaten und damit die durchgängige Ausstattung von Fotokameras mit Videofunktionen. Ein Teil der Pixelfläche wird für Transistoren, Elektroden oder Register benötigt. Wie groß dieser Teil ist, beschreibt der Füllfaktor, das Verhältnis der lichtempfindlichen Fläche zur Gesamtfläche des Pixels. Dieses Verhältnis ist in den letzten zehn Jahren von unter 40 Prozent auf über 80 Prozent gestiegen. Die Bauweise sorgt allerdings auch für Probleme: Die Nähe wärmeproduzierender Elektronik zur Fotodiode ist eine der Hauptursachen für das Bildrauschen. Und weil jeder Bildpunkt die Analog-Digital-Wandlung selbst vollzieht und die einzelnen Bauelemente nicht völlig identisch arbeiten, kommt es außerdem zu Schwankungen in der Umwandlung von Ladung in Spannung. In der Folge nimmt die Einheitlichkeit von gleichfarbigen Bereichen des Bildes ab. Jeder Sensorhersteller balanciert beim Sensordesign diese einzelnen Faktoren gegeneinander aus.
Signalverarbeitung
Die Signalverarbeitung wird durch die immense Leistungsfähigkeit der Digitaltechnologie immer schneller - oder kann bei gleichem Tempo immer komplexere Aktionen bearbeiten - zum Beispiel Bildkorrekturen. Doch was will ich überhaupt korrigieren? Muss man das Rauschen wirklich vollkommen eliminieren? Oder bleibt dann nur ein herzloses Bild übrig? Dr. Zimmer formuliert das so: "Jeder Sensor hat Pixelfehler, die korrigiert werden, und es stellt sich schnell die Frage: Was ist Korrektur und wo fange ich an, etwas dazu zu erfinden?" Neben den objektiven Kriterien - eine Kante soll als Kante dargestellt werden, das kann ich messen - gibt es auch viele subjektive Größen bei der Bildqualität. Besonders auffällig sind solche Abstimmungen bei der Hautfarbe. Europäer sehen gerne sonnengebräunt aus, Asiaten lieber vornehm blass.

Viele dieser subjektiven Faktoren werden sowohl von der Optik als auch von der Signalverarbeitung beeinflusst. "Bei uns gibt es deshalb klare Vorgaben, wie z.B. ein Bokeh aussehen sollte oder wann die Lichtempfindlichkeit wichtiger ist als Rauschen", schildert Stephan Schulz, Leiter des Produktmanagements Professional Photo. Bei der M-Reihe sind manchmal Kompromisse zugunsten der Rückwärtskompatibilität erforderlich, in der S-Klasse - die von der Pike auf als digitales System entwickelt wurde - konnte dagegen konsequent auf Ergebnisqualität optimiert werden. Grenzen setzen natürlich auch beim S-System Faktoren wie Gewicht und Preis, denn das Produkt steht im direkten Wettbewerb zu anderen Mittelformatsystemen.
Die Signalverarbeitung wird auch bei neuen Technologien wie der Plenoptik (Lichtfeldfotografie) darüber entscheiden, ob sie zum Mainstream werden oder ein Nischendasein fristen. Heute braucht eine Lichtfeldkamera noch einen 40-Megapixel-Sensor und eine mehr als 100 Megabyte große Datei, um ein Bild mit 4 Megapixeln zu generieren. Das limitiert die Einsatzmöglichkeiten dieser Technologie erheblich. Wie bei allen digitalen Lösungen zahlte es sich aber aus, auf Zeit zu spielen, denn die nächste oder übernächste Generation wird - gemäß dem Mooreschen Gesetz, dass sich Speicher- und Rechenkapazität alle zwei Jahre verdoppeln - womöglich schon viel besser sein.
Die Zukunft der S-Klasse
"Die letzten 15 Jahre ging es um das Nachbauen des Films", resümiert Volker Zimmer, "das ist uns heute längst gelungen. Der Megapixelwahn hat sich mittlerweile beruhigt. Die Themen der nächsten zehn Jahre sind Konnektivität und eine Verbesserung der Bildsensoren mit geringerem Rauschen und höherer Dynamik." In welchen Bereichen haben wir in den nächsten zehn Jahren die größten Sprünge zu erwarten? Oliver Giesenberg antwortet prompt: "Computational Imaging wird noch stärker Einzug halten. Und Technologien wie die Mikrolinsen-Arrays oder gebogene Sensoren erlauben prinzipiell eine kompaktere Bauweise bei vergleichbarer Qualität." In der Folge können die kompletten Systeme kleiner werden, die Geschwindigkeit wird steigen. Und damit gelangt Leica, so ist man überzeugt, wieder zurück zu seinen Wurzeln: Hohe Qualität mit kompaktem Design war schließlich auch das Ziel von Oskar Barnack, als er vor rund hundert Jahren seine Ur-Leica konstruierte.
Pixelform und Objektiv - Das Leica-M-Problem
Um möglichst viel Licht registrieren zu können, werden auf dem Sensor Mikrolinsen-Arrays eingesetzt, die das Licht durch ihre Sammellinsenwirkung pixelweise auf die Fotodiode fokussieren. Um geometrische Abbildungsfehler bei schräg einfallenden Lichtstrahlen zu minimieren, müssen die Mikrolinsen der Bildpixel in den Ecken gegenüber der Bildmitte etwas verschoben sein - man spricht vom Mikrolinsen-Offset. Bei Systemkameras, die für den Einsatz mit verschiedenen Objektiven ausgelegt sind, ist dieser Mikrolinsen-Offset immer ein Kompromiss, weil er eigentlich nur auf ein Objektiv optimiert sein kann.
Beim Leica-M-System sind aber gleich zwei unterschiedliche Objektiv-Systeme nutzbar. Die eigentlich für das System konstruierten kompakten M-Objektive mit kurzer Schnittweite und einem Hauptstrahlwinkel bis zu 35°. Es passen aber auch die R-Objektive mit größerer Schnittweite und einem telezentrischen Design. Folglich musste man sich hier etwas Besonderes einfallen lassen. Indem man den Abstand zwischen Fotodiode und Mikrolinse verkleinerte, vergrößerte man die Pixel-Apertur (die "Öffnungsweite" des Pixels). Gleichzeitig veränderte man das Brechungsverhalten der Mikrolinsen so weit, dass man völlig ohne Mikrolinsen-Offset auskam. Dieser Kunstgriff im Pixel-Design machte den Bildsensor weniger empfindlich für die Einflüsse des Objektivs - und damit sowohl für M- als auch für R-Objektive gleichermaßen nutzbar.