In einem früheren Blogeintrag habe ich den Bildsensor mit der analogen Filmemulsion verglichen. Aber eigentlich hat ein Bildsensor mehr Gemeinsamkeiten mit einer Solarzelle: Auftreffendes Licht erzeugt in der Halbleiterschicht Elektronen-Loch-Paare, also bewegliche Ladung, die als Strom gemessen - und im Fall der Solarzelle genutzt werden kann.
Hier will ich versuchen, die Sensortechnologien allgemein verständlich zu erläutern und einen Ausblick auf laufende Entwicklungen geben. Dabei benutze ich den Begriff "Pixel" nicht nur für kleinste Bildelemente, sondern umgangssprachlich auch für eine einzelne Zelle eines Bildsensors selbst.
Bildsensoren sind spezielle Halbleiter-Chips, in der Architektur und Herstellung tatsächlich sehr ähnlich den DRAM-Speicherchips (Arbeitsspeicher im PC) oder dem Flash-Speicher im USM-Stick. Man unterscheidet grundsätzlich zwischen CCD-Sensoren und CMOS-Sensoren. Der Herstellungsprozeß für CCD-Sensoren erlaubt es nicht, elektronische Zusatzfunktionen in die Pixel zu integrieren, die für Videofunktionalität notwendig ist. Daher hatte es die letzten Jahren den Anschein, CCD sei technologisch am Ende. Der Kodak Spin-off TRUESENSE (www.truesense.com) lehrt uns eines Besseren - und liefert derzeit mit die besten und größten CCD-Sensoren z.B. für Rückteile von 645-Mittelformatkameras - zum Preis eines Mittelklassewagens.
Im Consumer-Bereich allerdings, wo sich eine Kamera ohne integrierte Videofunktionalität kaum mehr verkaufen lässt, dominieren klar die CMOS-Sensoren. Um das zu verstehen, muss man sich den Aufbau und die Funktionsweise eines Pixels vergegenwärtigen.
Die lichtempfindliche Zelle eines CMOS-Bildsensors (das Pixel) besteht aus vielen kleinen, abgegrenzten Arealen von niedrig dotiertem Silizium auf dem Sensorchip, den Fotodioden. Millionen solcher Fotodioden (Mega-Pixel !) sind in einem Raster nebeneinander angeordnet und füllen die rechteckige Sensorfläche vollständig aus. Sie sind durch pn-Übergänge und sub-µm-breite Oxidstege elektrisch voneinander isoliert. Trifft Licht auf so ein kleines Sensor-Element wird es nicht wie von einer Metalloberfläche reflektiert, sondern quasi geschluckt: Die Licht-Welle dringt einige Mikrometer tief ein, bis die ganze Lichtenergie in elektrische Energie umgewandelt ist. Je nach Licht-Intensität ("Helligkeit") und Wellenlänge des Lichts ("Farbe") werden mehr oder weniger Ladungsträger gebildet, die am pn-Übergang der Diode als Strom abgesaugt und gemessen werden können. Diese Messung erfolgt nach der Belichtung "einer Aufnahme" an jeder Zelle einzeln - fast genau wie beim Speicherchip. Dazu muss jedes einzelne Pixel mit mehreren elektische Leitungen angeschlossen sein. Ein Teil der Pixelfläche kann daher gar nicht zum Einsammeln des Lichts herangezogen werden: Metallische Leitungen und laterale Isolation reduzieren die aktive Fläche jedes Pixels um mehrere Quadratmikrometer. Die Pixelgröße wird bei quadratischen Pixeln üblicherweise als brutto-Kantenlänge angegeben. Ein 5um-Pixel hat also brutto 25um² Fläche. Die elektrisch nutzbare aktive Fläche ist deutlich kleiner.
Die Sensorfläche wird nicht "nackt" in der Kamera verbaut. Auf dem Sensor sind fast immer mehrere Filter-(Glas-)Schichten verbaut. Die oberste Filterschicht ist in der Regel ein AA-Filter (Anti-Aliasing), das auch als mechanischer Schutz dient: Staub und selbst Öl oder Fette können mit geeigneten Reinigungs-Sets dort wieder entfernt werden. Unter dem AA-Filter kommen dann Microlinsen, Infrarot- und UV-Filter und das CFA, das Colour-Filter-Array des Bayer-Patterns.
Das optische AA-Filter war bis vor Kurzem bei allen Kameras mit Bayer-Pattern standard, außer bei den Mamiya Mittelformatkameras und allen Leicas. In der Zwischenzeit gibt es die Nikon D800 wahlweise ohne AA-Filter.
Das AA-Filter weitet jeden Lichtstrahl auf, generiert also eine gezielte UNSCHÄRFE. Ein Lichtpunkt in der Objektebene wird dadurch nicht nur auf ein Pixel abgebildet, sondern auf ein über mehrere Pixel ausgebreitetes Licht-Scheibchen. (Kein Wunder, dass Leica das nicht einführte !). Nur mit diesem Trick ist es möglich, den Moiré-Effekt z.B. auf Bildern von fein gewebten Stoffen zu unterbinden. Dieser Moiré-Effekt ist eine Folge der Unterabtastung (undersampling) der Chrominanz-Werte beim Bayer-Pattern (soll hier nicht weiter vertieft werden).
Die spektrale Empfindlichkeit von Silizium reicht vom kurzen UV bis ins tiefe Infrarot. Beiderseits des sichtbaren Bereichs reicht sie wesentlich weiter als beim analogen Filmaterial. Während man früher im Gebirge ein UV-Filter vor das Objektiv schraubte, ist das bei Digitalkameras nicht mehr erforderlich: Der UV-(und IR-) Filter liegt bereits auf dem Sensor. Das aufgeschraubte UV-Filter ist daher bei der Digitalkamera so überflüssig wie ein Kropf (auch als Staubschutz).
Man kann die AA-, IR und/oder UV-Filter nachträglich entfernen lassen, z.B. bei der Optic Makario GmbH. So lässt sich die spektrale Empfindlichkeit von normalen Digitalkameras ins UV oder Infrarot erweitern. Hier ein Panorama aufgenommen mit einer Nikon D200 ohne IR-, UV- und Farbfilter (unser Kunden Sven Broschinski hat mir die Kamera dafür zur Verfügung gestellt hat).
Eine Micro-Linse auf jeder einzelnen Sensorzelle bündelt das Licht und leitet es gezielt in den aktiven Bereich des Pixels. Unter den Microlinsen ist das CFA, das "colour filter array" des Bayer-Patterns angeordnet. Auf das Bayer-Pattern war ich bereits in o.a. Blogeintrag eingegangen. Im Hinblick auf neuere Entwicklungen will ich hier aber einige Aspekte vertiefen.
Die Farbfilter des Bayer-Patterns blocken ca. 2/3 der einfallenden Lichtenergie ab (!) indem sie nur Rot, nur Grün oder nur Blau durchlassen. Das Silizium unter dem Rotfilter bekommt also nur den roten Anteil des einfallenden Lichts zu sehen - kein Gelb/Grün und kein Blau - das daneben liegende "blaue" Pixel entsprechend nur den blauen Anteil und das "grüne" Pixel keinen Blau- und Rotanteil. Ein solches Bild wäre zumindest bei starker Vergrößerung unansehlich. Für die Ausgabe eines Bildes als JPG- oder RAW-Datei muss daher die fehlende Farb-Information für jedes Pixel wieder errechnet werden. Letztlich geht das über eine Art Mittelwerbildung unter Zuhilfenahme der Farbinformation aus den benachbarten 4x4 Pixel Arrays. Dazu wird die gesamte zunächst Farbinformation aus dem RGB-Farbraum in den YCrCb-Farbraum transformiert. Der Grünanteil des RGB-Bildes dominiert dann die Luminanz Y für das 4x4-Array bestehend aus einem roten, einem blauen und zwei grünen Pixeln. Die Chrominanzwerte Cr und Cb werden aus den Farbwerten aller vier Pixel ermittelt.
Zur Erinnerung: die Farbfilter des Bayer-Patterns sind nur deshalb erforderlich, weil die Siliziumfläche eines Pixels ohne Farbfilter keine spektrale Farbtrennung ermöglicht. Es ist quasi schwarz-weiß-empfindlich.
Die Nachteile des Bayer-Patterns liegen also auf der Hand:
- zwei Drittel der Lichtenergie werden im Farbfilter geschluckt: Die Empfindlichkeit liegt also nur bei ca. 33...50% des schwarz-weiß Tonumfangs.
- Nur jedes vierte Pixel trägt die Farbinformation Rot oder Blau, jedes zweite die Grün-Information: Die fehlende Farbinformation muss durch Interpolation errechnet werden. Die Konsequenz ist eine reduzierte Farb- und Kantenauflösung.
- Diese "Unterabtastung" der Farbinformation und Interpolation führt bei kritischen Bildmustern (z.B. fein gewebte Textilien) zu Moiré, einer Farbtonmodulation, die im Objekt nicht vorhanden ist. Abhilfe schafft nur ein optisches AA-Filter - das aber auch die Auflösung unter die Nyquist-Auflösung reduziert.
Somit ist klar, dass mit dem Bayer-Pattern die Sensorentwicklung erst am Anfang steht - vergleichbar mit dem Projektionsfernsehen, wo das RGB-Farbbild aus drei monochromatischen Bildern auf der Projektionsfläche zusammengesetzt wurde.
Die Entwicklungen in der Sensortechnologie gehen in zwei Richtungen:
- Optimierungen unter Verwendung eines Bayer-(ähnlichen)-Patterns (CCD und CMOS)
- farbauflösende Sensorzellen, die ohne Farbfilter auskommen
Beispielhaft erwähne ich hier einige solche Entwicklungen:
TRUESENSE Transparent Gate Electrode: Kodak/TRUESENSE hat jetzt bei CCD-Technologien die Leitbahnen in der untersten Leitbahnebene in ITO ausgeführt. ITO steht für Indium-Zinn-Oxid. ITO ist metallisch leitend wie Polysilizium aber optisch transparent. So kann die Abschattung reduziert und der netto-Anteil der aktiven Pixelflache optimiert werden. PDF hier.
Bei CMOS-Sensoren gibt es eine Vielzahl von Ansätzen, die Performance der Sensoren zu verbessern. Da der CMOS-Prozeß die Integration von Transistoren und selbst komplexer Logik in jede einzelne Sensorzelle erlaubt, bietet diese Technologie eine breite Spielwiese zur Gesamtoptimierung.
- Sony EXMOR-Zelle: Die Signalleitungen und Stromversorgung die in jedes Pixel führen wurden im aktuellen Fertigungsprozeß deutlich in der Dicke reduziert, so dass schräg einfallende Lichtstrahlen weniger abgeschattet werden. Jede Bitleitung wird mit einem kleinen Vorverstärker ausgestattet, so dass der Signal-Rauschabstand und die Datenrate deutlich verbessert werden konnten. Verwendung der EXMOR-Sensoren z.B. bei Sony NEX7, RX1 und α900 (Vollformat); vermutlich auch bei der Nikon D800.
- Leica erwähnte in einem Bericht, dass die Microlinsen auf dem Bayer-Pattern gezielt deplatziert positioniert werden: je weiter weg von der optischen Achse der Lichtstrahl auf den Sensor trifft, desto mehr würde er abgeschattet. Dezentriert man die Microlinsen entsprechend, kann die Abschattung weitgehend kompensiert werden.
- Sony ("EXMOR-R") und Omnivision ("BSI") drehen jetzt bei kleinen Sensoren (Pixelgröße im Bereich von ≤2um) den Sensor um und belichten ihn quasi von hinten: Das Licht dringt ja in die Siliziumschicht ein, wird also nicht an der Oberfläche absorbiert. Man kann inzwischen die 300mm-SiliziumWafer nach der Fertigstellung so dünn schleifen wie Papier. Daher kann man die Leitbahnen und die Verstärker/Logik in der Zelle von vorne fertigstellen, schleift dann den Wafer 8µm dünn und baut die Filter auf der Rückseite des Wafers auf. So wird dann die Zelle quasi von hinten belichtet ("backside illumination" BSI-Sensoren). Diese Technik hat meines Erachtens noch viel Potential, sicher auch für größere Sensoren.
Die neue Nikon P7700 hat den neuen Sony-Sensor (IMX144CQJ; Diagonale 9,3mm).
OmniVision stellte jüngst den Sensor OV8335 mit 8mm Diagonale (1/3,2") vor. - Während Sony sich vor allem auf die Optimierung der Sensor-Zelle konzentriert, basteln Fuji und Kodak am Bayer-Pattern weiter: Fuji hat in den Trans-X-Sensoren das 2x2-Array des Bayer-Pattern als 2x2-Array abgeschafft und verwendet eine größere 6x6-Pixel Makro-Zelle. Zudem sind die Zellen im Trans-X-Sensor nicht mehr in einem senkrecht ausgerichteten Mosaik angeordnet, sondern schräg. So nähert man die Abfolge der blauen und roten Pixel der unregelmäßigen Struktur des Filmkorns an - und kann auf ein AA-Filter verzichten. Die neuen Fuji-Systemkameras und die X10/X100 haben diesen Sensor).
- TRUESENSE hat ebenfalls Modifikationen des Bayer-Patterns publiziert (TRUESENSE SPARCE CFA) und setzt in einem 2x2 oder 3x3 CCD-Array 30-50% Zellen ohne Farbfilter ein. Die Luminanz im YCrCb-Farbraum wird dann direkt aus den panchromatischen Pixeln berechnet. Bei gleicher Pixelgröße ist so ein RGBW-Sensor wesentlich lichtempfindlicher. SONY hat Anfang des Jahres ebenfalls diese Modifikation des Bayer-Patterns bei neuen CMOS- RGBW-Sensoren propagiert.
Mich erinnern diese Entwicklungen am Bayer-Pattern an die Betriebssytem-Entwicklungen bei Microsoft. 30 Jahre wurde an Architektur und Strukturen eines verkorksten Grundkonzepts herumoptimiert (und dabei mächtig verdient - keine Frage). Noch Jahrzehnte später hält nur die Macht der Gewohnheit und die Angst vor Inkompatibilität davon ab, auf ein strukturell klar besseres System umzusteigen.
Das Herumdoktorn an dem Bayer-Pattern (ich meine das so abwertend wie es klingt !) darf man nicht nur aus Sicht der Sensoroptimierung sehen: Es hat gravierende Auswirkungen auf den Workflow der RAW-Entwicklung. Während viele Software-Pakete mit den auf dem Bayer-Pattern basierenden RAW-Formaten umgehen können (z.B. Adobe RAW Converter in Lightroom, Photoshop und anderen), werden alle nicht-Bayer-Pattern (z.B. Fuji's Trans-X) von bislang KEINEM dieser RAW-Konverter unterstützt. Jeder Fotograf, der seinen bewährten RAW-basierten Workflow hat, steht dann erst mal auf'm Schlauch !
Eine Sensortechnologie ganz ohne Farbfilter ist wesentlich stringender und effizienter.
Und es gibt sie: bekannt als Foveon X3-Sensor. Er kommt ganz ohne Farbfilter aus.
Jede X3-Sensorzelle ist panchromatisch, also RGB-empfindlich. Sie sieht in Farbe und das bei 100% Luminanz. Das Problem der Unterabtastung gibt es daher nicht - und damit auch keine Notwendigkeit für ein die Auflösung reduzierendes AA-Filter.
Diese Technologie werde ich in einem separaten Blogeintrag vorstellen.
Anmerkung: Leica hat jüngst eine Leica-M9 "Monochrom" ohne Bayer-Pattern auf den Markt gebracht. Das ist konsequent aber wohl nicht richtungsweisend.
Schade nur, dass sich Leica mit dem Nachfolger der M9 nicht an den Foveon-X3 getraut hat. Eine verpasste Chance !
Neuen Kommentar schreiben