Blog-Eintrag

Ein Vergleich Sensor - Film

Die Tage war ich mit meinem Freund Gerhard ein paar Tage unterwegs.
Er wollte mir ein paar schöne Flecken im Tessin zeigen. Wie vor fast 40 Jahren, wenn wir zwei Physikstudenten mit unseren Minoltas loszogen, meinte er am Vorabend am Telefon: "... und vergiss nicht, genug Filme einzupacken".
Beim ausgedehnten Apéro im Grotto di Baloi (Val Bavona) unterhielten wir uns dann auch viel über Fotografie und die neuen Entwicklungen in der Sensortechnologie.
Er motivierte mich, die Sensortechnologie für den interessierten Laien und Fotografen verständlich darzustellen - und wenn nicht in einem Buch, dann wenigstens auf dieser Homepage.


Der Schwerpunkt der hier vorgestellten Themen ist und bleibt Panoramafotografie.
Aber das Wissen über den Aufbau des Bildsensors speziell bei den modernen, spiegellosen Systemkameras ist im Hinblick auf Panoramafotografie hilfreich und bei der Systemauswahl durchaus relevant. So werden neuerdings von Samyang und Madoka preisgünstig Fisheye-Objektive für spiegellose Systemkameras angeboten, und viele Panoramafotografen werden da zugreifen. Einige werden dann ihr farbiges Wunder erleben, weil je nachdem, welcher Sensor in ihrer Kamera verbaut wurde, die Aufnahmen stark vignettieren und unschöne Farbränder aufweisen werden.

Die Sensortechnologie umfassend darzustellen braucht es mehr als den üblichen Umfang in diesem Blog. Ich will daher in mehreren Beiträgen wenige spezielle Aspekte beleuchten.

RetinaDer prinzipielle Aufbau einer Digitalkamera entspricht genau dem Aufbau des menschlichen Auges.
Die Funktion der Retina, also der Netzhaut des Auges, die die einfallenden Lichtstrahlen in RGB-Anteile zerlegt und in elekrische Signale umwandelt, übernimmt dabei der Bildsensor.
Die wenigsten Fotografen haben eine Vorstellung vom Sensor. Viele wissen nur soviel: je mehr "Megapixel", desto besser. Darüber habe ich mich bereits im letzten Blog ausgiebig ausgelassen.

Einige Vergleiche zwischen Analogfilm und digitalem Sensor sind zunächst das Thema.

Ich habe bereits auf die Kuriosität hingewiesen, dass in der Digitalkamera die Tonwertinformation eines Bildpunktes als analoges Signal vorliegt, in einem alten Analogfilm das Filmkorn aber digital geschwärzt wird.
Ein Silberhalogenidkristall ("Korn"), eingebettet in der Gelatineschicht des Analogfilms, wird nach der Belichtung mit mindestens 4 Photonen im Entwickler vollständig zu Silber reduziert. Ent oder weder, wirklich digital. Der Unterschied zwischen einem niedrig und hoch empfindlichen Film besteht nur in der Korngröße. Je größer das Korn, desto größer die Wahrscheinlichkeit, dass bei der Belichtung die Mindestzahl der zur (späteren) Schwärzung erforderlichen Photonen zusammenkommen.

Die einzelnen Silberhalogenidkörner haben unterschiedliche Formen und sind unterschiedlich groß, so dass sich eine unregelmäßige, 3-dimensionale Anordnung in der Gelatineschicht ergibt. Wesentliche Merkmale eines (Farb-Negativ-)Films sind die Empfindlichkeit und die Auflösung. Ein Film hat eine feste nominale Empfindlichkeit (in ASA, früher DIN). Sie korreliert mit der mittleren Korngröße. Filme des selben Typs gibt es mit verschiedenen Empfindlichkeiten (z.B mit 200 ASA und 800 ASA). Die Auflösung ist für jeden Filmtyp eindeutig messbar und über die Modulationsübertragungsfunktion MTF definiert, die dem Datenblatt zu entnehmen ist. Die MTF ist wie der Name sagt nicht ein einzelner Wert, sondern eine eine Funktion: Der Fujicolor Superia 200 zum Beispiel löst 125 Linienpaare pro Millimeter bei einem Kontrastverhältnis 1000:1 auf. Allerdings ist diese messbare Auflösungsgrenze in der fotografischen Praxis nicht relevant. Sie gilt nur für extrem kontrastreiche Linienpaare (Messobjekte). In natürlichen Sujets ist die Auflösung für ein weitaus geringeres Kontrastverhältnis relevant, z.B. 1,6:1. Dafür spezifiziert Fuji dann eine Auflösung von 50 Linienpaaren pro Millimeter.

Beim digitalen Bildsensor sind die Pixel alle genau gleich groß und in der Regel quadratisch. Jedes Pixel ist eigentlich die Platte eines Kondensators, die bei Belichtung aufgeladen wird. Die dabei erzeugte Ladung, also die Anzahl der generierten Elektron-Loch-Paare hängt von der Lichtmenge ab, die die lichtempfindliche Fläche des Pixels erreicht. Je größer die Lichtmenge (also Intensität und Belichtungszeit) und je größer das Pixel, desto größer ist die eingesammelte Ladung auf der Kondensatorplatte. Diese Ladung bzw. die durch sie generierte Spannung wird analog verstärkt und gemessen. Erst dieser Messwert wird digitalisiert und in digitaler Form weiterverarbeitet. Die Lichtempfindlichkeit eines Bildsensors ist zwar auch eine feste Größe, aber es gibt ihn nicht als 200 und 800 ASA-Sensor. Dafür kann man die "Sensor-Emfindlichkeit", also den ASA-Wert an der Kamera variieren: Wenn man an der Kamera die Empfindlichkeit von 200 auf 800 oder gar 12800 ASA verstellt, wird nur die ausgelesene Spannung des Pixels mehr verstärkt.
Die Lichtempfindlichkeit des einzelnen Pixels hängt in erster Linie von dessen Größe ab, aber auch entscheidend vom Aufbau der Zelle. Das große 8,5µm Pixel meiner Nikon D3 liefert über 20.000 mV/Ls (Millivolt pro Lux und Sekunde), das kleine, hochgezüchtete 1,75µm Pixel im iPhone4-Sensor aber gerade noch 960 mV/Ls.
Auch die Auflösung eines Bildsensors kann grundsätzlich mit einer MTF beschrieben werden. Sie hängt aber entscheidend von der Beleuchtung und den Settings der Kamera ab - und kann nur in Kombination mit einem Objektiv gemessen werden (während ein Film direkt im Durchlicht vermessen wird). Die zumindest theoretische Grenzauflösung (gemäß Nyquist-Theorem) lässt sich leicht berechnen: Ein MFT-Bildsensor mit 4000x3000 Pixel kann maximal 2000 vertikale Linienpaare abbilden. Da die Breite des MFT-Sensors 17,3 mm beträgt, sind das 2000/17,3 also 115 Linienpaare pro mm. Die reale, nutzbare Auflösung liegt wie beim Analogfilm deutlich unter diesem Wert.
Viel entscheidender als diese Auflösung ist beim Bildsensor die Dynamik, also der Tonwertumfang. Gute Vollformatsensoren liegen da bei deutlich über 8 Blendenstufen, entsprechend 8 bit. Dem aktuell besten aller Vollformatsensoren in der Nikon D800 werden 9,6 nutzbare Blendenstufen nachgesagt.
Zur Erinnerung: Das Silberhalogenidkorn hat nur den Tonwertumfang von 1 bit (schwarz oder weiss). Abgestufte Tonwerte werden bei einem Film dadurch erreicht, dass die nicht transparenten Silberkörner mehr oder weniger verdünnt vorliegen, während beim Sensor das einzelne Pixel die Tonwertinformation trägt !
Vielleicht noch wichtiger als die Dynamik ist der Signal-Rauschabstand eines Sensors zu bewerten. Wer kennt sie nicht, die mit einer Handy-Kamera bei schlechtem Licht geschossen Aufnahmen. Schwarz ist da nicht schwarz, sondern ein Brei von Pixeln in allen Farben und Schattierungen. Das ist das Rauschen der kleinen Pixel.
Manch einer mag das nach zu viel Rotwein auch schon ohne Kamera erlebt haben.
Merke: Ein Vollrausch und der Sensor im Handy haben etwas gemeinsam ! 
Erinnern wir uns: Die Anzahl der in der Sensorzelle erzeugten Elektronen-Lochpaare hängt von der einfallenden Lichtmenge und der Zellgröße ab. Auch bei homogener Beleuchtung ist die Generierung der Elektron-Lochpaare ein stochastischer Prozess. Das Signal-Rausch-Verhältnis ist proportional der Quadratwurzel der mittleren Anzahl der Ladungsträger. Einfacher ausgedrückt: je kleiner die Sensorzelle, also die Pixelgröße, desto stärker das Rauschen. Dass das Rauschen der Pixel in allen Farben aufleuchtet und nicht in hellerem oder dunklerem Grau, ist auf den RGB-Farbfilter über den Sensorzellen und das "Debayering" zurückzuführen.

Licht, genauer gesagt weisses Licht, weist ein breites Frequenzspektrum auf.
Im Regenbogen nehmen wir die natürliche Mischung der Strahlung als Farbspektrum mit gut getrennten Farben Rot-Gelb-Grün-Blau wahr. In einem Farbfilm sind 3 farbempfindliche Schichten übereinander angeordnet und durch geeignete Farbfilter voneinander getrennt. Sie selektieren die Blau-, Grün- und Rotanteile eines Bildpunktes in den 3 übereinanderliegenden Silberhalogenidschichten. An die jeweiligen Körner werden im späteren Entwicklungsprozeß die dazugehörigen (oder komplementären) Farbstoffe angekoppelt.
FoveonBei Bildsensoren verfolgt dieses Prinzip, den Tonwert eines jeden Bildpunktes spektral aufzuspalten und die spektralen Anteile übereinander angeordnet zu messen, nur die Foveon Sensortechnologie. Sie liefert besonders fein abgestufte Tonwerte bei jeder Beleuchtung und wird bislang ausschließlich in den Kameras der Marke Sigma eingesetzt.
Bayern-PatternDer Standard mit überwältigendem Marktanteil ist jedoch ein anderer: Der "Bayer"-Sensor mit nebeneinander angeordneten Pixeln, die ausschließlich rot-, grün- oder blauempfindlich sind. (Der Name hat nichts mit dem schönen Bundesland Bayern zu tun - sonst gäbe es ja auch nur weiße und blaue Pixel in Rautenform).
Bayer-PatternAuf einem "normalen" Bildsensor wechseln sich rot-, grün- und blauempfindliche Pixel ab: über die gleichartigen Sensorzellen wird passgenau ein mosaikartiges Muster aus roten, grünen und blauen Filtern gelegt. Dieses "Bayer-Pattern" legt fest, dass 1/4 der gesamten Pixel nur auf Rot empfindlich sind, 1/4 auf Blau und die Hälfte sammelt nur die Grünanteile des Lichts. Erst der RAW-Konverter macht das "Debayering", ordnet also jedem Pixel eine RGB-Mischfarbe entsprechend der Farbanteile seiner eigenen und benachbarter Pixel Spannung zu.
Ein Ansatz zur Sensoroptimierung liegt in der Variation dieses Musters und wird in einem der folgenden Themen erläutert.

Der Hinweis meines Freundes, Filme einzupacken, war übrigens durchaus ernst gemeint: Das Val Bavona ist das letzte noch nicht elektrifizierte Tal in der Schweiz.
Und ohne Strom geht beim Sensor nichts ...

Neuen Kommentar schreiben