Tutorial:
Das digitale Belichtungsdilemma (2)

‚Schöne neue Welt‘ durch digitale Sensortechnik und Belichtungsautomatik? Leider nicht ganz, wie dieses Tutorial aufzeigen möchte. Eine Bestandsaufnahme mit Lösungsansätzen, die ihren Charakter einer Glosse nicht ganz verbergen kann …

Überblick (bereits erschienene Teile sind verlinkt)
1. Einführung
2. Noch mehr Geschichtliches …
3. Zurück in die Gegenwart …
4. Einige Grundlagen zum vergleichenden Verständnis …
5. Wie die Kamera die Welt sieht …
6. Die Wiederherstellbarkeit der verschiedenen Tonwertbereiche
7. Generelle Empfehlungen zur Belichtungssteuerung
8. Praktische Durchführung der Belichtungssteuerung
9. Umgang mit dem ‚übersteigerten Kontrastumfang‘
10. Zusammenfassung und Schlußbemerkung
Bisherige Tutorials des Autors

 

***

4. Einige Grundlagen zum vergleichenden Verständnis …

4.1. Analogfotografie
Bild 8: Belichtung und Entwicklung (Quelle: div.)Bei der Filmbelichtung wurden durch die Lichteinwirkung zur Aufnahme einige der in der Fotoemulsionsschicht vorhandenen Silberionen (Ag+) zu Silberatomen (Ag) reduziert.

Wegen des geringen Ausmaßes dieser chemischen Reaktion blieb das Belichtungsergebnis so lange unsichtbar, bis die entsprechend veränderten Areale durch den Entwickler vergrößert wurden. Nun traten im fertig entwickelten Negativ die belichteten Partien durch Schwärzung zutage, die nach Fixierung und Auswaschen auch bei Tageslicht betrachtet werden konnten.

Der Abzug erfolgte dann in der Regel auf Papier, indem die dunklen Bereiche im Negativ weniger Licht durchließen als die hellen, so daß letztendlich das Positiv als lichtwertrichtiges Bild entstand.

Wichtig zum Verständnis der Negativfilmcharakteristik ist die Tatsache, daß die ‚Silberreserven‘ auch bei übermäßiger Belichtung erst spät ‚zur Erschöpfung neigten‘. Man könnte sagen, daß das System ‚in einem aussteuerbaren Bereich‘ blieb, was besagte Gutmütigkeit des Negativfilms, insbesondere die erstaunliche Wiederherstellbarkeit überbelichteter Partien erklärt.

4.2. Digitalfotografie
Bild 9: CCD-Bildsensor (Quelle: Wikipedia)Ein völlig anderer Weg der Signalerfassung wird bei den modernen Digitalkameras beschritten. Hier wird das einfallende Licht punktuell, in einer das Auflösungsvermögen bestimmenden Anzahl von Dioden gesammelt und weitergeleitet.

Bis in die 90er Jahre hinein beherrschten sogenannte CCD-Bildsensoren (siehe Bild 9) das Feld. Bei diesen werden die zur Aufnahme durch das einfallende Licht angestoßenen Elektronen in einem Ladungspool gesammelt, der in seiner Speicherungskapazität allerdings begrenzt ist.
Bild 10: CMOS-Bildsensor (Quelle: Wikipedia)Die nachfolgende Miniaturisierung ermöglichte schließlich die Entwicklung sogenannter CMOS-Bildsensoren (siehe Bild 10). Bei diesem erfolgt die Signalerfassung auf andere Weise, indem die Diode zunächst auf eine bestimmte Ausgangsspannung gesetzt und dann proportional zur Bestrahlungsstärke und zur Belichtungszeit entladen wird.

Somit sind bei beiden Sensortypen Sättigungs- bzw. Übersteuerungseffekte bei einem Überhandnehmen des einfallenden Lichts zu beobachten – durch die Erschöpfung der Kapazitätsgrenze beim CCD-Bildsensor (welche durch Ausbreitung der Ladung in Nachbarbereiche dann auch zum Phänomen des ‚Bloomings‘ führt), durch ein Versiegen des Photostroms beim CMOS-Bildsensor …

In beiden Fällen ist ein im Verhältnis zur Ausgangsszene eingeschränkter Dynamikumfang der Kamera zu beobachten, welches sich insbesondere durch markante Tonwertabbrüche im Lichterbereich (auch als ‚Clipping‘ bezeichnet) bemerkbar macht.

***

5. Wie die Kamera die Welt sieht …

5.1. Vergleich zwischen Kamera und Auge
Bild 11: Das menschliche Sehsystem (Quelle: Wikipedia)Der Frage, wie die Kamera eigentlich die Welt sieht und wie sich diese Sichtweise von der unseres menschlichen Auge (siehe Bild 11) unterscheidet, war ich schon in meinen früheren Tutorials aus verschiedenen Blickwarten nachgegangen – insbesondere in ‚Möglichkeiten der Bildverfremdung in der klassischen Fotografie‚ und ‚Blickwege bei der Bildbetrachtung‚.

Zwei wesentliche Unterschiede bestehen (1) in der enormen Anpassungsfähigkeit unseres optischen Apparats und (2) der Abtastung des Gesamtbildes im Rahmen zahlreicher kleiner Augenbewegungen.

Dies führt dazu, daß wir eine Szene nie sofort und in Gänze erfassen, sondern als Summierung vieler Teilbilder, die erst in der Sehrinde zum Gesamtbild verrechnet werden. In diesem Prozeß ändern sich Blende und Fokus permanent. Unser Auge produziert also ständig Belichtungsreihen, die zeitnahe verrechnet werden – eine Art ‚biologischer HDR- bzw. Ebenentechnik‘, wenn man so will …

Auf diese Weise können wir auch eine Mittags- oder Innenraumszene, die mit ihrem Kontrast zwischen Lichter- und Schattenpartien locker 15 bis 20 Belichtungs- bzw. Blendenstufen umfaßt, ‚eindrucksgemäß richtig‘ sehen. Die Lichter erscheinen uns so vollständig durchgezeichnet, die Schatten lassen ausreichende Details erkennen.

Die Fotografie eben dieser Szene zeigt hingegen weitläufig ausgebrannte Lichterpartien mit reinem Weiß und zugelaufene Schattenpartien mit reinem Schwarz.

Das ist das Dilemma, um das es in diesem Tutorial geht …

5.2. Die kamerainterne Abbildung verschiedener Lichtsituationen

Wenden wir uns nun der Frage zu, zu welchem Abbild die verschiedenen Lichtsituationen in der Digitalkamera führen.

Die ersten Bilder zeigen Abbildungen eines normalen Kontrastumfangs, wobei ‚Normalität‘ hier so definiert ist, daß der Kontrast zwischen Schatten und Lichter in der Szene vollständig vom Dynamikumfang der Kamera erfaßt werden kann.
Bild 12: Ausgewogenes Histogramm mit normalem KontrastumfangDas Bild 12 zeigt den Idealfall einer ausgewogenen Belichtung – der vorhandene Kontrastumfang der Szene stimmt mit dem Dynamikumfang der Kamera überein, die Hauptmasse der Tonwerte fallen in die voll durchgezeichneten Bereichen (Zonen III bis VII), Tonwertabbrüche im Bereich der Schatten (Zone 0) und Lichter (Zonen X) liegen nicht vor.

Von Seiten der Belichtung liegen somit die Voraussetzungen für sehr gut verwertbare Bildergebnisse vor.
Bild 14: Rechtssteiles Histogramm mit normalem KontrastumfangBild 13: Linkssteiles Histogramm mit normalem KontrastumfangDie Bilder 13 und 14 zeigen Grenzfälle einer immer noch ansehnlichen Belichtung – auch hier stimmt der vorhandene Kontrastumfang der Szene mit dem Dynamikumfang der Kamera überein und liegen keine Tonwertabbrüche im Bereich der Schatten und Lichter vor, doch fällt ein gewisser Teil der Tonwerte bereits in die nicht bzw. eingeschränkt zeichnungsfähigen Grenzbereiche (Zonen I bis II und VIII bis IX).

Von Seiten der Belichtung liegen somit die Voraussetzungen für noch gut verwertbare Bildergebnisse vor.

Kommen wir nun mit den nachfolgenden Bildern zu den problematischen Fällen des übersteigerten Kontrastumfangs, wobei ‚Übersteigerung hier so definiert ist, daß der Kontrast zwischen Schatten und Lichter in der Szene nicht mehr vom Dynamikumfang der Kamera erfaßt werden kann.

Rechtssteiles Histogramm mit übersteigertem KontrastumfangBild 15: Linkssteiles Histogramm mit übersteigertem KontrastumfangDie Bilder 15 und 16 zeigen Problemfälle einer ‚einseitig aus dem Ruder laufenden‘ Belichtung – hier stimmt der vorhandene Kontrastumfang der Szene nicht mehr mit dem Dynamikumfang der Kamera überein, es liegen Tonwertabbrüche im Bereich der Schatten oder Lichter vor, und ein beträchtlicher Teil der Tonwerte (dunkelblau von der Kamera erfaßt, hellblau die in der Szene vorhanden) fällt bereits in die modulationslosen Extrembereiche (Zone 0 und X) bzw. nicht bzw. eingeschränkt zeichnungsfähigen Grenzbereiche (Zonen I bis II und VIII bis IX).

Von Seiten der Belichtung liegen somit die Voraussetzungen für allenfalls eingeschränkt verwertbare Bildergebnisse vor.
Bild 17: Zweigipfliges Histogramm mit übersteigertem KontrastumfangDas Bild 17 zeigt schließlich den Problemfälle einer ‚beidseitig aus dem Ruder laufenden‘ Belichtung – auch hier stimmt der vorhandene Kontrastumfang der Szene nicht mehr mit dem Dynamikumfang der Kamera überein, es liegen Tonwertabbrüche sowohl im Bereich der Schatten wie auch der Lichter vor, und ein Großteil der Tonwerte (dunkelblau von der Kamera erfaßt, hellblau die in der Szene vorhanden) fällt in die modulationslosen Extrembereiche (Zone 0 und X) bzw. nicht bzw. eingeschränkt zeichnungsfähigen Grenzbereiche (Zonen I bis II und VIII bis IX).

Von Seiten der Belichtung liegen somit kaum mehr Voraussetzungen für verwertbare Bildergebnisse vor.

***

Soweit in der heutigen Folge. Die nächste Folge dieses Tutorials erscheint in der kommenden Woche.

1 Antwort
  1. fherb says:

    Hallo Thomas,

    Zuerst vielen Dank für diesen recht grundlegenden Beitrag.

    Ein Hinweis: Im Prinzip, rein theoretisch, ist es fototechnisch erst mal egal, ob der Sensor CCD oder CMOS ist. Es geht immer um eine Menge Ladungsträger pro Pixel, die „irgendwie“ (also gern auch nichtlinear) proportional zur eingefallenen Lichtmenge an dieser Stelle erzeugt werden. Mit Blick auf die Analogzeit wäre es sogar besser, wenn die Ladungsmengen nicht rein proportional sind, um eine höhere Dynamik zu erreichen. Die wäre dann zwar nichtlinear, aber das wäre kein Problem, weil wir auch im Digitalen später das Foto auf digitalem Wege „entwickeln“.

    Physikalisch gibt es Unterschiede in der Art, wie die Ladungsträger im Pixel erzeugt werden, aber am Ende wird die „Lichtmenge“ in eine Zahl der Ladungsträger umgewandelt, die in einer Zelle bis zum Auslesen abgelegt werden. CCD-Sensoren werden nach dem Eimerkettenprinzip ausgelesen. Das heißt, die Ladungen werden beim Auslesen von Pixel zu Pixel verschoben, bis sie am letzten Pixel der Zeile „angekommen“ sind. Also tatsächlich geometrisch. Die Ladungen wandern von Pixel zu Pixel. Und nur an der „Kante“ des Sensors wird die Ladung dann in einen Digitalwert konvertiert. Was auf diesem Weg verloren geht (über die parasitären Widerstände und Kapazitäten der Pixel) geht verloren oder wird verlagert. Oder optisch betrachtet: … wird geometrisch in der Zeile verschliffen.

    Mit CMOS ist das technisch besser gelöst. Sprich: Mit CMOS ist die Ladungsmenge in höherer Auflösungs-Qualität am Analog-Digital-Wandler lesbar.

    Welches Prinzip im fototechnischen Sinne „besser“ ist, ist erst mal eine reine Ingenieurleistung plus den physikalischen Randbedingungen.

    Das große Problem ist im Moment noch, dass wir Ingenieure, ich bin ja auch einer ;-) , immer versucht sind, möglichst lineare Messergebnisse am Digital-Analogwandler zu erreichen. Für die physikalische Messtechnik ist das legitim. In der Fotografie kann man aber davon durchaus abweichen:

    Auf dem Analogfilm war, wie Du es auch beschrieben hast, die Schwärzungskurve nur im mittleren Empfindlichkeitsbereich einigermaßen linear. Am oberen und unteren Ende war diese Kurve nichtlinear, wesewegen wir im Labor auch aus diesen Bereichen mehr Information schöpfen konnten, als uns derzeit die aktuellen Sensoren elektronisch liefern können.

    Wenn wir den Analogfilm also auf den digitalen Sensor anwenden würden, bestände die tatsächlich legitime Forderung darin, dass der Sensor mit Ladungsträgern nicht linear „vollläuft“, sondern an der oberen Grenze nichtlinear wird. Das würde beim Sensordesign bedeuten, dass die Ladungen nicht rein proportional der einfallenden Photonen frei gesetzt werden, sondern bereits im Material freie Ladungsträger diesen Vorgang hemmen. Um so mehr, je mehr freie Ladungsträger durch sehr viel Licht schon vorhanden sind. – Das lässt sich nicht durch integrierte oder parasitäre Widerstände ins umgebende Halbleitermaterial lösen, weil diese Elemente wieder linear wären. Für diesen Zweck müssten unmittelbar an der photoelektrischen CMOS-Zelle nichtlineare Komponenten integriert werden.

    Sowas ließe sich vermutlich durch den Einsatz von Dioden (mit ihrer nichtlinearen Kennlinie) tun, wenn diese speziell für diese Aufgabe so dotiert würden, dass sie genau den gewünschten nichtlinearen Effekt ergeben.

    Ein Problem bleibt: All diese Manipulationen im Sensor haben eine zeitabhängig Wirkung. Das steht immer noch im Gegensatz zum analogen Film. Und weil das eben so schwierig ist, gibt es auch noch keinen nichtlinearen Fotosensor.

    Aus bildgeberischer Sicht wäre ein Sensor ideal, der bereits bei der Umwandlung der Lichtmenge in ein Signal logarithmisch arbeiten würde. Dann erst wäre der Sensor tatsächlich ein adäquater Ersatz für den analogen Film. Und vermutlich noch um ein Vielfaches besser. Zumindest, wenn es darum geht, aus sehr dunklen oder sehr hellen Bildteilen nach der Belichtung mehr Information zurückzugewinnen.

    Ich bin gespannt, was die Sensorhersteller, allen voran Sony da in den nächsten Jahren tun werden. Irgendwann wird sich durchsetzen, dass eine lineare Wandlung bei bildgebenden Verfahren unzweckmäßig ist. Bisher hat man das durch eine Erweiterung des Dynamikumfangs versucht zu verbessern. Zielführender wäre eine Logarithmierung schon am Pixel.

    Antworten

Hinterlassen Sie einen Kommentar

Wollen Sie an der Diskussion teilnehmen?
Feel free to contribute!

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *