Persönliche Beratung
Service
Auftragsstatus
Mein Account
Registrieren    Anmelden    Forum    Suche    FAQ    Netiquette    Nutzungsbedingungen    Datenschutzerklärung

Foren-Übersicht » Weitere Themen » Komm fotografieren

Sie möchten mehr zum Thema Fotografie erfahren? Hier können Sie sich mit anderen Anwendern und unseren Fachfotografen austauschen.
Grundlagenforschung – Pixel (FS01-2)
Benutzeravatar Offline
FotoFreunde

100 Beiträge
Beiträge: 237
Registriert: 01.11.2012, 13:55
Kontaktdaten:

Grundlagenforschung – Pixel (FS01-2)

Ungelesener Beitragvon FotoFreunde » 31.10.2011, 09:39

Ein bisschen Grundlagenforschung – Pixel

Pixel sehen nur Hell und Dunkel

Pixel nennt man die einzelnen lichtempfindlichen Elemente auf dem Sensor oder Chip der Digitalkamera. Sie sind regelmäßig geformt und in senkrechten und waagrechten Reihen auf dem Sensor angeordnet - ganz im Gegenteil zum lichtempfindlichen „Korn“ im Film, das unregelmäßig angeordnet ist und aus Silberhalogenidteilchen unterschiedlicher Größe besteht. Eine Besonderheit stellen die Super-CCD Sensoren von Fujifilm dar. Ihre Pixel sind achteckig und auf dem Sensor wabenförmig angeordnet. Das heißt, die Zeilen und Reihen sind miteinander verzahnt.
 
1_50_3.JPG
Im Grunde sind CCD- und CMOS-Sensoren farbenblind und zeichnen nur die Helligkeit auf. Belässt man es dabei, entsteht nur ein Schwarz/ Weiß-Bild.

In den frühen Tagen der Digitalfotografie besann man sich daher auf die frühen Tage der analogen Fotografie, wo man schon Farbaufnahmen machte, obwohl es nur S/W-Material für die Aufnahme gab. Der Trick beruht darauf, dass man alle Farben aus Rot, Grün und Blau zusammensetzen kann - oder aus Cyan (Blaugrün), Magenta (Purpur) und Yellow (Gelb), wozu sich im Vierfarbdruck noch Black (Schwarz) gesellt, aber das ist eine andere Geschichte, ebenso wie die Frage, ob man Schwarz (oder auch Weiß) überhaupt als Farbe bezeichnen darf.

Aus diesen drei bzw. vier Farben ergeben sich die bekannten Abkürzungen RGB und CMYK. Gut - das „K“ passt nur zu „Black“, wenn man den letzten Buchstaben für die Abkürzung heranzieht, aber es gibt auch die Meinung, das „K“ stünde für das englische Wort „Key-Plate“, auf Deutsch „Schlüssel-oder Basis-Platte“, weil die drei Druckplatten für die Farben nach der Druckplatte für Schwarz ausgerichtet wurden.

Dieses Phänomen, dass Rot, Grün und Blau alle anderen Farben ergeben können, nutzten die Fotopioniere und nahmen ein Motiv dreimal auf, und zwar durch ein Rot-, ein Grün- und ein Blaufilter. Dabei entstanden Farbauszüge. Projizierte man sie deckungsgleich durch entsprechende Farbfilter, entstand auf der Leinwand ein Farbbild (und es darf vermutet werden, dass so manches „Ah“ und „Oh“ im Saal zu hören war).

In frühen Studiodigitalkameras nutzte man dieses Prinzip ebenfalls, indem man drei Sensoren durch Rot-, Grün- und Blaufilter gleichzeitig belichtete oder einen Sensor nacheinander durch drei Filter, die auf einem Filterrad montiert waren. Das Zusammenfügen der Auszüge zum farbigen Bild übernahmen nicht mehr Projektoren, sondern ein Bildprozessor und die entsprechende Software. In professionellen Videokameras ist das 3-Chip-Verfahren noch anzutreffen. Mit der Minolta RD-175 von 1995 gab es auch eine D-SLR, die mit drei Sensoren ausgestattet war, und die Dimage RD-3000 von 1999 hatte zwei Chips aufzuweisen. Zurzeit gibt es bei den Kompakt-, All-in-One- und Systemkameras nur noch Ein-Chip-Modelle.

Um trotz der „Farbenblindheit“ dieser Sensoren zu Farbaufnahmen zu kommen, ist bei den meisten Sensoren vor oder auf jedem winzigen Pixel ein ebenso winziger roter, grüner oder blauer Filter angeordnet. Auch CMY-gefilterte Sensoren sind möglich. Anders als man nun vermuten könnte, sind die Farbfilter bei den RGB-Sensoren nicht gleichmäßig auf die drei Farben aufgeteilt, sondern 25 % sind rot, 50 % sind grün und 25 % sind blau. Damit wird der Sensor ans menschliche Auge angepasst, das Grüntöne besonders gut differenzieren kann.

Die Farbfilter sind so angeordnet, dass jeder rot und jeder blau gefilterte Pixel von vier grün gefilterten umgeben ist (je einer darüber und darunter, links und rechts). Diese Anordnung bringt es mit sich, dass jeder rot von vier blau gefilterten Pixeln umgeben ist, und jeder blau von vier rot gefilterten. Die jeweils andere Farbe ist links oben, links unten, rechts oben und rechts unten zu finden.

Diese Anordnung ist als Bayer-Pattern (Bayer-Muster) bekannt. Sie stellt schon einmal sicher, dass ein Pixel 1/3 der Farbinformation aufzeichnet, die das Licht ihm vom Motiv bringt. Die restlichen 2/3 werden aus den Farbinformationen der umgebenden Pixel errechnet. Trotz dieser Interpolation kann in den allermeisten Fällen mit sehr genauer Farbwiedergabe gerechnet werden. Probleme sind allerdings nicht ganz ausgeschlossen, wenn etwa eine sehr kleine Lichtquelle nur ein Pixel belichtet und dann nur dessen Farbinformation ins Bild einfließt.
 
1_49_1.jpg

Eine Ausnahme machen die Foveon-Sensoren, die zurzeit nur von Sigma eingesetzt werden. Ihr Aufbau ist dem Aufbau eines Farbfilms ähnlich. Vereinfacht gesagt dringt das Licht in das Aufnahmematerial ein und sorgt in verschiedenen Schichten für rote, grüne und blaue „Farbauszüge“, die zusammen ein Bild in den richtigen Farben ergeben. Auch wenn hier für jeden Pixel die volle Farbinformation aufgezeichnet wird, so ist der Drei-Schicht-Sensor nicht völlig frei von Farbproblemen, die bei Himmelblau und Pflanzengrün auftreten können.
 
1_49_2.jpg

Bayer-Pattern oder Schichtaufbau - der Sensor ist nur ein Teil, der für die Farbwiedergabe eine Rolle spielt. Mindestens ebenso wichtig ist der Bildprozessor, der den Weißabgleich durchführt und vom Fotografen eingestellte Farbanpassungen oder Farbkorrekturen ins Bild rechnet. Davon mehr in einer späteren Folge.


Es wird immer enger

Obwohl es sich herumgesprochen hat - oder herumgesprochen haben sollte -, dass es nicht allein die Zahl der Pixel ist, die über die Bildqualität entscheidet, setzen die Hersteller immer noch viel daran, die Zahl der lichtempfindlichen Elemente auf den Sensoren zu erhöhen.

Anfang 2009 sind bei System-Kameras mit APS-C - und 4/3-Sensoren Auflösungen zwischen 10 MPix und 12 MPix Standard und die höchsten Werte liegen bei 24,4 MPix. Bei den Digitalkompaktkameras wird die Einstiegsklasse von Sensoren mit 8.000.000 Bildpunkten (8 MPix) bestimmt, es gibt eine Vielzahl von 10-MPix-Modellen und die Grenze von 15 MPix ist vor der PMA 2009 fast erreicht. Mit anderen Worten: Es gibt Anfang 2009 Kompaktkameras, die ebenso viele oder mehr Pixel aufweisen, als Systemkameras.

Bringt man das mit den oben angesprochenen Sensorgrößen in Verbindung, kann man sich vorstellen, dass die Pixel auf den Kompaktkamera-Sensoren sehr klein und sehr eng gepackt sein müssen. In der Tat weisen die lichtempfindlichen Elemente aktueller Kompaktkameras Seitenlängen um die eineinhalb bis zweieinhalb Mikrometer auf und Pixeldichten von rund 350.000 oder 400.000 Pixel/mm² sind keine Seltenheit. Ein Mikrometer ist 1/1000 mm – darunter kann man sich wenig vorstellen, ebenso wenig, was es bedeutet, dass sich 350.000 oder 400.000 Pixel auf einem Quadratmillimeter drängen.

Schauen wir die Sache von einer anderen Seite an. Ein durchschnittlicher, moderner 10,1-MPix-Sensor weist rund 3650 x 2730 Bildpunkte auf, ist rund 6 x 4,5 mm groß und eine passende, angemessen kleine Kompaktkamera misst rund 95 x 55 x 21 mm.Würde man nun 10,1 Millionen 1-Euro-Münzen (Durchmesser 23,25 mm) entsprechend auslegen, dass sie sich berühren, ergäbe das eine Fläche von 84,86 x 64,15 m und die passende Kamera wäre 1330 m breit, 770 m hoch und 294 m tief.

Weil das Beispiel so schön ist, rechnen wir noch einmal weiter. Ein fiktiver, aber vorstellbarer 22,6- MPix-Vollformatsensor ist 36 x 24 mm groß und weist 5800 x 3900 Bildpunkte auf. Übertragen wir das in unser Beispiel, so wäre eine passende Kamera rund 2100 m breit, 1650 m hoch und 1100 m tief. Der Sensor hätte eine Größe von 504 x 336 m und statt der 1-Euro-Münzen müsste man rund 22,6 Mio Scheiben mit einem Durchmesser von je 86,8 mm auslegen. Das entspricht dem Durchmesser einer Kaffeetasse.

Zugegeben: Im Beispiel sind die Datenleitungen nicht berücksichtigt, die auf dem Sensor Platz
beanspruchen, und natürlich gibt es bessere Verwendungszwecke für 10,1 Mio. Euro. Aber die Sache ist doch recht beeindruckend und zeigt: Pixel – sind - wirklich - wirklich - winzig!

Liebe Grüße
Sylke

Wer ist online?

Mitglieder in diesem Forum: 0 Mitglieder und 7 Gäste

cron