Exmor, Isocell & Co: Warum Smartphone-Bildsensoren so wichtig sind!


Inhalt:

AndroidPIT Samsung Galaxy S20 Ultra Bewertung 14

Viele “Augen”: Der Trend bei aktuellen Smartphones geht zu mehr Kameras, aber relativ unbemerkt, auch zu immer größeren Bildsensoren. / © NextPit

Sensorgröße in Zoll: Von analogen Röhren bis zu CMOS-Chips

Beginnen wir mit einigen Hintergrundinformationen: In den meisten technischen Datenblättern für Smartphones wird die Sensorgröße der Kamera in der Regel mit 1 / xyz Zoll angegeben, z. B. 1 / 1,72 Zoll oder 1/2 Zoll. Leider entspricht diese Größe nicht der tatsächlichen Größe Ihres Smartphone-Sensors.

Werfen wir einen Blick auf die IMX586-Datenblatt: Ein halber Zoll dieses Sensors würde tatsächlich 1,27 Zentimetern entsprechen. Die tatsächliche Größe des Sony IMX586 hat jedoch nicht viel damit zu tun. Wenn wir die Pixelgröße von 0,8 Mikron mit der horizontalen Auflösung von 8.000 Pixel multiplizieren, erhalten wir nur 6,4 Millimeter, d. H. Ungefähr die Hälfte der Zahl. Wenn wir zuerst die Horizontale messen und dann den Satz von Pythagoras anwenden, um die Diagonalmessung zu erhalten, erhalten wir 8,0 Millimeter. Auch das ist bei weitem nicht genug.

Und hier ist der Kern der Sache: Anpassungen wurden vor etwa einem halben Jahrhundert eingeführt, als Videokameras noch Vakuumröhren als Bildkonverter verwendeten. Die Marketingabteilungen behalten das damals ungefähr lichtempfindliche Verhältnis von Fläche zu Röhrendurchmesser mit viel Kraft bei, fast bis zu einer unerbittlichen Flut von E-Mails zur Penisverlängerung, die an meinen Spam-Ordner gesendet werden. Und so heißt ein CMOS-Chip mit einer Diagonale von 0,31 Zoll in einem 1/2-Zoll-Sensor.

Vladimir Zworykin und historische TV-Röhren

Das waren die Tage, mein Freund: Die Zollbezeichnungen der heutigen Bildsensoren stammen aus Zeiten wie diesen. Im Bild: Ionoskop-Erfinder Vladimir K. Zworykin 1954 mit einigen Bildwandlerröhren. / © Public Domain

Wenn Sie die tatsächliche Größe eines Bildsensors wissen möchten, sehen Sie sich entweder das Datenblatt des Herstellers oder die detaillierte Wikipedia-Seite zu den Bildsensorgrößen an. Oder Sie folgen dem obigen Beispiel und multiplizieren die Pixelgröße mit der horizontalen oder vertikalen Auflösung.

Effektiver Sensorbereich: Größer ist besser

Warum ist die Sensorgröße so wichtig? Stellen Sie sich vor, wie viel Licht durch die Linse auf den Sensor fällt, als würde Regen vom Himmel fallen. Sie haben jetzt eine Zehntelsekunde Zeit, um die derzeit fallende Wassermenge abzuschätzen.

  • Mit einem Schnapsglas wird dies für Sie relativ schwierig sein, aber in einer Zehntelsekunde fallen bei starkem Regen vielleicht ein paar Tropfen ins Glas – mit wenig Regen oder mit etwas Pech, vielleicht gar keinem. Ihre Einschätzung wird in beiden Fällen sehr ungenau sein.
  • Stellen Sie sich nun vor, Sie haben ein Planschbecken, um die gleiche Aufgabe auszuführen. Auf diese Weise können Sie leicht einige hundert bis einige tausend Regentropfen fangen, und dank der Oberfläche können Sie die Regenmenge genauer abschätzen.

Genau wie beim Beispiel für Schnapsglas, Planschbecken und Regen gilt dies auch für die Sensorgrößen und die Lichtmenge, sei es viel oder wenig. Je dunkler es ist, desto weniger Photonen werden von den Lichtkonvertern eingefangen – und desto ungenauer ist das Messergebnis. Diese Ungenauigkeiten äußern sich später in Fehlern wie Bildrauschen, gebrochenen Farben usw.

Bildsensorgrößen

Diese Grafik zeigt einige der derzeit in Smartphones verwendeten Sensorformate in einem maßstabsgetreuen Vergleich. / © NextPit

Zugegeben: Der Unterschied bei Smartphone-Bildsensoren ist nicht ganz so groß wie der zwischen einem Schnapsglas und einem Planschbecken. Die oben erwähnte Sony IMX586 in der Tele-Kamera des Samsung Galaxy S20 Ultra ist jedoch in Bezug auf die Flächengröße etwa viermal größer als der 1 / 4,4-Zoll-Sensor in der Tele-Kamera des Xiaomi Mi Note 10.

Wenn es um das Zoomen geht: Ob der Hersteller außen “100x” oder “10x” schreibt, entspricht in etwa dem durch den Tacho in einem Auto angegebenen Brustklopfen. Ein VW Golf mit einem Tachometer, der 360 km / h erreicht, fährt immer noch nicht schneller als ein Ferrari. Dies ist jedoch ein Thema, das in einem anderen Artikel behandelt werden sollte.

Golf kmh zurück

Was wäre, wenn die Höchstgeschwindigkeit des Autos hinten abgebildet wäre? Wenn jemand aus der Smartphone-Marketingabteilung für Volkswagen gearbeitet hat, gibt es vielleicht keine Spinouts mehr 😉 / © Volkswagen, Installation: AndroidPIT

Bayer Mask & Co.: Jetzt wird es bunt

Lassen Sie uns die Wasseranalogie von oben noch einmal betrachten. Wenn wir jetzt ein Raster von 4.000 mal 3.000 Eimern auf einer Wiese platzieren würden, könnten wir mit einer Auflösung von 12 Megapixeln die Niederschlagsmenge bestimmen und wahrscheinlich ein Bild der Wassersättigung von der Regenwolke über dem Kopf machen.

Wenn jedoch ein Bildsensor mit 12 Megapixeln die Lichtmenge mit seinen 4.000 mal 3.000 Photonenfallen erfassen würde, wäre das resultierende Foto schwarzweiß – da wir nur die absolute Lichtmenge gemessen haben. Wir können weder die Farben noch die Größe der fallenden Regentropfen unterscheiden. Wie entsteht Schwarzweiß als Farbfoto?

Der Trick besteht darin, eine Farbmaske über dem Sensor zu platzieren, die sogenannte Bayer-Matrix. Dies stellt sicher, dass entweder nur rotes, blaues oder grünes Licht die Pixel erreicht. Mit der klassischen Bayer-Matrix mit RGGB-Layout verfügt ein 12-Megapixel-Sensor dann über sechs Millionen grüne Pixel und jeweils drei Millionen rote und blaue Pixel.

bayer muster rggb ryyb

Das menschliche Auge kann Grüntöne besser unterscheiden. Interessanterweise sind Bildsensoren von Kameras auch in dieser Hinsicht besser positioniert und haben doppelt so viele grüne Pixel wie blaue oder rote Pixel. Rechts sehen Sie eine RYYB-Matrix – hier werden die grünen Pixel durch gelbe Pixel ersetzt. / © NextPit

Um aus diesen Daten ein Bild mit zwölf Millionen RGB-Pixeln zu erzeugen, verwendet die Bildverarbeitung typischerweise die grünen Pixel zum Demosaikieren. Unter Verwendung der umgebenden roten und blauen Pixel berechnet der Algorithmus dann den RGB-Wert für diese Pixel – eine sehr vereinfachte Erklärung. In der Praxis sind die Demosaikierungsalgorithmen beispielsweise viel intelligenter, um Farbsäume an scharfen Kanten zu vermeiden. Dasselbe Prinzip gilt für die roten und blauen Pixel, bei denen ein farbenfrohes Foto schließlich im internen Speicher Ihres Smartphones landet.

Quad Bayer und Tetracell

Unabhängig davon, ob es sich um 48, 64 oder 108 Megapixel handelt, haben die meisten der derzeit extrem hochauflösenden Sensoren in Smartphones eines gemeinsam. Während der Sensor selbst tatsächlich 108 Millionen Eimer Wasser- oder Lichtsensoren hat, hat die darüber liegende Bayer-Maske eine um den Faktor vier niedrigere Auflösung. Es gibt also vier Pixel unter jedem Farbfilter.

Bildsensor Pixelgrößen Quad Bayer

Ob Quad-Bayer- oder Samsung Tetracell-Sensoren: Immer mehr Bildsensoren haben vier Pixel, die sich einen Farbfilter teilen. Übrigens ist die Pixelgröße für die Bildqualität relativ unbedeutend. Ein winziger Sensor mit wenigen, aber großen Pixeln macht keine großartigen Fotos. Und ein großer Sensor kann viele kleine Pixel mit einer gigantischen Auflösung liefern. / © NextPit

Dies sieht natürlich unglaublich gut aus, wenn es im Datenblatt angegeben wird. Ein 48-Megapixel-Sensor! 108 Megapixel! Es sind nur Ballonfiguren, die die Fantasie anregen. Und wenn es dunkel ist, können die winzigen Pixel zu großen Superpixeln kombiniert werden, um großartige Nachtaufnahmen zu liefern.

Paradoxerweise bieten viele billigere Smartphones jedoch überhaupt nicht die Möglichkeit, 48-Megapixel-Fotos aufzunehmen – oder bieten im 12-Megapixel-Modus im direkten Vergleich sogar eine schlechtere Bildqualität. In allen mir bekannten Fällen sind die Smartphones beim Aufnehmen von Bildern mit maximaler Auflösung so viel langsamer, dass die leichte Qualitätssteigerung einfach nicht die Zeit wert ist – zumal 12, 16 oder 27 Megapixel für den Alltag völlig ausreichend sind Verwenden Sie den Speicher Ihres Geräts und erschöpfen Sie ihn nicht so schnell.

Der größte Teil der Marketing-Propaganda, die Dutzende von Megapixeln in das Gebiet der Tripe-Digit drängt, wird möglicherweise ignoriert. In der Praxis sind hochauflösende Sensoren jedoch tatsächlich größer – und die Bildqualität bietet spürbare Vorteile.

Der SuperSpectrum-Sensor von Huawei: das gleiche in Gelb

Es gibt auch einige Ableitungen der Bayer-Matrix, wobei das bekannteste Beispiel die sogenannte RYYB-Matrix von Huawei ist (siehe Grafik oben), bei der das Absorptionsspektrum der grünen Pixel nach gelb verschoben ist. Dies hat – zumindest auf dem Papier – den Vorteil, dass mehr Licht absorbiert wird und mehr Photonen im Dunkeln am Sensor ankommen.

Quanteneffizienz rggb ryyb

Quanteneffizienzdiagramme zeigen, wie empfindlich verschiedene Sensoren auf Licht unterschiedlicher Wellenlängen reagieren. Beim rechten RYYB- oder RCCB-Sensor ist das Intervall unterhalb der grünen oder gelben Absorptionskurve daher viel größer. Die grün-gelben Pixel reagieren jedoch stärker auf den “roten Frequenzbereich”, was die Demosaikierung erschwert. / ©
Gesellschaft für bildgebende Wissenschaft und Technologie

Die vom Sensor gemessenen Wellenlängen sind jedoch im Spektrum nicht mehr so ​​gleichmäßig verteilt und im Vergleich zu einem RGGB-Sensor so deutlich voneinander getrennt. Um genaue Farbwiedergabepegel aufrechtzuerhalten, müssen die Anforderungen an die Algorithmen, die anschließend die RGB-Farbwerte interpolieren müssen, entsprechend steigen.

Es ist nicht möglich vorherzusagen, mit welchem ​​Ansatz am Ende bessere Fotos erzielt werden. Dies hängt weitgehend von den praktischen Tests und Labortests ab, die dazu neigen, die eine oder andere Technologie als „besser“ zu beweisen.

Kamera-Software: Der Algorithmus ist alles

Abschließend möchte ich noch ein paar Worte zu den beteiligten Algorithmen sagen. Dies ist umso wichtiger im Zeitalter der Computerfotografie, in dem das Konzept der Fotografie verschwimmt. Ist ein Bild aus zwölf Einzelfotos wirklich noch ein Foto im ursprünglichen Sinne?

Sicher ist: Der Einfluss der Bildverarbeitungsalgorithmen ist weitaus größer als die Anzahl der Bits in einem Sensorbereich. Ja, ein Flächenunterschied um den Faktor zwei macht einen großen Unterschied. Ein guter Algorithmus macht aber auch viel Boden gut. Sony, der Weltmarktführer für Sensoren, ist ein gutes Beispiel dafür. Obwohl die meisten Bildsensoren (zumindest technologisch) aus Japan stammen, blieben Xperia-Smartphones in Bezug auf die Bildqualität immer hinter der Konkurrenz zurück. Japan kann Hardware, aber wenn es um Software geht, sind die anderen weiter fortgeschritten.

Charge 20190313 143555 Seite

Zwei Fotos mit dem
Samsung Galaxy S10. Links wurde die Google-Kamera verwendet, rechts die Samsung-eigene Kamera-App. Der HDR-Modus von Google ist dem von Samsung überlegen. Kein Wunder, dass viele Smartphone-Nutzer die Kamera von Google auf ihren Handys bevorzugen. / © NextPit

An dieser Stelle möchte ich auf die ISO-Empfindlichkeit hinweisen, die auch einen eigenen Artikel verdient: Bitte lassen Sie sich niemals von ISO-Nummern beeindrucken. Bildsensoren haben in fast allen Fällen eine einzige native ISO-Empfindlichkeit *, die in Datenblättern nur sehr selten aufgeführt ist. Die ISO-Werte, die der Fotograf oder die Kameraautomatisierung während des eigentlichen Aufnahmeprozesses eingestellt haben, entsprechen eher der Verstärkung – einem Grad “Helligkeitsregelung”. Wie “lang” der Maßstab dieser Helligkeitsregelung ist, kann frei definiert werden. Das Schreiben eines Werts wie ISO 409.600 in das Datenblatt ist also genauso sinnvoll wie bei einem VW Golf. Nun, lassen Sie uns diesen Weg nicht gehen.

* Es gibt tatsächlich einige duale ISO-Sensoren mit zwei nativen Empfindlichkeiten auf dem Kameramarkt, wie beispielsweise den Sony IMX689 im Oppo Find X2 Pro, zumindest behauptet Oppo dies. Andernfalls ist dieses Thema eher in professionellen Kameras wie der BMPCC 6K zu finden.

Autofokus: PDAF, 2×2 OCL & Co.

Ein kleiner Exkurs am Ende, der in direktem Zusammenhang mit dem Bildsensor steht: das gesamte Thema Autofokus. In der Vergangenheit haben Smartphones den richtigen Fokus über den Kontrast-Autofokus ermittelt. Dies ist eine langsame und rechenintensive Kantenerkennung, die Sie wahrscheinlich aus dem nervigen Fokuspumpen kennen.

Die meisten Bildsensoren haben inzwischen einen sogenannten Phasenvergleichs-Autofokus, auch PDAF genannt, integriert. Der PDAF verfügt über spezielle Autofokuspixel im Sensor, die in zwei Hälften unterteilt sind und die Phasen des einfallenden Lichts vergleichen und die Entfernung zum Motiv berechnen. Der Nachteil dieser Technologie ist, dass der Bildsensor an diesen Punkten “blind” ist – und diese blinden Fokuspixel können je nach Sensor bis zu drei Prozent der Fläche beeinflussen.

AndroidPIT oppo finden x2 pro Fokusgeschwindigkeit

Alter, das ist großartig! Der Oppo Find X2 Pro fokussiert dank seines 2×2 OCL-Sensors im Videomodus unglaublich schnell. Ein Kontrast-Autofokus kann nur von einer solchen Geschwindigkeit träumen / © NextPit

Nur zur Erinnerung: Weniger Oberfläche bedeutet weniger Licht / Wasser und anschließend eine schlechtere Bildqualität. Darüber hinaus müssen die Algorithmen diese Fehler genau so retuschieren, wie Ihr Gehirn den “blinden Fleck” verstehen muss.

Es gibt jedoch einen eleganteren Ansatz, der Pixel nicht unbrauchbar macht. Die bereits auf dem Sensor vorhandenen Mikrolinsen sind stellenweise auf mehrere Pixel verteilt. Sony nennt dies beispielsweise 2×2 OCL oder 2×1 OCL, je nachdem, ob die Mikrolinsen vier oder zwei Pixel kombinieren.

Sony 2x2 ocl

Vier Pixel unter einem Farbfilter in einer Mikrolinse: Die 2×2-OCL-Technologie von Sony verwandelt alle Pixel in Autofokus-Kreuzsensoren. / © Sony

In Kürze widmen wir dem Autofokus einen separaten, ausführlicheren Artikel. Worauf achten Sie beim Kauf eines neuen Smartphones bei einer Kamera? Und zu welchen Themen rund um die mobile Fotografie möchten Sie mehr lesen? Ich freue mich auf Ihre Kommentare!

Weitere Artikel zu Smartphone-Kameras und Fotografie:

Leave a Reply

Your email address will not be published. Required fields are marked *