Die MegaPixel-Lüge - Ein Essay

  • Zitat von "mol"


    Der Begriff Bayer Sensor ist ein bisschen Irreführend, die Farbmatrix und Interpolation ist ja elementarer Teil des Bayersensors. Ohne Farbseparation ist es kein Bayer Sensor mehr ... sondern nur noch ein Sensor der Helligkeitswerte aufnimmt.
    Und natürlich hat sowas eine boshafte, weil native, Auflösung im Vergleich zu Bayer Sensoren oder Foveons


    Such dir mal die Erfahrungsberichte zu den alten Kodak DCS 760m im Web, das waren 6MP (aps-h) B&W Kameras, also ohne Bayermatrix und Interpolation.


    ps: Nop hat recht


    Naja, ist doch aber, was ich auch sagte!? Jede Zelle kann grundsätzlich nur eine Helligkeit messen, aaaaaber durch den Farbfilter davor, kann sie das nur für Licht der jeweiligen Farbe.


    Ich erinnere mich an die Kodak. Rancid hatte die mir mal zu Penums Zeiten verlinkt ... und in der Tat frage ich mich immer noch, warum man die Farbfilter nicht einfach wegläßt und ne tolle pixelscharfe sw-Kamera auf den Markt bringt.

  • Zitat von "Icebear"

    ...Ich wollte nur die Gemeinde ein bisschen für die MPixel-Thematik und die damit verbundenen Probleme und Ungenauigkeiten sensibilisieren.... :!:


    ich glaube, dass die hier intensiv lesenden und postenden User bei allen Themen, die mit Pixel und deren Anzahl zu tun haben, sogar schon hypersensibilisiert sind...und das ganz besonders, wenn es um unsinnige Pixel-Zählerei oder Pixel-hoch/runter-Rechnerei geht.
    In dieser Richtung dürfte sich jegliche Missionarsarbeit erübrigen?! Den Marketing-Pixel-Wahn wird hier wohl kaum einer gut finden...


    Generell ist es ja auch ziemlich egal, mit welcher Art von Sensor und welcher Pixelanordnung das "digitale Negativ" entstanden ist...das wirklich Qualitätskriterium dürfte wohl immer das angestrebte (oder max. mögliche) Endergebnis sein...aber selbst dabei gibt es persönliche Interpretationsmöglichkeiten. Je nach Vorliebe (und Augenleiden) finden verschiedene Betrachter das Bild unterschiedlich "scharf, gut, angenehm, überscharf..oder so".
    Messtechnisch ist da auch nicht viel zu holen...die oft zu Rate gezogene Linienauflösung sagt ja Nichts aus über Mikrokontrast, Überschwinger u.s.w.


    Das die Aufbearbeitung der Pixelinformationen durch Firm-Software, die Güte der Optik, die Fokusgenauigkeit, die Auslegung des AA-Filters, der mögliche Kontrastumfang, die gewählte Kontrastkurve, die Rauschreserve...(was hab' ich noch vergessen?)...bis hin zur Tröpfchengröße des Druckers...) einen maßgeblichen Einfluss auf das "Endergebnis" haben, das wurde hier ja schon erwähnt....

    Vom PC mit Tastatur und Maus

    Einmal editiert, zuletzt von x33 ()

  • Zitat von "RitterRunkel"

    Ein Bayer-Sensor sammelt doch nicht mit jeder Zelle einen Helligkeitswert und zusätzlich einen Farbwert


    Nein. Jede Zelle sammelt nur den Helligkeitswert. Der Prozessor weiß aber, welcher Farbfilter vor genau dieser Zelle sitzt und hat daher den Helligkeitswert für einen Farbkanal.


    Zitat von "RitterRunkel"

    Das hieße ja, in schwarz-weiß wäre der Bayer-Sensor dem Foveon in aller Deutlichkeit, sprich genau im Verhältnis der resultierenden Bildauflösungen, überlegen.


    Genau so ist es.
    Deshalb schrieb ich oben, die Auflösungstests mit SW-Linienrastern und Siemenssternen sagen nicht die ganze Wahrheit über das Auflösungsvermögen von Bayer-Sensoren, weil sie das Manko - nämlich die Interpolation der Farbwerte von Zelle zu Zelle - vernachlässigen.
    Fotografiere mit einem Bayersensor eine reine Farbfläche mit einer nur einen Pixel starken anders (rein-)farbigen Linie, die beide den gleichen Luninanzwert haben. Sie wird vermutlich nicht sichtbar sein, sie wird weginterpoliert. Beim Faveon-Sensor wird sie zu sehen sein - vorausgesetzt sie ist nicht feiner als das Auflösungsvermögen jeder einzelnen Schicht.


    Zitat von "RitterRunkel"

    Es ist doch vielmehr so, daß jeder Pixel in den Rohdaten aus einem RGB-Wert besteht, sprich Anteile der drei Grundfarben. Der Luminanzwert/-kanal ergibt sich dann aus diesem RGB-Wert, bzw. diesen Werten, oder nicht? Das war bislang jedenfalls mein Verständnis. Hinzu kommt, daß ich nicht das Gefühl habe, die Helligkeitswerte meiner 5D seien interpolationsfrei ...


    Nur in den Rohdaten, die Du zu sehen bekommst. Die Roh-Rohdaten enthalten per Pixel nur die Luminanzwerte eines Kanals.

  • ...Lucky hats ja schon erklärt *g*


    Hier wurde allerdings so getan, als wenn einfach drei Pixel Pi mal Daumen zusammengerechnet werden würden, was schlicht Unsinn ist.


    Das zeigt sich ja auch in der Realität sehr einfach. Wenn derart ungenau gearbeitet werden würde, wäre die Wiedergabe von Messcharts und Siemenssternen in derartig enormer Feinheit nicht möglich. Es kann keine Linie in einem Messchart wiedergegeben werden, wenn sie vom Sensor nicht aufgezeichnet wurde.


    Ich hatte zum Thema Auflösung immer zwei Bilder verlinkt, eines davon wurde ja schon erwähnt. Ich poste sie nochmal als Beispiele.


    Erstmal das der 5d MarkII welches sowohl Fluch und Segen des Bayer Sensors zeigt. Die Details sind selbst beim 21pix Sensor extrem hoch. Viel mehr, wird man wohl nicht bei 21Mpix sehen können:

    Den Nachteil sieht man aber auch gut und zwar den Moiré Effekt


    Dann hier nochmal das aus der 5d MarkI :



    Um vielleicht nochmal ganz kurz auf die Sache mit dem Farbinterpolieren zurückzukommen. Es ist vielleicht ein missverständlicher Begriff für den Vorgang. Die Farben werden ja mehr Interpretiert. Es gibt einen für uns aus den drei RGB-Pixeln errechneten Farbwert, welcher dann an den jeweiligen Ausschlag des einzelnen Pixels angepasst wird. Das ergibt dann halt drei völlig unterschiedliche Pixel, auch wenn die Farbe die selbe ist...

  • Man sagt ja, daß der 4,6 MP Sensor der Sigma Kameras ungefähr 6-8MP einer Kamera mit APS-C Bayer-Sensor entspricht.
    Ich kann das beim Vergleich von Nikon D50 und Sigma DP1 bestätigen.
    Bei SW Aufnahmen sieht die Sache anders aus. Hier hat der Bayer-Sensor Vorteile bei der Auflösung.
    LG Jö

  • ...Lucky,

    Zitat

    Fotografiere mit einem Bayersensor eine reine Farbfläche mit einer nur einen Pixel starken anders (rein-)farbigen Linie, die beide den gleichen Luninanzwert haben. Sie wird vermutlich nicht sichtbar sein, sie wird weginterpoliert.


    Genau da ist der Punkt. Die Auflösung ist real fast komplett vorhanden, aber manchmal auch nicht.


    Da wo der Moiré Effekt zuschlägt, ist das Bild auch nicht gut aufgelöst. So können Dächer dann schnell unscharf, bzw. wenig detailliert wirken. Man sieht es auf dem Bild der 5d MarkII beim hinteren rechten Gebäude sehr gut. Genauso sieht man dann aber wieder das extreme Detailaufkommen in den Bäumen, genauso auch auf den Betonflächen. Es mögen einige Sachen wegkommen, aber insgesamt ist die Auflösung schon enorm.


    Ich hätte jetzt allerdings auch kein Problem damit, wenn ich einen KB-Foveon mit 20Mpix bekommen könnte. Denn was die Tiefe der Farbwiedergabe angeht, ist der Foveon einzigartig, einfach weil er da feiner bei jedem Pixel feiner abstuft... .

  • Ich hab bei unseren Nachbarn Bier und Eierlikör gekübelt und bin müde ... lese das morgen nochmal aufnahmefähiger nach. Aber was mir im Moment beim müden interessierten Überfliegen fehlt, ist eine Erklärung, wieso der Bayer-Sensor so gut die Helligkeitsinformationen aufnehmen können soll.


    Vor jeder Zelle die Helligkeiten speichert sitzt ein Farbfilter ... soweit ich das sehe, hat das lucky ja auch bestätigt. Es wird von einer Zelle mit Rotfilter nur die Helligkeit des roten Farbkanals erfaßt. Kommt aber nur Grün auf diese Zelle, wird hier doch keine Helligkeit erfaßt?


    Und das mit der Linie habe ich auch nicht verstanden. Wenn der Bayer-Sensor nur Farbinformationen missen sollte, aber alle Helligkeitsinfos hat, sollte die doch eben _nicht_ verschwinden? Ich bin vielleicht einfach zu müde ... morgen dann. ;)


    €: Ha, zweiter Anlauf, das mit der Linie ist mir klar, also wie es gemeint war. Wie der Bayer-Sensor die Luminanz für jeden Pixel erfassen soll, ist mir hingegen nach wie vor unklar.

  • Ich denke, das Hauptproblem liegt in der falschen Benennung von "Auflösung", denn die wird normalerweise in dpi ausgedrückt. Das in den Datenblättern Angegebene ist die Bildgröße, die dann - multipliziert - in MP angegeben und immer mehr zur Augenwischerei der Kunden für die Platzierung der Kameras bei den Kistenschiebern wird.


    Um dem Endverbraucher ein angemessenes Entscheidungskriterium für potentiell bessere Bildqualität an die Hand zu geben, könnten die Hersteller in den einzelnen ISO-Stufen die tatsächliche Auflösung in dpi messen - also die wirklich scharfen Pixel, nicht das Weggematschte.


    Aber wie bei der schon seit Jahren ausbleibenden Kennzeichungspflicht für Nahrungsmittel wäre die Wahrheit den Herstellern wohl eher unangenehm ... :ugly:

  • digiknipser: Das mit der Auflösung sehe ich nur bei einigen Stock-Agenturen u.ä.; wenn man seine Bilder in 300dpi hochladen soll ... ähm ja. Sehr nutzlos.


    Die beworbene "effektive Auflösung" halte ich übrigens auch für unglücklich. Wozu denn "effektiv"? Entweder die Auflösung ist gegeben, oder nicht. Effektiv bedingt doch irgendwie auch eine Angabe, wofür sie effektiv ist. Ghoosty schreibt für ein Bildformat. Mag sein. Aber warum fehlt dann diese zusätzliche Angabe, und warum soll ich nicht auch ein Bild im Format 3,0001:2 effektiv nutzen können. Daß viele nur 3:2 anzeigen, ausgeben, oder ausbelichten ist mir eigentlich egal.


    Und nu bin ich nicht mehr müde und verstehe dennoch nicht, wie ein Helligkeitswert bei grünem Licht durch eine Zelle erfaßt werden soll, der ein Rotfilter vorgehalten wird. Kann mir das jemand erklären?


    Da hilft mir das Beispiel daß bei gleicher Luminanz eine Farblinie nicht abgebildet wird so wenig weiter, wie Beispiele aus der 5D, die ich selbst zu hunderten auf Platte habe. Und selbst die Farblinie würde man doch nur bei gleicher Luminanz nicht sehen, wenn sie beispielsweise rot ist und quer über die grün-blau-Pixelreihe läuft. Sonst würde der Algorithmus doch hoffentlich in der Lage sein, von Rotpixel zu Rotpixel die Linie zu rekonstruieren und wie gesagt, das Mosaik damit per Interpolation zu stopfen.


    Bitte um Aufklärung! ;)

  • Zitat von "RitterRunkel"

    Und nu bin ich nicht mehr müde und verstehe dennoch nicht, wie ein Helligkeitswert bei grünem Licht durch eine Zelle erfaßt werden soll, der ein Rotfilter vorgehalten wird. Kann mir das jemand erklären?


    vll. ist ja die Helligkeitsdifferenz zwischen Rot und Grün eine Konstante und wird bei der Auswertung dementsprechend berücksichtigt?

    • Offizieller Beitrag
    Zitat von "RitterRunkel"


    Und nu bin ich nicht mehr müde und verstehe dennoch nicht, wie ein Helligkeitswert bei grünem Licht durch eine Zelle erfaßt werden soll, der ein Rotfilter vorgehalten wird.


    Nach meinem Verständnis muss es das doch auch gar nicht. Wenn reinstes grünes Licht auf die Zelle mit dem Rotfilter trifft, darf diese natürlich keinen Helligkeitswert erfassen. Dieser Fall ist aber ziemlich praxisfern, da in der Natur äußerst selten grünes, rotes oder blaues Licht in Reinform auftritt.
    Das Licht ist ja quasi immer mehr oder weniger "gemischt", daher wird die Zelle in dem Beispiel auch so gut wie immer einen gewissen grünen Helligkeitsanteil verzeichnen, auch bei vermeintlich rein grünem Licht. Der Interpolationsvorgang besteht ja dann anschließend darin, aus den Farbhelligkeits-Informationen der Nachbarpixel die jeweils korrekte Farbe der Zelle zu errechnen.
    Der Grad der Interpolation ist dabei natürlich sehr hoch, aber er betrifft eben nur die Farbinformationen.
    Zitat aus wikipedia:

    Zitat

    Für Grün werden somit 50% der Pixel errechnet, bei Blau und Rot sind es jeweils 75% der Fläche (oder in einer Zeile 50% und in der Folgezeile 100% der Zeile), die durch Berechnung gefüllt werden müssen. Bei der Farbinterpolation geht man davon aus, dass es im Bild zwischen zwei benachbarten Pixeln gleicher Farbe nur zu geringen Farbunterschieden kommt und somit die Grauwerte der Pixel stochastisch nicht unabhängig voneinander sind.

    • Offizieller Beitrag
    Zitat von "FrankDpunkt"


    vll. ist ja die Helligkeitsdifferenz zwischen Rot und Grün eine Konstante und wird bei der Auswertung dementsprechend berücksichtigt?


    Das ist gemäß Wikipedia einer der Ansätze, die bei den Interpolations-Algorithmen verfolgt werden:

    Zitat

    ... Wieder andere Algorithmen beruhen auf der Annahme, dass der Farbton einer Fläche im Bild auch bei sich ändernden Lichtverhältnissen relativ konstant ist. Daher wird zuerst der grüne Kanal interpoliert, um danach den roten und den blauen Kanal so zu interpolieren, dass die jeweiligen Farbverhältnisse Rot-Grün beziehungsweise Blau-Grün konstant sind.[1] Es existieren noch weitere Verfahren, die andere Annahmen über den Bildinhalt machen und von diesen ausgehend versuchen, die fehlenden Farbwerte zu berechnen.

  • Also ich hab mir das mit dem Bayer-Pattern immer so vorgestellt:


    Die Sensoren sind schachbrettartig angeordnet und die RGB-Information wird jeweils in den Eckpunkten ermittelt. Dort habe ich einen Wert für Rot, einen für Blau und zwei für Grün zur Verfügung. Benachbarte Pixel teilen sich jeweils zwei Sensoren, oder anders ausgedrückt der Wert eines jeden Sensors geht in 4 Pixel ein. Das ganze funktioniert bei Flächen wunderbar, es kann aber niemals 1 Pixel breite Linien geben, das gibt diese Anordnung nicht her.

  • Zitat von "RitterRunkel"


    Und nu bin ich nicht mehr müde und verstehe dennoch nicht, wie ein Helligkeitswert bei grünem Licht durch eine Zelle erfaßt werden soll, der ein Rotfilter vorgehalten wird. Kann mir das jemand erklären?


    Wie Icebear schon schrieb:
    Es wird zwar bei jeder Diode des Sensors nur eine Farbhelligkeit gemessen, aber zur Errechnung des RGB-Wertes eines Pixels werden 4 benachbarte Werte (RGGB) genutzt. Zur besseren Vorstellung: Die einzelnen physikalischen Pixel (=Dioden) auf dem Sensor entsprechen nicht den Pixeln, die am Ende das Bild ausmachen.. Wenn man so will, entspricht ein Pixel des Bildes jeweils einem Viertel der angrenzenden Dioden des Sensors.. Oder von der anderen Seite: Ein Pixel (=Diode) des Sensors liefert Informationen für vier Pixel des Bildes..

  • Zitat von "Icebear"

    Deswegen habe ich (auch wenn das so nicht ganz korrekt ist) die Megapixel-Zahl einfach geviertelt...
    Also: Eine 12-MPixel Cam hat 3 Mio. unabhängige RG(G)B-Pixel


    Und das finde ich noch realitätsfremder (bzw. "falscher" ;) ) als die von Dir kritisierte "Megapixel-Lüge".. Damit Deine Rechnung passen würde, müsste das von Dir gezeigte Prinzip so aussehen:


    (die weißen Pixel würden aus den vier umgebenden Sensordioden-Daten berechnet und die schwarzen dann aus den weißen interpoliert)
    Da es aber so nicht ist und jeder Pixel aus vier "echten" Farbinformationen ermittelt wird, wirkt Dein polemischer Eingangsbeitrag, als wolltest Du den Teufel mit dem Beelzebub austreiben.. ;)
    Dass dieses System Grenzen hat (s. luckyshot/ghooosty) und ein Pixel des Bildes nicht 1:1 einem realen Punkt entspricht, dürfte natürlich klar sein.. Aber im Regelfall denke ich, dass die Auflösung des Bildes näher an die echte Auflösung des Sensors kommt als an das von Dir genannte Viertel..

    • Offizieller Beitrag
    Zitat von "Icebear"

    Also: Eine 12-MPixel Cam hat 3 Mio. unabhängige RG(G)B-Pixel


    Dass die benachbarten Pixel für die Farbinterpolation herangezogen werden, heisst ja nicht, dass jeweils 4 Pixel als eine geschlossene Einheit arbeiten.
    Ein einzelnes Pixel mag zwar Informationen für 4 nebenstehende Pixel liefern, bekommt aber selbst ja genauso die "Hilfe" der benachbarten Pixel, im Prinzip ein Geben und Nehmen über die geamte Sensorfläche verteilt. Alle 12 Millionen Pixel sind im Grunde miteinander verzahnt und jedes der 12 Millionen Pixel hat am Ende eine eindeutige Farb- und Helligkeitsinformation. Von nur 3 Millionen "unabhängiger RGGB-Pixel" kann keine Rede sein.


    Edit: Ich werde alt, der NOP war deutlich schneller... :duck:

  • Natürlich sehr viel näher an der Pixelzahl, als an der Drittelregel.


    Theoretisch ist ja ein S/W Bild mit sämtlichen Helligkeitswerten nach Anzahl der Photodioden vorhanden.
    Je mehr, desto detaillierter, in der Theorie zumindest.


    Dieses S/W wird nachtäglich mit den, durch die RGB Filter erkannten und danch so relatitätsgetreu wie möglich interpolierten
    Farbwerten gefüttert.



    Dabei gibt es dann Verlust durch die Optik, denn AA und natürlich durch eine nicht perfekte
    Interpolation der Farbwerte.


    Aber so übern Daumen müssten leicht 50-75% an "realer Auflösung" übrig Bleiben.
    Angenommern der AA ist nicht zu dick und die Optik taugt was.
    Dann kommts natürlich auch ganz auf die Farbverteilung auf dem Motiv an.....

  • Zitat von "FrankDpunkt"


    vll. ist ja die Helligkeitsdifferenz zwischen Rot und Grün eine Konstante und wird bei der Auswertung dementsprechend berücksichtigt?


    Eine Konstante? Unter Konstanten der Physik und angenommenen Werten verstehe ich etwas anderes. Das wird doch nur so angenommen, laut Wikipedia, oder nicht? Diese Annahmen aufgrund von Wahrscheinlichkeit und Nähe zu gemessenen Werten nenne ich: Interpolation.


    Zitat von "PhilippV3"


    Das Licht ist ja quasi immer mehr oder weniger "gemischt", daher wird die Zelle in dem Beispiel auch so gut wie immer einen gewissen grünen Helligkeitsanteil verzeichnen, auch bei vermeintlich rein grünem Licht. Der Interpolationsvorgang besteht ja dann anschließend darin, aus den Farbhelligkeits-Informationen der Nachbarpixel die jeweils korrekte Farbe der Zelle zu errechnen.
    Der Grad der Interpolation ist dabei natürlich sehr hoch, aber er betrifft eben nur die Farbinformationen.


    Mischlicht -> Zustimmung. Die meisten Zellen werden einen Wert aufzeichnen.
    Korrekte Farbe errechnen -> Die korrekte Farbe wird errechnet? Was ist denn bei Dir korrekt? Eine Messung, oder eine errechnete wahrscheinliche Schätzung? Für mich klingt "errechnete Korrektheit" paradox.
    Interpolation betrifft nur Farbinformationen -> Es werden nur Farbinformationen interpoliert, weil jeder Pixel so gesehen NUR aus Farbinformationen, sprich: aus einem RGB-Wert besteht. Werden Anteile seiner Farben interpoliert, so automatisch auch seine aus allen drei Kanälen resultierende Helligkeit! Weil eben keine Zelle einen Luminanzwert und zusätzlich noch ne Farbe abgreift.


    Zitat von "NOP"


    Und das finde ich noch realitätsfremder (bzw. "falscher" ;) ) als die von Dir kritisierte "Megapixel-Lüge".. Damit Deine Rechnung passen würde, müsste das von Dir gezeigte Prinzip so aussehen
    ...
    Aber im Regelfall denke ich, dass die Auflösung des Bildes näher an die echte Auflösung des Sensors kommt als an das von Dir genannte Viertel..


    Ja, sehe ich auch so, einfach Vierteln paßt wirklich nicht.


    Zitat von "NOP"


    Dass dieses System Grenzen hat (s. luckyshot/ghooosty) und ein Pixel des Bildes nicht 1:1 einem realen Punkt entspricht, dürfte natürlich klar sein..


    Moment, genau das wird hier aber - für sw-Bilder - behauptet. Oder wurde hier nicht von 12,7 Mio Helligkeiten geschrieben, die eine 5D mißt? Sie mag durch das Mischlicht 12,7 Helligkeiten aufzeichnen, aber die entsprechen nicht alle der realen Helligkeit des jeweiligen Punktes.


    Zitat von "PhilippV3"


    Alle 12 Millionen Pixel sind im Grunde miteinander verzahnt und jedes der 12 Millionen Pixel hat am Ende eine eindeutige Farb- und Helligkeitsinformation.


    Richtig, durch das Wesen der Bayer-Matrix. Deshalb ist diese so geschickt. Durch die Verteilung der Pixel mit den jeweiligen Farbfiltern fällt es so relativ leicht, am Ende für die 12 Mio Pix eine Farb- und Helligkeitsinformation anzugeben, die _wahrscheinlich_ ist. Das meinte ich mit meiner Zustimmung, daß sich leichter interpolieren ließe, als ein fertiges pixelscharfes Bild großzurechnen.


    Zitat von "modena"


    Theoretisch ist ja ein S/W Bild mit sämtlichen Helligkeitswerten nach Anzahl der Photodioden vorhanden.
    Je mehr, desto detaillierter, in der Theorie zumindest.
    Dieses S/W wird nachtäglich mit den, durch die RGB Filter erkannten und danch so relatitätsgetreu wie möglich interpolierten
    Farbwerten gefüttert.


    Meines Wissens werden nur die Farbwerte als jeweilige Helligkeit unter dem Farbfilter erfaßt. Wir haben weder drei komplette Graustufenbilder für je R, G und B, noch haben wir einen kompletten Luminanzkanal, dem wir nur die unvollständigen Farbkanäle nachfüttern.

  • Zitat von "RitterRunkel"


    Moment, genau das wird hier aber - für sw-Bilder - behauptet. Oder wurde hier nicht von 12,7 Mio Helligkeiten geschrieben, die eine 5D mißt? Sie mag durch das Mischlicht 12,7 Helligkeiten aufzeichnen, aber die entsprechen nicht alle der realen Helligkeit des jeweiligen Punktes.


    Die Sensordioden sehen keine Farbe, nur Helligkeit. Die 5D misst also 12,7 Mio Helligkeiten, die durch den Bayer-RGB-Farbfilter (und dem Wissen der Kamera, welcher Diode welcher Farbfilter vorgehängt ist) jeweils der entsprenden Farbe zugeordnet werden.. Aus jeweils vier dieser Werte (RGGB) wird dann ein RGB-Pixel errechnet (interpoliert), der dann einer von 12,7 Mio RGB-Pixeln ist, die das Bild bilden..


    Bsp: Ein 2x2 Bereich hat die RGB Farbe 0-128-255, dann kommt an der rot Diode nichts an (=schwarz), an den grün-Dioden kommt Schummerlicht an (=grau) und an der blau-Diode volle Pulle (=weiß).. Daraus kommt die Kamera darauf, dass es dort SO aussieht.. ;)


    Oder anders gesagt:

    Zitat von "RitterRunkel"


    Meines Wissens werden nur die Farbwerte als jeweilige Helligkeit unter dem Farbfilter erfaßt. Wir haben weder drei komplette Graustufenbilder für je R, G und B, noch haben wir einen kompletten Luminanzkanal, dem wir nur die unvollständigen Farbkanäle nachfüttern.


    trifft's schon recht gut..


    Theoretisch könnte man also, wenn man den Farbfilter vor dem Sensor weglässt (und die Bayer-Nachbearbeitung/-interpolation), ein "perfektes" SW-Bild kriegen, bei dem ein Pixel auf dem Sensor genau dem Pixel entspricht, der durch das Objektiv gepurzelt kam.. In unserer Farbwelt ist aber ein Endpixel die Mischung aus vier Pixeln, die das Objektiv auf den Sensor warf..