Die MegaPixel-Lüge - Ein Essay

  • Es tauchen ja immer wieder mal so Aussagen auf, wie: "Um ein Foto auf A3 auszubelichten, benötigt man mindestens 10MPixel" (Rein hypothetisch... denn bei 300dpi müssten es gar 17MPixel sein!)


    Um sich dem Thema auf einer soliden Basis zu nähern, sollte zuerst mindestens ein Begriff geklärt werden: Der (oder das?) Pixel.
    Die Wikipedia schreibt dazu (unter anderem) folgendes (Quelle:(

    Zitat

    Pixel, Bildpunkt, Bildzelle oder Bildelement (selten Pel) bezeichnet sowohl die kleinste Einheit einer digitalen Rastergrafik als auch deren Darstellung auf einem Bildschirm mit Rasteransteuerung.
    [...]
    Die im Pixel verwendete Kodierung der Farbe definiert sich unter anderem über den Farbraum und die Farbtiefe.
    [...]
    Ein Bildschirmpixel besteht in der Regel aus drei Farbpunkten jeweils einer Grundfarbe (Rot, Grün und Blau).


    Was macht jetzt so ein "armer Kerl" mit einer Sigma SD15. Die Bilder haben grad mal 3,3 MPixel, sind also bestenfalls für 13x18-Ausbelichtungen zu benutzen! Man könnte die Bilder ja auf 10 oder gar 17 MPixel interpolieren, dann wäre das mit dem Ausbelichten kein Problem mehr... :ugly:


    Da nehme ich doch gleich eine Kamera mit mehr MPixel! Beispielhaft muss jetzt eine Canon 1100D herhalten. Die hat immerhin 12,2 MPixel effektiv (Aussage Canon). Aha, effektiv. Das wird ja immer interessanter. Damit kann ich dann ja (mit etwas Crop-Spielraum) guten Gewissens immerhin 20x30 ausbelichten.


    Die Interpolation, die beim Foveon-Bild nur Kopfschütteln hervorruft, ist bei fast allen anderen Cams quasi inklusive! Schließlich (und da erzähle ich den meisten von Euch ja sicher nichts neues), basieren die meisten Chips auf Bayer-mäßig angeordneten R-, G- und B-Sensoren, die nebeneindander liegen. Aus den 12,2MPixeln der o.g. 1100D werden durch geeignete Division plötzlich reale 3 MPixel Informationsgehalt. (Ich mag das Wort "real" eigentlich nicht, aber da "effektiv" hier leider schon vergeben ist... :( )


    Bis hierher ist das ganze ja eigentlich kalter Kaffee, seit vielen Jahren bekannt und hat sich mittlerweile dermaßen eingeschliffen, dass man sich kaum mehr Gedanken darüber macht.


    Man könnte das als sprachliche Ungenauigkeit abtun. Schließlich hat eine Mega-Zoom-Kamera auch keinen Zoomfaktor von 1 Mio. So könnte man also sagen, das "Mega" in MPixel steht für 250.000, das macht dann bei 12MPixel 3 Mio. Pixel :idea::mrgreen:


    Jetzt tauchen aber immer wieder in Diskussionen Aussagen aus, wie die obige, die ich als Aufhänger benutzt habe:
    "Um ein Foto auf die Größe ABC auszubelichten, benötigt man mindestens XYZ MPixel" oder "Die Kamera hat zwar ABC MPixel, das Objektiv vermag aber nur XYZ Pixel auflösen..."
    (Insbesondere das mit dem Objektiv läd zum philosophieren ein: Kann ein Objektiv, das die 12,2 MPixel der Canon nicht aufzulösen vermag die 3,3 MPixel der Sigma transportieren :?: )


    Vor dem Hintergrund der sprachlichen Ungenauigkeiten, die mit dem Wort Mega bei Digitalkameras verknüpft sind, sind solche Aussagen mit einer Toleranz von +/-75% des Basiswertes korrekt. Also völlig unbrauchbar.


    (Und davon, dass man ein ausbelichtetes Poster normalerweise nicht aus 20cm Abstand anschaut, möchte ich gar nicht erst anfangen...)


    Die MPixel sind also so etwas wie die "Watt PMPO" in der Schrott-Verstärkertechnik. Ein Wert, den man, so wie er ist, einfach in die Tonne kloppen kann. Im HiFi-Bereich ist man zum Glück mittlerweile soweit, dass alle rennomierten Firmen, die etwas auf sich halten, halbwegs realistische Wattzahlen angeben.


    Nur bei Digicams: Da lebt man mit der Lüge und alle lachen noch! Da werden die neuen Cams mit 16, 21 oder gar 24,5 MPixel angepriesen und niemand wird rot dabei! :evil:


    Es wird Zeit, dass man hier wieder wahrheitsgemäße, glaubwürdige und vergleichbare Aussagen trifft und sich abwendet von diesem Marketinggeblubber welches stets nach den höchsten Zahlen schreit!


    Zum Schluss bleibt mir nur noch eins zu sagen: Ein Hoch auf Sigma mit ihrem Foveon Chip, die es trotz aller Unkenrufe geschafft haben, einer realistischen Angabe der Pixelzahl treu zu bleiben! :cheers:
    Ich dachte schon vor 8 Jahren, dass die damit nicht weit kommen. Umso erfreuter bin ich, dass es die Chips immer noch gibt. Und die SD1 mit 46 Megapixel - äh, Verzeihung 4.800×3.200×3 Schichten ( :twisted: ) macht einem ja schon den Mund wässrig. :mrgreen:

    • Offizieller Beitrag

    Also erstmal :danke: für deinen ausführlichen Beitrag.


    Zitat

    Jetzt tauchen aber immer wieder in Diskussionen Aussagen aus, wie die obige, die ich als Aufhänger benutzt habe:
    "Um ein Foto auf die Größe ABC auszubelichten, benötigt man mindestens XYZ MPixel" oder "Die Kamera hat zwar ABC MPixel, das Objektiv vermag aber nur XYZ Pixel auflösen..."


    Auch wenn die MP-Zahlen nur durch Interpolation zustande kommen, was, wie du selbst ausführst, bauartbedingt beim Bayer-Sensor auch gar nicht anders möglich ist und die MP-Zahlen dadurch sicher auch etwas plakativ daherkommen:
    Ich verstehe trotzdem nicht, warum die obigen Aussagen prinzipiell falsch sein sollen.
    Die jeweils herangezogene Referenz für eine Ausbelichtung bzw. die Leistung eines Objektivs bezieht sich ja schließlich ebenfalls auf "interpolierte" Werte, dadurch relativiert sich das ja von selbst. Vielleicht könntest du diesen Teil mal etwas näher erklären?


    Zitat von "Icebear"


    Zum Schluss bleibt mir nur noch eins zu sagen: Ein Hoch auf Sigma mit ihrem Foveon Chip, die es trotz aller Unkenrufe geschafft haben, einer realistischen Angabe der Pixelzahl treu zu bleiben! :cheers:
    Ich dachte schon vor 8 Jahren, dass die damit nicht weit kommen. Umso erfreuter bin ich, dass es die Chips immer noch gibt. Und die SD1 mit 46 Megapixel - äh, Verzeihung 4.800×3.200×3 Schichten ( :twisted: ) macht einem ja schon den Mund wässrig. :mrgreen:


    Jawoll, ein Hoch auf Sigma mit ihrer realistischen Angabe der Pixelzahl von 46 Megapixel... :ugly:;)

    • Offizieller Beitrag
    Zitat von "Icebear"

    (Und davon, dass man ein ausbelichtetes Poster normalerweise nicht aus 20cm Abstand anschaut, möchte ich gar nicht erst anfangen...)


    Gehört zwar jetzt nicht direkt zum Thema, aber wie ich schon in einem anderen Thread schrub, mag das vielleicht noch für Poster gelten, die man sich an die Wand hängt. In Zeiten von selbst gestalteten, ausbelichteten (!) Fotobüchern relativiert sich aber auch diese Aussage zunehmend, denn eine Doppelseite eines A4-Fotobuchs schaut man sich kaum mit dem mathematisch korrekten Betrachtungsabstand an, da würde es nämlich nichtmal reichen, das Buch mit ausgestrecktem Arm zu betrachten...

  • Zitat von "PhilippV3"

    Ich verstehe trotzdem nicht, warum die obigen Aussagen prinzipiell falsch sein sollen.
    Die jeweils herangezogene Referenz für eine Ausbelichtung bzw. die Leistung eines Objektivs bezieht sich ja schließlich ebenfalls auf "interpolierte" Werte, dadurch relativiert sich das ja von selbst. Vielleicht könntest du diesen Teil mal etwas näher erklären?


    Ich habe ja auch (absichtlich) nicht geschrieben, dass die Aussagen falsch sind. Sie sind durch ihre unklar definierte Grundlage nur so schwammig, dass man sie auch gleich lassen kann. Beim Ausbelichten oder bei der Bildschirmdarstellung reden wir üblicherweise von Bildern auf Basis von echten RGB-Pixeln. Ein FullHD-Bildschirm hat ca. 2 Mio. RGB-Pixel. Um die gestochen scharf darzustellen, bräuchte man eigentlich ein 8-10MPixel (Bayer-)Kamera... (oder eben eine Sigma mit 3,3MPixel ;) ) Alles darunter kann niemals wirklich scharf sein...
    Bei Objektiven ist das noch schwieriger. Die sind ja analog, hier kann man sowieso nur das Ergebnis vergleichen und das ist wiederum durch den Chip vorgegeben (oder "beschränkt")...
    Aber die Objektivhersteller machen ja sowieso keine Angeben zum Auflösungsvermögen. Daher sind wir hier auf Tests un Ausprobieren angewiesen.



    Zitat von "PhilippV3"

    denn eine Doppelseite eines A4-Fotobuchs schaut man sich kaum mit dem mathematisch korrekten Betrachtungsabstand an, da würde es nämlich nichtmal reichen, das Buch mit ausgestrecktem Arm zu betrachten...


    OK, Du hast es so gewollt: Eine A3-Seite in 300dpi besteht aus 17,4 Mio RGB-Pixel. Rechnen wir die Bayer-Interpolation mit rein (oder raus, je nachdem, wie man es sieht), würde man eine Kamera mit knapp 70 Lügen-MPixeln benötigen, um das scharf und mit voller Bildinformation abzubilden. Na Prost Mahlzeit :cheers:
    (Das nur, um Dir zu zeigen wie blödsinnig diese Angaben sind!)

  • Zitat

    mit einer Sigma SD15. Die Bilder haben grad mal 3,3 MPixel


    es sind ja wohl eher 4,7MP
    Wobei die 4,7MP der Sigma "ehrliche" Megapixel sind, bei denen eine "Umrechnung" auf LPM (lines per millimeter), die man aus Analogzeiten hinsichtlich des Auflösungsvermögens von Objektiven irgendwie doch mehr gewohnt ist, viel einfacher erscheint. Beim Bayersensor hat man ja einerseits, vor der Entrasterung, auch eine native Auflösung die der angegebenen Pixelzahl entspricht, andererseits hat man dann die nachträgliche Vermatschung um die Farbinformationen zu berechnen und, nicht zu vergessen, die Wirkung des AA Filters als zusätzlicher Weichspüler.
    Ein RGB Bayersensor benötigt nun einfach mal mehr Pixel nebeneinander um ein Ergebniss zu erreichen, das ein Foveon mit nominell Weniger erreicht. Für eine Posterausbelichtung von sagen wir mal 40*60 ist es dabei aber absolut EGAL ob ich nun eine SD15 mit effektiven 4,7 oder in Sigmawerbeblähsprache eigentlichen

    Zitat

    (Effektive Pixel) 14.06 MP (2,652 X 1,768 X 3)


    oder mit meiner EOS 5D, die ja nur 12Megapixel hat, erstelle. Es ist mit Beiden gut möglich und die nachträgliche Bildbearbeitung zur Ausbelichtungs"optimierung" hat deutlich mehr Einfluß als die Wahl der Kameras.
    Über ein paar systembedingte Nachteile des Foveons (nicht nur die Bayer RGB hat Schwächen), wie seltsames Farbverhalten in Verbindung mit eingeschränkter High Iso Tauglichkeit sind in anderen Foren ja schon Monsterthreads gefüllt worden.

    Zitat

    Und die SD1 mit 46 Megapixel - äh, Verzeihung 4.800×3.200×3 Schichten ( :twisted: ) macht einem ja schon den Mund wässrig.


    nuja, eine Vollformat mit nativ 10-12MP (also in Werbebläh 30-36) wäre vielleicht etwas, was bei mir spontanes Sabbern erzeugen könnte, aber nur das Mitreisen auf dem Megapixelhypezug und 15MP auf APS ... das reizt mich so sehr, wie die nächste kompakte Olumpus mit 25fach Zoom ...
    (Wobei eine Vollformat Sigma wahrscheinlich in der Preisklasse einer M9 wäre und ich die natürlich bevorzugen würde)


    Ein guter Fotograf nimmt das Werkzeug das passt. Zu seiner Motivwelt und zu seinem persönlichen Arbeitsstil. Wenn er genug Geld hat, kann er sich genug Werkzeug zulegen, das können dann sehr wohl Kameras unterschiedlicher Hersteller unterschiedlichster Philosophie sein. Wenn Geld nicht egal ist muss man Kompromisse machen :mrgreen: , Schwerpunktwahl, Prioritätensetzung.
    (wobei "ein guter Fotograf" keine Unterscheidung macht zwischen engagierten Amateuren und notgedrungenerweise davon leben müssenden Profis)

    Sony α7r III / SEL24105G & Canon EF via Metabones V und Altglas

    In der Natur gibt es weder Belohnungen noch Strafen.

    Es gibt Folgen.

    • Offizieller Beitrag
    Zitat von "Icebear"


    OK, Du hast es so gewollt: Eine A3-Seite in 300dpi besteht aus 17,4 Mio RGB-Pixel. Rechnen wir die Bayer-Interpolation mit rein (oder raus, je nachdem, wie man es sieht), würde man eine Kamera mit knapp 70 Lügen-MPixeln benötigen, um das scharf und mit voller Bildinformation abzubilden. Na Prost Mahlzeit :cheers:
    (Das nur, um Dir zu zeigen wie blödsinnig diese Angaben sind!)


    Also deine Theorie geht irgendwie an den Tatsachen vorbei. Es braucht definitiv keine 70 MP für eine scharfe A3-Ausbelichtung, auch wenn es nur interpolierte Daten sind. Da hängt sicher auch viel mit dem Ausgangsmaterial zusammen. Wenn das Zusammenspiel von Objektiv, AA-Filter und Sensor stimmt, dann kann auch die Bayer-Interpolation sauber arbeiten und relativ saubere und pixelscharfe Ergebnisse abliefern.

  • >>> Und die SD1 mit 46 Megapixel - äh, Verzeihung 4.800×3.200×3 Schichten...


    Du weißt aber schon, was Du da schreibst...?
    Nach Deiner Rechnung müsste ein Sensor mit 6 Schichten dann nochmal doppelt so hoch auflösen, wie der mit 3...
    Der Sigma-Sensor kann im optimalen Fall theoretisch 2400 Linienpaare auflösen. Und wenn er 10 Schichten hätte, es würden auch nicht mehr werden.
    Deswegen ist die Rechnung mit den 46 MP Marketinggewäsch.


    Letzteres gilt aber natürlich auch für die Auflösungsangaben der Bayer-Sensoren.
    Interpoliert wird dort zwar nicht die Auflösung sondern die Farbinformation, aber dennoch erreichen diese Sensoren niemals die suggerierte Auflösung. Deshalb sind die Auflösungstests mit Siemenssternen und schwarz-weißen Linienrastern auch nur ein Teil der Wahrheit.


    Jeder der beiden Sensortypen hat seine Vorteile. Pauschal zu sagen "der ist besser, die anderen lügen nur" wird der Wahrheit nicht ganz gerecht.
    Aber aus beiden Sensoren kann man nur das jeweilige Optimum herausholen, wenn die verwendeten Objektive höher auflösen, als es die Sensoren tun.


    >>> Und davon, dass man ein ausbelichtetes Poster normalerweise nicht aus 20cm Abstand anschaut, möchte ich gar nicht erst anfangen...


    Tja, wie verhinderst Du das denn?
    Hängst Du das Poster so hoch, dass man eine Leiter braucht um näher ran zu gehen oder hast Du eine Linie auf dem Fussboden "Bitte Mindestbetrachtungsabstand einhalten"?
    Ich hatte lange Jahre ein riesiges Foto aus der Namibwüste an der Wand hängen. Die meisten Besucher standen erst mal instinktiv etwas weiter weg um das Motiv auf sich wirken zu lassen und gingen dann immer näher ran um am Schluss zu sagen "boooh, da sieht man ja jedes Sandkorn...!"
    Mit weniger Auflösung wäre aus der Nähe nix mehr gewesen und der eine oder andere hätte vllt. gesagt "das wirkt aber irgendwie ein bisschen unscharf" sagst Du dann: Geh weiter weg, dann siehst Du das nicht mehr!?


    Welche Druck- oder Ausbelichtungstechnik im wahren Leben wie viel Auflösung tatsächlich darstellen kann, muss man von Fall zu Fall sehen. Die berühmten 300 dpi, die immer gefordert werden, sind nur ein Wert, der irgendwie alles erschlagen soll. Dass viele Materialien und/oder Techniken so eine hohe Auflösung gar nicht rüberbringen können steht auf einem zweiten Blatt.

  • Zitat von "PhilippV3"

    Also deine Theorie geht irgendwie an den Tatsachen vorbei. Es braucht definitiv keine 70 MP für eine scharfe A3-Ausbelichtung, auch wenn es nur interpolierte Daten sind.


    Das ist nicht "meine Theorie", sondern eher ein Gedankenspiel um die Widersprüche noch deutlicher zu machen. Natürlich braucht es die 70MPixel nicht. Ich hatte eine 8MPixel-Cam und war sehr zufrieden mit Ausdrucken bis 50x70 (Größer habe ich nie gemacht...)

    Zitat von "PhilippV3"

    Wenn das Zusammenspiel von Objektiv, AA-Filter und Sensor stimmt, dann kann auch die Bayer-Interpolation sauber arbeiten und relativ saubere und pixelscharfe Ergebnisse abliefern.


    Ja, aber nur wenn das "relaitv" auch zum "pixelscharf" gehört. ;)
    Es ist und bleibt eine Raster-Interpolation. Und die ist leider immer mit Unschärfe verbunden.
    Ich weiß noch, wie damals bei den Fuji SuperCCD-Sensoren ein Aufschrei durch die Menge ging: Pfui, da wird ja interpoliert! Tja, aber es wurde halt nur anders interpoliert. Ob ich 3 Mio. R-, G- und B-Sensoren auf 3 Mio. RGB-Pixel interpoliere oder auf 6 Mio., es ist und bleibt eine Interpolation. Die SuperCCD-Bilder waren unterm Strich dann halt noch ein bisschen unschärfer als der Rest...

  • Zitat von "luckyshot"

    >>> Und die SD1 mit 46 Megapixel - äh, Verzeihung 4.800×3.200×3 Schichten...


    Du weißt aber schon, was Du da schreibst...?
    Nach Deiner Rechnung müsste ein Sensor mit 6 Schichten dann nochmal doppelt so hoch auflösen, wie der mit 3...
    Der Sigma-Sensor kann im optimalen Fall theoretisch 2400 Linienpaare auflösen. Und wenn er 10 Schichten hätte, es würden auch nicht mehr werden.
    Deswegen ist die Rechnung mit den 46 MP Marketinggewäsch.


    Natürlich sind die 46MP Marketinggewäsch. Deswegen mein dickes Smiley dahinter.
    Den "Kompromiss" muss Sigma halt eingehen, um mit dem besser versteckten Marketinggewäsch sämtlicher Konkurrenten mithalten zu können. Und das mit den 3 Schichten ist nicht "meine Rechnung" sonder die Angabe, wie sie 1:1 auf der Sigma Seite steht.


    Deine Rechnung mit den 6 Schichten ist sowohl praktisch als auch theoretisch allerdings Quatsch, da wir nur über die Farbschichten Rot, Grün und Blau reden und nicht über eine Technik, die Auflösung zu erhöhen.

  • Ein spannendes Thema. Bei der tatsächlichen Auflösung (und Detailgehalt) spielt die ganze Aufnahmekette vom Objektiv bis zur Kompression beim Abspeichern eine Rolle. So hat z.B. Sony lange Zeit bei den Kompakten die eigentlich guten Ergebnisse durch eine viel zu hohe Kompression kaputt gemacht oder manche an sich tolle DSLR hat einen so dicken AA-Filter, dass knackscharfe Ergebnisse kaum zu erwarten sind.


    Ich bin mit der Canon 1000D recht zufrieden. Dennoch produziere ich immer wieder Bilder, die statt 10 z.B. nur 3 Megapixel hergeben. Mal verwackele ich, mal sitzt der AF nicht richtig, mal rauscht es schon zu sehr, mal löst das Objektiv in der Brennweite mit der Blende nicht gerade erstklassig auf usw. usf..
    Wenn ICH es aber schaffe, die ganze Leistung auf den Speicherchip zu bekommen, ist das Ergebnis schon beeindruckend.
    Sicher gibt es immer Leute, die ihr Werkzeug besser beherrschen oder Objektive, die den besseren Teil der Serienstreuung repräsentiern.


    Die aktuell 18 Megapixel der aktuellen Canon APS-C- DSLRs wird man sicher nicht ständig auf den Chip bannen können....

    Von mir eingestellte Bilder dürfen bearbeitet und bei dft gezeigt werden.

  • Zitat von "Icebear"

    (...)


    Gut gebrüllt, Eisbär ;)


    Ich finde Deine Ansicht aber nicht weniger realitätsfern als die von Dir kritisierte.. Denn theoretisch hat ein Bayer-Sensor nur die von Dir genannten 25% der beworbenen Auflösung (bzgl. des Nadelöhrs rot und blau, grün wären 50%), aber durch die Bayer-Interpolation (da hat sich ja jemand was bei gedacht.. ;) ) bleibt das in der Praxis nicht bestehen. Ansonsten dürfte nach Deiner Logik ein 12MP ("Lügen"-MP ;) ) Bild in 100% Ansicht am Bildschirm nicht mehr Informationen zeigen als das gleiche auf 3MP verkleinerte. Genauso zeigt ein 4MP (x3) Foveon Bild auf 12MP interpoliert wahrscheinlich keine "echte" 12MP-Auflösung.. Aber da alle diese Megapixelzahlen gerne möglichst werbewirksam protzig verwenden, bleibt's wenigstens einigermaßen einheitlich.. Um bei meinem Zahlenbeispiel zu bleiben: Ob jetzt die Hersteller mit 3MP (Bayer) bzw. 4MP (Foveon) werben, oder alle mit 12MP, ist mir realtiv egal.. (Sigma spricht ja auch von (Effektive Pixel) 14.06 MP (2,652 X 1,768 X 3), also auf dem Werbeplakat 14MP)


    Und bzgl. der 300dpi-Regel beim Ausbelichten: Ich weiß, wie 10MP meiner Kamera auf A3 vom Ausbelichter meines Vertrauens aussehen (und die sehen gut aus.. :pink: ), da sind mir die theoretisch "vorgeschriebenen" dpi-Werte egal.. ;)

    • Offizieller Beitrag
    Zitat von "Icebear"


    Ja, aber nur wenn das "relaitv" auch zum "pixelscharf" gehört. ;)
    Es ist und bleibt eine Raster-Interpolation. Und die ist leider immer mit Unschärfe verbunden.


    Nur sollte man dabei bedenken, dass bei der Bayer-Interpolation ja keine Pixel erfunden werden oder ein stumpfes Verdreifachen von Pixeln stattfindet. Wenn dies so wäre, bräuchte man vielleicht tatsächlich 70MP für eine A3-Ausbelichtung mit 300dpi.
    Da es sich aber "nur" um eine Interpolation der Farbinformationen handelt und dabei zudem ziemlich inteligente Algorithmen verwendet werden, die erstaunlich effektiv arbeiten, kann man, sofern das Ausgangsmaterial stimmt, durchaus von einer ordentlichen Pixelschärfe trotz Interpolation sprechen.


    Ghooosty hatte da zum Beispiel in diversen Threads ja sein Schloss-Bild von der 5D MarkI mit dem 50 1.4-Objektiv online gestellt. Man sieht an dieser Kombination ganz gut, was ein dünner AA-Filter, moderate Pixeldichte und ein scharfes Objektiv ausmachen.
    Natürlich sind die Foveon-Sensoren in dieser Kategorie dennoch konkurrenzlos. Nur ganz so bescheiden wie du es darstellst, sind die Ergebnisse der Bayer-Interpolation auch wieder nicht... ;)

  • Nicht dass das hier in eine falsche Richtung abdriftet... Das ganze sollte keine Argumentation pro Sigma/Foveon sein. Ich habe die nur aufgeführt, um den Unterschied zwischen MPixel und Mio. RGB-Pixeln besser zu verdeutlichen.
    Ich wollte nur die Gemeinde ein bisschen für die MPixel-Thematik und die damit verbundenen Probleme und Ungenauigkeiten sensibilisieren. :!:

  • Zitat von "NOP"


    "Im Vergleich zum Bayer-Sensor beträgt die Auflösung etwa zwei Drittel der Herstellerangabe. Eine mit 14 Megapixeln (effektiv 3 × 4,7 MP) Auflösung angebotene Foveon-Kamera entspricht einer Bayer-Kamera mit 10,5 Megapixeln (monochrom – effektiv 5,25 MP grün und je 2,625 MP rot und blau – im arithmetischen Mittel 3,5 MP)."
    Damit hat man eine Hausnummer, um die beiden Systeme bzgl. Auflösung in der Praxis vergleichen zu können.. Das reicht mir dazu..


    Verstehe ich nicht. Die Sigma mit 14 MP hat im Mittel effektiv 4,7 MP. Die Bayer-Kamera mit 10,5 MP hat im Mittel effektiv 3,5 MP. Und das ist laut Wikipedia vergleichbar? Ähm ...


    Ansonsten: Ich bin ja seit Jahren hin- und hergerissen. Hab ne 5D auf der Bayer- und ne SD14, DP1 auf der Foveon-Seite. Die haben beide Stärken und Schwächen. Ich kann hier also auch beiden Sichtweisen rechtgeben:
    1. Ne 5D erzielt Erstaunliches durch Interpolation
    2. Sigma für die Werbung mit 14 MP zu kritisieren ist nicht angebracht, da eigentlich die Bayer-Sensoren ihre beworbene Auflösung nicht effektiv bringen.


    Ich denke, wenn Sigma das Canonsche Objektivangebot samt Speziallinsen hätte, würde ich auf Dauer zu Sigma überlaufen, da mir am Ende eher nur das Bild wichtig ist. Dafür nehme ich lahme Geschwindigkeit und reduziertere Einsatzgebiete durchaus meist in Kauf. Aber so einfach isses leider noch nicht. Gelegentlich brauche ich noch Lichtempfindlichkeit in der Dämmerung. Ich grübel da fast täglich mal drüber ... und hoffe, daß mir ne zukünftige Sigma die hohen ISOs genehmigt, dann blieben nur ein paar fehlende Linsen.


    An anderer Stelle zu "5D I oder II" habe ich auch irgendwo schonmal geschrieben: Nur weil ein Bild detailliert aussieht, muß es das nicht sein. Die Bayer-Interpolation mag nämlich intelligent kalkulieren, aber ob das Ergebnis ECHT ist, ist die andere Frage. Es mag ja scharf und fein aussehen ... aber viele der errechneten Werte mögen nur nah an der Wirklichkeit sein! Es stellt sich also auch die Frage, ob man ein gefälliges detailliertes Poster haben möchte, oder eines, daß ausschließlich echte Bildinformationen trägt.


    Im Prinzip kann eine Interpolation eines Sigmabildes ja auch intelligent sein und versuchen den Schärfeeindruck zu erhalten. Der Unterschied ist doch eigentlich nur der, daß die Bayer-Interpolation die Lücken des Farbmosaiks stopft, während Sigma versucht, das komplette pixelscharfe Bild möglichst unter Erhalt des Schärfeeindrucks großzurechnen. Die echten Bildinfos werden hier weicher und größer ... bei Fraktal & Co werden Linien auch wieder dünner, da kann es natürlich auch passieren, daß die bildliche Wahrheit leidet.


    Daß ein Lückenfüllen am Ende etwas besser zu bewerkstelligen ist als das Großrechnen unter Erhalt der Schärfe glaube ich auch. Ein kleiner Vorteil zugunsten Bayer mag daher oft da sein. Schön ist beides nicht. Und am Ende, sprich in hoffentlich naher Zukunft, habe ich hoffentlich einen hochauflösenden Foveon im Format Kleinbild+ in der Hand. Zukunft hat mMn nur das System mit kompletter Farbinformation eines jeden Pixels. Bis zu diesem Zeitpunkt isses nicht unbedingt das Bessere, aber das echtere und elegantere.

    • Offizieller Beitrag
    Zitat von "RitterRunkel"

    Der Unterschied ist doch eigentlich nur der, daß die Bayer-Interpolation die Lücken des Farbmosaiks stopft, während Sigma versucht, das komplette pixelscharfe Bild möglichst unter Erhalt des Schärfeeindrucks großzurechnen. Die echten Bildinfos werden hier weicher und größer ...


    Das ist der Punkt, und deshalb kann man nicht einfach von der hochgerechneten Foveon-Interpolation ausgehen und daraus den "wahren Pixelgehalt" eines bayer-interpolierten Bildes ermitteln.


    Die Vorteile des Foveon-Sensors sind sicher unbestritten, aber eine Foveon-Interpolation wird nie die Qualität einer Bayer-Interpolation erreichen können, wogegen ein bayer-interpoliertes Bild auch nie die Pixelschärfe eines nicht interpolierten Foveon-Bildes erreicht.

  • ...Tja, am Anfang hat sich das ja noch ganz gut gelesen Icebear, aber dann wirds unerwartet laut. Warum eigentlich?


    Die Rechnung geht ja auch so gar nicht auf.


    Erstmal gleich vorne weg, ich finde die Foveons toll und werd auch selber irgendwann mal was passendes in meinen Schrank packen.


    Was ist ein Bayer Pattern? Drei Pixel R-G-B liegen in einer jeweils Hersteller spezifischen Anordnung nebeneinander. Jedes dieser Pixel fängt nur jeweils eine Farbe auf, aber jedes enthält seine Helligkeitsinformation.


    Also ist der Gedankengang, dass aus drei Pixeln eines komplett interpoliert wird nicht richtig, da jedes Pixel einen Helligkeitswert mit sich führt. Damit wird von jedem Pixel auch eine echte Information weitergeleitet, nur die Farbe, diese muss der Helligkeitsinfomation dann noch beigelegt werden durch eine Verrechnung der Farbwerte aus den jeweils drei Pixeln.


    Man kann sich das wie ein Bild in Graustufen mit allen Details vorstellen, dem dann noch durch die RGB-Verrechnung, die Farben beigebracht werden müssen.



    Du gehst an der Stelle einfach davon aus, dass man 3 Pixel hat und die werden schlicht interpoliert, also muss man das Bild durch drei teilen, was einfach nicht funktioniert.


    Genauso wenig funktioniert das 46Mpix Spiel beim Foveon. Da der Bayersensor in der Fläche bei einer 5d echte 12,7 Millionen Punkte mit 12,7Millionen Helligkeitsinformationen sammelt, hat er diese Detailinformationen grundsätzlich auch. Was jetzt durch den jeweiligen Tiefpassfilter davon verloren geht, ist ja sehr unterschiedlich, bei den Hassis etc. ist erst gar kein solcher Filter integriert.


    Was hat ein Foveon Sensor? Er hat bei 4,7 Millionen Bildpunkten in der Fläche, auch nur 4,7 Millionen Helligkeitsinformationen zur Verfügung. Er kann keine 13,1Millonen Pixel errechnen, da er keine Informationen dafür hat. Das ist dann wirklich nur Interpolieren.


    Der wirkliche Unterschied ist die Reinheit dessen, was der Foveon Sensor für seine 4,7Mpix abliefern kann. Jedes Pixel eine exakte Information aus Farbwert und Helligkeitswert.




    Es ist nicht gut, wenn man solch eine Diskussion anstößt, wenn man sich nicht wirklich damit auseinandergesetzt hat, diese aber gleich mit viel Zündstoff versieht, der zu leicht zu wiederlegen ist.
    Was ist denn hier eine Mpix Lüge? Eine Mpix Lüge ist eine Kompakte, die angeblich 16Mpix hat, aber am Ende nur noch 3 reale auswirft, weil alles nur vermatscht und kaputtgerechnet werden muss, um irgendwie noch ein Bild zu generieren, welches nicht an einen Schneesturm erinnert. An der Stelle würde ich teilweise zustimmen. Aber selbst hier hat der Sensor selber reale 16Mpix, denn der Tiefpassfilter ist nicht der Sensor, dass Objektiv ist nicht der Sensor und die interne Verarbeitung ist auch nicht der Sensor. Die Ergebnisse sind aber trotzdem nichts.


    Achso, mit der Bezeichnung effektiv bezeichnen Hersteller den Umstand, dass die meisten Sensoren mehr Pixel in der Fläche haben, als genutzt für ein bestimmtes Bildformat genutzt werden können. Ist also völlig korrekt, was die Bezeichnung angeht...

  • Hm, an dieser Stelle komme ich auch ins Grübeln. Ich habe wegen ghoostys Beitrag gerade nochmal den Beitrag Wikipedias zur Bayer-Matrix gelesen, aber so schlau werde ich bezüglich meiner folgenden Frage daraus nicht:


    Ein Bayer-Sensor sammelt doch nicht mit jeder Zelle einen Helligkeitswert und zusätzlich einen Farbwert, oder etwa doch? Das hieße ja, in schwarz-weiß wäre der Bayer-Sensor dem Foveon in aller Deutlichkeit, sprich genau im Verhältnis der resultierenden Bildauflösungen, überlegen. Es ist doch vielmehr so, daß jeder Pixel in den Rohdaten aus einem RGB-Wert besteht, sprich Anteile der drei Grundfarben. Der Luminanzwert/-kanal ergibt sich dann aus diesem RGB-Wert, bzw. diesen Werten, oder nicht? Das war bislang jedenfalls mein Verständnis. Hinzu kommt, daß ich nicht das Gefühl habe, die Helligkeitswerte meiner 5D seien interpolationsfrei ...

  • Zitat von "RitterRunkel"


    Ein Bayer-Sensor sammelt doch nicht mit jeder Zelle einen Helligkeitswert und zusätzlich einen Farbwert, oder etwa doch?


    Meines Wissens ist es genauso.. Je Diode wird eine Farbe "gemessen", d.h. bei einem 12MP (Bayer) Sensor gibt es 12 Millionen Fotodioden, von denen je 3 Millionen rot und blau messen und 6 Millionen grün.. (aber ohne Gewähr ;) )

  • Zitat

    in schwarz-weiß wäre der Bayer-Sensor dem Foveon in aller Deutlichkeit


    Der Begriff Bayer Sensor ist ein bisschen Irreführend, die Farbmatrix und Interpolation ist ja elementarer Teil des Bayersensors. Ohne Farbseparation ist es kein Bayer Sensor mehr ... sondern nur noch ein Sensor der Helligkeitswerte aufnimmt.
    Und natürlich hat sowas eine boshafte, weil native, Auflösung im Vergleich zu Bayer Sensoren oder Foveons


    Such dir mal die Erfahrungsberichte zu den alten Kodak DCS 760m im Web, das waren 6MP (aps-h) B&W Kameras, also ohne Bayermatrix und Interpolation.


    ps: Nop hat recht

    Sony α7r III / SEL24105G & Canon EF via Metabones V und Altglas

    In der Natur gibt es weder Belohnungen noch Strafen.

    Es gibt Folgen.

    Einmal editiert, zuletzt von mol ()