Beiträge von RitterRunkel

    Bearbeitung und Zeigen des Bildes is natürlich vollkommen ok bei mir. Danke fürs Testen und Zeigen!


    Ja, man sieht bei Dir einen kleinen Unterschied, aber ich wäre mit beiden Deiner Versionen recht zufrieden. Nur meine Gimp-Lanczos-Version ist bei 1000px irgendwie zu weich und deutlich weicher als Deine. Vielleicht frage ich mal im GIMP-Forum. Oder wühl vorher mal Wikipedia nach Lanczos durch. Hatte da vor einiger Zeit angelesen, aber hatte keinen Bock auf Durchackern. Zeitlich paßt mir das auch gerade nicht so ganz. Hatte gehofft, der Horlie formt den Lanczos nochmal in erklärende Worte und legt die Ursachen der unterschiedlichen Ergebnisse dar. :P


    Würde und werde das auch selbst durchackern, aber erst nach dem 20. April. Bis dahin brauch ich Ressourcen für ne wichtige Prüfung. Vielleicht findet sich ja einer, der hier den näheren Einblick in das Verfahren hat!? =)

    Na denn, hab gerade wenig Zeit, aber kann zumindest die Dateien mal verlinken, bei denen ich ein "Problemchen" festgestellt habe:


    http://wxyz.de/sonstiges/Resample/Ausgangsbild.jpg


    http://wxyz.de/sonstiges/Resample/1000px_kubisch.jpg, http://wxyz.de/sonstiges/Resample/1000px_lanczos.jpg
    http://wxyz.de/sonstiges/Resample/1125px_kubisch.jpg, http://wxyz.de/sonstiges/Resample/1125px_lanczos.jpg


    Wie man sieht, sind bei 1000 px die Bilder unterschiedlich, sprich: die Lanczos-Verison ist weicher als die kubische. Bei 1125 px ist der Unterschied hingegen gering und generell bei großen Größen scheint mir Lanczos insbesondere bei Motiven mit Schrägen usw. sonst eher schärfer als kubisch. Ist daher seltsam ... für mich jedenfalls, der zugegebenermaßen auch auch nicht genau weiß, wie Lanczos funktioniert. Ich hab grob mal vor einiger Zeit gelesen, daß es eine komplexe Methode aus der digitalen Signalverarbeitung (Sinc-Funktion) ist und ich hab festgestellt, daß sie genaue und scharfe Ergebnisse liefert, die nur gelegentlich auf Kosten der Farbauflösung gehen und gelegentlich Artefakte zeigen. Die Methode ist komplexer als bikubisch, bilinear, usw. und ich war nie ganz durchgestiegen ...


    Würde mich durchaus interessieren, welche Varianten es überhaupt gibt und inwiefern andere Varianten der Sinc/Lanczos-Methode homogenere Ergebnisse erzielen. Ist es am Ende gar nur ein Programmkäfer meiner Gimp-Version? Verkleinert habe ich mit dem Algorithmus der in Gimp 2.6.11 eingepflegt ist.

    Bezüglich der kamerainternen Verkleinerung und der Auflösung beim Runterrechnen aus dem Ausgangsbild: Ich kann mir dieses Ergebnis vorstellen, da die relative Menge (zum Gesamtbild), die es zu verkleinern gilt, unterschiedlich ist. Also der Klassiker ist ja, daß Bilder die auf 25%,50%,etc. gebracht werden, besser aussehen, als jene, die auf unrunde Maßstäbe wie auf 30% gebracht werden. Eben weil es vom Algorithmus der Verkleinerung abhängt ... Und bleistiftsweise das Ergebnis perfekter ist, wenn genau alle umliegenden Pixel eines Pixels auf denselben reduziert werden können, und nicht mal mehr mal weniger unterschiedlich große Anteile von den Seiten mit in die Neuberechnung einbezogen werden müssen.


    Bezüglich Lanczos/Sinc (mag ich sehr) hab ich sogar festgestellt, daß der Unterschied _gewaltig_ sein kann ... Je nach Verkleinerungsgrad wird mehr oder weniger weich abgebildet, und daß schon bei geringen Unterschieden:
    4378px -> 1000px: weicher Bildeindruck,
    4378px -> 1125px: prickelnd scharf.


    (siehe http://www.digitalfototreff.de…p?album_id=1&image_id=868 ...)


    Das kann durchaus auch so bei der Reduktion von 12 auf 5 und von 8 auf 5 MP gewesen sein, denke ich.

    Zitat von "Horlie"

    Ist halt wie jede andere Digitale.


    Das seh ich ganz anders. Also wenn Du damit meinst, daß es gute andere gibt, wie bleistiftsweise Leica X1, stimm ich Dir zu. Aber die Bilder find ich überhaupt nicht wie jede andere Digitale. Ich find die Bilder sehr gut, natürlich und qualitativ sehr ansprechend. Im Gegensatz zu anderen Digitalen hat es diese Kamera nicht nötig, die Bilder deutlich oder gar bis zum Anschlag zu schärfen. Allerdings scheint sie Kontrast und Farbe manchmal n büssl zu übertreiben, wenn man einigen Flickr-Bildern und Vergleichen glauben darf. Aber dann weiß ich auch wiederum meist nicht, wie die Bilder entstanden sind ... aus RAW? Bis zuletzt hat dcraw die Fuji noch nicht unterstützt ... Falls doch vielleicht mit nem Fuji-RAW-Konverter - gibt's den? Ich hab keine Ahnung von Fuji. Aber diese Kamera gefällt mir nach wie vor sehr gut.

    Jemine Canumarama, blickt Deine Küche wirklich auf den Flughafen Tegel? Verschüttet man da nicht regelmäßig seinen Kaffee? *g*


    Ansonsten sind die Bilder in dieser Größe natürlich scharf und die Verglasung höchstens durch weniger Kontrast zu erahnen. Aber das 300/4 sieht so äußerlich interessant aus. Darf ich fragen welche Nahdistanz es erlaubt und ob Du mal bei Offenblende ohne Fensterglas ein Bild in voller Große zeigen kannst? Gern auch von nahen Motiven! Würde mich mal interessieren. Wenn es günstig ist ... Das Canon 300/4 hatte mir durchaus gefallen, wäre nicht mein Vertrauen in den IS flöten gegangen. War durch die Naheinstellgrenze von 1,5 m nämlich sehr vielseitig.

    Jau, eher ne Diskussion statt eines Streites.


    mirnamir: Ausnahmsweise ging es dabei aber mal nicht um die Thematik wieviel Megapixel gut sind, und daß alte Kameras mit weniger Megapixel weniger überfrachtet waren. Diesmal ging es durchaus um die Sensortechnik und darum, daß auch Deine 6 Jahre alte 5-MP-Kanone ihre Auflösung nicht bringt ... unabhängig davon, daß ihr Sensor noch angenehm weniger dicht besiedelt ist.

    Zitat von "x33"


    Diese Berechnung (1/2) taucht auch auf anderen amerikanischen Technikseiten auf...und klingt logischer als dieses ominöse "1/3" oder gar "1/4"


    Ken schreibt ja selbst: "about half ...". Ist auch nur ungefähr. Die Faktoren 3 und 4 rühren wenigstens vom augenscheinlichen Sensor-Layout und sind mathematisch, aber sind nicht anwendbar, weil das Ganze eben nicht auf diese Weise nach Pixelzahl vergleichbar ist. Darüber haben wir uns ja nun hier mal wieder den Mund fusselig geredet, oder wenigstens ich; die Foveon-Pixel sind realer, aber deutlich weniger. Ist einfach anders und ich halte von dem bezifferten Vergleich generell nicht viel. Ansonsten hab ich dieses 4,7 MP Foveon entsprechen rund 10 MP Bayer wohl bislang am häufigsten gelesen. Ist doch aber alles Mist. *g*

    Zitat von "mol"


    ein SW Bild der 5D wird ja erst nach der (Farb)Entrasterung aus aus dem Bayermosaik gewonnen und hat absolut nichts mit dem zu tun, wie ein echtes SW Bild aussehen würde, wenn auf den Sensorzellen KEINE Farbfilter wären.


    Das ist doch, was ich die ganze Zeit hören möchte. Deshalb dreht es sich nicht allein um die Rekonstruktion von Farbe. Das Foveonbild hingegen kann schon eher zu einem solchen SW-Bild gewandelt werden.


    Zitat von "mol"


    Ein Seiteneffekt wäre z.B. eine "tierische" Empfindlichkeit, die Farbfilder kosten nämlich ziemlich LICHT. Die Grundempfindlichkeit des CCD in der Kodak lag bei ISO 400, mit einem Rauschlevel der niedriger war, als bei der CMOS Fraktion bei deren ISO 100 Grundempfindlichkeit.


    Soweit ich weiß, sind solche CCDs in der Astrofotografie beliebt. Hab leider keine Ahnung, was die da alles genau anflanschen. Aber ich hätt liebend gern ein solches Gerät für mein eigenes Photographieren.


    Zitat von "mol"


    was ist DAS denn für eine Haarspalterei. Erklär das mal einem Unbedarften.


    Also zunächst war das als Antwort auf Luckys:

    Zitat


    Es wäre aber ebenfalls eine Lüge, würde man behaupten, ein Faveon-Sensor mit 4000 x 3000 Pixeln je Schicht könnte ein ebenso hoch aufgelöstes Bild erzeugen, wie ein Bayer-Sensor mit 36 MP.


    gedacht und sollte ihn darin bestätigen, andererseits aber auch anmerken, daß dies vielleicht von Foveon-Jüngern, aber nicht von Sigma selbst verkündet wird, soweit ich meine. Das ist nicht wörtlich Sigma, das war also nur mein Versuch, zu erklären, woran ich mich erinnere. Nämlich daß Sigma um ihre Produkte vergleichbarer und natürlich auch attraktiver zu machen, nur schreibt, daß sie jeden Pixel dreifach werten, da er ja alle drei Grundfarben berücksichtigt. In der Bayer-Matrix entsprächen die 4,7 MP also 14 MP, die dort nebeneinander lägen. Konjunktiv, da die Bayer-Matrix ja mehr Grün enthält, usw. ... und wie schon gesagt, ein Teilen durch 4 bei Bayer und ein Multiplizieren mit 3 bei Foveon halte ich für einen Vergleich auch nicht zielführend oder gerecht.

    Zitat von "NOP"


    Die Sensordioden sehen keine Farbe ...
    Theoretisch könnte man also, wenn man den Farbfilter vor dem Sensor weglässt (und die Bayer-Nachbearbeitung/-interpolation), ein "perfektes" SW-Bild kriegen, bei dem ein Pixel auf dem Sensor genau dem Pixel entspricht, der durch das Objektiv gepurzelt kam.. In unserer Farbwelt ist aber ein Endpixel die Mischung aus vier Pixeln, die das Objektiv auf den Sensor warf..


    Das mit den Helligkeiten hatten wir nun schon einige Male hier ;). Zum perfekten SW-Bild wurde bereits die Kodak erwähnt ... Ich stimme Dir ja in allem, was Du in diesem Beitrag geschrieben hast, vollkommen zu! Aber das ist nicht mein Punkt. Ich glaube, ich habe verstanden, wie der Bayer-Sensor aufgebaut ist, warum, und daß das gute Ergebnisse bringt.


    Ich störe mich vielmehr daran, daß geschrieben wurde, es würde nur die Farbe interpoliert, aber die Graustufen böten alle Details. Es ist doch defintiv (bin mir mittlerweile sicher) nicht so, daß ein SW-Bild aus der 5D soviele echte Details enthält, daß es um 12,7/4,7 besser auflöst, als das Foveon-SW-Bild. Sprich: Nur "echte" graugestufte Details enthält. Einfach, weil die Werte jeweils aus den gemessenen Farbhelligkeiten verschiedener Zellen auf dem Sensor interpoliert werden. Eben, weil die Farbfilter vorhanden sind, und es NICHT das perfekte SW-Bild ist.


    Daß das Ganze schlecht vergleichbar ist, sehe ich ja auch so! Dem bildzeitungshaften provokanten Einstiegsbeitrag stimme ich ebenfalls nicht ganz zu. Aber doch in Teilen sofern, als die Bayer-Sensoren ihre Auflösung eben nicht "echt" bringen. Vielmehr ist jeder Bildpunkt aus Bayer interpoliert. Er ist sehr wahrscheinlich und gut genähert, mögen ihn hier einige korrekt nennen, meinetwegen. Aber selbst wenn man allein den Helligkeitskanal betrachtet ist dieser nicht mit dem Foveonbild vergleichbar oder auch so direkt aufgrund der Mehrpixel überlegen!


    Übrigens meine ich seitens Sigma gelesen zu haben, daß sie nicht 14 MP angeben, weil ihre 4,7 MP-Bilder dann auch 14 MP hoch auflösen, sondern weil verglichen mit Bayer eben 14 Mio Farbinformationen genutzt werden - so gesehen drei Pixel für je eine Grundfarbe hintereinander liegen. Das ist für mich ein Unterschied. Laut Sigma werden soweit ich mich erinnere keine Bilder mit 14 MP versprochen, sondern nur Kameras, die 14 MP nutzen.

    Zitat von "FrankDpunkt"


    vll. ist ja die Helligkeitsdifferenz zwischen Rot und Grün eine Konstante und wird bei der Auswertung dementsprechend berücksichtigt?


    Eine Konstante? Unter Konstanten der Physik und angenommenen Werten verstehe ich etwas anderes. Das wird doch nur so angenommen, laut Wikipedia, oder nicht? Diese Annahmen aufgrund von Wahrscheinlichkeit und Nähe zu gemessenen Werten nenne ich: Interpolation.


    Zitat von "PhilippV3"


    Das Licht ist ja quasi immer mehr oder weniger "gemischt", daher wird die Zelle in dem Beispiel auch so gut wie immer einen gewissen grünen Helligkeitsanteil verzeichnen, auch bei vermeintlich rein grünem Licht. Der Interpolationsvorgang besteht ja dann anschließend darin, aus den Farbhelligkeits-Informationen der Nachbarpixel die jeweils korrekte Farbe der Zelle zu errechnen.
    Der Grad der Interpolation ist dabei natürlich sehr hoch, aber er betrifft eben nur die Farbinformationen.


    Mischlicht -> Zustimmung. Die meisten Zellen werden einen Wert aufzeichnen.
    Korrekte Farbe errechnen -> Die korrekte Farbe wird errechnet? Was ist denn bei Dir korrekt? Eine Messung, oder eine errechnete wahrscheinliche Schätzung? Für mich klingt "errechnete Korrektheit" paradox.
    Interpolation betrifft nur Farbinformationen -> Es werden nur Farbinformationen interpoliert, weil jeder Pixel so gesehen NUR aus Farbinformationen, sprich: aus einem RGB-Wert besteht. Werden Anteile seiner Farben interpoliert, so automatisch auch seine aus allen drei Kanälen resultierende Helligkeit! Weil eben keine Zelle einen Luminanzwert und zusätzlich noch ne Farbe abgreift.


    Zitat von "NOP"


    Und das finde ich noch realitätsfremder (bzw. "falscher" ;) ) als die von Dir kritisierte "Megapixel-Lüge".. Damit Deine Rechnung passen würde, müsste das von Dir gezeigte Prinzip so aussehen
    ...
    Aber im Regelfall denke ich, dass die Auflösung des Bildes näher an die echte Auflösung des Sensors kommt als an das von Dir genannte Viertel..


    Ja, sehe ich auch so, einfach Vierteln paßt wirklich nicht.


    Zitat von "NOP"


    Dass dieses System Grenzen hat (s. luckyshot/ghooosty) und ein Pixel des Bildes nicht 1:1 einem realen Punkt entspricht, dürfte natürlich klar sein..


    Moment, genau das wird hier aber - für sw-Bilder - behauptet. Oder wurde hier nicht von 12,7 Mio Helligkeiten geschrieben, die eine 5D mißt? Sie mag durch das Mischlicht 12,7 Helligkeiten aufzeichnen, aber die entsprechen nicht alle der realen Helligkeit des jeweiligen Punktes.


    Zitat von "PhilippV3"


    Alle 12 Millionen Pixel sind im Grunde miteinander verzahnt und jedes der 12 Millionen Pixel hat am Ende eine eindeutige Farb- und Helligkeitsinformation.


    Richtig, durch das Wesen der Bayer-Matrix. Deshalb ist diese so geschickt. Durch die Verteilung der Pixel mit den jeweiligen Farbfiltern fällt es so relativ leicht, am Ende für die 12 Mio Pix eine Farb- und Helligkeitsinformation anzugeben, die _wahrscheinlich_ ist. Das meinte ich mit meiner Zustimmung, daß sich leichter interpolieren ließe, als ein fertiges pixelscharfes Bild großzurechnen.


    Zitat von "modena"


    Theoretisch ist ja ein S/W Bild mit sämtlichen Helligkeitswerten nach Anzahl der Photodioden vorhanden.
    Je mehr, desto detaillierter, in der Theorie zumindest.
    Dieses S/W wird nachtäglich mit den, durch die RGB Filter erkannten und danch so relatitätsgetreu wie möglich interpolierten
    Farbwerten gefüttert.


    Meines Wissens werden nur die Farbwerte als jeweilige Helligkeit unter dem Farbfilter erfaßt. Wir haben weder drei komplette Graustufenbilder für je R, G und B, noch haben wir einen kompletten Luminanzkanal, dem wir nur die unvollständigen Farbkanäle nachfüttern.

    digiknipser: Das mit der Auflösung sehe ich nur bei einigen Stock-Agenturen u.ä.; wenn man seine Bilder in 300dpi hochladen soll ... ähm ja. Sehr nutzlos.


    Die beworbene "effektive Auflösung" halte ich übrigens auch für unglücklich. Wozu denn "effektiv"? Entweder die Auflösung ist gegeben, oder nicht. Effektiv bedingt doch irgendwie auch eine Angabe, wofür sie effektiv ist. Ghoosty schreibt für ein Bildformat. Mag sein. Aber warum fehlt dann diese zusätzliche Angabe, und warum soll ich nicht auch ein Bild im Format 3,0001:2 effektiv nutzen können. Daß viele nur 3:2 anzeigen, ausgeben, oder ausbelichten ist mir eigentlich egal.


    Und nu bin ich nicht mehr müde und verstehe dennoch nicht, wie ein Helligkeitswert bei grünem Licht durch eine Zelle erfaßt werden soll, der ein Rotfilter vorgehalten wird. Kann mir das jemand erklären?


    Da hilft mir das Beispiel daß bei gleicher Luminanz eine Farblinie nicht abgebildet wird so wenig weiter, wie Beispiele aus der 5D, die ich selbst zu hunderten auf Platte habe. Und selbst die Farblinie würde man doch nur bei gleicher Luminanz nicht sehen, wenn sie beispielsweise rot ist und quer über die grün-blau-Pixelreihe läuft. Sonst würde der Algorithmus doch hoffentlich in der Lage sein, von Rotpixel zu Rotpixel die Linie zu rekonstruieren und wie gesagt, das Mosaik damit per Interpolation zu stopfen.


    Bitte um Aufklärung! ;)

    Ich hab bei unseren Nachbarn Bier und Eierlikör gekübelt und bin müde ... lese das morgen nochmal aufnahmefähiger nach. Aber was mir im Moment beim müden interessierten Überfliegen fehlt, ist eine Erklärung, wieso der Bayer-Sensor so gut die Helligkeitsinformationen aufnehmen können soll.


    Vor jeder Zelle die Helligkeiten speichert sitzt ein Farbfilter ... soweit ich das sehe, hat das lucky ja auch bestätigt. Es wird von einer Zelle mit Rotfilter nur die Helligkeit des roten Farbkanals erfaßt. Kommt aber nur Grün auf diese Zelle, wird hier doch keine Helligkeit erfaßt?


    Und das mit der Linie habe ich auch nicht verstanden. Wenn der Bayer-Sensor nur Farbinformationen missen sollte, aber alle Helligkeitsinfos hat, sollte die doch eben _nicht_ verschwinden? Ich bin vielleicht einfach zu müde ... morgen dann. ;)


    €: Ha, zweiter Anlauf, das mit der Linie ist mir klar, also wie es gemeint war. Wie der Bayer-Sensor die Luminanz für jeden Pixel erfassen soll, ist mir hingegen nach wie vor unklar.

    Zitat von "mol"


    Der Begriff Bayer Sensor ist ein bisschen Irreführend, die Farbmatrix und Interpolation ist ja elementarer Teil des Bayersensors. Ohne Farbseparation ist es kein Bayer Sensor mehr ... sondern nur noch ein Sensor der Helligkeitswerte aufnimmt.
    Und natürlich hat sowas eine boshafte, weil native, Auflösung im Vergleich zu Bayer Sensoren oder Foveons


    Such dir mal die Erfahrungsberichte zu den alten Kodak DCS 760m im Web, das waren 6MP (aps-h) B&W Kameras, also ohne Bayermatrix und Interpolation.


    ps: Nop hat recht


    Naja, ist doch aber, was ich auch sagte!? Jede Zelle kann grundsätzlich nur eine Helligkeit messen, aaaaaber durch den Farbfilter davor, kann sie das nur für Licht der jeweiligen Farbe.


    Ich erinnere mich an die Kodak. Rancid hatte die mir mal zu Penums Zeiten verlinkt ... und in der Tat frage ich mich immer noch, warum man die Farbfilter nicht einfach wegläßt und ne tolle pixelscharfe sw-Kamera auf den Markt bringt.

    Hm, an dieser Stelle komme ich auch ins Grübeln. Ich habe wegen ghoostys Beitrag gerade nochmal den Beitrag Wikipedias zur Bayer-Matrix gelesen, aber so schlau werde ich bezüglich meiner folgenden Frage daraus nicht:


    Ein Bayer-Sensor sammelt doch nicht mit jeder Zelle einen Helligkeitswert und zusätzlich einen Farbwert, oder etwa doch? Das hieße ja, in schwarz-weiß wäre der Bayer-Sensor dem Foveon in aller Deutlichkeit, sprich genau im Verhältnis der resultierenden Bildauflösungen, überlegen. Es ist doch vielmehr so, daß jeder Pixel in den Rohdaten aus einem RGB-Wert besteht, sprich Anteile der drei Grundfarben. Der Luminanzwert/-kanal ergibt sich dann aus diesem RGB-Wert, bzw. diesen Werten, oder nicht? Das war bislang jedenfalls mein Verständnis. Hinzu kommt, daß ich nicht das Gefühl habe, die Helligkeitswerte meiner 5D seien interpolationsfrei ...

    Zitat von "NOP"


    "Im Vergleich zum Bayer-Sensor beträgt die Auflösung etwa zwei Drittel der Herstellerangabe. Eine mit 14 Megapixeln (effektiv 3 × 4,7 MP) Auflösung angebotene Foveon-Kamera entspricht einer Bayer-Kamera mit 10,5 Megapixeln (monochrom – effektiv 5,25 MP grün und je 2,625 MP rot und blau – im arithmetischen Mittel 3,5 MP)."
    Damit hat man eine Hausnummer, um die beiden Systeme bzgl. Auflösung in der Praxis vergleichen zu können.. Das reicht mir dazu..


    Verstehe ich nicht. Die Sigma mit 14 MP hat im Mittel effektiv 4,7 MP. Die Bayer-Kamera mit 10,5 MP hat im Mittel effektiv 3,5 MP. Und das ist laut Wikipedia vergleichbar? Ähm ...


    Ansonsten: Ich bin ja seit Jahren hin- und hergerissen. Hab ne 5D auf der Bayer- und ne SD14, DP1 auf der Foveon-Seite. Die haben beide Stärken und Schwächen. Ich kann hier also auch beiden Sichtweisen rechtgeben:
    1. Ne 5D erzielt Erstaunliches durch Interpolation
    2. Sigma für die Werbung mit 14 MP zu kritisieren ist nicht angebracht, da eigentlich die Bayer-Sensoren ihre beworbene Auflösung nicht effektiv bringen.


    Ich denke, wenn Sigma das Canonsche Objektivangebot samt Speziallinsen hätte, würde ich auf Dauer zu Sigma überlaufen, da mir am Ende eher nur das Bild wichtig ist. Dafür nehme ich lahme Geschwindigkeit und reduziertere Einsatzgebiete durchaus meist in Kauf. Aber so einfach isses leider noch nicht. Gelegentlich brauche ich noch Lichtempfindlichkeit in der Dämmerung. Ich grübel da fast täglich mal drüber ... und hoffe, daß mir ne zukünftige Sigma die hohen ISOs genehmigt, dann blieben nur ein paar fehlende Linsen.


    An anderer Stelle zu "5D I oder II" habe ich auch irgendwo schonmal geschrieben: Nur weil ein Bild detailliert aussieht, muß es das nicht sein. Die Bayer-Interpolation mag nämlich intelligent kalkulieren, aber ob das Ergebnis ECHT ist, ist die andere Frage. Es mag ja scharf und fein aussehen ... aber viele der errechneten Werte mögen nur nah an der Wirklichkeit sein! Es stellt sich also auch die Frage, ob man ein gefälliges detailliertes Poster haben möchte, oder eines, daß ausschließlich echte Bildinformationen trägt.


    Im Prinzip kann eine Interpolation eines Sigmabildes ja auch intelligent sein und versuchen den Schärfeeindruck zu erhalten. Der Unterschied ist doch eigentlich nur der, daß die Bayer-Interpolation die Lücken des Farbmosaiks stopft, während Sigma versucht, das komplette pixelscharfe Bild möglichst unter Erhalt des Schärfeeindrucks großzurechnen. Die echten Bildinfos werden hier weicher und größer ... bei Fraktal & Co werden Linien auch wieder dünner, da kann es natürlich auch passieren, daß die bildliche Wahrheit leidet.


    Daß ein Lückenfüllen am Ende etwas besser zu bewerkstelligen ist als das Großrechnen unter Erhalt der Schärfe glaube ich auch. Ein kleiner Vorteil zugunsten Bayer mag daher oft da sein. Schön ist beides nicht. Und am Ende, sprich in hoffentlich naher Zukunft, habe ich hoffentlich einen hochauflösenden Foveon im Format Kleinbild+ in der Hand. Zukunft hat mMn nur das System mit kompletter Farbinformation eines jeden Pixels. Bis zu diesem Zeitpunkt isses nicht unbedingt das Bessere, aber das echtere und elegantere.

    Mir ist diese Möglichkeit auch neu, danke für den Hinweis. Mit Erfahrungen kann ich daher aber natürlich noch nicht dienen ... würde mich aber auch freuen, wenn hier jemand seine Erfahrungen mit diesen Batterieladern niederschriebe!

    Auf dem letzten Bild von Frank ist das Bokeh für mich auch ok, d. h. weich. Das mag ich, solange innerhalb der Schärfeebene auch wirklich scharf abgebildet wird. Wegen der CAs bin ich mir nicht so sicher. Bei den beiden völlig überbelichteten Bildern (vielleicht ist der Fokus automatisch, aber die Belichtung dafür manuell? :P ) zeigt das mit dem häßlichen fahrenden Auto bei f/2.8 ein paar Querfehler und das letzte von Frank mit dem weichen Bokeh immerhin noch reichlich Längsfehler. Nichts, was sich nicht korrigieren ließe, aber sehen tut man sie.


    Das angesprochende Bild, welches nach Arie rauscht und nach Frank überschärft ist, leidet meiner Meinung nach (neben der Überbelichtung) unter einer zu hohen Detailverstärkung im feinsten Frequenzband. Siehe Gimp Wavelet Decomposer, RT Direktionaler Pyramiden-Mixer oder die Texturfilter bzw. einiger anderer Programme. Ich habe den Eindruck, daß Lightroom sich dieser Verstärkung per Schärferegler bedient, da ich mittlerweile öfter lese, das liege an der Schärfe. Wurde hier auch Lightroom verwendet? Für mich ist das Bild jedenfalls nicht wirklich deutlich überschärft, nicht im herkömmlichen Sinne der Kontrastverstärkung an Hell-Dunkel-Kanten.

    Zitat von "Sesotris"

    Vielleicht hat Sie nun endlich vom Sponsor endlich eine Canon bekommen :mrgreen:


    Ehrlich, das wäre wohl von Vorteil für sie. Denn, wenn ich hier sagen würde, was ich von ihrem Siegerbild halte ... aber ich will nicht, daß ihr denkt, ich sei neidisch. *g*


    Immerhin finden sich ein paar nette Bilder in den anderen Kategorien. Aber hm, so manch guter Naturfotograf bringt diese Ausbeute des Wettbewerbs fast alleine hin. So richtig hin und weg bin ich da nicht.