Beiträge von Franz

    @master:
    Das Auflagemaß ist der Abstand zwischen Sensor (bzw. Film) und dem Objektiv. Ist die Kamera mit einem kleineren Auflagemaß als das Objektiv konstruiert, ist zwischen Kamera und Objektiv noch Platz für ein Adapter und das passt dann. Hat die Kamera aber ein größeres Auflagemaß, ist das Objektiv immer zu weit vom Sensor entfernt. Man kann dann nur noch im Nahbereich scharf stellen (wie schon der Arie schrieb).

    Am besten wird sein du zeigst deine Bearbeitung und gibst einen Link auf das unbearbeitete Original dazu, damit das maximale Bearbeitungspotential zur Verfügung steht.
    Hast du z.B. eine s/w-Bearbeitung gemacht, kann man sonst kein Farbbild mehr draus machen aber auch andere Schritte (Schärfe, Kontrast, Sättigung etc.) lassen sich nicht ohne Verluste rückgängig machen.

    Zitat von "MIC"


    Jetzt gibt es aber gerade frische Messwerte fuer die A560, die denselben 14MP HD Exmor benutzt wie die SLT A33. Da schaut es etwas anders zwischen Theorie und Praxis aus ;) ,


    http://www.dxomark.com/index.php/en/Camera-Sensor/Compare-sensors/%28appareil1%29/686|0/%28appareil2%29/673|0/%28onglet%29/0/%28brand%29/Sony/%28brand2%29/Sony


    Beim ISO-Wert 817 zu 591 stimmt es aber, das entspricht fast exakt einer halben Stufe. Komisch, dass sich das nicht in der Gesamtbewertung niederschlägt, die anderen Werte sind fast gleich. :???:

    Zitat von "Flash"

    An automatisierbaren "Kaschierungen" fällt mir zuerst einmal künstliches monochromes Korn ein, das lässt die Sprünge etwas weniger stark auffallen (und tut z.B. auch stark entrauschten Bildern gut, die dann etwas weniger steril und weich wirken, oder auch etwas unscharfen Bilder, da es dem Auge Details vorgaukelt, die nicht da sind).

    Ja, damit haben wir auch schon experimentiert. Weiß jemand, ob der Unterschied zwischen Rauschen und "Korn" eine Rolle spielt? Bisher haben wir nur reines (weißes) Zufallsrauschen benutzt.



    Zitat von "Flash"

    Man könnte auch versuchen einfarbige Flächen (wo die Abrisse besonders auffallen) von Schärfungsalgorithmen auszunehmen oder eher hohe Schwellenwerte beim Schärfen zu verwenden, um so die Abrisse zumindets nicht unnötig zu betonen.


    Ja, aber das Schärfen verstärkt das Rauschen, weniger die Abrisse. Es geht uns in erster Linie nicht um eine Rauschunterdrückung, sondern wir wollen die Abrisse kaschieren. Das Rauschen darf ruhig drin blieben.


    Zitat von "Flash"

    Automatisierte Weichzeichner zum Entfernen stelle ich mir schwer vor, da die Wecihzeichnung recht heftig sein muss und - wenn etwas ungenau angewendet - auch andere Details zerstört.

    Genau das ist der springende Punkt. Wobei wir ja im wesentlichen das Rauschen gar nicht entfernen wollen, diesen Vorteil versuchen wir auszunutzen.



    Zitat von "le spationaute"

    Ich stelle mir weiterhin eine Weichzeichnung vor, die (mit regelbarem Schwellwert) nur in detailarmen Bereichen angreift, die sich dort nur die 'Kanten' der Tonwertabrisse schnappt und mit einstellbarem Radius weichzeichnet und die womöglich sogar Details schont, die in die Weichzeichnungsradien geraten, sofern diese Details Tonwertunterschiede aufweisen, die außerhalb des Schwellwerts liegen.

    Im Prinzip ist es das, was wir versuchen.


    Zitat von "le spationaute"

    Den Schaden der oben geschilderten 'selektiven Weichzeichnung' auf andere Bildteile könnte man doch vielleicht begrenzen, indem man sie nur auf Bildelemente anwendet, die gegenüber Ihrem 'Nachbarn' durch die eingestellten Bearbeitungswerte fürs Bild eine gewisse 'Mindestspreizung' erfahren haben.


    Das wäre zweifellos optimal, aber es ist auch schwer zu implementieren. Original und Endergebnis zu vergleichen genügt leider nicht, man muss auch lokal die Gradationen der Kanäle an jedem Bildpunkt berechnen. D.h. man müsste leicht abweichende Testbilder durchrechnen und sich die Auswirkung auf das Endergebnis betrachten und dann die Glättungsparameter dynamisch anpassen. Das wäre wie gesagt sehr viel Aufwand und würde auch sehr viel Rechenzeit kosten.
    Ich bin mir auch nicht sicher, ob das wirklich eine entscheidende Verbesserung bewirken würde, denn detailreiche und detailarme Bildbereiche können trotz ähnlicher Farbe und Helligkeit nebeneinander existieren und müssen unterschiedlich behandelt werden.


    Jedenfalls sind wir an dem Thema dran und wir haben auch schon Teilerfolge erzielt - allerdings hängt es vom Bildmaterial ab und unser Verfahren skaliert nicht optimal mit der Bildgröße. Flashs Bild könnte z.B. so aus dem ji kommen, nur funktioniert der Algorithmus in der Originalgröße noch nicht genauso gut wie in der hier gezeigten Verkleinerung:

    Wobei die Tonwerte im JPG durch eine Gamma-Funktion komprimiert sind. In den Lichtern werden nur ca. 6 Bit des RAWs, in den Schatten dagegen etwa 11 bis 12 Bit aufgelöst.

    Hier mal meine Version, auch mit dem ji:


    Belichtung, Weißabgleich, Kontrastausgleich, nochmal extra Kontrast auf die Lichter, "nur Helligkeit beeinflussen", extreme Sättigung (Spektralkorrektur+Originalfarbtonung), etwas Klarheit, beschnitten. Als Besonderheit habe ich eine Vignette angewendet, deren "Zentrum" ganz in der linken oberen Ecke liegt. Artefakte durch Tonwertabrisse sind leider zu erkennen, wenn man genauer guckt.


    Noch ein Tipp für die ji-Freunde: Das Sättigungsverfahren der Spektralkorrektur und der Originalfarbtonung funktioniert etwas anders als die normale Sättigung und liefert oft weniger Artefakte.

    Bei dpreview sind sie ja voll des Lobes. Aber ich verstehe nicht, warum Olympus ausgrechnet die wichtigen Rauschunterdückung- u. Schärfe/Kontrast-Einstellungen aus dem Menü rausnimmt. Dpreview sagt dazu, es wäre eine Schande. Man sieht die Rauschunterdrückung in den Portraits, z.B. hier. Wenn man bedenkt, dass sie sogar einen Graufilter drinnen hat...

    Der Effekt dürfte ja eigentlich nicht nur von der Farbtemperatur des Lichtes abhängen, sondern auch von der Objektfarbe. Also fokussíert auf einen roten Schal ein anderes Ergebnis als bei einer blauen Bluse ...


    Bei meiner Oly hatte ich schon des Öfteren den Eindruck, dass bei bestimmten Motiven (Landschaft mit blauem Himmel) eher ein Fehlfokus vorkommt als bei anderen Lichtverhältnissen.


    Nein ich glaube ich probiere das lieber erst gar nicht aus.

    Zitat von "Lokknipser"

    Aber was mir total fehlte, war das Korn.


    Eigene Erfahrungen mit den Bildstilen habe ich nicht. Aber ich denke das Korn wird bestimmt nicht von ihnen beinflusst. Die Gradation und die Farbwiedergabe, evt. auch die Schärfung, aber das war es dann auch schon. Wenn du sogar das Korn simulieren willst, brauchst du bestimmt eine extra Software (evt. Plugin).

    Zitat von "Nyohozan"

    Meiner Meinung nach sehen die Bilder der D90 im Vgl. mit aktuelleren Modellen der gleichen Klasse (z.B. Pentax, K-R) weniger detaillreich bzw. etwas weicher und etwas farbverfremdet aus.

    Ich habe die neuen Modelle zwar nicht auf imaging-resource verglichen, aber Ich glaube das liegt weniger an der D90, sondern kommt eher daher, dass Nikon allgemein etwas weicher und andersfarbig unterwegs ist.

    Zitat von "Samedate"

    Die [S95] zeigt bei der Wiedergabe der Bilder optional mittels bis zu mehrerer Rahmen im Bild die Bereiche die für die Fokussierung benutzt wurden. Schöne Info! Nun musste ich mit Erstaunen feststellen, dass die mitgelieferte Software (die ich weder benutze noch benutzen will) diese Fokussierbereiche auch anzeigen kann. Scheinbar ist die Info dazu in den Exif-Daten enthalten?


    Ja, das wird in den Exif-Daten gespeichert, allerdings nicht im Standard-Bereich sondern in den Hersteller-abhängigen Daten. Das heißt die Infos sind für verschiedene Kameramodelle unterschiedlich gespeichert. In ji werten wir nur standardisierte Exif-Daten aus, weil es einfach zu viele Hersteller und Modelle gibt. Überdies legen die Hersteller die Struktur ihrer eigenen Exif-Daten meist nicht offen.

    Ich dachte mir, dass die Bildschirmansicht unter ein paar Vereinfachungen schneller durchgerechnet wird. Wir machen das beim ji auch so. "auf Ebene reduzieren" wird dann aber die tatsächlich endgültige Berechnung sein. Im ji erhält man die endgültige Berechnung (inc. Schärfung) wenn man die Ansicht von "Quick-Modus" auf "anpassen" umstellt.

    Sorry, ich hab' vorhin nicht genau genug gelesen, ein Hardware-Problem kann ja sowieso nicht die Ursache sein. :oops:


    Gibt es die Möglichkeit am Bildschirm das "echte" Endergebnis zu sehen und nicht ein schnell gerechnetes Preview? Vielleicht kommen daher die Darstellungsunterschiede.

    Dass die Bilder in horizontaler Richtung zweigeteilt sind ist ungewöhnlich. Die Bilder werden nämlich sozusagen von oben nach unten auf die Karte geschrieben. D.h. wenn es einen Karten- oder Übertragungsfehler gibt, ist normalerweise nur der untere Bildteil Müll und der obere noch OK.


    So wie das hier aussieht, würde ich auch ein Firmware-Problem in Betracht ziehen. Hast du mit dieser Kamera/Karten-Kombination schon früher ISO-Bracketing eingesetzt?

    Zitat von "kaheal"


    Hier nochmal ooc


    ...


    So richtig ooc sind die Bilder aber nicht, zumindest die Exif-Daten sind verändert. Für meinen Geschmack sind sie überschärft. Außerdem sind sie mit dem 14-42 gemacht? Ich dachte zuerst das sollten Beispiele für das 14-150 sein.


    Noch was anderes: Laden die Bilder von pic-upload.de bei euch auch so gnadenlos langsam?