RAW Konverter - Thema Korrekturen Hotpixel

  • Ich fand Aries Farben von SilkyPix zwar allemal besser als die von LR, aber die heftige Betonung der heißen Pixel mit Saum fand ich eigen ... Hab mir aus Interesse eben daher doch auch noch das RAW angesehen, vielleicht interessiert es ja doch noch jemanden. Die Stelle unten rechts hat n blaues und n rotes Fehlpixel, es ist jeweils wirklich nur ein Pixel, das leuchtet. Aber je nach Entrasterungsalgorithmus, wird dieses Leuchten eben noch schlimmer ... hier mal nur ne kleine Auswahl.


    Bei ein paar Methoden verbleibt auch nachher nur ein Pixel. Andere sind extrem und beziehen das Leuchten voll in die Interpolation ein. Ich frag mich, ob es nicht besser wäre, VOR der Entrasterung zu korrigieren? Nicht daß nicht jeder drittklassige Konverter das auch hinterher schnell korrigieren könnte, aber ggf. muß der Konverter wie in Aries Bild dann vielleicht statt eines einzigen px eher einen 5-15-px-Haufen eliminieren ... und so ein Schwellwert schluckt dann wohl ähnlich viel Farbdetails wie LR.

  • Zitat von "RitterRunkel"

    Ich frag mich, ob es nicht besser wäre, VOR der Entrasterung zu korrigieren?


    Gerade bei RawTherapee gibt es dafür die Möglichkeit ein 'darkframe' zu verwenden, der dann vom eigentlichen Raw abgezogen wird. So ähnlich wie die Rauschminderung bei Langzeitbelichtungen von Nikon, wo ein zweites Bild bei geschlossenem Verschluss aufgenommen wird. Ich weiss nicht ob die anderen Rawentwickler das können oder das Problem irgendwie anders lösen. Bei Lightroom jedenfalls haben ich den Eindruck, dass die Hotpixel schon ohne zutun des Anwenders eliminiert werden.
    Wenn man bei RawTherapee 'impulse noise reduction' (nach dem Demosaicing) verwendet, hängt die Qualität des Resultats auch vom Demosaicingalgorithmus ab. Bei Amaze zum Beispiel bleiben durchaus Artefakte stehen. Mit demAlgorithmus 'igv' habe ich bei diesem Bild die besten Ergebnisse erreicht.



    Zitat von "Picturehunter"


    ich habe das Bild jetzt auch nocheinmal in RAW Therapy entwickelt, Preset war "Neutral" und dann einmal mit und einmal ohne Kameraprofil.


    Wenn man beim Farbprofil 'Kamera-Standard' die Dynamik etwas hochdreht und ein wenig an den Kurven rumspielt, kommt man auch schon recht nah an das ooc-jpg ran. Das ist dann aber nicht mehr ohne bewusste Korrekturen und damit tendenziell off-topic.

    Viele Grüße,
    Sebastian

    Einmal editiert, zuletzt von ottograu ()

  • Zitat von "SeBaer"


    'darkframe'
    ..
    'impulse noise reduction' (nach dem Demosaicing) verwendet, hängt die Qualität des Resultats auch vom Demosaicingalgorithmus ab. Bei Amaze zum Beispiel bleiben durchaus Artefakte stehen. Mit demAlgorithmus 'igv' habe ich bei diesem Bild die besten Ergebnisse erreicht.


    Das ist ja, was ich meine und mir vorhin erst klar geworden ist: daß die hellen Pixel dann entsprechend der Entrasterungsmethode stärker oder schwächer ins Gewicht fallen und evtl. sehr schlecht eliminiert werden können (da der helle Impuls verschwimmt). Würde man aber einfach nur genau den Pixel in den Rohdaten schon VOR Entrasterung angleichen/mappen ... Bei dem Darkframe wäre ich mir nämlich auch nicht sicher, ob da die Rohdaten angesehen werden. Ich vermute eher, der wird auch entrastert und dann verrechnet, da er ja auch Bildrauschen und anderes eliminieren soll. Aber ja, das sollte auch schon viel helfen und erzeugt sowieso und darüberhinaus ein viel besseres Bild.


    Zitat von "PatrickS3"

    hier noch das JPG, wie es die Kamera gespeichert hat


    Das ist von allen mehr als deutlich die schlechteste Version und ich verstehe einmal mehr nicht, was die da kameraintern alles falsch machen. Qualitativ nicht gerade attraktiv. Würde da wie Equi nur RAW machen und per Batch in Standard exportieren, wenn Du nicht weiter bearbeiten willst.

  • Zitat von "RitterRunkel"

    Würde man aber einfach nur genau den Pixel in den Rohdaten schon VOR Entrasterung angleichen/mappen ... Bei dem Darkframe wäre ich mir nämlich auch nicht sicher, ob da die Rohdaten angesehen werden. Ich vermute eher, der wird auch entrastert und dann verrechnet, da er ja auch Bildrauschen und anderes eliminieren soll.


    Doch, RawTherapee macht das laut Dokumentation vor dem Entrastern. Ich hab das auch schon probiert, bevor ich ein sehr nerviges stuck pixel ausmappen lassen habe. Der Pixelfehler verschwindet dann auch ohne Impulsrauschminderung.

    Viele Grüße,
    Sebastian

    2 Mal editiert, zuletzt von ottograu ()

  • Wenn ich bei meiner Kamera (Nikon) im RAW Modus arbeite und den Dunkelbildabzug aktiviere, dann muß das Ergebnis der Verrechnung als Rohdaten gespeichert werden, also vor dem Demosaicing. Im Rohdatenkonverter sollte dann auch kein HotPix mehr erkennbar sein, richtig?
    Der Rohdatenkonverter wiederum bräuchte ein separates Schwarzbild, um diesen Dunkelbildabzug durchführen zu können. Und das passiert dann auch grundsätzlich vor dem Demosaicing?


    LG
    Frank

    Der Augenblick ist jenes Zweideutige, darin Zeit und Ewigkeit einander berühren. Kierkegaard

    Einmal editiert, zuletzt von ottograu ()

  • Zitat von "Picturehunter"


    Der Rohdatenkonverter wiederum bräuchte ein separates Schwarzbild, um diesen Dunkelbildabzug durchführen zu können. Und das passiert dann auch grundsätzlich vor dem Demosaicing?


    Wie ich das verstehe, passiert das bei RawTherapee vor dem Demosicing (Raw Pre-Demosaicing Features). Anders wäre es ja auch nicht wirklich hilfreich, da ja beim Demosaicing die umliegenden Pixel miteinbezogen und auch beeinflusst werden. Das heisst, nach dem Demoasicing sieht der Pixelfehler beim Dunkelbild anders aus als beim echten Bild. Das würde wieder zu Artefakten führen.

    Viele Grüße,
    Sebastian

    Einmal editiert, zuletzt von ottograu ()

  • Zitat von "Picturehunter"

    Der Rohdatenkonverter wiederum bräuchte ein separates Schwarzbild, um diesen Dunkelbildabzug durchführen zu können. Und das passiert dann auch grundsätzlich vor dem Demosaicing?


    Ja, sieht so aus:

    Zitat von "SeBaer"

    Doch, RawTherapee macht das laut Dokumentation vor dem Entrastern.


    Dann isses ja fein. =) Ich mach zu wenig Langzeitbelichtungen mit meiner großen ... seit Jahren keine richtige mehr gemacht. Hatte das anders in Erinnerung in RT und fusioniere/kompositiere nur mit entwickelten TIFFs aus den Sigmas in anderen Programmen.


    Umso mehr ist RT zu empfehlen ... den LR-Ergebnissen sieht man die Zwangsheilkur durchaus an.

  • Zitat von "SeBaer"

    nach dem Demoasicing sieht der Pixelfehler beim Dunkelbild anders aus als beim echten Bild


    Mit ein paar wenigen Algorithmen bleiben sie sogar nahezu unverändert ... siehe Bild von vorhin. Aber generell ja und insbesondere bei einigen anderen Algorithmen. Ist ja auch logisch, genau wie es logisch ist, sie besser in den Rohdaten auszumerzen. Hatte nur nie drüber nachgedacht und mich irgendwie falsch an meine Hotpixel von früher erinnert, die mir als Einzelpixel im entrasterten Bild im Gedächtnis hängengeblieben waren.


    Kommt mit auf meine Noch-zu-tun-Liste, mit den Rohdaten entsprechend zu experimentieren.

    • Offizieller Beitrag

    Über das bisschen LR-Farbbügelung könnte ich persönlich leicht hinwegsehen, vor allem da im letzten LR-Bild von Picturehunter mehr Farbdetails drinnen sind als in der ursprünglichen LR-Variante von Patrick.


    Und Silkypix ist nicht schlecht, aber bei meiner G3 bekomme ich damit nicht so feine Details wie mit den ooc-JPGs, egal wie ich schärfe. Um das zu sehen braucht man aber eine schärfere Aufnahme.

  • Noch schnell ein Beispiel mit Darkframe:



    Wenn man zwischen den beiden Bildern hin und herspringt, sieht man auch abseits des stuck pixel leichte Veränderungen. Ich denke einfach, dass hier durch die Verwendung des Dunkelbildes auch das Rauschen leicht reduziert wurde.


    Aber langsam wird das hier echt off-topic. Deswegen lasse ich es jetzt hierbei bewenden.

  • Zu CCD Zeiten konnten die Cams die Hotpixel ja selbst ausmappen.
    Geht das heut nicht mehr?
    Einfach mal das Datum einen Monat vorstellen hat bei meiner Minolta damals
    das Problem gelöst.

  • Zitat von "modena"

    Zu CCD Zeiten konnten die Cams die Hotpixel ja selbst ausmappen.
    Geht das heut nicht mehr?
    Einfach mal das Datum einen Monat vorstellen hat bei meiner Minolta damals
    das Problem gelöst.


    Teilweise geht das noch. Manchmal durch Tricks wie an der Canon 5D. Und ja, wäre wohl vernünftiger. Aber immerhin reicht mit RawTherapee dann ein einziges Dunkelbild um alle Nachtaufnahmen von den heißen Pixeln zu befreien (kameraintern wartete man ja sonst nach jeder Aufnahme ...).


    Zitat von "SeBaer"

    Wenn man zwischen den beiden Bildern hin und herspringt, sieht man auch abseits des stuck pixel leichte Veränderungen. Ich denke einfach, dass hier durch die Verwendung des Dunkelbildes auch das Rauschen leicht reduziert wurde.


    Ne Verbesserung müßte da drin sein, jap, und man sieht sie auch. Ich denke aber, die Rauschminderung wäre noch sehr viel deutlicher, wenn man statt eines Dunkelbildes die Langzeitbelichtung am Motiv einfach zwei mal macht und deren beider Werte mittelt. Kann man ja machen und einmal noch das Dunkelbild für alle. =)


    Ist auf jeden Fall das Non-Plus-Ultra qualitativ im Vergleich zur bequemen Lösung (Ein Bild + Schieben der Regler gegen Bildrauschen und Pixeldefekte).

  • Dass da immer nur das eine Dunkelbild ausreicht erschliesst sich mir nicht.
    Mit längerer Belichtung werden die ja intersiver und es werden
    unter Umständen ja auch mehr.
    Da hilft dann wohl nur das Darkframe der Kamera.

  • Zitat von "modena"

    Dass da immer nur das eine Dunkelbild ausreicht erschliesst sich mir nicht.
    Mit längerer Belichtung werden die ja intersiver und es werden
    unter Umständen ja auch mehr.
    Da hilft dann wohl nur das Darkframe der Kamera.


    Ganz exakt isses nicht. Temperatur und bla ... Aber ob intensiver oder nicht wird vermutlich für den Pixel keinen Unterschied machen (kenne aber die Mapping-Technik nicht). Kannst ja zudem auch n ziemlich lang belichtetes Dunkelbild nehmen und die damit zahlreichen auffälligen Pixel in Deinen Aufnahmen alle mappen lassen. Denke schon, daß das für ein gutes Ergebnis reicht und viel Zeit spart. Von nem ganz anderen Tag zu gänzlich anderer Stunde würde es aber wohl nur für die heftigsten Kandidaten reichen. Probieren wir es aus ... Ich glaube Patrick könnte selbst jetzt noch mit nem Dunkelbild die fünf-sechs Pixel da leicht (und vor allem gezielt (im Gegensatz zum groben Regler)) eliminieren.

  • Die genauen Vorteile/Nachteile/Anwendungsgebiete der ganzen verschiedenen Demosaiicing-Algorithmen würde mich eh mal interessieren (so die Unterschiede wirklich sichtbar sein sollten) - bisher habe ich den immer auf Standard (Amaze) gelassen...

  • Zitat von "modena"

    Zu CCD Zeiten konnten die Cams die Hotpixel ja selbst ausmappen.
    Geht das heut nicht mehr?


    Das hängt halt vom Hersteller ab. Nikon möchte eben nach Ablauf der Garantiezeit Geld dafür sehen und hat die Funktion daher nicht in die Kamerasoftware implementiert.


    Zitat von "RitterRunkel"

    Ich denke aber, die Rauschminderung wäre noch sehr viel deutlicher, wenn man statt eines Dunkelbildes die Langzeitbelichtung am Motiv einfach zwei mal macht und deren beider Werte mittelt.


    Das kann man mit einem Median-Filter auch ins Extreme treiben.


    Zitat von "modena"

    Dass da immer nur das eine Dunkelbild ausreicht erschliesst sich mir nicht.
    Mit längerer Belichtung werden die ja intensiver und es werden unter Umständen ja auch mehr.


    Bei mir hat es geholfen, weil es nicht ein Hotpixel, sondern ein 'stuck pixel' war, das nicht von der Belichtungsdauer und der ISO abhängt. Aber man kann die kamerainterne Rauschminderung nachempfinden, indem man eben Dunkelbilder mit den gleichen Parametern wie die eigentlichen Bilder aufnimmt.


    Zitat von "Flash"

    Die genauen Vorteile/Nachteile/Anwendungsgebiete der ganzen verschiedenen Demosaiicing-Algorithmen würde mich eh mal interessieren (so die Unterschiede wirklich sichtbar sein sollten) - bisher habe ich den immer auf Standard (Amaze) gelassen...


    In der Dokumentation von RawTherapee gibt es dazu einen kurzen Abschnitt mit Beispielbildern, die die verschiedenen Algorithmen illustrieren. Aber AMaZE ist eigentlich immer eine gute Wahl.


    @Admins:
    Sollten wir die Hotpixelthematik nicht vielleicht ausgliedern? Das hat mit Patricks anfänglicher Frage ja nicht mehr viel zu tun, ist aber zu interessant um es unter den Teppich zu kehren.

    Viele Grüße,
    Sebastian

    Einmal editiert, zuletzt von ottograu ()

  • Zitat von "SeBaer"


    Das kann man mit einem Median-Filter auch ins Extreme treiben.


    Wobei sich Median insbesondere eignet, um sich bewegende kurz erscheinende Elemente gänzlich rauszuhalten. Rein fürs Bild hab ich mit dem arithmetischen Mittel mehr Erfolg. Ich mag ja ImageMagick, aber noch feiner als mit IM ist das Ganze in Enblend/Enfuse implementiert.


    Zitat von "SeBaer"

    Bei mir hat es geholfen, weil es nicht ein Hotpixel, sondern ein 'stuck pixel' war


    Vielleicht sollte man da begrifflich wirklich präziser werden. Ich werf die alle meist in einen Topf als fixe Störpixel, die teilweise immer da sind und teilweise nur auffallen, je länger und wärmer man belichtet ...


    Zitat von "SeBaer"


    In der Dokumentation von RawTherapee gibt es dazu einen kurzen Abschnitt mit Beispielbildern, die die verschiedenen Algorithmen illustrieren. Aber AMaZE ist eigentlich immer eine gute Wahl.


    Vor allem werden die ja häufig immer mal noch verbessert, die Verfahren ... irgendwie scheint sich da wirklich kaum jemand genauer zu interessieren. Überhaupt kann man die Zahl wirklich guter RAW-Konverter-Vergleiche im Netz an einer Hand abzählen. Und innerhalb dieser drei-vier besseren Vergleiche (z. B. http://ninedegreesbelow.com/), fehlt dann meist das Entrasterungskapitel. ^^ Ein paar Vergleiche gibt es ja, aber meistens schon etwas angestaubt: http://www.libraw.org/articles/bayer-moire.html .


    Ich halte das einfach so, daß ich mir generell immer mal ansehe, wie sich die Ergebnisse unterscheiden und bleibe dann bei meinen Favoriten (meist DCB und Amaze), die ich nur dann wechsel, wenn es Probleme gibt oder sich um Sonderfällte handelt (Moiré, besonders verrauschte Bilder, usw.). Kann man dann ja büssl spielen ... und wenn die ganzen folgenden Verarbeitungsaktionen noch deaktiviert sind, geht das Durchprobieren ja recht schnell.

  • Zitat von "Flash"

    Die genauen Vorteile/Nachteile/Anwendungsgebiete der ganzen verschiedenen Demosaiicing-Algorithmen würde mich eh mal interessieren (so die Unterschiede wirklich sichtbar sein sollten) - bisher habe ich den immer auf Standard (Amaze) gelassen...



    Sehen kann man die Unterschiede schon, aber wie so oft hängt es auch vom Bildmaterial ab, wie sehr sich diese Unterschiede dann auswirken.


    Ich habe mal das Rohdaten Bild von Patrick genommen und alle 9 zur Verfügung stehenden Demosaicing Algorithmen von Raw Therapee angewendet. Die Einstellungen waren "Neutral" und mit Standard Kameraprofil. Die Bildauschnitte sind 100% Crops, also nichts interpoliert. Einzig eine Tonwertanpassung habe ich anschließend angewendet, also den Tonwertumfang auf den aufgenommenen Bereich eingegerenzt, damit man auch was erkennt.





    Mit liebem Gruß
    Frank

    Der Augenblick ist jenes Zweideutige, darin Zeit und Ewigkeit einander berühren. Kierkegaard

    3 Mal editiert, zuletzt von Picturehunter ()