Beiträge von mol

    Vielleicht ist Linux ja eine Alternative, aber damit kenne ich mich erstens nicht wirklich aus und zweitens habe ich es aus früheren Tagen nur als furchtbare Bastelei in Erinnerung.

    ich kenne mich damit auch nicht aus, aber wenn ich an die Basteleien denke, die ich bei Windows machen musste um ein halbwegs sicheres und schnelles System zu haben .... alleine um einen PC von der (HP) Stange zu entrümpeln habe ich das erstemal 2 Tage benötigt (das zweitemal auch)


    ich hab meine Umstiegserfahrungen verbloggt, wen es interessiert :


    Windows ade
    Linux Mint, nach den Flitterwochen
    inzwischen habe ich meine letzten Windows Images gelöscht (i500gb Platz auf der primären Backupplatte gewonnen), und der USB Stick auf dem das Acronis Recovery Programm war steckt mit Musik gefüttert im Autoradio


    Wobei ich jetzt vom Schicksal bevorzugt bin, ich benutze keine Adobe Produkte, meine Lieblings Rawkonverter gibt es auch für Linux, JPG-Illuminator läuft unter Wine (es sind verdammt viele kleinere Bildbearbeitungen die unter Wine laufen können).


    freiwillig gehe ich nicht mehr zurück in die M$ Welt

    das kommt ganz auf die verbaute Festplatte und die Controllerchips im Rechner und im externen Gehäse an.
    Bei einem USB Gehäse scheint das Limit wohl bei 120mb/sec zu liegen, beim Testsystem aus dem Artikel :)
    Bei mir liegt, je nachdem ob am aktiven USB3 HUB, direkt am USB3 PC oder als nackte Festplatte an einem Sata/USB Kabel zwischen 105-115mb/sec ... so die Platten überhaupt schnell genug sind. Die älteren in meiner Sammlung sind nämlich 5400rpm Platten, ziemlich leise, aber schnell geht anders, die liegen zwischen 60-105mb/sec (ich habe ein halbes dutzend von denen..., die IDE Platten, die einfach nicht kaputt gehen wollen und an USB2 laufen, nicht mitgezählt).
    Meine Systemplatte ist auch eine 256gb SSD, die orginal Systemplatte ist nach extern verlegt worden, war eine 5400 die intern auch nie über 80mb/sec kam und meine INTERNE Datenplatte ist eine 3TB Seagate Barracuda ... und die liegt intern, bei kopieren von ca 120GB Daten bei anfänglich flotten 182mb/sec und bricht dann allmählich auf 172mb/sec ein ... wobei, wie bei jeder Festplatte, sie zum inneren Rand hin langsamer wird. Das letzte Drittel bis zum Endanschlag sind es nur noch 135-115mb/sec.


    Ein üblicher EDV Witz, die Barracuda war in einem USB 2 Gehäuse verbaut und hat als externe Platte mit Gehäuse weniger gekostet, als sie als naggische Interne gekostet hätte ...
    und noch eine Bemerkung zum Betriebsystem und seinen Einflüssen .... unter Windows 7 (bei ntfs zu ntfs schreib/lese Operationen) kam ich nie über 160mb/sek raus, obige Messwerte entstanden unter Linux (ext4 zu ext4), wo ich bei einem Journaling Dateisystem eigentlich mit schlechteren Werten, als unter Windows, gerechnet habe.


    Mein Fazit, nie wieder eine 5400er als interne Platte ... und USB 3.0 bremst eine schnelle Platte doch aus
    (bei meinem Aufrüsten auf SSD und dem daraus folgenden zufälligen Umstieg von Windows auf Linux hatte ich genug Muße meinem Spieltrieb nachzugeben, Rechner war ja offen ... wenn es interessiert:
    wtf, who cares » Windows ade
    wtf, who cares » Linux Mint, nach den Flitterwochen
    )

    XnView hatte ich auch schon mal, aber es hat mir irgendwie nicht gefallen (weiß aber nicht mehr, warum - kann sein, dass mir die Oberfläche einfach zu hässlich war).

    ja, die Oberfläche ist ein bisschen ... gewöhnungsbedürftig, aber für mich nun mal die beste Alternative unter Linux :)

    Für TIFFs habe ich jetzt keinen Vergleichsmaßstab, da es bei mir nur selten als Exportformat und nicht im Archiv vorkommt.
    Wenn du ihn noch nicht ausprobiert hast, schau dir mal den von mir oben schon erwähnten XnView an

    Auf solche (auf mich) überheblich wirkenden Bemerkungen würde ich gerne verzichten:

    Damit wird der JPG-User indirekt als lernunwilliger kleiner Doofie hingestellt. :daumenrunter:

    ich kürze meine Antwort mal ab, sonst könnte es ausarten:
    a. ich bin als Amateurfotograf nicht gut genug um mir Überheblichkeiten zu leisten
    b. ich habe keinen Hang zum Missionieren, nur weil ich b1. auf einen technischen Umstand (a ist technisch besser als b.) hinweise und b.2 eigene Erfahrungen daran knüpfe
    c. indirekt ist immer so ein Ding ... wenn ich beleidigend werden will lasse ich keinen Interpretationsspielraum, das wird direkt.
    d. deine Interpretation ... die beruht sicher auf deinen Erkenntnissen über meine Person, die du dank meiner zahlreichen (tendenziell auch überheblichen) Forenbeiträgen hier und auf Penum mit mir machen konntest.


    ich nehme nicht jeden Schuh an, den man mir entgegen wirft, das ändert aber wenig daran, daß ich, so ich verärgert bin, dementsprechend darauf reagiere ... und um dir indirekltes Interpretieren zu ersparen, deine Unterstellungen ob meiner Überheblichkeit und als was ich JPG Benutzer hinstelle, hat mich verärgert.


    ich habe keinen Bock auf so einen Scheiss, wenn ich mich ärgern und/oder aufregen will, reicht mir die 24/7 Pflege meiner dahinsterbenden verkrebsten Mutter vollständig aus.
    EOT
    ("Thema durch", für diejenigen, die diese Abkürzung nicht kennen)

    Gute Beispiele hierfür sind auch diverse Summicrone/Summiluxe von Leica, die im Zentrum von manch gutem Japan-Objektiv "outperformed" ( :ugly: ) wurden, in punkto Homogenität und Randschärfe jedoch unerreicht sind. (@ mol kann dazu vielleicht was sagen) :smile:

    äh, ja
    Summicron 50mm (Summicron = F:2 also) ist jetzt im Zentrum nicht wirklich schärfer als das billige 1.8/50 von canon (5DII), dafür gleichmäßiger bis in die Ecken hinein


    Das Summilux 80 (Summilux= F1.4) ist offen weicher als das Canon 1.8/85 (nicht verwunderlich) ... bei F2 (gleicher Blende dann) das gleiche wie beim 50er Summi
    ab Blende 2.8 wird dann auch nicht mehr viel outperformed :) ... da lag mein 80 Summilux nahe an der Auflösung der Makros (egal ob Leica oder Canon, oder Tamron),


    Das 100er Apo Elmarit (Elmarit=F2.8) dagegen ist ein typisches Makro, offen rattenscharf mit kaum wahrnehmbarer Abschwächung der Auflösung bis in die Ecken, in der Farbwiedergabe ein bisschen knackiger als das Canon 100er Makro (egal ob das normale, oder das mit IS, ich hatte Beide hier)


    Bei allen Leica Objektiven typisch, abgeblendet werden sie boshaft scharf (vom Apo Macro abgesehen, das ist das schon offen), sie sind nicht auf max. Offenblendauflösung berechnet
    Der größte Unterschied ist ihre unterschiedliche Art mit Farben umzugehen, im Bereich des Mikrokontrastes, sie erscheinen subtiler differenziert, knackiger ...


    Einen Nachteil haben alle Leica-R Objektive (die ich habe), ihr Bokeh! Ihr Umgang mit den Spitzlichtern im Unschärfebereich. Wenn abgeblendet, ist das Bokeh eher mittelmäßig, man kann, je nach Lichteinfall und Hintergrundbeschaffung die Blendenlammellen zählen (die einzige Möglichkeit um z.B. das Apo Elmarit Makro vom "billigen" Makro Elmar zu unterscheiden).


    Da ist ein Soligor 2/135 eine ganz andere Hausnummer, die Offenblendenschärfe ist gerade mal Mittelmaß (dafür aber gleichmäßig bis an den Rand), Gegenlichtempfindlich, Flares und massiver Einbruch beim Kontrast sind da die Regel, Glühen an harten Kontrastkanten ... eine Diva bei der man immer aufpassen muß, woher das Licht kommt ;-}
    Benutzen wir gerne auf Hochzeiten, den gestellten Bildern des Paares an lauschigen Plätzchen ... ist halt was für Freistellungsfetischisten
    (und für avaiilable light, Reportage und Sport, wenn technische Perfektion der Optik eher zweitrangig sind)

    @birdy: SSD habe ich schon, die omega Treiber funktionieren nicht mit meiner GraKa-Version. Ist alles nicht so tragisch, ich ärgere mich nur ein bisschen, weil ich schon lange nach einem schnellen Fotobrowser suche; nun finde endlich ich einen - und der läuft bei mir nicht.

    wie schnell solls denn sein?
    FastStone und XnView MP benötigen bei Verzeichnissen mit ca 500 Raws beim ersten Aufruf deutlich unter 10sek zum generieren der Vorschauthumbs, so schnell scroll ich da nichtmal durch. Wobei ich xnview nicht optimal konfiguriert habe, der liest z.Z noch alles ein, auch noch die (rawtherapee) pp3 Dateien (sollt ich mal ändern)
    Beim zweiten Aufruf des gleichen Verzeichnisses ... äh, unter einer Sekunde (ich habe xnview aber auch großzügig Speicherplatz für die thumbs eingerichtet)
    Selbst wenn ich noch könnte (ich kann aber nicht mehr, da ich kein windows mehr nutze) , würde ich unter den Umständen keinen weiteren Bildbrowser mehr installieren ... Perfect Effekts dagegen vermisse ich ein bißchen, so wegen des Spieltriebs ;-}

    Immer wieder lasse ich mir von irgendwelchen (verzeihung) Fuzzis einreden, RAW ist besser.

    Technisch betrachtet ist RAW besser, das hat nichts mit Religion zu tun ...


    Vielleicht bist du in 5 Jahren ein besserer Fotograf und/oder du kannst in irgendeiner leuchtenden Zukunft besser mit der Software umgehen?
    (bei mir hat es keine 5 Jahre gedauert ... also nicht das mit dem besseren Fotografen, nur das mit dem besseren Umgang mit der Software ;-})


    Wenn du darauf bestehst dich nicht weiterentwickeln zu wollen (egal auf welchem Level du dich sehen möchtest), weil du mit dem was du kannst zufrieden bist, dann ist das natürlich ganz allein dein Ding

    Bei einigen meiner frühen Bilder mit der 20D ärgere ich mich heute noch, daß ich keine RAWs davon habe, wobei damals der Unterschied zwischen RAW und JPG, besonders im high iso bereich, signifikant sein konnte.
    Ich fotografiere also RAW only, was bei einer EOS 5DII bekanntermassen nur die halbe Wahrheit ist, da ein JPG (in Originalgröße!) im RAW eingebettet ist ;-}
    Bei unproblematischen Bilder und/oder kleinen Ausbelichtungsformaten/Web reicht das auch oft aus ... aber meine fotografische Welt besteht nicht nur aus unproblematischen Bildern und kleinen Ausbelichtungsgrößen ....

    Technisch ist es so, da ji das Quellverzeichnis nur dann überwacht, wenn er nicht im Vordergrund ist. Könnte es sein, dass Windows-Programme unter Wine sich immer im Vordergrund wähnen?

    es könnte auch daran liegen, daß ich, mangels EXE Dateien, gar keinen Pfad zu einer Konverter.EXE konfigurieren kann ...
    Wobei ich dieses feauture aber auch nicht benötigen würde, es also auch ausschalten täte

    Ich habe einen älteren core i7 mit 8GB... der eine schnarchlangsame HTSG 2TB Platte drin hatte. Mehr RAM? Für was? Der Rechner lief bei allen Operationen die Plattenzugriff machten einfach träge ... und Windows macht viele Zugriffe. Mit abgeschalteten "Virtuellen Speicher" wurde es ein bisschen besser. Soll man ja nicht abschalten, macht das System ja instabil ... ist mir aber in den 3 Jahren nie nachteilig aufgefallen.
    Jetzt habe ich eine SSD drin (256gb cruicial mx100'), bei 99€ im hiesigen MM konnt ich einfach nicht widerstehen ... leider ist beim Umbasteln meine Windowspartition, äh, verlustig gegangen.
    Ein neu installiertes Windows (nachdem ich den HP Branding Schrott draussen hatte) und meine Anwendungen (incl. LR) liefen signifikant schneller.
    Inzwischen benutze ich Linux, da passt dann nicht nur das System und die Anwendungen, sondern auch noch meine Bilder auf die SSD. Manchmal vermiss ich die Wartezeiten beim booten, die reichte locker um eine Kippe halbfertig zu rauchen ...jetzt reichts gerade mal um zur Tür zu kommen (ich rauche nicht im Haus)
    Immerhin habe ich unter Linux EIN Programm gefunden, daß tatsächlich mal 50% des Speichers + 2% der Swap Partition bei 100% Prozessorlast benötigte ... Shotwell beim Inportieren von 15000 Bildern :)
    (ein task der tendenziell eher selten anfällt)


    8 GIGABYTE RAM reichen für die meisten Anwendungsfälle im normalen, nichtgewerblichen Umfeld in der Regel vollständig aus ;-}

    mol:
    4GB Seagates? Du meinst sicher 4 TB ... :D

    äähh, ja :mrgreen:


    im letzten Jahrtausend hatte ich ja öfter Schwund durch abrauchende Platten, da war Seagate auch Spitzenreiter, dannach kamen Samsungs, aber die letzten 10-12 Jahre war es an der Front dann ziemlich ruhig
    Fast unzerstörbar waren NEC ESDI Platten (auf denen konnte man Spiegeleier braten, so heiss wurden die) und von meinen alte Seagate ELITE (Der 3.5kg 3GB Backstein) haben wir letztes Jahr meine alten FIDO Daten gezogen ... die hatten jetzt 20 Jahre auf dem Buckel. Für den praktischen Betrieb natürlich untauglich

    (mal abgesehen davon, daß ich seit >10 Jahren keinen SCSI Adapter mehr im eigenen Rechner habe) ;-}


    Wenn ich mir die Rezenssionen (beim Fluß) zu externen Platten so ansehe, würde ich da viele Probleme, nach meinen Erfahrungen, eher den Gehäusen zuordnen, als den Platten. Bisher lief bei mir fast jede Platte, die im Gehäuse nicht mehr ansprechbar war, problemlos am externen Adapterkabel. Ich schmeiss sowas halt nicht weg, ich zupfs zuerst auseinander ;-}

    Zitat

    Damals habe ich daraus geschlossen, dass es eigentlich egal ist zu welcher Marke man greift.

    so mache ich es auch ... aber ich verfall auch nicht in spontane Schnappatmung und hysterische Zuckungen, wenn eine Platte den Geist aufgibt, das letzte Backup ist ja nie weit entfernt ;-}
    (obwohl ich mich schon über finanzielle Verluste aufregen kann, sehr aufregen)

    Die Mühe irgendwelche Tests&Erfahrungsberichte zu studieren, die Zahl meiner grauen Haare durch einen längeren Entscheidungsfindungsprozess zu erhöhen (da schon alle Grau sind, eine eher theoretische Erwägung), tue ich mir schon lange nicht mehr an.
    Ich kaufe inzwischen immer die "billigsten" die gerade im Angebot sind ... egal ob Supermarkt oder Elektronikverramscher.
    Ist in den letzten 10 jahren noch keine kaputgegangen, was ich, zumindest bei den alten IDE USB2.0 mit Größen zwischen 150-500gb fast bedauere!
    Externe Gehäuse sind mir schon einige kaputtgegangen, komisch eigentlich.
    Zur Zeit läuft im Rechner, als Sekundärplatte, eine der berüchtigten 3GB Seagate Barracuda, die war vorher in einem externen Gehäuse.
    Ich erwarte täglich, das die abbraucht ... macht sie einfach nicht. Genauso wie die diversen WD Platten, die in älteren Intenso Gehäuse verbaut waren.
    Ein halbes dutzend kaputte/ausgesonderte Gehäuse, keine einzige defekte Platte ... dafür halt ein altes IDE/USB Adapterkabel und ein SATA/USB3 Adapterkabel.
    Auf die Weise habe ich auch insgesamt 4 Festplatten aus dem lahmen USB2 Korsett befreit (die letzten 2TB USB2 Platten bekam man nämlich förmlich nachgeworfen) und benutze sie an USB 3 weiter.
    Zur Zeit habe ich nur noch eine externe Platte (USB 3, die beiden 150GB USB 2 zähl ich nicht mehr mit) die noch in ihrem Gehäuse sitzt, der Rest ist naggisch.
    Immerhin kann ich, wenn die Seagate die Grätsche macht, sofort eine der 2GB WD oder Hitachis in den Rechner schieben ... ist ja überall das Gleiche drauf


    Im Rechner eine 250er SSD, die reicht doch tatsächlich komplett aus fürs Betriebsystem und alle Programme sowie meinen kompletten Bildbestand.(zumindest nachdem ich auf Linux gewechselt habe). Ich bin ja Backup Paranoiker ... aber soviel Backups wie ich taugliche (größe und geschwindigkeit) Platten habe, nur weil der Billigkram aus den Sonderangeboten nicht kaputtgeht, mache selbst ich nicht.
    Da ein vernünftiges Backup sowieso MINDESTENS 2 getrennte externe Platten benötigt (ich speiche schon seit dem letzten jahrtausend auf mindestens 4 externen Systemen), spricht also, meiner Meinung nach, nix gegen billige Sonderangebote.



    (wenn ich nicht schon Platten zum abwinken hätte, würde ich zu den externen 4GB Seagates greifen, kosten in unserem MM gerade 139,-)

    Mittelformatkiller?
    Da würde ich mehr von den Bildern erwarten. Als ich damals, als die Pentax 645 rauskam, mir Unmengen von Bildern angesehen habe, die hatten "was". Etwas was ich hier bei den Beispielbildern (trotz ca 25% höherer Pixelzahl) nicht sehen kann. Macht mich absolut nicht an was Canon da abliefert ... wobei eine Pentax 645D bei mir immer noch einen habenwollen Reflex auslöst. Wie schön, daß sich das alles in Preisgefilden bewegt, die für mich uninteressant sind ;-}


    Von Canon hätte ich erwartet, daß sie Sensorseitig endlich mal wieder aufschließen was Dynamik und Rauschpegel betrifft.
    Aber momentan sieht es wohl eher so aus, daß (nicht nur aus finanziellen Gründen) eine spiegellose Sony mit stabilisiertem KB Sensor viel interessanter ist (natürlich nur für Amateure ohne professionellen Anspruch :mrgreen: und aus meiner subjektiven Position heraus )

    Erinnert mich an meine Konstruktion die ich zu penum Zeiten mal in Digicamfotos vorgestellt hatte:
    Leica APO Makro 100mm + 2x Makrokonverter + 2x Telekonverter. Die Bildqualität war dabei das kleinste Problem, eher die minimale Schärfetiefe und das manuelle Fokussieren durch den Sucher der 20D ... das war selbst bei 2.8 Offenblende arg arg duster.