Lightroom 6 / CC

  • Nachbelichtet hat mal den Export bei Lightroom 5 und CC verglichen.
    Ein wenig mehr CPU Ausnutzung und dadurch auch mehr Geschwindigkeit konnte er bei CC schon verzeichnen.

    Naja, "ein wenig mehr CPU Ausnutzung" ist wohl maßlos untertrieben, es sind eher 50% mehr CPU Auslastung bei einem Geschwindigkeitszuwachs um die 25%.
    Dann stellt sich noch die Frage wie wichtig ist einem dieser Geschwindigkeitszuwachs, wenn ich aber während der kürzeren Transferzeit bei LR6 anscheinend nichts anderes mehr am PC machen kann da die CPU dauernd zu 95% ausgelastet ist. Bei LR5 waren weitere Tätigkeiten kaum ein Problem.


    Für mich relativiert sich damit der Zeitgewinn drastisch.

  • Naja die Kerne sind ja nie zu 100% ausgelastet. Je mehr Kerne Du hast um so mehr Reserven für Dödelkram zwischendurch hast Du.
    Mir reicht es aus wenn die Maus noch reagiert und Firefox noch bedienbar bleibt.
    Das dürfte kein Problem sein.


    Wenn man mehr Geschwindigkeit möchte muss einem auch klar sein dass es die CPU irgendwann mal ausnutzt. Es geht nicht alles im Leerlauf.
    Zu meinen 3D Rendering Zeiten war jeder kern über viele Minuten durchgehend auf 100%.
    Trotzdem konnte man noch nebenbei was machen.

  • So Lightroom CC ist bei mir nun auch am laufen und importiert gerade die Urlaubsbilder.
    Was mir auffällt: Lightroom 5 hat die Bilder gleich in dng umgewandelt und importiert.
    Lightroom CC importiert erst die Raw Dateien und wandelt danach den ganzen Ordner in dng um.
    Dabei springt mein CPU Lüfter oft an, so etwa einmal in der Minute für ein paar Sekunden. Vorher war das nie der Fall.
    Die CPU Auslastung aller 12 Threads bei meinem 6 Kerner ist recht gleichmäßig und auch hoch.
    Mein Problemtestbild welches mit Pinselorgien kaum noch zu öffnen war oder drin in 100%Ansicht zu navigieren flutscht durch die GPU Beschleunigung wunderbar.
    Nachbelichtet hatte ja eine Grafikkarte Empfohlen, zufälligerweise hatte ich mir die vor einiger Zeit eingebaut (GeForce GTX 750)
    Ansonsten hab ich das Gefühl das Lightroom an einigen Ecken recht träge geworden ist.
    Das muss ich aber erstmal durch längeres arbeiten genauer ansehen.

  • ...Ich habe die GPU Beschleunigung jetzt wieder ausgeschaltet, da diese scheinbar für einige der Probleme mit LR6 verantwortlich ist. Meine Graka ist schon etwas älter (GTX460) aber sie funktioniert bei anderen Programmen wunderbar bei der Unterstützung, zumal Lightroom sie auch sofort annimmt. Bei mir sind die Pinsel plötzlich tierisch nachgelaufen, dass Programm wurde sogar instabil, was völlig bescheuert ist. Ich hab die Graka dann auf Verdacht ausgeschaltet und die Probleme waren beseitigt... .

  • Ich bemerke bei mir auch dass der Korrekturpinsel irgendwie deutlich träger funktioniert.
    Noch schlimmer wirds wenn man "automatisch maskieren" anwählt. Grafikkarte ist recht aktuell (GeForce GTX 750Ti)
    Laut Nachbelichtet wird eine Grafikkarte dieser Klasse auch nicht sehr stark ausgelastet. Da wäre noch Potential drin.

  • Hab ich eben gemacht. Da ist der Pinsel flüssiger. Aber dafür ist dann die Navigation in dem Bild wieder hakeliger.
    Aber ich hab gerade gesehen dass ich nicht den aktuellsten Treiber drauf habe. Ich vespreche mir aber noch nicht so viel davon.
    Vielleicht kommt ja demnächst ein optimierter Treiber. Oder mal sehen ob man in den Treibereinstellungen noch was rauskitzeln kann.

    • Offizieller Beitrag

    Sie haben nichts getan. Wahrscheinlich sitzen bei Adobe zwei Praktikanten an der Weiterentwicklung der Software, der Rest wurde entlassen.

    Genau, so wird's gewesen sein...


    Wie schon mehrfach festgestellt ist das ein Update, dass man als Hobbyist wohl getrost auslassen kann, sofern man nicht gerade auf die Raw-Unterstützung neuerer Kameras angewiesen ist.
    "Nichts" ist trotzdem nicht passiert: Link

  • ...Der Link ist doch toll. Was wurde getan? Das Modul für Panoramen und HDRs aus Photoshop wurde in abgespeckter Form in LR implementiert. Es gibt eine Graka-Performance Unterstützung, die irgendwie quer zu laufen scheint. Wir haben Big-Brother an Board, der nach Gesichtern sucht, fesselnde Diashows - wirklich was ganz aufwändiges. Ach und natürlich jede Menge Mobile Zeugs, was ehrlich gesagt so primitiv ist, dass ich damit nicht im Ernst auch nur ein Bild bearbeiten würde.


    Ich bekomme die aktuellen Versionen eh automatisch, daher stellt sich die Update Frage gar nicht.


    Kleiner Tip, wer den Start beschleunigen möchte und den ganzen Ballast nicht braucht, der kann die ganzen Schrott-Module auch rausschmeissen. Dazu müsst ihr nur ins LR Verzeichnis und sucht dort die ganzen .lrmodule Dateien raus. Diese auf dem Bild, könnt ihr einfach mal in einen Back Up Ordner verschieben, dann ist das Programm schon ein gutes Stück schlanker.

    • Offizieller Beitrag

    Wie gesagt, ich verstehe den Unmut völlig und sehe auch selber überhaupt keinen Grund für einen Kauf (da kein Abo-Kunde), sofern ich nicht wegen einer neuen Kamera mal irgendwann darauf angewiesen sein sollte. Nur unter "nichts getan" verstehe ich was anderes, und vermutlich auch jeder andere, der zumindest minimale Kenntnisse darüber hat, was es bedeutet, GPU-Unterstützung mittels OpenGL zu implementieren.


    Ich sehe die Version 6.0 als eine Art Startschuss was Grafikkarten-Unterstützung und HDR-/Panorama-/Gesichtserkennungs-Funktionen angeht. Das ist alles noch ziemlich unausgegoren und wird vermutlich in Version 6.4 oder 6.5 dann irgendwann einen ausgereiften Stand erreichen.


    Das grundsätzliche "Problem" bei LR ist, dass dort eigentlich die Bildverarbeitungs-Prozesse neu programmiert werden müssten, andere Programme liefern hier mittlerweile bessere Qualität ab, auch wenn das Jammern auf sehr hohem Niveau ist. Aber damit wird man nun vermutlich nicht vor Version 7 rechnen können...

  • ...Ich denke wir verstehen das selbe unter "nichts getan". Wer mit LR arbeitet, stellt fest, dass sich im normalen Betrieb nichts geändert hat. Wenn die Implementierung der Grakas so funktionieren würde, wie man es von anderen Programmen gewohnt ist, nämlich mit wirklich spürbarem Schub, dann wäre die Sache super. Scheinbar wird die Graka aber nur bei einigen Anwendungen innerhalb von LR angefahren, dazwischen tut sie nichts oder es kommt zu unerklärlichen Konflikten, welchen ansich sofort hätten auffallen müssen.


    Der wichtigste Punkt ist halt der Prozess, da kann ich dir nur zustimmen. Er ist das Problem, bzw. er ist einfach nicht dafür gedacht, was man ihm über die Jahre aufgebürdet hat.


    Ich habe heute für meinen Juwelier wieder Bilder fertig gemacht und musste feststellen, dass bei diesen aufwändigeren Sachen, dass neue LR deutlich mehr Probleme mit sehr kurzen Black Outs hat. Es fängt sich zwar grundsätzlich sofort wieder, aber das macht keinerlei guten Eindruck... .

  • ...Tja, und damit ist die GPU Nummer komplett offiziell. Why Your Lightroom CC May Actually Be Slower with the New GPU Acceleration


    Funktioniert nur bei 4K Displays, neusten CPUs und neusten GPUs. Ist beschränkt auf wenige Funktionen und sorgt bei fast 50% der User eine Verlangsamung des Systems. Ich sagst jetzt mal ganz hart, die Schei**e als Upgrade zu verkaufen, statt als Update ist einfach nur peinlich. Es ist völlig unausgereift und das geben die auch noch zu, wie peinlich ist das denn?! Aussage Adobe: "Man steht ganz am Anfang..."- Leute, dann lasst es und baut es ein, wenn es funktioniert. In mir staut sich wirklich langsam blanke Wut auf. Ich muss mit dem Mist arbeiten und die verschlimmbessern das nur von mal zu mal.. . :x

  • ...Tja, und damit ist die GPU Nummer komplett offiziell. Why Your Lightroom CC May Actually Be Slower with the New GPU Acceleration


    Funktioniert nur bei 4K Displays, neusten CPUs und neusten GPUs.

    Ich würde sagen, bei der folgenden Kombi bringt GPGPU (zumindest so schlecht, wie es in LR 6 implementiert ist) einen Geschwindigkeitssprung: 4k/5k Display, sehr langsamer Prozessor, extrem schnelle GPU.
    Wenn man bedenkt wie viele Recheneinheiten bzw. GFLOPs auch die GPUs der billigsten Grafikkarten heutzutage haben, muss man sich echt fragen, wie es Adobe schafft so wenig Leistung diesen zu entlocken. Das kann eigentlich nur blankes Unvermögen oder Absicht sein.

    • Offizieller Beitrag

    Wenn man bedenkt wie viele Recheneinheiten bzw. GFLOPs auch die GPUs der billigsten Grafikkarten heutzutage haben, muss man sich echt fragen, wie es Adobe schafft so wenig Leistung diesen zu entlocken. Das kann eigentlich nur blankes Unvermögen oder Absicht sein.

    Die Grafik-Chips haben zwar viel Leistung, die ist aber bei allgemeinen Aufgaben sehr viel schwieriger abzurufen, weil sie eine ganz andere Architektur voraussetzen.

  • Die Grafik-Chips haben zwar viel Leistung, die ist aber bei allgemeinen Aufgaben sehr viel schwieriger abzurufen, weil sie eine ganz andere Architektur voraussetzen.

    Aber wenn mans hinbekommt läuft es.
    Blender (3D Renderer) profitiert beim rendern so stark von der GPU dass die CPU sich langweilt.
    Freunde arbeiten damit beruflich. In deren Rechnern sind nun mehrere Grafikkarten drin.