Die Grafik-Chips haben zwar viel Leistung, die ist aber bei allgemeinen Aufgaben sehr viel schwieriger abzurufen, weil sie eine ganz andere Architektur voraussetzen.
Das ist mir natürlich klar. Es ist das gleiche Problem, wie beim Programmieren für CPUs mit mehreren Kernen. Das ganze bringt nichts, sofern die Aufgabe nicht parallelisierbar ist. Zum Glück ist das besonders bei Bildern/Fotos, dank unzähligen Pixeln, der Fall.
Kennt ihr den Vergleich von Heise? LR 6 soll den dortigen Messungen nach bei einigen Aufgaben doppelt so lange brauchen, wie LR 5.7 (z.B. Rendern der 100% Vorschau, Exportieren der Fotos). Und zwar sowohl mit als auch ohne GPU-Unterstützung...