In aller Kürze: ich verstehe und weiß, das ein 50mm Objektiv mit Blende 2.0 an einem Micro-Four-Thirds Anschluss eine Bildwirkung erzeugt wie ein 100 mm/f 4.0. Aber warum ist das so? Wenn ich in einem Simulator eingebe, dass das selbe Objektiv mit derselben Blende einmal an einem Kleinbildsensor und einmal an einem Sensor mit Crop 2 verwendet wird, dann stelle ich fest, dass der Schärfebereich am Kleinbildsensor bei gleichbleibendem Abstand zum Motiv (hier: z.B 2m) angeblich z.b. 20 cm tief ist und am kleineren Sensor nur noch 10 cm tief. Dass also im Ausschnitt des Bildes ein kleinerer Bereich scharf sein soll als im gesamten Bild.
Dass das selbe Objektiv mit der selben Blende, dem selben Motivabstand und dem selben Abstand zur Projektionsebene an Kleinbild einen anderen Schärfeeindruck liefert als an einem kleineren Sensor, das macht mich regelmäßig fast verrückt.
Physikalisch ist die Abbildung identisch. Jede idealisierte punktförmige Lichtquelle im Raum hat auf der der anderen Seite der Linse genau einen Brennpunkt. Da dieser Brennpunkt nicht notwendigerweise auf der Bildebene liegt, wird ein Punkt dort als Scheibe abgebildet. Der Durchmesser der Scheibe variiert, je nachdem, wie weit der Brennpunkt eines 'Lichtstrahls' vom Sensor entfernt ist. Wenn der Brennpunkt genau auf der Bildebene liegt, ist er wieder ein idealisierter Punkt, dort ist das Bild am schärfsten. Alles das ändert sich nicht mit der Sensorgröße. Es ändert sich erst mit der Betrachtung des Bildes. Für die Betrachtung 'normiere' ich das Bild wieder. Aber dieser Mechanismus ist mir nicht vollständig klar, ich kenne nur das Ergebnis.