Angenommen, der Laser würde die Oberfläche so stark erhitzen, so dass eine Millimeter pro Sekunde verdampft. Wenn nun der Laser nur eine tausendstel Sekunde einwirkt, aber dafür 1000 mal hintereinander, so würde eben tausend mal hintereinander ein Mikrometer (=Millimeter) abgetragen werden.
Nun könnte es natürlich sein, dass bei zu geringer Einwirkungszeit die Intensität nicht ausreicht, um Material zu verdampfen, weil sich nicht genügend Temperatur entwickeln kann. Fraglich ist, ob sich das Material in so kurzer Zeit wieder genügend abkühlt, bevor der Laser wieder darauf einwirkt.
Ab wann hochempfindliche Photozellen reagieren, hängt davon ab, wie empfindlich sie wirklich sind. Wenn wir uns ideale Photozellen vorstellen, so würden sie auf jedes Photon reagieren. In diesem Fall scheint es mir egal zu sein, ob der Laser bspw. tausend mal hintereinander jeweils eine Millisekunde oder einmal jeweils eine Sekunde lang auf die Photozellen einwirkt. Die Beliechtungsintensität sollte in beiden Fällen identisch sein, sofern ich mich nicht sehr irre.
Falls bei meiner Überlegung ein Irrtum vorliegt, bitte ich Zeus oder Darkside mit diesen offenzulegen.
Nimm als Beispiel das berühmte Hubble Ultra Deep Field.
Das Bild entstand aus 800 Einzelbelichtungen, die während 400 Erdumkreisungen Hubbles durchgeführt wurden. Die gesamte Belichtungszeit betrug 11,3 Tage für ACS und 4,5 Tage für NICMOS. Um den gesamten Himmel in dieser Auflösung zu beobachten, würde das Hubble Weltraumteleskop eine Million Jahre benötigen
Interessierst Du dich für Optik und Fotopraphie?