#1

sensorauflösung , beeinflussung der abbildung durch tiefpass und sensor

in Plauderecke für Techniker 27.03.2019 22:10
von carypt | 263 Beiträge

hallo ,
wieder habe ich gelesen , im amerikanischen lens-rentals-blog . dort schreibt ein techniker , der an der entwicklung von mars-sondenkameras beteiligt war , über die wirkung der sensorauflösung und des sensortiefpassfilters auf die abbildungsleistung eines objektives . https://www.lensrentals.com/blog/2017/10/the-8k-conundrum-when-bad-lenses-mount-good-sensors/

vorab wird die abbildung einer punktblende durch die vielen möglichen abbildungsfehler genannt , mittels der point-spread-funktion kann diese punkt-fehlabbildung dargestellt werden , es gibt keine abbildungsfehlerfreie linsenoptik . die theoretisch ideale punktabbildung einer idealen linse wird aber durch den tiefpassfilter (zb bayerfilter) und nachfolgend diese abbildung dann nochmals durch die verpixelung im sensor verändert .

wie diese abbildungsveränderung das bild einer idealen , einer guten und einer akzeptablen linse in unterschiedlichen sensorauflösungen (2k-8k / ca 2 - 32 mp ) in wievielen liniepaaren pro mm abgebildet werden kann wird dann in nachfolgenden grafiken dargestellt . man kann sich also überlegen wieviel megapixel man vorraussichtlich für welche linse brauchen wird . es zeigt sich , daß ein sensor über 16mp/4k in den meisten fällen nicht nötig sein wird , da die auflösung bester objektive 50 linienpaare/mm kaum überschreitet .
es geht hier offensichtlich nur um normale abbildungsmaßstäbe normaler fotografie .
deshalb habe ich lange gesucht , was auflösung , nyquist , bayerfilter etc in makro/mikro für ansprüche haben .




für umgebungsbeleuchtete (auflicht) objekte bei kreisförmiger blende des objektivs gilt die auflösungsformel
d = 0.61 * lambda wellenlänge des lichtes / numerische apertur .
oder aber durch bei blendenbestimmten optiken mit blendenöffnungsweite a
d = 1,22 * lambda wellenlänge des lichtes / a blendendurchmesser .
man sieht die numerische apertur ist nur der halbe blendendurchmesser . 1,22 entspringen dem rayleigh-kriterium .


d gibt als rayleigh-kriterium den abstand zwischen nulltem maximum und erstem minimum der beugungsfiguren
zweier benachbarter punkte an . zur unterscheidung fällt das interferenzsignal zwischen beiden airy-discs auf 73,5 % ab .

das beugungsscheibchen eines leuchtpunktes einer lochblende ist
um das 1,2197-fache des radiusses der lochblende größer , also 1,4394x den durchmesser der lochblende .
um zwei lochblendenpunkte sicher voneinander trennen zu können (nach rayleigh),
müssen sie um den 1,22fachen radius der lochblendenlöcher auseinander stehen .
öfter wird d als der mindestabstand zweier linien angenommen , um noch unterschieden werden zu können .
d ist also der 1,22-fache radius einer lochblendenöffnung
oder auf linien bezogen die 1,22-fache linienbreite (1,22 * lückenbreite).

man erhält also bei einem 10x/0,25NA (25mm)objektiv die maximale auflösungsdistanz d = 0,61*550nm/0,25 = 1342nm = 1,3µm .
diese 1,3µm werden 10-fach vergrößert auf dem sensor abgebildet , sind also dort 13,42µm breit .
ein 4x/0,13NA (62,5mm)objektiv bringt d = 0,61*550nm/0,13 = 2,58µm , auf dem sensor 10,32µm breit .
ein 40x/0,65NA (6,25mm)objektiv erbringt d = 0,61*550nm/0,65 = 516nm . 40 mal 516nm = 20,646µm auf dem sensor .

wichtiger ist jedoch wie oft paßt die auflösungdistanz in die gegenstandsbreite meiner abbildungsbildbreite .
bei einem 10x objektiv habe ich vielleicht 2mm gegenstand auf dem sensor abgebildet .
die 1,3µm passen also 1538mal in meine 2 millimeter gegenstand .
die 0,516µm passen ca 970mal in eine angenommene gegenstandsbreite von 0,5mm bei dem 40x objektiv .
die 2,58µm des 4x objektives passen ca 2325 mal in 6mm gegenstand .

um diese auflösungsgrenzdistanz noch abbilden zu können , muß generell (und für monochrome sensoren) die doppelte (2,2x) linienzahl/punktezahl vorhanden sein (linienpaare=LP), denn ich sehe mit der auflösungsgrenze nur eine linienlücke oder nur einen punkteabstand und muß für ein erkennbares gittermuster oder punktfeld eben auch noch eine linienbreite oder punktbreite hinzufügen , um linien oder punkte von lücken unterscheiden zu können . man muß etwas überabtasten , man nennt dies das nyquist-theorem und nimmt also die 2,2fachen auflösungsgrenzdistanz . man braucht also eben die 2,2-fache pixelanzahl in dieser strecke .

wenn man die pixel in diagonaler richtung betrachtet ist , sind die pixel um den faktor 1,4142(wurzel2) breiter .
um ein linienmuster in diagonaler richtung mit gleicher pixeldichte abzutasten muß man also eine größere strecke annehmen (bzw 0,71 mal die pixel verkleinern ).

nun wird aber durch den bayerfilter dieses linien bzw punktpaar farblich falsch codiert aufgenommen , man muß also die bayerfilterzellen (2x2 pixel) als einzelne pixel ansehen , also 4 pixel statt einem . man nimmt also den 4-5 fachen pixel-wert für farblich richtige darstellung eines liniengitters/punktfeldes .

um die auflösungsgrenzdistanz sehr gut abbilden zu können , bräuchte man also 2,2 * 5 * 1,41 circa 15 pixel in der auflösungsgrenzdistanzabbildung auf dem sensor .(nyquist*bayer-faktor*diagonal-faktor)
ein 4k sensor hat eine 4000 x 4000 pixel = 16 megapixel auflösung .
angenommen die pixel haben eine quadratische fläche von jeweils 4,5µm seitenlänge .

für die grenzauflösung eines 100x/1,4NA objektives ist d = 550/(1,4+1,4) = 196nm . in abbildung inklusive projektivokular 10x ergibt das 0,196µm*100*10 = 196,42µm auf dem sensor . geteilt durch 4,5µm pixelbreite ergeben das 43 pixel für die abbildung des kontrastes des linienpaares/punktepaares . gute abbildung .
ohne das projektivokular(10x) sind es aber nur 19,6µm auf dem sensor , geteilt durch 4,5µm sind es nur 4,3pixel für die abbildung. nicht so gut.

für das 40x die 0,516µm * 40 * 10(okular) = 206,4µm auf dem sensor . 206,4µm / 4,5µm = 44,8 pixel stünden zur verfügung .wäre ok .
ohne das (10x)projektivokular sind es aber nur 20,64µm auf dem sensor , geteilt durch 4,5µm pixelbreite ergeben dann nur noch 4,48 pixel für die darstellung des linien/punkte-kontrastes . reicht vielleicht noch für ein farbverfälschtes bild .

für das 10x/0,25NA objektiv sind die 1342nm auflösungsgrenzdistanz also mit okular(10x) 100mal so groß = 134,2µm auf dem sensor , ohne okular aber nur 13,42µm . 13,42µm geteilt durch 4,5µm sind nur 2,9 pixel zur darstellung . reicht vielleicht für das helligkeitsmuster .

bei dem 4x/0,13NA (62,5mm)objektiv sind die 2,58µm auf dem sensor 4mal so breit also 10,32µm , geteilt durch 4,5µm sind das nur 2,29 pixel zur abbildung , reicht noch für das nyquist-theorem .

nun sind die angeforderten 50 linienpaare/mm aus dem lensrentals-blog zwar über das nyquist -theorem
beim 4k sensor / 4000pixel/36mm = 111,11 pixel/mm noch ganz knapp auflösbar .
aber stimmt das so ?
was tun ? was braucht man ?
kleinere pixel ? mehr pixel , andere optiken ?

etwas weiter geht es noch hier https://www.lensrentals.com/blog/2016/09/is-your-camera-really-the-best-optical-test/ , wo höhere sensorauflösungen angebliche fehler an alten wie neuen optiken erscheinen lassen , die man sonst nicht sah , und wohl auch keine echten fehler sind .

gruß carypt


fipradio.fr
nach oben springen


Besucher
0 Mitglieder und 59 Gäste sind Online

Besucherzähler
Heute waren 555 Gäste und 7 Mitglieder online.

Forum Statistiken
Das Forum hat 4956 Themen und 35914 Beiträge.

Heute waren 7 Mitglieder Online:

Besucherrekord: 268 Benutzer (24.12.2023 08:20).