DE102016210602B4 - Verfahren zur Korrektur eines Abbildungsfehlers eines optischen Systems - Google Patents

Verfahren zur Korrektur eines Abbildungsfehlers eines optischen Systems Download PDF

Info

Publication number
DE102016210602B4
DE102016210602B4 DE102016210602.3A DE102016210602A DE102016210602B4 DE 102016210602 B4 DE102016210602 B4 DE 102016210602B4 DE 102016210602 A DE102016210602 A DE 102016210602A DE 102016210602 B4 DE102016210602 B4 DE 102016210602B4
Authority
DE
Germany
Prior art keywords
function
image
image sensor
distance
object scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102016210602.3A
Other languages
English (en)
Other versions
DE102016210602A1 (de
Inventor
Norbert Kerwien
Vladan Blahnik
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Carl Zeiss AG
Original Assignee
Carl Zeiss AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Carl Zeiss AG filed Critical Carl Zeiss AG
Priority to DE102016210602.3A priority Critical patent/DE102016210602B4/de
Publication of DE102016210602A1 publication Critical patent/DE102016210602A1/de
Application granted granted Critical
Publication of DE102016210602B4 publication Critical patent/DE102016210602B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/76Circuitry for compensating brightness variation in the scene by influencing the image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/61Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4"
    • H04N25/611Correction of chromatic aberration

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Image Processing (AREA)

Abstract

Verfahren (30) zur Korrektur eines Abbildungsfehlers eines optischen Systems (1), welches eine wenigstens eine Linse (8, 10) umfassende Abbildungsoptik (6) und einen Bildsensor (14) aufweist,wobei für eine mittels der Abbildungsoptik (6) auf den Bildsensor (14) abgebildete Objektszene (20) durch den Bildsensor (14) eine ortsaufgelöste Intensitätsfunktion (34) der Abbildung bereitgestellt wird,wobei eine ortsaufgelöste Abstandsfunktion (36) der Objektszene (20) bezüglich des Bildsensors (14) bereitgestellt wird, undwobei mittels einer ortsaufgelösten, von den Werten (z(x,y)) der Abstandsfunktion (34) abhängigen Korrekturfunktion (42) wenigstens ein Abbildungsfehler in der Intensitätsfunktion (34) korrigiert wird.

Description

  • Die Erfindung betrifft ein Verfahren zur Korrektur eines Abbildungsfehlers eines optischen Systems, welches eine wenigstens eine Linse umfassende Abbildungsoptik und einen Bildsensor aufweist, wobei für eine mittels der Abbildungsoptik auf den Bildsensor abgebildete Objektszene durch den Bildsensor eine farbaufgelöste und ortsaufgelöste Intensitätsfunktion der Abbildung bereitgestellt wird, und wobei mittels einer ortsaufgelösten Korrekturfunktion wenigstens ein Abbildungsfehler in der Intensitätsfunktion korrigiert wird. Die Erfindung betrifft weiter eine elektronische Auswerteeinheit, sowie weiter ein optisches System, welches eine wenigstens eine Linse umfassende Abbildungsoptik, einen Bildsensor und eine elektronische Auswerteeinheit aufweist.
  • Die elektronische Nachbearbeitung digitaler Bildaufnahmen ist heutzutage sowohl im Bereich fotografischer Anwendungen als auch bei optischer Messtechnik und Mikroskopie eine weit verbreitete Praxis. Neben dem Einsatz von Algorithmen zur Unterdrückung des Bildrauschens werden insbesondere auch Abbildungsfehler der Abbildungsoptik ausgeglichen. Hierzu gehören zum Beispiel Verzeichnungen, aber auch chromatische Querfehler. Die verwendeten Korrekturalgorithmen basieren dabei meist auf der Kenntnis der Störung einer idealen Abbildung durch die reale Abbildungsoptik. Diese bekannte Abweichung wird dann in der Nachbearbeitung rückgängig gemacht.
  • Neben den erwähnten Abbildungsfehlern treten jedoch auch oftmals chromatische Längsfehler auf. Insbesondere kann dies bei Objektiven mit einer langen Brennweite und einer weiten Öffnung der Fall sein. Chromatische Farblängsfehler werden bisher oftmals durch eine Kantenfärbungsanalyse korrigiert. Ein durch einen chromatischen Längsfehler verursachter Farbsaum an einer Kante in einem Bild wird hierbei korrigiert, indem entsprechende Farbtöne aus dem Bild genommen werden. Ein derartiges Vorgehen ist derzeit automatisch jedoch nur global im gesamten Bild möglich, wodurch der Farbeindruck des Bildes unter Umständen stark beeinträchtigt werden kann. Insbesondere kann hierdurch der Kontrast beeinträchtigt werden. Alternativ dazu kann auch manuell eine lokale Bearbeitung der entstehenden Farbsäume erfolgen. Beide Methoden sind jedoch nicht dazu in der Lage, den mit einem chromatischen Längsfehler einhergehenden Auflösungsverlust ausreichend zu kompensieren.
  • Als eine weitere Alternative steht hier zudem noch eine Korrektur des Bildes anhand der Kenntnis der Abbildungsfehler, beispielsweise über die Punktbildfunktion, mittels einer entsprechenden Rückfaltungs-Transformation zur Verfügung. Dieses Vorgehen ist jedoch aufgrund der mathematischen Konvergenzeigenschaftender Rückfaltungs-Transformation insbesondere bei Ausgangsbildern mit hohem Bildrauschen nur schwer anzuwenden, und kann zudem je nach Ausgestaltung der Objektszene anfällig für das Auftreten von Artefakten sein.
  • Die genannten Probleme in der Korrektur von Abbildungsfehlern treten jedoch nicht nur bei chromatischen Längsfehlern auf, sondern können je nach der geometrischen Komplexität der Objektszene einerseits und den Anforderungen an die Auflösung des optischen Systems andererseits auch weitere Abbildungsfehler betreffen.
  • Die US 2007/0103564 A1 lehrt ein Verfahren zur Korrektur von Abbildungsfehlern in einem optischen System, wobei nach einem Weißabgleich und einer Vorkorrektur der Helligkeit ein nach einzelnen Pixeln eines Bildsensors aufgelöstes Leuchtdichte-Signal erzeugt wird, anhand dessen überprüft wird, ob eine Überbelichtung einzelner Bildpixel vorliegt. Diese Information zur Überbelichtung wird nun dazu verwendet, eine chromatische Aberration anhand von vorher abgespeicherten Verteilungsmodellen, welche die Abhängigkeit der Überbelichtung berücksichtigen, zu korrigieren.
  • In der EP 2 111 038 A1 wird vorgeschlagen, für ein optisches System eine Farbverzeichnung, welche durch chromatische Aberrationen auftreten kann, mittels einer Korrektur der Verzerrung in den einzelnen RGB-Farbebenen zu korrigieren. Die Verzerrung wird hierbei jeweils über eine geometrische Transformationsmatrix korrigiert, welche anhand eines Gittermodells idealer Bildpunkte für einzelne Zoom-, Blenden oder Fokus-Einstellungen des optischen Systems bestimmt werden kann.
  • Der Erfindung liegt daher die Aufgabe zugrunde, mittels eines optischen Systems, welches eine Abbildungsoptik und einen Bildsensor aufweist, Bildaufnahmen mit möglichst geringen Abbildungsfehlern bei einer hohen Farbqualität zu ermöglichen.
  • Die genannte Aufgabe wird erfindungsgemäß gelöst durch ein Verfahren zur Korrektur eines Abbildungsfehlers eines optischen Systems, welches eine wenigstens eine Linse umfassende Abbildungsoptik und einen Bildsensor aufweist, wobei für eine mittels der Abbildungsoptik auf den Bildsensor abgebildete Objektszene durch den Bildsensor eine ortsaufgelöste Intensitätsfunktion der Abbildung bereitgestellt wird, wobei eine ortsaufgelöste Abstandsfunktion der Objektszene bezüglich des Bildsensors bereitgestellt wird, und wobei mittels einer ortsaufgelösten, von den Werten der Abstandsfunktion abhängigen Korrekturfunktion wenigstens ein Abbildungsfehler in der Intensitätsfunktion korrigiert wird.
  • Die genannte Aufgabe wird erfindungsgemäß weiter gelöst durch eine elektronische Auswerteeinheit, welche dazu eingerichtet ist, ein derartiges Verfahren automatisch durchzuführen.
  • Die genannte Aufgabe wird erfindungsgemäß ebenso gelöst durch ein optisches System mit einer Abbildungsoptik, welche wenigstens eine Linse umfasst, einem Bildsensor, welcher dazu eingerichtet ist, eine ortsaufgelöste Intensitätsfunktion einer mittels der Abbildungsoptik abgebildeten Objektszene bereitzustellen, einer Vorrichtung, welche dazu eingerichtet ist, eine ortsaufgelöste Abstandsfunktion der Objektszene bereitzustellen, und einer derartigen elektronischen Auswerteeinheit.
  • Bevorzugt wird zusätzlich eine ortsaufgelöste Belichtungsfunktion der Abbildung bereitgestellt, wobei die Korrekturfunktion zusätzlich von den Werten der Belichtungsfunktion abhängt.
  • Insbesondere ist dabei als Vorrichtung, welche dazu eingerichtet ist, die ortsaufgelöste Abstandsfunktion der Objektszene bereitzustellen, der Bildsensor umfasst, wenn dieser entsprechend eingerichtet ist. Insbesondere ist als Vorrichtung, welche dazu eingerichtet ist, eine ortsaufgelöste Belichtungsfunktion der Abbildung bereitzustellen, der Bildsensor umfasst, und insbesondere werden die Abstandsfunktion und die Belichtungsfunktion durch dieselbe Vorrichtung bereitgestellt.
  • Unter einer ortsaufgelösten Intensitätsfunktion bzw. Abstandsfunktion bzw. Belichtungsfunktion ist hierbei insbesondere eine von zwei Ortsargumenten abhängige Funktion zu verstehen, deren Funktionswert die Intensität bzw. den Abstand zur Objektszene bzw. einen Grad der Belichtung, insbesondere einer Überbelichtung am dem Ortsargument entsprechenden Sensorpunkt des Bildsensors wiedergibt. Hierbei findet durch die Abbildung der Abbildungsoptik ein bestimmtes, auf den Bildsensor bezogenes Ortsargument seine Entsprechung in der Objektszene, so dass auch hinsichtlich des abzubildenden Raumwinkels, in welchem die Objektszene liegt, jeweils eine Ortsauflösung vorliegt.
  • Die Belichtungsfunktion kann insbesondere durch eine Belichtungsreihe ermittelt werden. Insbesondere wird dabei die Belichtungsfunktion aus einer Reihe von Intensitätsfunktionen zu unterschiedlichen Belichtungszeiten gewonnen, wobei die Belichtungsfunktion insbesondere für überbelichtete oder gar in Sättigung befindliche Ortsbereiche derjenigen Intensitätsfunktion, welche für das Verfahren zur Korrektur des wenigstens einen Abbildungsfehlers herangezogen wird, einen Grad der Überbelichtung angibt. Insbesondere kann die Belichtungsfunktion auch durch eine photometrische Vermessung des abzubildenden Raumwinkels, in welchem die Objektszene liegt, ermittelt werden, wobei bevorzugt die Ortsauflösung der photometrischen Vermessung der Ortsauflösung der Intensitätsfunktion der Abbildung zuzuordnen ist.
  • Bisherige Verfahren zur Korrektur eines Abbildungsfehlers eines optischen Systems basieren im Wesentlichen auf der Rekonstruktion einer als planar angenommenen Objektszene, wobei die Tiefenausdehnung der Objektszene keine Berücksichtigung findet. Die Tiefenausdehnung der Objektszene kann hierbei einerseits zu einer Defokussierung führen, welche in der Fotografie gerne auch als gestalterisches Element eingesetzt wird, andererseits zu einem chromatischen Längsfehler, welcher in den meisten Fällen unerwünscht ist, und entsprechend zu korrigieren ist. Je nach Oberflächengeometrie der abzubildenden Objektszene können noch weitere Abbildungsfehler hinzukommen, welche ebenfalls bevorzugt zu korrigieren sind.
  • Chromatische Längsfehler weisen hierbei eine starke Abhängigkeit von der Objektschnittweite auf. Die Breite der für einen chromatischen Längsfehler charakteristischen Farbsäume hängt zudem vom Grad der Überbelichtung ab. Hierbei können insbesondere kurze Objektschnittweiten je nach Design der Abbildungsoptik zu hohen chromatischen Längsfehlern führen, was gerade in industriellen oder technischen Anwendungen wie optischer Messtechnik oder optischer Mikroskopie infolge der daraus resultierenden Verringerung des Auflösungsvermögens nachteilig ist.
  • Die erwähnte fehlende Berücksichtigung sowohl der Tiefenausdehnung als auch der Überbelichtung bei den vorhandenen Korrekturverfahren für Abbildungsfehler erschwert nun gerade die Korrektur von chromatischen Längsfehlern. Wird beispielsweise für die Korrektur eine Rückfaltungs-Transformation mittels eines Entfaltungskernels verwendet, so ist die Approximation der longitudinalen Invarianz der Objektszene insbesondere nicht mehr hinreichend genau, wenn die Tiefenausdehnung der Oberflächenkontur der Objektszene gegenüber der Objektschnittweite nicht mehr vernachlässigt werden darf, also nicht mehr wenigstens um mehrere Größenordnungen kleiner ist.
  • Um mittels eines optischen Systems, welches eine Abbildungsoptik und einen Bildsensor aufweist, Bildaufnahmen mit möglichst geringen Abbildungsfehlern und einer hohen Schärfentiefe bei einer hohen Farbqualität zu ermöglichen, wird nun vorgeschlagen, in einer Bildaufnahme, welche durch den Bildsensor als eine ortsaufgelöste Intensitätsfunktion der Abbildung durch die Abbildungsoptik bereitgestellt wird, einen Abbildungsfehler mittels einer Korrekturfunktion zu korrigieren, in welche der lokale Abstand der Objektszene bezüglich des Bildsensors eingeht.
  • Hierfür ist eine ortsaufgelöste Abstandsfunktion der Objektszene, insbesondere ihrer Oberflächenkontur, bezüglich des Bildsensors bereitzustellen, welche bevorzugt flächenhaft, also in gleichmäßiger Weise und bevorzugt für eine möglichst großflächige Überdeckung des abzubildenden Teils der Objektszene, Abstandsinformationen der Objektszene bezüglich des Bildsensors liefert.
  • Mittels der ortsaufgelösten Abstandsinformation lässt sich dann insbesondere ein Abbildungsfehler, welcher bei der Propagation der Abbildung der Objektszene durch die Abbildungsoptik auf den Bildsensor infolge der Tiefenausdehnung der Objektszene erfolgt, dann korrigieren, wenn eine geeignete Korrekturfunktion einerseits den Einfluss dieser Tiefenausdehnung auf den Fehler in der Abbildung hinreichend korrekt wiedergeben kann, und den Fehler mittels der Abstandsinformation aus der Abbildung entfernen kann. Die durch die Belichtungsfunktion ermöglichte Berücksichtigung der lokalen Belichtungsstärke und insbesondere des Grades einer lokalen Überbelichtung für die Korrektur erlaubt eine wenigstens teilweise Inversion der durch die Überbelichtung insbesondere an scharfen Kanten der Objektszene auftretenden Unschärfen in der Abbildung bzw. eine wenigstens teilweise Rekonstruktion der ursprünglichen Kantenschärfe.
  • Die für das Verfahren und für seine Weiterbildungen angegebenen Vorteile können dabei sinngemäß auf die elektronische Auswerteeinheit sowie auf das optische System, welches die elektronische Auswerteeinheit umfasst, übertragen werden.
  • Günstigerweise ist die Intensitätsfunktion der Abbildung farbaufgelöst. Dies ermöglicht insbesondere auch die Korrektur chromatischer Abbildungsfehler. Die Korrektur findet dabei bevorzugt getrennt nach den einzelnen Farbkanälen statt. Insbesondere, wenn ein spektraler Überlapp der Farbkanäle vorliegt, welcher seinerseits einen Einfluss auf den oder die Fehler in der Abbildung aufweisen kann, berücksichtigt die Korrekturfunktion bevorzugt den nichtverschwindenden Einfluss der anderen Farbkanäle.
  • Bevorzugt wird als wenigstens ein Abbildungsfehler ein chromatischer Längsfehler korrigiert. Das genannte Verfahren eignet sich für die Korrektur eines chromatischen Längsfehlers besonders gut, da dieser insbesondere dann auftreten kann, wenn die Tiefenausdehnung der Objektszene gegenüber der Objektschnittweite nicht mehr vernachlässigt werden kann, also nicht mindestens um mehrere Größenordnungen kleiner ist. Der chromatische Farblängsfehler kann zudem durch eine starke lokale Überbelichtung weiter beeinflusst werden. Dadurch, dass mittels der Abstandsfunktion ortsaufgelöste Informationen über die Tiefenausdehnung bereitgestellt werden, ist es möglich, mittels einer geeigneten Korrekturfunktion, welche diese Informationen adäquat berücksichtigt, den chromatischen Längsfehler in einer Bildaufnahme zu korrigieren. Dies kann insbesondere für jeden der einzelnen Farbkanäle jeweils getrennt erfolgen.
  • Günstigerweise wird für die Korrekturfunktion wenigstens ein Entfaltungskernel herangezogen, welcher von wenigstens drei Ortsargumenten abhängig ist. Insbesondere wird der wenigstens ein Abbildungsfehler zumindest implizit mittels einer Rückfaltungs-Transformation korrigiert. Im Rahmen der geometrischen Optik, insbesondere in der Approximation der paraxialen Optik, lässt sich die Propagation der Lichtstrahlen, welche von der Objektszene reflektiert und durch die Abbildungsoptik auf den Bildsensor abgebildet werden, am besten durch eine Faltung mit einem Faltungskernel beschreiben, in welchen alle für die Propagation durch die einzelnen Medien - also die Luft und die Abbildungsoptik - relevanten Größen eingehen.
  • In der Approximation einer Abbildung einer weitgehend planaren Objektszene in die Ebene des Bildsensors lässt sich dies folgendermaßen darstellen: I i ( x i , y i ) = d x o d y o h ( x i x o , y i y o ) I o ( x o , y o ) ,
    Figure DE102016210602B4_0001
    wobei Ii(xi,yi) die Intensität in der Bildebene an einem durch die Koordinaten der Bildebene gegebenen Bildpunkt darstellt, Io(xo, yo) entsprechend die Intensität an einem Punkt in der Ebene der Objektszene, und h(xi-xo, yi-yo) eine Antwort- bzw. Propagationsfunktion. Für eine Vereinfachung der Darstellung wurde hierbei eine zusätzliche Abhängigkeit der Intensität in der Bildebene von der Wellenlänge unterdrückt.
  • Ein bei dieser Abbildung entstehender, insbesondere durch die Abbildungsoptik bedingter Abbildungsfehler lässt sich dann bei einer Kenntnis der räumlichen Propagation - also insbesondere bei einer Kenntnis des optischen Weges und der Weglänge, welche ein von einem konkreten Punkt der Objektszene reflektierter Lichtstrahl bestimmter Wellenlänge durch die Abbildungsoptik hin zum Bildsensor aufweist - mittels der zur die Propagation beschreibenden Faltung inversen Rückfaltungs-Transformation mit einem geeigneten Entfaltungskernel korrigieren. Dies kann insbesondere im räumlichen Frequenzraum erfolgen.
  • Weist jedoch die Objektszene eine nicht zu vernachlässigende Tiefenausdehnung auf, so ist die Ortsinvarianz der Antwortfunktion und somit die Darstellung der Propagation über eine zweidimensionale Faltungs-Transformation nicht mehr gerechtfertigt. Es kann hierbei zu Artefakten in einem rekonstruierten Bild kommen, welche insbesondere durch die beschriebenen Unzulänglichkeiten der Rückfaltungs-Transformation bedingt sein können. Die Propagation ist nun viel mehr in der folgenden Form darzustellen: I i ( x i , y i ) = d x o d y o d z o h ( x i , y i , x o , y o , z o ) I o ( x o , y o , z o ) ,
    Figure DE102016210602B4_0002
    wobei hier die Koordinate zo den Abstand eines Punktes in der Objektszene vom Bildsensor bezeichnet, und Io(xo, yo, zo) die Intensität an einem Punkt der Ebene der Objektszene im Abstand zo vom Bildsensor bedeutet. Die Antwortfunktion weist hierbei eine Abhängigkeit wenigstens von den beiden transversalen Raumrichtungen und vom Abstand zo auf, so dass hier - anders als bei der weiter oben dargestellten planaren Approximation der Objektszene - wenigstens drei Ortsargumente vorliegen. Für den Fall, dass aufgrund der Ausgestaltung der Abbildungsoptik eine laterale Variation vernachlässigt werden kann, lässt sich die Antwortfunktion in den beiden transversalen Raumrichtungen in Form einer Faltung bezüglich der objektseitigen Intensität darstellen.
  • Der Entfaltungskernel, durch welchen die dreidimensionale Propagationsgleichung zu invertieren ist, und in welchen insbesondere die Eigenschaften der Abbildungsoptik eingehen, kann dabei durch eine numerische Simulation in einem Raytracing-Programm, aber auch empirisch durch standardisierte Experimente bestimmt werden.
  • Zweckmäßigerweise wird hierbei für den Entfaltungskernel eine Punktbildfunktion, eine Linienbildfunktion oder eine Kantenbildfunktion herangezogen. Die Punktbildfunktion bzw. die Linienbildfunktion eines optischen Systems gibt an, wie ein idealisiertes, punkt- bzw. linienförmiges förmiges Objekt durch das System abgebildet werden würde. Die Kantenbildfunktion des Systems gibt an, wie eine scharfe Kante, an welcher ein Farbwechsel von Schwarz zu Weiß erfolgt, welcher von einem Objekt oder einem Objektbereich mit einem abrupten Übergang eines vollständig absorbierenden Bereichs zu einem vollständig reflektierenden oder transmittierenden Bereich mit weißem Licht erzeugt wird, durch das System abgebildet werden würde. Durch die Auflösung nach einzelnen Farbkanälen kann mittels einer der genannten Funktionen als Entfaltungskernel die Propagation von der Gesamtheit der Punkte, Linien oder Kanten, welche die Objektszene bilden, ermittelt werden, und hierdurch die Objektszene in Abhängigkeit der zur Verfügung stehenden Intensitätsfunktion und der Abstandsfunktion approximiert werden.
  • Als vorteilhaft erweist es sich, wenn der Bildsensor die Intensitätsfunktion für eine Vielzahl an Sensorpunkten bereitstellt, und die Abstandsfunktion für eine über den Bildsensor verteilten Vielzahl an Sensorpunkten bereitgestellt wird. Insbesondere sind hierbei die Sensorpunkte für die Abstandsmessung möglichst gleichmäßig - im numerischen Sinn in beiden Raumrichtungen - über den Bildsensor verteilt.
  • Insbesondere erfolgt dabei die Abstandsmessung durch den Bildsensor selbst. Insbesondere ist die Vielzahl an Sensorpunkten zur Bereitstellung der Intensitätsfunktion dieselbe wie die Vielzahl an Sensorpunkten zur Bereitstellung der Abstandsfunktion. Alternativ kann jedoch letztere Vielzahl auch eine echte Untermenge der erstgenannten Vielzahl bilden, so dass für die Zuordnung der Ortsauflösung der Abstandsfunktion zur Ortsauflösung der Intensitätsfunktion bevorzugt eine Interpolation der Abstandswerte und/oder ein downsampling der Intensitätswerte herangezogen wird. Besonders bevorzugt wird jedoch eine möglichst hochaufgelöste Abstandsfunktion ermittelt.
  • Eine flächendeckende Abstandsmessung im Bildsensor erfolgt derzeit bei einigen Kameras für eine besonders leistungsstarke Autofokus-Funktion. Hierbei werden an einer Vielzahl von Pixeln - bei Bildsensoren mit einer Auflösung im zweistelligen M(ega)Pixel-Bereich kann die Untermenge bis zu 50.000 Pixel umfassen - auch die Abstände zu den Objekten im abzubildenden Bereich gemessen, um besonders schnell und genau auf einen bestimmten Bereich der Objektszene fokussieren zu können, sobald dies von einem Anwender der Kamera gewünscht wird. Eine derart zur Verfügung stehende Abstandsinformation kann nun als hinreichend ortsaufgelöste Abstandsfunktion in das Verfahren zur Korrektur eines Abbildungsfehlers eingebunden werden. Als besonders günstig erweist sich hierbei, dass infolge der Abstandserfassung auf dem Bildsensor selbst die Verknüpfung der Ortsinformationen der Abstandsfunktion und der Intensitätsfunktion bereits intrinsisch vorliegt, und keine zusätzliche Kalibrierung erforderlich ist.
  • Vorteilhafterweise wird dabei die Abstandsfunktion, insbesondere für die betreffenden Sensorpunkte, jeweils mittels einer Laufzeitmessung und/oder einer Triangulationsmessung und/oder einer Phasenmessung bestimmt und bereitgestellt. Die genannten Messverfahren kommen derzeit vermehrt in Bildsensoren von kommerziellen Kameras für die Abstandsmessung, meist im Rahmen einer Autofokus-Funktion, zum Einsatz, so dass die Verwendung eines derartigen Bildsensors für eine möglichst einfache Korrektur von Abbildungsfehlern mittels der bereitgestellten Informationen als ortsaufgelöste Abstandsfunktion für das Verfahren besonders günstig ist.
  • Als weiter vorteilhaft erweist es sich, wenn jeweils Paare von Sensorpunkten der Vielzahl an Sensorpunkten für eine Abstandsmessung der Objektszene bezüglich des Bildsensors verwendet werden, und aus einer Abstandsmessung eines Paares an Sensorpunkten jeweils ein Wert der Abstandsfunktion bereitgestellt wird. Trotz der relativen Nähe der betreffenden Sensorpunkte wird hierbei immer noch eine Triangulation mit einer hinreichend breiten Basislänge und somit eine besonders präzise Abstandsmessung ermöglicht, was sich vorteilhaft auf die Korrektur des oder der Abbildungsfehler mittels des Verfahrens auswirkt.
  • In einer vorteilhaften Ausgestaltung ist das optische System als Kamera ausgebildet. Gerade für eine Kamera ist es nützlich, die Korrektur von Abbildungsfehlern direkt auf dem Gerät vornehmen zu können, so dass später bei einem Auslesen der Aufnahmen keine für eine korrigierende Bildverarbeitung erforderlichen Informationen übermittelt werden müssen. Da somit auch keine Kompatibilität zu verschiedenen möglichen Verfahren, welche sonst ggf. für eine derartige nachträgliche Korrektur in Frage kämen, gewahrt zu werden braucht, müssen daher auch nicht verschiedenartige Informationen bedarfsunabhängig bereitgehalten werden, was sich günstig auf den Speicherplatz auswirkt.
  • Nachfolgend wird ein Ausführungsbeispiel der Erfindung anhand einer Zeichnung näher erläutert. Hierbei zeigen jeweils schematisch:
    • 1 in einer Querschnittdarstellung eine Kamera mit einem Objektiv, einem Bildsensor und einer Auswerteeinheit zur Korrektur von Abbildungsfehlern, und
    • 2 in einem Blockdiagramm ein Verfahren zur Korrektur von Abbildungsfehlern der Kamera nach 1.
  • Einander entsprechende Teile und Größen sind in allen Figuren jeweils mit gleichen Bezugszeichen versehen.
  • In 1 ist schematisch in einer Querschnittdarstellung ein optisches System 1 gezeigt, welches im vorliegenden Fall als Kamera 2 ausgestaltet ist. Die Kamera 2 umfasst dabei eine als Objektiv 4 ausgestaltete Abbildungsoptik 6, welche ihrerseits eine erste Linse 8, eine zweite Linse 10 und eine Blende 12 aufweist. Hierbei soll „umfassen“ bedeuten, dass die Kamera 2 im Betriebszustand mit dem Objektiv 4 versehen und fest verbunden ist, wobei das Objektiv 4 hierbei auch austauschbar gestaltet sein kann, so dass in einem anderen Betriebszustand ein anderes Objektiv verwendet werden kann, so dass die Kamera in jenem anderen Betriebszustand das genannte andere Objektiv umfasst. Weiter weist die Kamera 2 einen Bildsensor 14, welcher ein Array aus einer Vielzahl an Sensorpunkten 16 umfasst, sowie eine elektronische Auswerteeinheit 18 auf, welche mit dem Bildsensor 14 verbunden ist. Die Sensorpunkte 16 entsprechen hierbei den Bildpunkten einer Aufnahme bei maximaler Auflösung der Kamera 2. In der vorliegenden Darstellung ist hierbei schematisch eine Zeile der Sensorpunkte 16 zu sehen.
  • Die Kamera 2 zeichnet nun eine Aufnahme einer Objektszene 20 auf. Hierbei werden zunächst einzelne, von der Oberfläche der Objektszene 20 durch Reflexion ausgehende Lichtstrahlen 22a-d durch die beiden Linsen 8, 10 und die Blende 12 des Objektivs zum Bildsensor 14 geführt. Die einzelnen Sensorpunkte 16 registrieren die jeweils eintreffende Intensität der Lichtstrahlen 22a-d, wobei eine Farbauflösung über ein Filter-Array 24 (eine sog. Bayer-Matrix) erreicht wird, so dass einzelne Sensorpunkte 16 jeweils nur in einem der drei RGB-Farbkanäle eine nennenswerte Intensität verzeichnen.
  • Eine über den gesamten Bereich des Bildsensors 14 gleichmäßige Vielzahl 26 an Sensorpunkten 16a misst zudem den jeweiligen Abstand 28a-d vom Bildsensor 14 zur Objektszene 20, so dass bei der Aufzeichnung die orts- und farbaufgelöste Intensitätsinformation der Sensorpunkte 16 mit der durch die Sensorpunkte 16a ermittelten, ortsaufgelösten Abstandsinformation verknüpft werden kann. In der vorliegenden schematischen Darstellung ist angedeutet, dass hierbei die Vielzahl 26 der Sensorpunkte 16a zwar gleichmäßig über den Bildsensor 14 verteilt ist, so dass für die gesamte Objektszene 20 eine flächendeckende Abstandsfunktion bzgl. des Bildsensors 14 in hinreichend hoher Ortsauflösung bereitgestellt werden kann, jedoch die Ortsauflösung der reinen Farbintensitätsaufzeichnung noch einmal um Größenordnungen höher liegen kann, also deutlich mehr Sensorpunkte 16, welche keine Abstandsmessung durchführen, vorhanden sind, als abstandsmessende Sensorpunkte 16a. Die konkrete technische Ausgestaltung der Abstandsmessung durch die Sensorpunkte 16a kann dabei beispielsweise als eine Phasenmessung erfolgen.
  • Die vom Bildsensor 14 aufgezeichnete farbaufgelöste Intensitätsverteilung stellt nun ein Rohbild dar, für welches in der elektronischen Auswerteeinheit 18 in noch näher zu beschreibender Weise mittels der Abstandsinformation die Abbildungsfehler, welche aus der ersten Linse 8 und/oder der zweiten Linse 10 resultieren, korrigiert werden. Im Falle eines austauschbaren Objektivs 4 kann die elektronische Auswerteeinheit 18 zusätzlich auch über eine hier nicht gezeigte Schnittstelle Informationen über das für die Aufnahme verwendete Objektiv erhalten, so dass die Korrektur entsprechend mit den für das verwendete Objektiv korrekten Daten durchgeführt werden kann.
  • In 2 ist schematisch anhand eines Blockdiagramms ein Verfahren 30 dargestellt, welches Abbildungsfehler und dabei insbesondere chromatische Längsfehler in einem Rohbild 32 korrigiert, das mit der Kamera 2 nach 1 aufgezeichnet wurde. Das vom Bildsensor 14 aufgezeichnete Rohbild 32 stellt dabei für das Verfahren 30 eine fehlerbehaftete orts- und farbaufgelöste Intensitätsfunktion 34 dar. Weiter wird durch den Bildsensor 14 eine ortsaufgelöste Abstandsfunktion 36 derart bereitgestellt, dass über die jeweilige Ortsauflösung eine Zuordnung der Abstandswerte zo(xi, yi) zu den Intensitätswerten Ii(xi, yi) erfolgen kann. Überdies werden durch den Bildsensor 14 weitere Intensitätsfunktionen 34a mit den Werten Ik...n(xi, yi), welche unterschiedliche Belichtungszeiten aufweisen als die dem Rohbild 32 entsprechende Intensitätsfunktion 34 mit den Werten Ii(xi, yi), in schneller Folge aufgezeichnet, und aus diesen in der elektronischen Auswerteeinheit 18 eine ortsaufgelöste Belichtungsfunktion 37 ermittelt, deren Werte B(xi, yi) lokal einen Grad an Überbelichtung angeben.
  • Die Korrektur kann nun beispielsweise derart erfolgen, dass zunächst unter Berücksichtigung der Belichtungsfunktion 37 mittels eines Inversionskernels 38 die optische Propagationsgleichung, welche den Zusammenhang zwischen der Intensitätsverteilung Io(xo, yo, zo) in der dreidimensionalen Objektszene 20 und der Intensitätsverteilung Ii(xi,yi) in der bei zi positionierten Ebene des Bildsensors 14 herstellt, invertiert wird, so dass ein direkter Zugriff auf die Daten der objektseitigen Intensitätsverteilung Io(xo, yo, zo) möglich ist. Diese objektseitige Intensitätsverteilung kann nun seinerseits bei Kenntnis der Werte zo(xi, yi) der Abstandsfunktion 36 mit einem um die Abbildungsfehler korrigierten Propagationskernel 40 derart propagiert werden, so dass als Resultat eine korrigierte bildseitige Intensitätsverteilung I i c ( x i , y i )
    Figure DE102016210602B4_0003
    als korrigiertes Bild 46 gewonnen werden kann.
  • Aufgrund der Tatsache, dass die Propagationsgleichung die Gestalt eines Faltungsintegrals aufweist, und somit sowohl die Inversion der Propagationsgleichung mittels des Inversionskernels 38 als auch die erneute Propagation mittels des korrigierten Propagationskernels 40 sukzessive Integrationen über die Propagationsgleichung darstellen, müssen diese für das Verfahren 30 nicht explizit durchgeführt werden. Es reicht hierfür die Kenntnis des als Korrekturfunktion 42 zu verwendenden Entfaltungskernels 44 aus, welcher im konkreten Fall aus dem Inversionskernel 38 und dem korrigierten Propagationskernel 40 durch Integration gebildet wird. Sowohl für den Inversionskernel 38 als auch für den korrigierten Propagationskernel 40 ist jedoch die Kenntnis der Werte zo(xi, yi) der Abstandsfunktion 36 erforderlich, welche dementsprechend auch als Argument in den Entfaltungskernel 44 eingeht. Die konkreten Werte für den Entfaltungskernel 44 zu entsprechenden Ortsargumenten können dabei durch Raytracing oder durch numerische Simulationen gewonnen werden. Insbesondere lässt sich die beschriebene Entfaltung in analoger Weise auch im räumlichen Frequenzraum durchführen.
  • Obwohl die Erfindung im Detail durch das bevorzugte Ausführungsbeispiel näher illustriert und beschrieben wurde, ist die Erfindung nicht durch dieses Ausführungsbeispiel eingeschränkt. Andere Variationen können vom Fachmann hieraus abgeleitet werden, ohne den Schutzumfang der Erfindung zu verlassen.

Claims (12)

  1. Verfahren (30) zur Korrektur eines Abbildungsfehlers eines optischen Systems (1), welches eine wenigstens eine Linse (8, 10) umfassende Abbildungsoptik (6) und einen Bildsensor (14) aufweist, wobei für eine mittels der Abbildungsoptik (6) auf den Bildsensor (14) abgebildete Objektszene (20) durch den Bildsensor (14) eine ortsaufgelöste Intensitätsfunktion (34) der Abbildung bereitgestellt wird, wobei eine ortsaufgelöste Abstandsfunktion (36) der Objektszene (20) bezüglich des Bildsensors (14) bereitgestellt wird, und wobei mittels einer ortsaufgelösten, von den Werten (zo(xi,yi)) der Abstandsfunktion (34) abhängigen Korrekturfunktion (42) wenigstens ein Abbildungsfehler in der Intensitätsfunktion (34) korrigiert wird.
  2. Verfahren (30) nach Anspruch 1, wobei weiter eine eine ortsaufgelöste Belichtungsfunktion (37) der Abbildung bereitgestellt wird, und wobei die Korrekturfunktion (42) zusätzlich von den Werten (B(xi, yi)) der Belichtungsfunktion (37) abhängt.
  3. Verfahren (30) nach Anspruch 1 oder Anspruch 2, wobei die Intensitätsfunktion (34) der Abbildung farbaufgelöst ist.
  4. Verfahren (30) nach Anspruch 3, wobei als wenigstens ein Abbildungsfehler ein chromatischer Längsfehler korrigiert wird.
  5. Verfahren (30) nach einem der vorhergehenden Ansprüche, wobei für die Korrekturfunktion (42) wenigstens ein Entfaltungskernel (44) herangezogen wird, welcher von wenigstens drei Ortsargumenten abhängig ist.
  6. Verfahren (30) nach Anspruch 5, wobei für den Entfaltungskernel (44) eine Punktbildfunktion, eine Linienbildfunktion oder eine Kantenbildfunktion herangezogen wird.
  7. Verfahren (30) nach einem der vorhergehenden Ansprüche, wobei der Bildsensor (14) die Intensitätsfunktion (34) für eine Vielzahl an Sensorpunkten (16) bereitstellt, und wobei die Abstandsfunktion (36) für eine über den Bildsensor (14) verteilte Vielzahl (26) an Sensorpunkten (16) bereitgestellt wird.
  8. Verfahren (30) nach Anspruch 7, wobei die Abstandsfunktion (36) jeweils mittels einer Laufzeitmessung und/oder einer Triangulationsmessung und/oder einer Phasenmessung bestimmt und bereitgestellt wird.
  9. Verfahren (30) nach Anspruch 7 oder Anspruch 8, wobei jeweils Paare von Sensorpunkten (16a) der Vielzahl (26) an Sensorpunkten (16) für eine Abstandsmessung der Objektszene (20) bezüglich des Bildsensors (14) verwendet werden, und aus einer Abstandsmessung eines Paares an Sensorpunkten (16a) jeweils ein Wert (zo(xi, yi)) der Abstandsfunktion (36) bereitgestellt wird.
  10. Elektronische Auswerteeinheit (18), welche dazu eingerichtet ist, das Verfahren (30) nach einem der vorhergehenden Ansprüche automatisch durchzuführen.
  11. Optisches System (1), umfassend: - eine Abbildungsoptik (6), welche wenigstens eine Linse (8, 10) umfasst, - einen Bildsensor (14), welcher dazu eingerichtet ist, eine ortsaufgelöste Intensitätsfunktion (34) einer mittels der Abbildungsoptik (6) abgebildeten Objektszene (20) bereitzustellen, - eine Vorrichtung (14), welche dazu eingerichtet ist, eine ortsaufgelöste Abstandsfunktion (36) der Objektszene (20) bereitzustellen, und - eine elektronische Auswerteeinheit (14) nach Anspruch 10.
  12. Optisches System (1) nach Anspruch 11, welches als Kamera (2) ausgebildet ist.
DE102016210602.3A 2016-06-15 2016-06-15 Verfahren zur Korrektur eines Abbildungsfehlers eines optischen Systems Active DE102016210602B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102016210602.3A DE102016210602B4 (de) 2016-06-15 2016-06-15 Verfahren zur Korrektur eines Abbildungsfehlers eines optischen Systems

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102016210602.3A DE102016210602B4 (de) 2016-06-15 2016-06-15 Verfahren zur Korrektur eines Abbildungsfehlers eines optischen Systems

Publications (2)

Publication Number Publication Date
DE102016210602A1 DE102016210602A1 (de) 2017-12-21
DE102016210602B4 true DE102016210602B4 (de) 2018-08-16

Family

ID=60481485

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016210602.3A Active DE102016210602B4 (de) 2016-06-15 2016-06-15 Verfahren zur Korrektur eines Abbildungsfehlers eines optischen Systems

Country Status (1)

Country Link
DE (1) DE102016210602B4 (de)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070103564A1 (en) 2005-11-09 2007-05-10 Sony Corporation Image processing device, image processing method, and program
EP2111038A1 (de) 2008-04-16 2009-10-21 Canon Kabushiki Kaisha Bildverarbeitungsvorrichtung und Bildverarbeitungsverfahren zur Reduktion von Farbunschärfen

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070103564A1 (en) 2005-11-09 2007-05-10 Sony Corporation Image processing device, image processing method, and program
EP2111038A1 (de) 2008-04-16 2009-10-21 Canon Kabushiki Kaisha Bildverarbeitungsvorrichtung und Bildverarbeitungsverfahren zur Reduktion von Farbunschärfen

Also Published As

Publication number Publication date
DE102016210602A1 (de) 2017-12-21

Similar Documents

Publication Publication Date Title
EP3186952B1 (de) Bildaufnahmevorrichtung und verfahren zur bildaufnahme
EP3186776B1 (de) Bildaufnahmevorrichtung und verfahren zur bildaufnahme
DE102012106584B4 (de) Verfahren und Vorrichtung zur Bildrekonstruktion
CH692873A5 (de) Vorrichtung und Verfahren zur geometrischen Kalibrierung von CCD-Kameras.
WO2016030390A2 (de) Phasenkontrast-bildgebung
DE102016218977A1 (de) Verfahren und Vorrichtung zur Ermittlung eines OPC-Modells
DE102008015499A1 (de) Verfahren und Vorrichtung zur Bestimmung der 3D-Koordinaten eines Objekts
DE102010047050A1 (de) Verfahren zur Charakterisierung einer Struktur auf einer Maske und Vorrichtung zur Durchführung des Verfahrens
DE102013108070A1 (de) Bildkalibrierung und Entzerrung einer Weitwinkelkamera
DE102011003653A1 (de) Verfahren zum Gewinnen eines 3D-Bilddatensatzes zu einem Bildobjekt
DE102009016952A1 (de) Verifikationsverfahren für Reparaturen auf Photolithographiemasken
EP3195250A1 (de) Verfahren zum erzeugen eines ergebnisbilds und optische vorrichtung
DE102015213045A1 (de) Verfahren und Vorrichtung zur Positionsbestimmung von Strukturelementen einer photolithographischen Maske
DE112014006672T5 (de) Bildverarbeitungsvorrichtung, Bildgebungsvorrichtung, Mikroskopsystem, Bildverarbeitungsverfahren und ein Bildverarbeitungsprogramm
EP2494522B1 (de) Verfahren zur bestimmung eines satzes von optischen abbildungsfunktionen für die 3d-strömungsmessung
DE102016002186A1 (de) Verfahren und Bildverarbeitungsvorrichtung zur Bestimmung einer geometrischen Messgröße eines Objektes
EP3711289A1 (de) Verfahren zur automatischen wiederherstellung eines eingemessenen zustands eines projektionssystems
DE102016210602B4 (de) Verfahren zur Korrektur eines Abbildungsfehlers eines optischen Systems
DE102015120967A1 (de) Verfahren und Vorrichtung zur Bildkorrektur
DE102018113454A1 (de) Verfahren zum Kalibrieren eines optischen Abtasters und Vorrichtungen davon
DE102014215095A1 (de) Verfahren zur Korrektur von beleuchtungsbedingten Abbildungsfehlern in einem modularen Digitalmikroskop, Digitalmikroskop und Datenverarbeitungsprogramm
DE102017112484A1 (de) Verfahren und Vorrichtung zur Bildkorrektur
EP3776454B1 (de) Korrekturverfahren und vorrichtung zur korrektur von bilddaten
DE102021108238A1 (de) Computerimplementiertes Verfahren, Verfahren, Messgerät und Computerprogrammprodukt
DE102011104357A1 (de) Verfahren zur Simulation eines Luftbildes

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: H04N0005235000

Ipc: H04N0023700000