DE112014002681T5 - Verfahren zur Erfassung eines Winkelversatzes für adaptives Optiksystem, Verfahren zur Erfassung einer Abbildungsvergrößerung für adaptives Optiksystem und adaptives Optiksystem - Google Patents

Verfahren zur Erfassung eines Winkelversatzes für adaptives Optiksystem, Verfahren zur Erfassung einer Abbildungsvergrößerung für adaptives Optiksystem und adaptives Optiksystem Download PDF

Info

Publication number
DE112014002681T5
DE112014002681T5 DE112014002681.6T DE112014002681T DE112014002681T5 DE 112014002681 T5 DE112014002681 T5 DE 112014002681T5 DE 112014002681 T DE112014002681 T DE 112014002681T DE 112014002681 T5 DE112014002681 T5 DE 112014002681T5
Authority
DE
Germany
Prior art keywords
area
intensity distribution
light intensity
phase pattern
modulation surface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112014002681.6T
Other languages
English (en)
Inventor
Hongxin Huang
Takashi Inoue
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hamamatsu Photonics KK
Original Assignee
Hamamatsu Photonics KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hamamatsu Photonics KK filed Critical Hamamatsu Photonics KK
Publication of DE112014002681T5 publication Critical patent/DE112014002681T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J9/00Measuring optical phase difference; Determining degree of coherence; Measuring optical wavelength
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0025Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for optical correction, e.g. distorsion, aberration
    • G02B27/0068Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for optical correction, e.g. distorsion, aberration having means for controlling the degree of correction, e.g. using phase modulators, movable elements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/1015Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for wavefront analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/12Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J1/00Photometry, e.g. photographic exposure meter
    • G01J1/42Photometry, e.g. photographic exposure meter using electric radiation detectors
    • G01J1/44Electric circuits
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M11/00Testing of optical apparatus; Testing structures by optical methods not otherwise provided for
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M11/00Testing of optical apparatus; Testing structures by optical methods not otherwise provided for
    • G01M11/02Testing optical properties
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/09Beam shaping, e.g. changing the cross-sectional area, not otherwise provided for
    • G02B27/0927Systems for changing the beam intensity distribution, e.g. Gaussian to top-hat
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B3/00Simple or compound lenses
    • G02B3/0006Arrays
    • GPHYSICS
    • G02OPTICS
    • G02FOPTICAL DEVICES OR ARRANGEMENTS FOR THE CONTROL OF LIGHT BY MODIFICATION OF THE OPTICAL PROPERTIES OF THE MEDIA OF THE ELEMENTS INVOLVED THEREIN; NON-LINEAR OPTICS; FREQUENCY-CHANGING OF LIGHT; OPTICAL LOGIC ELEMENTS; OPTICAL ANALOGUE/DIGITAL CONVERTERS
    • G02F2203/00Function characteristic
    • G02F2203/12Function characteristic spatial light modulator
    • GPHYSICS
    • G02OPTICS
    • G02FOPTICAL DEVICES OR ARRANGEMENTS FOR THE CONTROL OF LIGHT BY MODIFICATION OF THE OPTICAL PROPERTIES OF THE MEDIA OF THE ELEMENTS INVOLVED THEREIN; NON-LINEAR OPTICS; FREQUENCY-CHANGING OF LIGHT; OPTICAL LOGIC ELEMENTS; OPTICAL ANALOGUE/DIGITAL CONVERTERS
    • G02F2203/00Function characteristic
    • G02F2203/18Function characteristic adaptive optics, e.g. wavefront correction

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Engineering & Computer Science (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Ophthalmology & Optometry (AREA)
  • Biophysics (AREA)
  • Optics & Photonics (AREA)
  • Analytical Chemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • Optical Modulation, Optical Deflection, Nonlinear Optics, Optical Demodulation, Optical Logic Elements (AREA)
  • Testing Of Optical Devices Or Fibers (AREA)

Abstract

Ein adaptives Optiksystem umfasst einen räumlichen Lichtmodulator, der ausgebildet ist, eine Phase eines optischen Bildes, das auf eine Modulationsoberfläche fällt, räumlich zu modulieren, und einen Wellenfrontsensor mit einem Linsen-Array mit mehreren zweidimensional angeordneten Linsen und einem optischen Erfassungselement zur Erfassung einer Lichtintensitätsverteilung, die konvergierende Flecken enthält, die durch das Linsen-Array erzeugt werden, und ausgebildet ist, das optische Bild nach der Modulation aus dem räumlichen Lichtmodulator zu empfangen, und das eine Wellenfrontverzerrung kompensiert, indem ein Phasenmuster, das in dem räumlichen Lichtmodulator angezeigt wird, auf der Grundlage einer Form der Wellenfront des optischen Bildes gesteuert wird, das aus der Lichtintensitätsverteilung erhalten wird, wobei ein Betrag eines Winkelversatzes zwischen der Modulationsoberfläche und dem Wellenfrontsensor berechnet wird.

Description

  • Technisches Gebiet
  • Ein Aspekt der vorliegenden Erfindung betrifft ein Verfahren zur Erfassung eines Winkelversatzes für ein adaptives Optiksystem, ein Verfahren zur Erfassung einer Abbildungsvergrößerung für ein adaptives Optiksystem und ein adaptives Optiksystem.
  • Stand der Technik
  • In den Druckschriften 1 und 2, die keine Patentliteratur sind, sind Verfahren zur Einstellung eines adaptiven Optiksystems gemäß einem Phasenmessverfahren offenbart. Das Phasenmessverfahren ist ein Verfahren zur Messung einer Phasenverteilung mittels eines Wellenfrontsensors, nachdem bewirkt wird, dass ein räumlicher Lichtmodulator eine bekannte Phasenverteilung anzeigt, und zur gegenseitigen Zuordnung von Koordinaten auf einer Modulationsoberfläche und Koordinaten auf einer Erfassungsoberfläche durch Vergleich eines Messergebnisses mit der bekannten Phasenverteilung.
  • Zitatliste
  • Nicht-Patentliteratur
    • [Nicht-Patentliteratur 1] Abdul Awwal, und Mitarbeiter, „Charakterisierung und Betrieb eines adaptiven optischen Phoropters mit Flüssigkristall”, Tagungsbericht in SPIE, Bd. 5169, Seiten 104–122 (2003)
    • [Nicht-Patentliteratur 2] Jason Porter, Hope Queener, Julianna Lin, Karen Thorn, and Abdul Awwal, „Adaptive Optik für Sehkraft-Wissenschaft”, Wiley Interscience, Kapitel 18, Seiten 496–499 (2006)
  • Überblick über die Erfindung
  • Technisches Problem
  • Die Technik der adaptiven Optik ist eine Technik zur dynamischen Entfernung einer Abberation durch Messung einer optischen Abberation (Wellenfrontverzerrung) unter Anwendung eines Wellenfrontsensors und Steuerung eines Wellenfrontmodulationselements (räumlicher Lichtmodulator) auf der Grundlage eines Messergebnisses. Es ist möglich, eine Abbildungseigenschaft, einen Grad an Konvergenz, ein SN-Verhältnis eines Bildes und eine Messgenauigkeit durch die zuvor beschriebene Technik der adaptiven Optik zu verbessern. Konventionellerweise wird die Technik der adaptiven Optik hauptsächlich in astronomischen Teleskopen und großen Laser-Vorrichtungen eingesetzt. In jüngerer Zeit ist die Technik der adaptiven Optik auch auf Augengrund-Kameras, Raster-Laser-Ophtalmoscope, Vorrichtungen zur optischen Kohärenztomographie, Laser-Mikroskope, usw. angewendet worden. Die Abbildung unter Verwendung derartiger Techniken mit adaptiver Optik ermöglicht eine Beobachtung mit hoher Auflösung, die bislang nicht verfügbar war. Beispielsweise wird die Abberation im Auge entfernt, indem die Technik der adaptiven Optik auf eine Augengnund-Bildgebungsvorrichtung angewendet wird, um den Hintergrund (Augengrund) des Auges zu beobachten. Beispielsweise ist es möglich, eine Mikrostruktur des Augengrunds, etwa eine Sehzelle, eine Nervenfaser oder ein Kapillargefäß, klar zu beobachten. Die Technik der adaptiven Optik kann auf die frühe Diagnose von Krankheiten im Hinblick auf das Kreislaufsystem sowie auch auf Augenerkrankungen angewendet werden.
  • In dem adaptiven Optiksystem wird eine Wellenfront mit der Genauigkeit einer Lichtwellenlänge oder weniger (beispielsweise auf Sub-Mikrometer-Niveau) gesteuert. Daher kann ein Winkelversatz um eine optische Achse oder eine Änderung der Abbildungsvergrößerung zwischen einer Modulationsoberfläche eines räumlichen Lichtmodulators und einem Wellenfrontsensor aufgrund der Fertigungsgenauigkeit des Wellenfrontsensors oder des räumlichen Lichtmodulators, Fehler bei der Herstellung optischer Komponenten und Komponenten zur Befestigung der optischen Komponente, usw. auftreten. Wenn der Winkelversatz oder die Änderung der Abbildungsvergrößerung hervorgerufen werden, wird eine Zuordnungsrelation zwischen einer Position eines Steuerungspunktes in dem räumlichen Lichtmodulator und einer Position eines Messpunktes in dem Wellenfrontsensor inkorrekt und beeinflusst die Genauigkeit der adaptiven Optik. Es ist daher wünschenswert, den Winkelversatz und die Abbildungsvergrößerung zwischen der Modulationsoberfläche und dem Wellenfrontsensor in einfacher Weise zu erfassen, um einen relativen Winkel und eine Abbildungsvergrößerung zwischen der Modulationsoberfläche und dem Wellenfrontsensor zu justieren bzw. einzustellen. Selbst wenn beispielsweise die optische Vergrößerung zwischen der Modulationsoberfläche des räumlichen Lichtmodulators und dem Wellenfrontsensor variabel ist, ist es auch wünschenswert, in einfacher Weise die Abbildungsvergrößerung zwischen der Modulationsoberfläche und dem Wellenfrontsensor zu erfassen.
  • Eine Aufgabe eines Aspekts der vorliegenden Erfindung besteht darin, ein Verfahren zur Erfassung eines Winkelversatzes für ein adaptives Optiksystem und ein adaptives Optiksystem bereitzustellen, die in der Lage sind, in einfacher Weise einen Winkelversatz in Bezug auf eine optische Achse zwischen einer Modulationsoberfläche eines räumlichen Lichtmodulators und einem Wellenfrontsensor zu erfassen. Es ist ferner eine Aufgabe eines Aspekts der vorliegenden Erfindung, ein Verfahren zur Erfassung einer Abbildungsvergrößerung für ein adaptives Optiksystem und ein adaptives Optiksystem bereitzustellen, die in der Lage sind, in einfacher Weise eine Abbildungsvergrößerung zwischen einer Modulationsoberfläche eines räumlichen Lichtmodulators und einem Wellenfrontsensor zu erfassen.
  • Lösung des Problems
  • Ein Verfahren zur Erfassung eines Winkelversatzes für ein adaptives Optiksystem gemäß einem Aspekt der vorliegenden Erfindung ist ein Verfahren zur Berechnung eines Betrags eines Winkelversatzes zwischen einer Modulationsoberfläche und einem Wellenfrontsensor in dem adaptiven Optiksystem, das einen räumlichen Lichtmodulator, der ausgebildet ist, eine Phase eines optischen Bildes, das auf die Modulationsoberfläche fällt, räumlich zu modulieren, und den Wellenfrontsensor aufweist, der ein Linsen-Array mit mehreren zweidimensional angeordneten Linsen und ein optisches Erfassungselement zur Erfassung einer Lichtintensitätsverteilung, die konvergierende Flecke bzw. Leuchtflecke enthält, die von dem Linsen-Array erzeugt werden, aufweist, und ausgebildet ist, das optische Bild nach der Modulation aus dem räumlichen Lichtmodulator zu empfangen, und eine Wellenfrontverzerrung zu kompensieren, indem ein Phasenmuster, das in dem räumlichen Lichtmodulator angezeigt ist, auf der Grundlage einer Wellenfrontform des optischen Bildes, das aus der Lichtintensitätsverteilung erhalten wird, gesteuert wird.
  • Ein erstes Verfahren zur Erfassung eines Winkelversatzes umfasst einen Schritt zur Gewinnung einer Lichtintensitätsverteilung, um die Lichtintensitätsverteilung durch das optische Erfassungselement in einem Zustand zu erhalten, in welchem ein Phasenmuster mit Linearität in mindestens einer Richtung oder ein räumlich nichtlineares Phasenmuster in einem ersten und einem zweiten Gebiet auf der Modulationsoberfläche entsprechend bzw. korrespondierend zu einer der mehreren Linsen oder zwei oder mehr Linsen, die benachbart zu einander sind, angezeigt wird, und wobei das andere Muster in einem Gebiet angezeigt wird, das das erste und das zweite Gebiet umgibt; und einen Winkelberechnungsschritt, um den Betrag des Winkelversatzes zwischen der Modulationsoberfläche und dem Wellenfrontsensor auf der Grundlage einer Steigung einer geraden Linie, die den konvergierenden Fleck, der dem ersten Gebiet entspricht, und den konvergierenden Fleck, der dem zweiten Gebiet entspricht, verbindet, die in der Lichtintensitätsverteilung enthalten sind, die im Schritt zur Gewinnung der Lichtintensitätsverteilung erhalten wird.
  • Ferner umfasst ein zweites Verfahren zur Erfassung eines Winkelversatzes einen ersten Schritt zur Gewinnung einer Lichtintensitätsverteilung, um eine erste Lichtintensitätsverteilung durch das optische Erfassungselement in einem Zustand zu erhalten, in welchem ein Phasenmuster mit Linearität in mindestens einer Richtung oder ein räumlich nicht-lineares Phasenmuster in einem ersten Gebiet auf der Modulationsoberfläche entsprechend bzw. korrespondierend zu einer der mehreren Linsen oder zwei oder mehr Linsen, die benachbart zueinander sind, angezeigt wird, wobei das andere Phasenmuster in einem Gebiet angezeigt wird, das das erste Gebiet umgibt; einen zweiten Schritt zur Gewinnung einer Lichtintensitätsverteilung, um eine zweite Lichtintensitätsverteilung durch das optische Erfassungselement in einem Zustand zu erhalten, in welchem ein Phasenmuster mit Linearität in mindestens einer Richtung oder ein räumlich nicht-lineares Phasenmuster in einem zweiten Gebiet angezeigt wird, das ein Gebiet getrennt von dem ersten Gebiet auf der Modulationsoberfläche ist und einer der mehreren Linsen oder zwei oder mehreren Linsen, die benachbart zueinander sind, entspricht, und wobei das andere Muster in einem Gebiet angezeigt wird, das das zweite Gebiet umgibt; und einen Winkelberechnungsschritt, um den Betrag eines Winkelversatzes zwischen der Modulationsoberfläche und dem Wellenfrontsensor auf der Grundlage einer Steigung einer geraden Linie zu erhalten, die den konvergierenden Fleck, der dem ersten Gebiet entspricht und in der ersten Lichtintensitätsverteilung enthalten ist, und den konvergierenden Fleck, der dem zweiten Gebiet entspricht und in der zweiten Lichtintensitätsverteilung enthalten ist, verbindet.
  • Das erste und das zweite Verfahren zur Erfassung eines Winkelversatzes können ferner umfasst: einen Justierschritt zur Justierung eines Winkels um das optische Bild der Modulationsoberfläche und/oder des Wellenfrontsensors derart, dass der Betrag des Winkelversatzes, der in dem Winkelberechnungsschritt berechnet wird, reduziert wird.
  • In dem ersten und dem zweiten Verfahren zur Erfassung eines Winkelversatzes können das erste und das zweite Gebiet Gebiete sein, die zueinander benachbart sind, oder das erste und das zweite Gebiet können voneinander getrennt bzw. beabstandet sein.
  • Ein Verfahren zur Erfassung einer Abbildungsvergrößerung für ein adaptives Optiksystem gemäß einem Aspekt der vorliegenden Erfindung ist ein Verfahren zur Berechnung einer Abbildungsvergrößerung zwischen einer Modulationsoberfläche und einem Wellenfrontsensor in dem adaptiven Optiksystem, das einen räumlichen Lichtmodulator, der ausgebildet ist, eine Phase eines optischen Bildes, das auf die Modulationsoberfläche fällt, räumlich zu modulieren, und den Wellenfrontsensor aufweist, der ein Linsen-Array mit mehreren zweidimensional angeordneten Linsen und ein optisches Erfassungselement zur Erfassung einer Lichtintensitätsverteilung, die konvergierende Flecke bzw. Leuchtflecke enthält, die von dem Linsen-Array erzeugt werden, aufweist, und ausgebildet ist, das optische Bild nach der Modulation aus dem räumlichen Lichtmodulator zu empfangen, und das eine Wellenfrontverzerrung kompensiert, indem ein Phasenmuster, das in dem räumlichen Lichtmodulator angezeigt ist, auf der Grundlage einer Wellenfrontform des optischen Bildes, das aus der Lichtintensitätsverteilung erhalten wird, gesteuert wird.
  • Ein erstes Verfahren zur Erfassung einer Abbildungsvergrößerung umfasst einen Schritt zu Gewinnung einer Lichtintensitätsverteilung, um die Lichtintensitätsverteilung durch das optische Erfassungselement in einem Zustand zu erhalten, in welchem ein Phasenmuster mit Linearität in mindestens einer Richtung oder ein räumlich nichtlineares Phasenmuster in einem ersten und einem zweiten Gebiet auf der Modulationsoberfläche entsprechend bzw. korrespondierend zu einer der mehreren Linsen oder zwei oder mehr Linsen, die benachbart zueinander sind, angezeigt wird, und das andere Muster in einem Gebiet angezeigt wird, das das erste und das zweite Gebiet umgibt; und einen Vergrößerungsberechnungsschritt, um die Abbildungsvergrößerung zwischen der Modulationsoberfläche und dem Wellenfrontsensor auf der Grundlage eines Abstands zwischen dem konvergierenden Fleck, der dem ersten Gebiet entspricht, und dem konvergierenden Fleck, der dem zweiten Gebiet entspricht, und in der Lichtintensitätsverteilung enthalten sind, die in dem Schritt zur Gewinnung der Lichtintensitätsverteilung erhalten wird, zu erhalten.
  • Ferner umfasst ein zweites Verfahren zur Erfassung einer Abbildungsvergrößerung einen ersten Schritt zur Gewinnung einer Lichtintensitätsverteilung, um eine erste Lichtintensitätsverteilung durch das optische Element in einem Zustand zu erhalten, in welchem ein Phasenmuster mit Linearität in mindestens einer Richtung oder ein räumlich nicht-lineares Phasenmuster in einem ersten Gebiet auf der Modulationsoberfläche angezeigt wird, das einer der mehreren Linsen oder zwei oder mehr Linsen, die benachbart zueinander sind, entspricht, wobei das andere Muster in einem Gebiet angezeigt wird, das das erste Gebiet umgibt; einen zweiten Schritt zur Gewinnung einer Lichtintensitätsverteilung, um eine zweite Lichtintensitätsverteilung durch das optische Erfassungselement in einem Zustand zu erhalten, in welchem ein Phasenmuster mit Linearität in mindestens einer Richtung oder ein räumlich nicht-lineares Phasenmuster in einem zweiten Gebiet angezeigt wird, das ein Gebiet ist, das von dem ersten Gebiet auf der Modulationsoberfläche getrennt ist, und einer der mehreren Linsen oder zwei oder mehr Linsen, die benachbart zueinander sind, entspricht, und wobei das andere Muster in einem Gebiet angezeigt wird, das das zweite Gebiet umgibt; und einen Vergrößerungsberechnungsschritt, um die Abbildungsvergrößerung zwischen der Modulationsoberfläche und dem Wellenfrontsensor auf der Grundlage eines Abstands zwischen dem konvergierenden Fleck, der dem ersten Gebiet entspricht und in der ersten Lichtintensitätsverteilung enthalten ist, und dem konvergierenden Fleck, der dem zweiten Gebiet entspricht und in der zweiten Lichtintensitätsverteilung enthalten ist, zu erhalten.
  • Das erste und das zweite Verfahren zur Erfassung einer Abbildungsvergrößerung können ferner einen Justierschritt aufweisen, um die Vergrößerung eines optischen Lichtführungssystems zu justieren, das zwischen der Modulationsoberfläche und dem Wellenfrontsensor angeordnet ist, so dass die Abbildungsvergrößerung, die in dem Vergrößerungsberechnungsschritt berechnet wurde, nahe bei einer vorbestimmten Abbildungsvergrößerung liegt.
  • Das erste und das zweite Verfahren zur Erfassung einer Abbildungsvergrößerung können ferner einen Justierschritt aufweisen, um einen optischen Abstand zwischen der Modulationsoberfläche und dem Wellenfrontsensor zu berechnen, so dass die in dem Vergrößerungsberechnungsschritt berechnete Abbildungsvergrößerung nahe an einer vorbestimmten Abbildungsvergrößerung liegt.
  • Das erste und das zweite Verfahren zur Erfassung einer Abbildungsvergrößerung können ferner einen Justierschritt aufweisen, um eine Größe eines Gebiets auf der Modulationsoberfläche, in der das Phasenmuster zur Kompensation der Wellenfrontverzerrung angezeigt wird, auf der Grundlage der Abbildungsvergrößerung einzustellen, die in dem Vergrößerungsberechnungsschritt berechnet wurde.
  • Ferner können in dem ersten und dem zweiten Verfahren zur Erfassung einer Abbildungsvergrößerung das erste und das zweite Gebiet benachbart zueinander sein oder das erste und das zweite Gebiet können voneinander getrennt sein.
  • Ein adaptives Optiksystem gemäß einem Aspekt der vorliegenden Erfindung umfasst: einen räumlichen Lichtmodulator, der ausgebildet ist, eine Phase eines optischen Bildes räumlich zu modulieren, das auf eine Modulationsoberfläche fällt; einen Wellenfrontsensor mit einem Linsen-Array mit mehreren zweidimensional angeordneten Linsen und einem optischen Erfassungselement zur Erfassung einer Lichtintensitätsverteilung, die konvergierende Flecke enthält, die von dem Linsen-Array erzeugt werden, und ausgebildet ist, das optische Bild nach der Modulation aus dem räumlichen Lichtmodulator zu empfangen; und eine Steuereinheit, die ausgebildet ist, eine Wellenfrontverzerrung zu kompensieren, indem ein Phasenmuster, das in dem räumlichen Lichtmodulator angezeigt ist, auf der Grundlage einer Form der Wellenfront des optischen Bildes zu steuern, das aus der Lichtintensitätsverteilung erhalten wird.
  • In einem ersten adaptiven Optiksystem erhält die Steuereinheit die Lichtintensitätsverteilung durch das optische Erfassungselement in einem Zustand, in welchem ein Phasenmuster mit Linearität in mindestens einer Richtung oder ein räumlich nicht-lineares Phasenmuster in einem ersten und einem zweiten Gebiet auf der Modulationsoberfläche entsprechend einer der mehreren Linsen oder zwei oder mehreren Linsen, die benachbart zueinander sind, angezeigt wird und das andere in einem Gebiet angezeigt wird, das das erste und das zweite Gebiet umgibt, und ermittelt den Betrag an Winkelversatz zwischen der Modulationsoberfläche und dem Wellenfrontsensor auf der Grundlage einer Steigung einer geraden Linie, die den konvergierenden Fleck, der dem ersten Gebiet entspricht, und den konvergierenden Fleck, der dem zweiten Gebiet entspricht, die in der Lichtintensitätsverteilung enthalten sind, verbindet.
  • In einem zweiten adaptiven Optiksystem erhält die Steuereinheit eine erste Lichtintensitätsverteilung durch das optische Erfassungselement in einem Zustand, in welchem ein Phasenmuster mit Linearität in mindestens einer Richtung oder ein räumlich nicht-lineares Phasenmuster in einem ersten Gebiet auf der Modulationsoberfläche entsprechend zu einer der mehreren Linsen oder zu zwei oder mehreren Linsen, die benachbart zueinander sind, angezeigt wird, und das andere in einem Gebiet angezeigt wird, das das erste Gebiet umgibt, wobei die Steuereinheit eine zweite Lichtintensitätsverteilung durch das optische Erfassungselement in einem Zustand erhält, in welchem ein Phasenmuster mit Linearität in mindestens einer Richtung oder ein räumlich nicht-lineares Phasenmuster in einem zweiten Gebiet angezeigt wird, das ein Gebiet getrennt von dem ersten Gebiet auf der Modulationsoberfläche ist und entsprechend bzw. korrespondierend ist zu einer der mehreren Linsen oder zwei oder mehreren Linsen, die benachbart zueinander angeordnet sind, und wobei das andere in einem Gebiet angezeigt wird, das das zweite Gebiet umgibt, und den Betrag eines Winkelversatzes zwischen der Modulationsoberfläche und dem Wellenfrontsensor auf der Grundlage einer Steigung einer geraden Linie ermittelt, die den konvergierenden Fleck, der dem ersten Gebiet entspricht und in der ersten Lichtintensitätsverteilung enthalten ist, und den konvergierenden Fleck, der dem zweiten Gebiet entspricht und in der zweiten Lichtintensitätsverteilung enthalten ist, verbindet.
  • In einem dritten adaptiven Optiksystem erhält die Steuereinheit die Lichtintensitätsverteilung durch das optische Erfassungselement in einem Zustand, in welchem ein Phasenmuster mit Linearität in mindestens einer Richtung und ein räumlich nicht-lineares Phasenmuster in einem ersten und einem zweiten Gebiet auf der Modulationsoberfläche entsprechend bzw. korrespondierend zu einer der mehreren Linsen oder zwei oder mehr Linsen, die benachbart zueinander sind, angezeigt wird, und das andere in einem Gebiet, das das erste und das zweite Gebiet umgibt, angezeigt wird, und die Steuereinheit die Abbildungsvergrößerung zwischen der Modulationsoberfläche und dem Wellenfrontsensor auf der Grundlage eines Abstands zwischen dem konvergierenden Fleck, der dem ersten Gebiet entspricht, und dem konvergierenden Fleck, der dem zweiten Gebiet spricht, die in der Lichtintensitätsverteilung enthalten sind, ermittelt.
  • In einem vierten adaptiven Optiksystem erhält die Steuereinheit eine erste Lichtintensitätsverteilung durch das optische Erfassungselement in einem Zustand, in welchem ein Phasenmuster mit Linearität in mindestens einer Richtung oder ein räumlich nicht-lineares Phasenmuster in einem ersten Gebiet auf der Modulationsoberfläche entsprechend zu einer der mehreren Linsen oder zwei oder mehreren Linsen, die benachbart zueinander angeordnet sind, angezeigt wird, und wobei das andere in einem Gebiet angezeigt wird, das das erste Gebiet umgibt, wobei die Steuereinheit ferner die zweite Lichtintensitätsverteilung durch das optische Erfassungselement in einem Zustand erhält, in welchem ein Phasenmuster mit Linearität in mindestens einer Richtung oder ein räumlich nicht-lineares Phasenmuster in einem zweiten Gebiet angezeigt wird, das ein Gebiet getrennt zu dem ersten Gebiet auf der Modulationsoberfläche entsprechend zu einer der mehreren Linsen oder zwei oder mehr Linsen ist, die benachbart zueinander angeordnet sind, und wobei das andere in einem Gebiet, das das zweite Gebiet umgibt, angezeigt wird, und die Steuereinheit die Abbildungsvergrößerung zwischen der Modulationsoberfläche und dem Wellenfrontsensor auf der Grundlage eines Abstands zwischen dem konvergierenden Fleck, der dem ersten Gebiet entspricht und in der ersten Lichtintensitätsverteilung enthalten ist, und dem konvergierenden Fleck, der dem zweiten Gebiet entspricht und in der zweiten Lichtintensitätsverteilung enthalten ist, ermittelt.
  • Vorteilhafte Wirkungen der Erfindung
  • Gemäß einem Verfahren zur Erfassung eines Winkelversatzes für ein adaptives Optiksystem und einem adaptiven Optiksystem gemäß einem Aspekt der vorliegenden Erfindung ist es möglich, einen Winkelversatz um eine optische Achse zwischen einer Modulationsoberfläche eines räumlichen Lichtmodulators und einem Wellenfrontsensor in einfacher Weise zu erfassen. Gemäß einem Verfahren zur Erfassung einer Abbildungsvergrößerung für ein adaptives Optiksystem und einem adaptiven Optiksystem gemäß einem Aspekt der vorliegenden Erfindung ist es möglich, eine Abbildungsvergrößerung zischen einer Modulationsoberfläche eines räumlichen Lichtmodulators und einem Wellenfrontsensor in einfacher Weise zu erfassen.
  • Kurze Beschreibung von Zeichnungen
  • 1 ist ein Diagramm, das schematisch einen Aufbau eines adaptiven Optiksystems gemäß einer Ausführungsform zeigt.
  • 2 ist eine Querschnittsansicht, die schematisch einen Aufbau eines Wellenfrontsensors einer Ausführungsform zeigt und einen Querschnitt entlang einer optischen Achse eines optischen Bildes darstellt.
  • 3 ist eine Ansicht eines Linsen-Arrays, das in dem Wellenfrontsensor vorgesehen ist, wobei dieser in Richtung der optischen Achse eines optischen Bildes betrachtet wird.
  • 4 ist eine Ansicht eines Bildsensors, der in dem Wellenfrontsensor bereitgestellt ist, der in Richtung der optischen Achse des optischen Bildes betrachtet wird.
  • 5 ist eine Querschnittsansicht, die schematisch einen räumlichen Lichtmodulator des LCOS-Typs als ein Beispiel eines räumlichen Lichtmodulators einer Ausführungsform zeigt, wobei ein Querschnitt entlang der optischen Achse des optischen Bildes gezeigt ist.
  • 6 ist eine Frontansicht einer Modulationsoberfläche des räumlichen Lichtmodulators.
  • 7 ist eine Konzeptansicht, die das Prinzip eines Justierverfahrens in einer Ausführungsform zeigt.
  • 8 ist ein Diagramm, das konzeptionell ein spezielles Phasenmuster darstellt, das auf der Modulationsoberfläche angezeigt wird.
  • 9 ist ein Diagramm, das konzeptionell Daten einer Lichtintensitätsverteilung (Shack-Hartmann-Gram) darstellt, die von dem Bildsensor des Wellenfrontsensors erfasst werden.
  • 10 ist Ansicht, die konzeptionell eine relative Beziehung zwischen der Modulationsoberfläche und dem Linsen-Array zeigt.
  • 11 ist ein Diagramm, das einen Zustand einer Positionsänderung in einem konvergierenden Fleck der Daten der Lichtintensitätsverteilung aufgrund eines Winkelversatzes zwischen der Modulationsobefläche und dem Wellenfrontsensor zeigt.
  • 12 ist eine Ansicht, die eine zufällige Verteilung, in der eine Verteilung von Größen von Phasen unregelmäßig ist, als Beispiel eines räumlich nicht-linearen Phasenmusters darstellt.
  • 13 ist eine Ansicht, die eine Defokussier-Verteilung darstellt, die einen Durchmesser eines konvergierenden Flecks als ein Beispiel des räumlich nicht-linearen Phasenmusters vergrößert.
  • 14 ist ein Diagramm, das eine Verteilung, die eine große sphärische Abberation in einem optischen Bild hervorruft, als ein Beispiel des räumlich nicht-linearen Phasenmusters zeigt.
  • 15 ist ein Diagramm, das eine Verteilung zeigt, die eine Abberation einschließlich einer Abberation hoher Ordnung in dem optischen Bild als ein Beispiel des räumlich nicht-lineares Phasenmusters darstellt.
  • 16 zeigt ein Beispiel eines Phasenmusters, in welchem eine gemeinsame Phasenverteilung (beispielsweise eine Defokussier-Verteilung) für alle zwei oder mehr Gebiete angeordnet ist.
  • 17 zeigt ein Beispiel eines Phasenmusters, in welchem unterschiedliche Phasenverteilungen (beispielsweise Phasenverteilungen, in denen eine Abberation einschließlich einer Abberation hoher Ordnung hervorgerufen wird) für jeweils zwei oder mehr Gebiete angeordnet sind.
  • 18 ist ein Diagramm, das eine Phasenverteilung darstellt, in der Phasenwerte im Wesentlichen gleichmäßig über die gesamte Oberfläche der Modulationsoberfläche hinweg sind als ein Beispiel eines Phasenmusters mit Linearität in mindestens einer Richtung.
  • 19 ist eine Blockansicht, die ein Beispiel eines inneren Aufbaus einer Steuereinheit zeigt.
  • 20 ist ein Flussdiagramm, das ein Verfahren zur Erfassung eines Winkelversatzes und einer Funktionsweise eines adaptiven Optiksystems gemäß einer ersten Ausführungsform zeigt.
  • 21 ist ein Flussdiagramm, das ein Verfahren zur Erfassung eines Winkelversatzes und einer Funktion einer Steuereinheit gemäß einer zweiten Ausführungsform darstellt.
  • 22 ist eine Ansicht, die konzeptionell ein Phasenmuster eines ersten modifizierten Beispiels zeigt.
  • 23 ist ein Diagramm, das konzeptionell ein weiteres Phasenmuster des ersten modifizierten Beispiels darstellt.
  • 24 ist ein Diagramm, das konzeptionell ein spezielles Phasenmuster für Erfassung eines Betrags des Winkelversatzes darstellt, wobei der auf einer Modulationsoberfläche in einer dritten Ausführungsform anzuzeigen ist.
  • 25(a) ist ein Diagramm, das konzeptionell eine relative Abhängigkeit bzw. Relation zwischen jedem Gebiet auf der Modulationsoberfläche und einem Linsen-Array zeigt und den Fall darstellt, in welchem es keinen Winkelversatz zwischen der Modulationsoberfläche und dem Wellenfrontsensor gibt, und den Fall zeigt, in welchem keine Positionsverschiebung zwischen der Modulationsoberfläche und dem Wellenfrontsensor besteht. 25(b) ist ein Diagramm, das Daten einer Lichtintensitätsverteilung in dem Falle darstellt, der in 25(a) gezeigt ist.
  • 26(a) ist ein Diagramm, das konzeptionell eine relative Abhängigkeit zwischen jedem Gebiet der Modulationsoberfläche und einem Linsen-Array darstellt und den Fall zeigt, in welchem ein Winkelversatz (Betrag des Versatzes θ) zwischen der Modulationsoberfläche und dem Wellenfrontsensor auftritt. 26(b) ist ein Diagramm, das Daten der Lichtintensitätsverteilung im Falle zeigt, der in 26(a) dargestellt ist.
  • 27(a) ist ein Diagramm, das konzeptionell eine relative Abhängigkeit zwischen jedem Gebiet auf der Modulationsoberfläche und einem Linsen-Array darstellt und den Fall zeigt, in welchem eine Positionsverschiebung innerhalb einer Oberfläche senkrecht zu einer optischen Achse des optischen Bildes zusätzlich zu einem Winkelversatz (Betrag des Versatzes θ) zwischen der Modulationsoberfläche und dem Wellenfrontsensor auftritt. 27(b) ist ein Diagramm, das die Daten der Lichtintensitätsverteilung für den Fall zeigt, der in 27(a) dargestellt ist.
  • 28 ist ein Flussdiagramm, das ein Verfahren zur Erfassung eines Winkelversatzes und eine Funktionsweise einer Steuereinheit gemäß einer dritten Ausführungsform zeigt.
  • 29 ist ein Flussdiagramm, das ein Verfahren zur Erfassung einer Abbildungsvergrößerung und einer Funktion einer Steuereinheit gemäß einer vierten Ausführungsform zeigt.
  • 30 ist ein Flussdiagramm, das ein Verfahren zur Erfassung einer Abbildungsvergrößerung und eine Funktionsweise einer Steuereinheit gemäß einer fünften Ausführungsform zeigt.
  • 31 ist ein Diagramm, das ein Beispiel einer Anordnung eines ersten und eines zweiten Gebiets zeigt.
  • 32 ist ein Diagramm, das ein Beispiel einer Anordnung eines ersten und eines zweiten Gebiets zeigt.
  • 33 ist ein Diagramm, das eine Phasenverteilung zeigt, in der Phasenwerte in einer ersten Richtung (beispielsweise eine Zeilenrichtung) geneigt bzw. sich linear ändernd sind und Phasenwerte sind im Wesentlichen gleichmäßig in einer zweiten Richtung (beispielsweise eine Spaltenrichtung) angeordnet, die die erste Richtung schneidet.
  • 34 ist ein Diagramm, das eine Phasenverteilung zeigt, in der Phasenwerte sowohl in der ersten Richtung (beispielsweise die Zeilenrichtung) als auch in der zweiten Richtung (beispielsweise die Spaltenrichtung) geneigt bzw. sich linear ändernd sind.
  • 35 ist ein Diagramm, das eine Phasenverteilung mit einer Wirkung einer Zylinderlinse in der ersten Richtung darstellt, und wobei Phasenwerte im Wesentlichen gleichförmig in der zweiten Richtung sind, wobei dies als Beispiel eines Phasenmusters mit Linearität in mindestens einer Richtung dient.
  • 36 ist ein Diagramm, das eine Phasenverteilung darstellt, die ein Beugungsgitter in der ersten Richtung bildet, und in der Phasenwerte im Wesentlichen gleichförmig in der zweiten Richtung angeordnet sind, wobei dies als Beispiel eines Phasenmusters mit Linearität in mindestens einer Richtung dient.
  • 37 ist ein Diagramm, das ein Beispiel eines zusammengesetzten Musters zeigt, das durch Überlagerung erhalten wird.
  • 38 ist ein Diagramm, das ein modifiziertes Beispiel eines Linsen-Arrays zeigt.
  • 39 ist ein Diagramm, das ein Beispiel des Falles darstellt, in welchem Größen des ersten und des zweiten Gebiets als variabel eingerichtet sind.
  • Beschreibung von Ausführungsformen
  • Im Weiteren sind Ausführungsformen eines Verfahrens zur Erfassung eines Winkelversatzes für ein adaptives Optiksystem, ein Verfahren zur Erfassung einer Abbildungsvergrößerung für ein adaptives Optiksystem und ein adaptives Optiksystem gemäß einem Aspekt der vorliegenden Erfindung mit Bezug zu den begleitenden Zeichnungen beschrieben. Ferner werden die gleichen Elemente mit gleichen Bezugszeichen in der Beschreibung der Zeichnungen belegt, und eine wiederholte Beschreibung wird weggelassen. Auch wird in der folgenden Beschreibung angenommen, dass eine „Phasenverteilung” zweidimensional verteilte Phasenwerte angibt, ein „Phasenmuster” ein Muster bezeichnet, das durch Kodierung der Phasenverteilung (zweidimensionale Phasenwerte) auf der Grundlage eines gewissen Standards erhalten wird, und ein „Phasenprofil” eine Verteilung von Phasenwerten in einer gewissen Richtung (Linie) in der Phasenverteilung kennzeichnet.
  • (Erste Ausführungsform)
  • 1 ist ein Diagramm, das schematisch einen Aufbau eines adaptiven optischen Systems 10 gemäß dieser Ausführungsform zeigt. Das adaptive Optiksystem 10 ist beispielsweise in einer ophtalmologischen Inspektionsvorrichtung, einer Laser-Verarbeitungsvorrichtung, einer Mikroskop-Vorrichtung, einer adaptiven Optikvorrichtung oder dergleichen enthalten. Dieses adaptive Optiksystem 10 umfasst einen räumlichen Lichtmodulator (SLM) 11, einen Wellenfrontsensor 12, eine Steuereinheit 13, einen Strahlteiler 14, Übertragungslinsen bzw. Relaislinsen 15 und 16 und eine Steuerschaltungseinheit 17.
  • Der räumliche Lichtmodulator 11 empfängt ein optisches Bild La mittels einer Modulationsoberfläche 11a, die ein Phasenmuster anzeigt und eine Wellenfrontform des optischen Bildes La moduliert, um die modulierte Form der Wellenfront auszugeben. Das optische Bild La, das auf den räumlichen Lichtmodulator 11 einfällt, ist beispielsweise Licht, das von einer Laser-Lichtquelle oder einer super-leuchtstarken Diode (SLD) ausgesandt wird, oder ist reflektiertes Licht, gestreutes Licht, Fluoreszenzlicht oder dergleichen, das von einem Beobachtungsobjekt, das mit Licht bestrahlt wird, erzeugt wird. Der Wellenfrontsensor 12 versorgt die Steuereinheit 13 mit Daten S1 einschließlich von Information über die Form der Wellenfront des optischen Bildes La, das den räumlichen Lichtmodulator 11 erreicht (typischerweise wird eine Verzerrung einer Wellenfront angezeigt, d. h., eine Verschiebung einer Wellenfront in Bezug auf eine Referenzfront, aufgrund einer Abberation bzw. eines Abbildungsfehlers eines optischen Systems). Die Steuereinheit 13 erzeugt ein Steuersignal S2 zur Anzeige eines Phasenmusters, das für den räumlichen Lichtmodulator 11 geeignet ist, auf der Grundlage der Daten S1, die aus dem Wellenfrontsensor 12 erhalten werden. In einem Beispiel umfasst die Steuereinheit 13 eine Eingabeeinheit, die ausgebildet ist, die Daten S1 aus dem Wellenfrontsensor 12 einzuspeisen, eine Abberationsberechnungseinheit, die ausgebildet ist, eine Abberation bzw. einen Abbildungsfehler aus den Daten S1 zu berechnen, eine Phasenmuster-Berechnungseinheit, die ausgebildet ist, ein in dem räumlichen Lichtmodulator 11 anzuzeigendes Phasenmuster zu berechnen, und eine Signalerzeugungseinheit, die ausgebildet ist, das Steuersignal S2 entsprechend dem berechneten Phasenmusters zu erzeugen. Die Steuerschaltungseinheit 17 empfängt das Steuersignal S2 aus der Steuereinheit 13 und legt eine Spannung V1 auf der Grundlage des Steuersignals S2 an mehrere Elektroden des räumlichen Lichtmodulators 11 an.
  • Der Strahlteiler 14 ist zwischen dem Wellenfrontsensor 12 und dem räumlichen Lichtmodulator 12 angeordnet und teilt das optische Bild La auf. Der Strahlteiler 14 kann ein Strahlteiler des Typs sein, der von der Polarisationsrichtung unabhängig ist, kann ein Polarisationsrichtung abhängiger Typ oder ein wellenlängenabhängiger Typ (dichroischer Spiegel) sein. Ein optisches Bild La, das beispielsweise von dem Strahlteiler 14 abgezweigt wird, wird zu einem optischen Erfassungselement 18, etwa ein CCD, eine Fotovervielfacher-Röhre oder eine Avalanche-Fotodiode gesendet. Das optische Erfassungselement 18 ist beispielsweise in einem Raster-Laser-Ophtalmoskop (SLO), einer optischen Kohärenz-Tomographie-(OCT)Kamera, einer Augengrund-Kamera, einem Mikroskop, einem Teleskop oder dergleichen enthalten. Ferner fällt das andere optische Bild La, das von dem Strahlteiler 14 abgezweigt wird, auf den Wellenfrontsensor 12.
  • Die Übertragungslinsen 15 und 16 sind nebeneinander in Richtung der optischen Achse zwischen dem Wellenfrontsensor 12 und dem räumlichen Lichtmodulator 11 angeordnet. Der Wellenfrontsensor 12 und der räumlichen Lichtmodulator 11 sind in einer zueinander optisch konjugierten Relation durch die Übertragungslinsen 15 und 16 gehalten. Des Weiteren können eine optische Abbildungslinse bzw. ein Abbildungsobjektiv und/oder ein Polarisationsspiegel, usw. zwischen dem räumlichen Lichtmodulator 11 und dem Wellenfrontsensor 12 angeordnet sein.
  • 2 ist eine Querschnittsansicht, die schematisch einen Aufbau des Wellenfrontsensors 12 dieser Ausführungsform darstellt, und einen Querschnitt entlang der optischen Achse des optischen Bildes La zeigt. 3 ist eine Ansicht eines Linsen-Arrays 120, das in dem Wellenfrontsensor 12 vorgesehen ist, wenn dieser in der Richtung der optischen Achse des optischen Bildes La betrachtet wird. 4 ist eine Ansicht eines Bildsensors (optisches Erfassungselement) 122, der in dem Wellenfrontsensor 12 vorgesehen ist, wenn dieser in Richtung der optischen Achse des optischen Bildes La betrachtet wird.
  • Obwohl der Wellenfrontsensor 12 ein Interferenz-Typ oder ein Nicht-Interferenz-Typ sein kann, wird der Shack-Hartmann-Wellenfrontsensor des Nicht-Interferenz-Typs mit dem Linsen-Array 120 und dem Bildsensor 122 als der Wellenfrontsensor 12 in dieser Ausführungsform verwendet. Wenn der Wellenfrontsensor des Nicht-Interferenz-Typs verwendet wird, ergibt sich ein Vorteil dahingehend, dass die Unempfindlichkeit bei Erschütterung ausgezeichnet ist und ein Aufbau des Wellenfrontsensors und ein Vorgang zur Berechnung von Messdaten können einfacher sein im Vergleich dazu, dass der Wellenfrontsensor als ein Interferenz-Typ verwendet wird.
  • Wie in 2 gezeigt ist, hat das Linsen-Array 120 N (N ist eine ganze Zahl größer oder gleich 4) Linsen 124. Die N Linsen 124 sind beispielsweise in Form eines zweidimensionalen Gitters aus Na Zeilen und Nb Spalten (Na und Nb sind ganze Zahlen größer oder gleich 2) angeordnet.
  • Der in 2 dargestellte Bildsensor 12 hat eine Lichtempfangsoberfläche 122a an einer Position, die mit einer hinteren Brennebene der N Linsen 124, die das Linsen-Array 120 bilden, überlappen, und erfasst eine Lichtintensitätsverteilung mit N konvergierenden Flecken P, die von den N Linsen 124 gebildet werden. Wie in 4 gezeigt ist, ist der Bildsensor 122 ausgebildet, mehrere Pixel 122b zu enthalten, die in Form eines zweidimensionalen Gitters aus Ma Zeilen und Mb Spalten (Ma und Mb sind ganze Zahlen größer oder gleich 2) angeordnet sind. Ein Array-Abstand der Pixel 122b des Bildsensors 122 ist ausreichend kleiner als ein Array-Abstand der Linsen 124 eingerichtet, so dass eine Größe einer Verschiebung einer konvergierenden Bildposition in Bezug auf die Referenzposition mit hoher Genauigkeit erfasst werden kann.
  • In der Steuereinheit 13, die nachfolgend beschrieben ist, wird eine Form der Wellenfront (eine Verteilung von Phasengradienten) des optischen Bildes La auf der Grundlage einer Lichtintensitätsverteilung gemessen, die von dem Bildsensor 122 erfasst wird. D. h., eine Größe an Verschiebung zwischen der Position des konvergierenden Flecks P durch die Linse 124 und der Referenzposition ist proportional zu einer Steigung einer lokalen Wellenfront des optischen Bildes La, das auf die Linse 124 einfällt. Daher ist es möglich, die Größe der Positionsverschiebung des konvergierenden Flecks P aus der Referenzposition für die Linse 124 zu berechnen und eine Form der Wellenfront des optischen Bildes La auf der Grundlage der Positionsverschiebung des konvergierenden Flecks P zu messen.
  • Es ist möglich, eine Position, an der eine optische Achse jeder der mehreren Linsen 124 die Licht empfangende Oberfläche 122a des Bildsensors 122 schneidet, als die Referenzposition anzugeben, die zur Berechnung der Größe der Verschiebung der konvergierenden Bildposition zu verwenden ist. Diese Position wird einfach durch eine Schwerpunktsberechnung erhalten, indem ein konvergierendes Bild, das erhalten wird, indem parallele ebene Wellen hervorgerufen werden, die senkrecht auf jede Linse 124 einfallen, verwendet wird.
  • Der räumliche Lichtmodulator 11 ist ein Element, das das optische Bild La aus einer Lichtquelle oder einem Beobachtungsobjekt empfängt und eine Wellenfront des optischen Bildes La moduliert, um die modulierte Wellenfront auszugeben. Insbesondere hat der räumliche Lichtmodulator 11 mehrere Pixel (Steuerpunkte), die in Form eines zweidimensionalen Gitters angeordnet sind, und er ändert einen Modulationsbetrag (beispielsweise den Betrag einer Phasenmodulation) für jedes Pixel entsprechend dem Steuersignal S2, das von der Steuereinheit 13 bereitgestellt wird. Der räumliche Lichtmodulator 11 umfasst beispielsweise einen räumlichen Lichtmodulator mit Flüssigkristall auf Silizium (LCOS-SLM), einen programmierbaren Phasenmodulator (PPM), eine Flüssigkristallanzeige (LCD), mikro-elektro-mechanische Systeme (MEMS), oder einen räumlichen Lichtmodulator des Typs mit elektrischer Adressierung, der durch Kopplung eines LCD-Elements und eines räumlichen Lichtmodulators mit Flüssigkristall des Typs mit optische Adressierung gebildet ist. Obwohl ferner der räumliche Lichtmodulator 11 als Reflexions-Typ in 1 gezeigt ist, kann der räumliche Lichtmodulator 11 ein Transmissionstyp sein.
  • 5 ist eine Querschnittsansicht, die schematisch einen räumlichen Lichtmodulator des LCOS-Typs als ein Beispiel des räumlichen Lichtmodulators 11 dieser Ausführungsform zeigt, wobei ein Querschnitt entlang der optischen Achse des optischen Bildes La dargestellt ist. Dieser räumliche Lichtmodulator 11 umfasst ein transparentes Substrat 111, ein Siliziumsubstrat 112, mehrere Pixel-Elektroden 113, eine Flüssigkristallanzeige (Modulationseinheit) 114, eine transparente Elektrode 115, orientierte Schichten 116a und 116b, einen dielektrischen Spiegel 117 und einen Abstandshalter 118.
  • Das transparente Substrat 111 ist aus einem Material hergestellt, das das optische Bild La durchlässt, und ist entlang einer Hauptoberfläche des Siliziumsubstrats 112 angeordnet. Die mehreren Pixel-Elektroden 113 sind in Form eines zweidimensionalen Gitters auf der Hauptoberfläche des Siliziumsubstrats 112 angeordnet und bilden die Pixel des räumlichen Lichtmodulators 11. Die transparente Elektrode 115 ist auf der Oberfläche des transparenten Substrats 111 gegenüberliegend zu den mehreren Pixel-Elektroden 113 angeordnet. Die Flüssigkristalleinheit 114 ist zwischen den mehreren Pixel-Elektroden 113 und der transparenten Elektrode 115 angeordnet. Die orientierte Schicht 116a ist zwischen der Flüssigkristalleinheit 114 und der transparenten Elektrode 115 angeordnet und die orientierte Schicht 116b ist zwischen der Flüssigkristalleinheit 114 und den mehreren Pixel-Elektroden 112 angeordnet. Der dielektrische Spiegel 117 ist zwischen der orientierten Schicht 116b und den mehreren Pixel-Elektroden 113 angeordnet. Der dielektrische Spiegel 117 reflektiert das optische Bild La, das ausgehend von dem transparenten Substrat 111 einfällt, und durch die Flüssigkristalleinheit 114 durchgelassen wird und bewirkt, dass das optische Bild La von dem transparenten Substrat 111 erneut ausgesendet wird.
  • Der räumliche Lichtmodulator 11 umfasst ferner eine Pixel-Elektrodenschaltung (Treiberschaltung für aktive Matrix) 119, die ausgebildet ist, eine zwischen den mehreren Pixel-Elektroden 113 und der transparenten Elektrode 115 anzulegende Spannung zu steuern. Wenn die Spannung von der Pixel-Elektrodenschaltung 119 an eine beliebige Pixel-Elektrode 113 angelegt wird, ändert sich ein Brechungsindex der Flüssigkristalleinheit 114 an der Pixel-Elektrode 113 entsprechend einer Größe eines elektrischen Feldes, das zwischen der Pixel-Elektrode 113 und der transparenten Elektrode 115 erzeugt wird. Folglich ändert sich eine optische Weglänge des optischen Bildes La, das durch einen entsprechenden Teil der Flüssigkristalleinheit 114 durchgelassen wird, und daher letztlich auch eine Phase des optischen Bildes La. Durch Anlegen von Spannungen mit unterschiedlichen Größen an die mehreren Pixel-Elektroden 113 ist es möglich, eine räumliche Verteilung eines Betrages der Phasenjustierung elektrisch zu schreiben und bei Bedarf diverse Formen für Wellenfronten umzusetzen.
  • 6 ist eine Frontalansicht einer Modulationsoberfläche 11a des räumlichen Lichtmodulators 11. Wie in 6 gezeigt ist, ist die Modulationsoberfläche 11a so ausgebildet, dass sie mehrere Pixel 11b enthält, die in Form eines zweidimensionalen Gitters aus Pa Zeilen und Pb Spalten (Pa und Pb sind ganze Zahlen größer oder gleich 2) angeordnet sind. Ferner ist jedes der mehreren Pixel 11b aus einer der mehreren Pixel-Elektroden 113 gebildet.
  • Die Beschreibung geht zurück zu 1. In diesem adaptiven Optiksystem 10 fällt das optische Bild La aus einer Lichtquelle oder einem Beobachtungsobjekt (nicht gezeigt) zuerst auf den räumlichen Lichtmodulator 11 in Form von im Wesentlichen parallelem Licht. Das optische Bild La, das von dem räumlichen Lichtmodulator 11 moduliert ist, fällt auf den Strahlteiler 14 über die Übertragungslinsen 15 und 16 und wird in zwei optische Bilder aufgeteilt. Ein optisches Bild La nach der Verteilung trifft auf den Wellenfrontsensor 12. Die Daten S1, die die Wellenfrontform (zum Beispiel eine Phasenverteilung) des optischen Bildes La enthalten, werden in dem Wellenfrontsensor 12 erzeugt und die Daten S1 werden der Steuereinheit 13 zugeleitet. Die Steuereinheit 13 berechnet die Form der Wellenfront (Phasenverteilung) des optischen Bildes La, wenn nötig auf der Grundlage der Daten S1 aus dem Wellenfrontsensor 12 und gibt das Steuersignal S2, das das Phasenmuster für eine geeignete Kompensation in Bezug auf eine Wellenfrontverzerrung des optischen Bildes La enthält, an den räumlichen Lichtmodulator 11 aus. Daraufhin wird das optische Bild La ohne Verzerrung, das durch den räumlichen Lichtmodulator 11 kompensiert ist, von dem Strahlteiler 14 aufgeteilt und fällt auf das optische Erfassungselement 18 über ein optisches System (nicht gezeigt) und wird aufgenommen.
  • Dabei ist ein Koordinatensystem der Modulationsoberfläche 11a des räumlichen Lichtmodulators 11 und der Erfassungsoberfläche des Wellenfrontsensors 12 wie folgt festgelegt. Das heißt, zwei Richtungen parallel zu der Modulationsoberfläche 11a des räumlichen Lichtmodulators 11 und orthogonal zueinander werden als eine x-Achsenrichtung und eine y-Achsenrichtung in der Modulationsoberfläche 11a und zwei Richtungen parallel zu der Erfassungsoberfläche des Wellenfrontsensors 12 und senkrecht zueinander werden als eine x-Achsenrichtung und eine y-Achsenrichtung in der Erfassungsoberfläche festgelegt. Jedoch sind die x-Achse in der Modulationsoberfläche 11a des räumlichen Lichtmodulators 11 und die x-Achse in der Erfassungsoberfläche des Wellenfrontsensors 12 zueinander entgegengesetzt gerichtet und die y-Achse in der Modulationsoberfläche 11a des räumlichen Lichtmodulators 11 und die y-Achse in der Erfassungsoberfläche des Wellenfrontsensors 12 sind zueinander entgegengesetzt gerichtet. Ferner wird die Mitte der Modulationsoberfläche 11a des räumlichen Lichtmodulators 11 als der Ursprung des Koordinatensystems in der Modulationsoberfläche 11a gewählt, und ein Punkt, der durch Abbildung der Mitte der Modulationsoberfläche 11a auf die Erfassungsoberfläche des Wellenfrontsensors 12 erhalten wird, wird als der Ursprung des Koordinatensystems in der Erfassungsoberfläche gewählt.
  • Dabei wird die Phase der Wellenfront an einer Position (Xs, Ys) auf der Modulationsoberfläche 11a des räumlichen Lichtmodulators 11 Eins-zu-Eins auf die Phase der Wellenfront an einer Position (Xc, Yc) auf der Erfassungsoberfläche des Wellenfrontsensors 12 abgebildet, und eine Beziehung zwischen diesen wird durch die folgenden Formeln (1) ausgedrückt, wenn es keinen Winkelversatz um die optische Achse zwischen der Modulationsoberfläche 11a und der Erfassungsoberfläche gibt.
  • [Mathe 1]
    • Xs = Xc / M Ys = Yc / M (1)
  • Dabei bezeichnet M Vergrößerungen der Übertragungslinsen 15 und 16. Auch die Vergrößerung M, die in den Formeln (1) enthalten ist, ist in vielen Fällen bekannt.
  • Der Winkelversatz um die optische Achse kann zwischen der Modulationsoberfläche 11a und der Erfassungsoberfläche des Wellenfrontsensors 12 jedoch aufgrund einer Vibration bzw. Erschütterung zum Zeitpunkt des Transportes oder an einem Installationsort oder aufgrund von Verformung oder dergleichen eines Elements zum Halten des Wellenfrontsensors oder des räumlichen Lichtmodulators aufgrund von Wärme auftreten. In einem Verfahren zur Justierung eines Winkelversatzes für das adaptive Optiksystem gemäß dieser Ausführungsform wird ein spezielles Phasenmuster für die Justierung in dem räumlichen Lichtmodulator 11 angezeigt und ein eine Eigenschaft, die durch das Phasenmuster hervorgerufen wird, wird in dem Wellenfrontsensor 12 erfasst, so dass ein Betrag des Winkelversatzes zwischen dem Wellenfrontsensor 12 und der Modulationsoberfläche 11a ermittelt wird. Bei Bedarf wird eine Winkeljustierung zwischen der Modulationsoberfläche 11a und dem Wellenfrontsensor 12 auf der Grundlage des Betrags des Winkelversatzes ausgeführt.
  • Im Weiteren ist ein Verfahren zur Erfassung des Betrags eines Winkelversatzes zwischen der Modulationsoberfläche 11a und dem Wellenfrontsensor 12 detailliert beschrieben. Das Verfahren zum Erfassen ist auch als ein Programm innerhalb eines Speichergebiets 13a der Steuereinheit 13, die in 1 dargestellt ist, gespeichert, und die Steuereinheit 13 führt das Verfahren zum Erfassen durch Auslesen des Programms aus.
  • 7 ist eine konzeptionelle Ansicht, die das Prinzip des Erfassungsverfahrens gemäß dieser Ausführungsform darstellt. In 7 sind die Übertragungslinsen 15 und 16, eine Wellenfront W1 eines optischen Bildes, das auf die Modulationsoberfläche 11a fällt, eine Wellenfront W2 des optischen Bildes, das von der Modulationsoberfläche 11a ausgesendet wird, und eine Wellenfront W3 des optischen Bildes, das auf dem Wellenfrontsensor 12 eintrifft, zusätzlich zu der Modulationsoberfläche 11a des räumlichen Lichtmodulators 11 und dem Wellenfrontsensor 12 (das Linsen-Array 120 und der Bildsensor 122) gezeigt. Die Wellenfront W2, die durch Anwenden einer Wellenfront entsprechend dem Phasenmuster, das in dem räumlichen Lichtmodulator 11 angezeigt ist, auf die einfallende Wellenfront W1 erhalten wird, wird von dem räumlichen Lichtmodulator 11 ausgesendet. Die Wellenfront W3 fällt über ein konjugiertes optisches System, das die Übertragungslinsen 15 und 16 enthält, auf den Wellenfrontsensor 12. Ferner ist das optische Bild La, das von dem Gebiet auf der Modulationsoberfläche 11a ausgesandt wird, das einer Linse 124 entspricht und das die Linse 124 erreicht, in 7 gezeigt.
  • 8 ist ein Diagramm, das konzeptionell ein spezielles Phasenmuster darstellt, das auf der Modulationsoberfläche 11a angezeigt wird. Wie in 8 gezeigt ist, wird ein erstes Phasenmuster mit Linearität in mindestens einer Richtung in einem ersten Gebiet B1 auf der Modulationsoberfläche 11a mit einer Größe entsprechend zu einer Linse 124 und einem zweiten Gebiet B2 auf der Modulationsoberfläche 11a angezeigt, das von dem ersten Gebiet B1 getrennt ist und eine Größe entsprechend einer weiteren Linse 124 hat. Das erste Phasenmuster wird beispielsweise implementiert, um eine im Wesentlichen gleichförmige Phasenverteilung, eine Phasenverteilung, die in mindestens einer Richtung geneigt bzw. sich linear ändernd ist, oder dergleichen zu beinhalten. Alternativ wird das erste Phasenmuster so eingerichtet, dass es eine Phasenverteilung mit einer Wirkung einer Zylinderlinse in einer gewissen ersten Richtung hat und in einer zweiten Richtung, die die erste Richtung schneidet, im Wesentlichen gleichförmig ist oder eine Phasenverteilung, die ein Beugungsgitter in der ersten Richtung bildet und in der zweiten Richtung, die die erste Richtung schneidet (beispielsweise senkrecht dazu) im Wesentlichen gleichförmig ist.
  • Gleichzeitig wird ein räumlich nicht-lineares zweites Phasenmuster (beispielsweise ein zufälliges Muster, in welchem eine Verteilung von Größen von Phasen unregelmäßig ist, eine Defokussier-Verteilung, die einen Durchmesser eines konvergierenden Flecks vergrößert, oder dergleichen) in einem Gebiet B3 angezeigt, das das erste Gebiet B1 und das zweite Gebiet B2 auf der Modulationsoberfläche 11a umgibt. Sodann wird eine Wellenfront eines Teils, der dem Gebiet B3 in der Emissionswellenfront W2 entspricht, gestört (Teil A1 aus 7). Die Störung der Wellenfront tritt sogar in einem Teil auf, der auf die Linse 124 fällt, die dem Gebiet B3 in der einfallenden Wellenfront W3 für den Wellenfrontsensor 12 entspricht (Teil A2 aus 7). Dadurch wird der konvergierende Fleck, der durch die Linse 124 erzeugt wird, divergierend und der konvergierende Fleck P wird nicht gebildet, die maximale Leuchtstärke des Flecks wird verringert oder der Durchmesser des Flecks wird vergrößert. Das heißt, nur der konvergierende Fleck, der dem Gebiet B3 mit beeinträchtigter Klarheit bzw. Deutlichkeit entspricht, kann gebildet werden.
  • Andererseits fällt die Wellenfront auf die Linse 124 ohne zumindest in einer Richtung entsprechend einem ersten Phasenmuster mit Linearität in der mindestens einen Richtung in Teilen gestört zu werden (Teile A3 und A4 aus 7), die dem ersten und dem zweiten Gebiet B1 und B2 in den Wellenfronten W2 und W3 entsprechen. Folglich wird der konvergierende Fleck P durch die Linse 124 deutlich gebildet.
  • 9 ist ein Diagramm, das konzeptionell Daten einer Lichtintensitätsverteilung (Shack-Hartmann-Gram) darstellt, die von dem Bildsensor 122 des Wellenfrontsensors 12 erfasst werden. 9(a) zeigt die Daten der Lichtintensitätsverteilung D1 für den Fall, in welchem ein Phasenmuster mit Linearität in mindestens einer Richtung in den Gebieten B1 und B2 und das räumlich nicht-lineare Phasenmuster in dem Gebiet B3 angezeigt wird. 9(b) zeigt die Daten der Lichtintensitätsverteilung D2 für den Fall, in welchem ein Phasenmuster mit Linearität in allen Gebieten zum Vergleich angezeigt wird.
  • Wenn das Phasenmuster mit der Linearität in allen Gebieten angezeigt wird, wie in 9(b) dargestellt ist, sind N konvergierende Flecke P, die N Linsen 124 entsprechen, in den Daten der Lichtintensitätsverteilung enthalten. Wenn andererseits das Phasenmuster mit der Linearität in der mindestens einen Richtung in den Gebieten B1 und B2 und das räumlich nicht-lineare Phasenmuster in dem Gebiet B3 angezeigt wird, wie in 9(a) dargestellt ist, sind die zwei konvergierenden Flecke P, die den Gebieten B1 und B2 entsprechen, in den Daten der Lichtintensitätsverteilung enthalten, aber der konvergierende Fleck, der dem Gebiet B3 anspricht, wird nicht erzeugt, die maximale Leuchtstärke des Fleckes ist reduziert oder der Durchmesser des Flecks ist vergrößert. Das heißt, nur der konvergierende Fleck, der dem Gebiet B3 mit beeinträchtigter Klarheit bzw. Deutlichkeit entspricht, wird gebildet.
  • 10 ist ein Diagramm, das konzeptionell eine relative Abhängigkeit bzw. Relation oder Beziehung zwischen der Modulationsoberfläche 11a und dem Linsen-Array 120 darstellt. 10(a) zeigt den Fall, in welchem es keinen Winkelversatz zwischen der Modulationsoberfläche 11a und dem Wellenfrontsensor 12 gibt, d. h., in einem Falle, in welchem eine Anordnungsrichtung der Modulationsoberfläche 11a und eine Anordnungsrichtung der Linsen 124 (durch die gestrichelten Linien der Zeichnung angegeben) fluchten. In diesem Falle entsprechen N Gebiete 11c (die durch eine dicke Linie in der Zeichnung angegeben sind) in der Modulationsoberfläche 11a den N Linsen 124. Auch die mehreren Pixel 11b sind in jedem Gebiet 11c enthalten.
  • Wenn andererseits ein Winkelversatz zwischen der Modulationsoberfläche 11a und dem Wellenfrontsensor 12 auftritt, ergibt sich eine Verschiebung bei relativen Positionen zwischen den N Gebieten 11c der Modulationsoberfläche 11a und den N Linsen 124, wie in 10(b) dargestellt ist. Das optische Bild La aus dem Gebiet 11c, das von der Mitte des Winkelversatzes beabstandet ist, fällt auf eine weitere Linse 124, die nicht die Linse 124 ist, die dem Gebiet 11c entspricht.
  • Die Daten für die Lichtintensitätsverteilung D1, die in 9(a) dargestellt sind, ändern sich aufgrund eines derartigen Winkelversatzes. 11 ist ein Diagramm, das einen Zustand einer Positionsänderung in einem konvergierenden Fleck P der Daten der Lichtintensitätsverteilung D1 aufgrund eines Winkelversatzes zwischen der Modulationsoberfläche 11a und dem Wellenfrontsensor 12 darstellt. Wenn es keinen Winkelversatz zwischen der Modulationsoberfläche 11a und dem Wellenfrontsensor 12 gibt, werden die zwei konvergierenden Flecke P1, die den Gebieten B1 und B2 entsprechen, an vorbestimmten Positionen erzeugt. Wenn jedoch der Winkelversatz zwischen der Modulationsoberfläche 11a und dem Wellenfrontsensor 12 auftritt, werden die zwei konvergierenden Flecke P2, die den Gebieten B1 und B2 entsprechen, an unterschiedlichen Positionen im Vergleich zu den zuvor beschriebenen konvergierenden Flecken P1, wie sie in 11 gezeigt sind, gebildet.
  • Eine relative Positionsabhängigkeit zwischen den konvergierenden Flecken P2 ist eindeutig entsprechend einem Betrag an Winkelversatz zwischen der Modulationsoberfläche 11a und dem Wellenfrontsensor 12 definiert. Insbesondere stimmt ein Winkel θ, der durch ein Liniensegment L1, das die zwei konvergierenden Flecke P1 verbindet, und ein Liniensegment 12, das die beiden konvergierenden Flecke P2 verbindet, mit dem Betrag eines Winkelversatzes zwischen der Modulationsoberfläche 11a und dem Wellenfrontsensor 12 überein. Daher ist es möglich, den Betrag θ an Winkelversatz zwischen der Modulationsoberfläche 11a und dem Wellenfrontsensor 12 zu ermitteln, indem die relative Positionsabhängigkeit zwischen dem konvergierenden Fleck P, der dem Gebiet B1 entspricht, und dem konvergierenden Fleck P, der dem Gebiet B2 entspricht, das in den Daten der Lichtintensitätsverteilung D1 enthalten ist, untersucht wird. Ferner wird der Betrag des Winkelversatzes θ entsprechend der folgenden Formel (2) berechnet. [Mathe 2]
    Figure DE112014002681T5_0002
  • Dabei bezeichnen a → und b → Richtungsvektoren der Liniensegmente L1 und L2. Ferner kann der Betrag des Winkelversatzes θ berechnet werden, indem ein Richtungsvektor eines Liniensegments, das die Mittelpunkte der Gebiete B1 und B2 verbindet, in dem Richtungsvektor a → des Liniensegments L1 ersetzt wird.
  • Hier ist ein Beispiel eines „räumlich nicht-linearen zweiten Phasenmusters”, das in dem Gebiet B3 der 8 angezeigt wird, dargestellt. 12 bis 15 sind Diagramme, die Beispiele eines derartigen Phasenmusters zeigen, wobei eine Größe einer Phase durch Licht und Schatten gezeigt ist, wobei eine Phase eines dunkelsten Teils 0 (rad) und eine Phase eines hellsten Teils 2π (rad) bezeichnet.
  • 12 zeigt eine zufällige Verteilung, in der eine Verteilung von Größen von Phasen unregelmäßig ist. Ein Beispiel ist in einem ein Graph eines Betrags der Phasenmodulation jeweils in der Zeilenrichtung und der Spaltenrichtung ebenfalls in 12 dargestellt. Wenn dieses Phasenmuster in dem Gebiet B3 angezeigt wird, divergiert das optische Bild La eines relevanten Teiles und ein klarer bzw. deutlicher konvergierender Fleck P wird nicht gebildet. 13 zeigt eine defokussierende Verteilung bzw. eine Defokussier-Verteilung, die einen Durchmesser eines konvergierenden Flecks P vergrößert. Selbst in 13 ist ein Beispiel eines Grafen eines Betrags einer Phasenmodulation an einer Position jeweils in der Zeilenrichtung und der Spaltenrichtung dargestellt. Wenn ein derartiges Phasenmuster in dem Gebiet B3 angezeigt wird, wird ein klarer konvergierender Fleck P nicht gebildet, da das optische Bild La des relevanten Teils ohne Konvergenz aufgeweitet wird. 14 zeigt eine Verteilung, die eine große sphärische Abberation in dem optischen Bild La hervorruft. 15 zeigt eine Verteilung, die eine Abberation einschließlich einer großen Abberation hoher Ordnung in dem optischen Bild La hervorruft. Selbst wenn das in 14 oder 15 dargestellte Phasenmuster in dem Gebiet B3 angezeigt wird, wird der klare konvergierende Fleck P nicht erzeugt. Das räumlich nicht-lineare zweite Phasenmuster kann mindestens eine der zuvor beschriebenen Verteilungen enthalten oder kann ein zusammengesetztes Muster enthalten, in welchem mindestens eine der zuvor beschriebenen Verteilungen und ein lineares Phasenmuster überlagert sind.
  • Das nicht-lineare zweite Phasenmuster, das in dem Gebiet B3 angezeigt wird, kann eine gemeinsame Phasenverteilung für alle zwei oder mehr Gebiete enthalten, die durch Aufteilen des Gebiets B3 gebildet sind, und kann unterschiedliche Phasenverteilungen für alle zwei oder mehr Gebiete, die durch Aufteilen des Gebiets B3 gebildet sind, enthalten. 16 zeigt ein Beispiel eines Phasenmusters, in welchem eine gemeinsame Phasenverteilung (beispielsweise eine Defokussier-Verteilung) für jeweils zwei oder mehr Gebiete, die durch Aufteilen des Gebiets B3 gebildet sind, angeordnet ist. 17 zeigt ein Beispiel eines Phasenmusters, in welchem unterschiedliche Phasenverteilungen (beispielsweise Phasenverteilungen, die eine Abberation einschließlich einer Abberation hoher Ordnung hervorrufen) für jeweils zwei oder mehr Gebiete, die durch Unterteilen des Gebiets B3 gebildet sind, angeordnet sind.
  • Ein „erstes Phasenmuster mit Linearität in mindestens einer Richtung”, das in den Gebieten B1 und B2 der 8 beispielsweise angezeigt ist, wird durch eine Phasenverteilung eingerichtet, in der Phasenwerte im Wesentlichen gleichförmig über die gesamte Oberfläche der Modulationsoberfläche 11a hinweg sind. 18 ist ein Diagramm, das ein derartiges Phasenmuster darstellt, wobei die Größe der Phase durch Licht und Schatten wie in 12 bis 17 angegeben ist. Da die Wellenfront des optischen Bildes La des relevanten Teils flach ist, wenn das Phasenmuster, wie in 18 gezeigt ist, in den Gebieten B1 und B2 angezeigt wird, wird der klare bzw. deutliche konvergierende Fleck P von der Linse 124 erzeugt.
  • 19 ist eine Blockansicht, die ein Beispiel einer inneren Struktur der Steuereinheit 13 dieser Ausführungsform darstellt. Die Steuereinheit 13 kann ausgebildet sein, eine Mustererzeugungseinheit 13b und eine Berechnungsverarbeitungseinheit 13c aufzuweisen. Die Mustererzeugungseinheit 13b und die Berechnungsverarbeitungseinheit 12c sind als Programm in dem Speichergebiet 13a der Steuereinheit 13, die in 1 gezeigt ist, gespeichert und werden durch die Steuereinheit 13 umgesetzt, wenn diese das Programm ausliest und ausführt.
  • Die Mustererzeugungseinheit 13b erzeugt ein spezielles Phasenmuster für die Erfassung eines Betrags eines Winkelversatzes zwischen der Modulationsoberfläche 11a und dem Wellenfrontsensor 12, d. h., ein Phasenmuster, das die Gebiete B1 bis B3 enthält. Ferner wird das Phasenmuster als ein Steuersignal S2 von der Mustererzeugungseinheit 12b an die Steuerschaltungseinheit 17 gesendet.
  • Dabei wird ein spezielles Phasenmuster PA für die Erfassung des Betrags des Winkelversatzes beispielsweise durch die folgende Formel (3) ausgedrückt. [Mathe 3]
    Figure DE112014002681T5_0003
  • Dabei bezeichnet a eine gewisse Konstante und ist ein Beispiel eines ersten Phasenmusters mit Linearität in mindestens einer Richtung. Ferner bezeichnet rand() eine Zufallsfunktion und ist ein Beispiel eines räumlich nicht-linearen zweiten Phasenmusters. (n, m) bezeichnet Koordinaten in Einheiten von Pixel auf der Modulationsoberfläche 11a. ROI ist als ein Referenzzeichen definiert, das die Gebiete B1 und B2 gezeichnet.
  • Wie zuvor beschrieben ist, hat jedes der Gebiete B1 und B2 in dieser Ausführungsform eine Größe, die einer einzelnen Linse 124 entspricht. Wenn die mehreren Linsen 124 in Form eines zweidimensionalen Gitters angeordnet sind, wie in 3 in dem Linsen-Array 120 gezeigt ist, werden die Formen der Gebiete B1 und B2 quadratisch. Daher kann die vorhergehende Formel (3) zu der folgenden Formel (4) modifiziert werden. [Mathe 4]
    Figure DE112014002681T5_0004
  • Dabei sind (xc1, yc1) Mittelpunktskoordinaten des Gebiets B1, (xc2, yc2) Mittelpunktskoordinaten des Gebiets B2, w ist die Anzahl an Pixel einer Seite des Gebiets B1 oder B2 und a' ist die gleich Konstante wie die Konstante a oder ist unterschiedlich zu der Konstante a. Wenn ferner angenommen wird, dass ein Array-Abstand der Pixel 11b in der Modulationsoberfläche 11a durch slmPITCH bezeichnet ist, ein Array-Abstand der Linsen 124 in dem Linsen-Array 120 durch mlaPITCH bezeichnet ist und eine Abbildungsvergrößerung eines optischen Systems zwischen der Modulationsoberfläche 11a und der Linsenoberfläche des Linsen-Array 120 durch M bezeichnet ist, wird die Anzahl an Pixel w einer Seite des Gebiets B1 oder B2 durch die folgende Formel (5) ausgedrückt.
  • [Mathe 5]
    • w = 1 / M × mlaPITCH / slmPITCH 5
  • Anders ausgedrückt, eine Breite (= w × slmPITCH) des Gebiets B1 oder B2 in einer Array-Richtung der mehreren Linsen 124 ist (1/M) mal den Array-Abstand mlaPITCH der mehreren Linsen 124.
  • Wenn das zuvor beschriebene Phasenmuster PA auf der Modulationsoberfläche 11a angezeigt wird, erhält die Berechnungsverarbeitungseinheit 13c die Daten für Lichtintensitätsverteilung S1, die von dem Wellenfrontsensor 12 ausgegeben werden. Die Berechnungsverarbeitungseinheit 13c berechnet die Position eines Schwerpunkts jedes konvergierenden Flecks P, der in den Daten der Lichtintensitätsverteilung S1 enthalten ist, gemäß einem Algorithmus, der nachfolgend beschrieben ist. Die Berechnungsverarbeitungseinheit 13c berechnet einen Betrag des Winkelversatzes zwischen der Modulationsoberfläche 11a und dem Wellenfrontsensor 12 auf der Grundlage der Position des Schwerpunkts des konvergierenden Flecks P, der dem Gebiet B1 entspricht, und der Position des Schwerpunkts des konvergierenden Flecks P, der dem Gebiet B2 entspricht.
  • Mit Bezug zu 20 wird eine Funktionsweise des adaptiven Optiksystems 10 einschließlich der Erfassung des Betrags des Winkelversatzes zwischen der Modulationsoberfläche 11a und dem Wellenfrontsensor 12, die zuvor beschrieben sind, dargestellt. 20 ist ein Flussdiagramm, das die Funktionsweise und das Verfahren zur Erfassung eines Winkelversatzes des adaptiven Optiksystems 10 dieser Ausführungsform darstellt. Das Verfahren zur Erfassung eines Winkelversatzes ist auch als ein Programm für das adaptive Optiksystem in dem Speichergebiet 13a der Steuereinheit 13, die in 1 gezeigt ist, gespeichert, und die Steuereinheit 13 führt das Verfahren zur Erfassung eines Winkelversatzes durch Auslesen des Programms aus.
  • In dem adaptiven Optiksystem 10 wird zunächst eine Initialisierung der Steuereinheit 13 ausgeführt (Schritt S11). In diesem Initialisierungsprozess des Schritts S11 werden beispielsweise die Reservierung eines Speichergebiets, das für einen Berechnungsprozess erforderlich ist, die anfängliche Einstellung von Parametern usw. ausgeführt. Im Schritt S11 kann auch der Mittelpunkt des Gebiets B1 und B2 in einem beliebigen Pixel der Modulationsoberfläche 11a als Initialisierung des speziellen Phasenmusters PA zu Erfassung des Betrags des Winkelversatzes zugewiesen werden.
  • Danach erzeugt die Steuereinheit 13 spezielle Phasenmuster PA zu Erfassung des Betrags des Winkelversatzes und zeigt das erzeugte spezielle Phasenmuster PA auf der Modulationsoberfläche 11a an (Schritt S12). In diesem Schritt S12 wird das Phasenmuster (siehe beispielsweise 18) mit Linearität in mindestens einer Richtung in den Gebieten B1 und B2 auf der Modulationsoberfläche 11a, die den zwei Linsen 124 der mehreren Linsen 124 des Linsen-Array 120 entsprechen, angezeigt, und das räumlich nicht-lineare Phasenmuster (siehe beispielsweise 12 bis 15) wird in dem Gebiet B3 angezeigt, das die Gebiete B1 und B2 umgibt.
  • Nachfolgend erhält die Steuereinheit 13 die Daten für die Lichtintensitätsverteilung (im Weiteren als Daten der Lichtintensitätsverteilung DA bezeichnet) über den Bildsensor 12 in einem Zustand, in welchem das zuvor beschriebene Phasenmuster PA angezeigt wird (Schritt S13, Schritt zur Gewinnung der Lichtintensitätsverteilung).
  • Nachfolgend spezifiziert die Steuereinheit 13 Positionskoordinaten des konvergierenden Flecks P, indem Schwerpunkte von zwei konvergierenden Flecken P, die in den Daten für die Lichtintensitätsverteilung DA enthalten sind, berechnet werden (Schritt S14). Positionskoordinaten (xp, yp) des konvergierenden Flecks P werden durch die folgenden Formeln (6) ausgedrückt. Ferner bezeichnet eine Lichtintensität an den Koordinaten (i, j) der Daten der Lichtintensitätsverteilung DA und R0 bezeichnet ein Berechnungszielgebiet, in welchem der konvergierende Fleck P in dem Bildsensor 122 vorhanden sein kann. [Mathe 6]
    Figure DE112014002681T5_0005
  • Bevor der Schwerpunkt berechnet wird, kann eine Verarbeitung eines Schwellwertes, eine Rauschunterdrückung oder dergleichen an den Daten für die Lichtintensitätsverteilung DA ausgeführt werden.
  • Nachfolgend berechnet die Steuereinheit 13 einen Betrag eines Winkelversatzes zwischen der Modulationsoberfläche 11a und dem Wellenfrontsensor 12 gemäß dem in 11 gezeigten Prinzip auf der Grundlage einer relativen Abhängigkeit zwischen Positionskoordinaten zweier konvergierender Flecke P, die im Schritt S14 berechnet werden (Schritt S15, Winkelberechnungsschritt).
  • Danach kann die Steuereinheit 13 einen Winkel um das optische Bild La der Modulationsoberfläche 11a und/oder des Wellenfrontsensors 12 justieren, so dass der Betrag des Winkelversatzes, der im Schritt S15 berechnet wird, reduziert wird (Schritt S16, Justierschritt). Diese Justierung wird beispielsweise durch Justierung eines Montagewinkels des räumlichen Lichtmodulators 11 und/oder eines Montagewinkels des Wellenfrontsensors 12 ausgeführt. Da ferner die Zuordnungsrelation zwischen den Gebieten B1 und B2 und den beiden konvergierenden Flecken P normalerweise durch diese Winkeleinstellung definiert wird, können die zuvor beschriebenen Schritte S12 bis S16 iterativ ausgeführt werden. Wenn der Betrag des Winkelversatzes, der im Schritt S15 berechnet wird, im Wesentlichen null ist, ist die Winkelverschiebung abgeschlossen.
  • Es werden nunmehr Wirkungen beschrieben, die durch das Verfahren zur Erfassung eines Winkelversatzes für das adaptive Optiksystem 10 und durch das adaptive Optiksystem 10 gemäß dieser Ausführungsform, die zuvor beschrieben sind, erreicht werden. In dieser Ausführungsform werden im Schritt S13 zur Gewinnung der Lichtintensitätsverteilung die Daten für die Lichtintensitätsverteilung DA von dem Bildsensor 122 des Wellenfrontsensors 12 in einem Zustand gewonnen, in welchem das Phasenmuster mit Linearität in mindestens einer Richtung in den Gebieten B1 und B2 des räumlichen Lichtmodulators 11 angezeigt wird, und das räumlich nicht-lineare Phasenmuster in dem Gebiet B3 angezeigt wird, das die Gebiete B1 und B2 umgibt. In den Daten für die Lichtintensitätsverteilung DA werden die konvergierenden Flecke P, die den Gebieten B1 und B2 entsprechen, erzeugt, aber die relative Positionsabhängigkeit zwischen den konvergierenden Flecken P ändert sich entsprechend dem Betrag an Winkelversatzes zwischen der Modulationsoberfläche 11a und dem Wellenfrontsensor 12. Daher ist es möglich, den Betrag an Winkelversatz zwischen der Modulationsoberfläche 11a und dem Wellenfrontsensor 12 auf der Grundlage der relativen Positionsabhängigkeit zwischen den konvergierenden Flecken P, die den Gebieten B1 und B2 entsprechen, zu erfassen.
  • Auch in dieser Ausführungsform ist es möglich, den Betrag an Winkelversatz rasch und einfach zu erfassen durch lediglich eine Funktion der Steuereinheit 13, ohne dass eine spezielle Komponente oder Struktur für die Erfassung des Betrags des Winkelversatzes erforderlich sind. In dem Verfahren, das in der zuvor beschriebenen Nicht-Patentliteratur 2 offenbart ist, ist die Struktur des Phasenmusters komplex und ist nicht einfach zu erzeugen. Andererseits ist es in dieser Ausführungsform nur erforderlich, dass das Phasenmuster PA die Gebiete B1 bis B3 enthält, die aus einem einfachen Phasenmuster gebildet sind, wobei ein Aufbau des Phasenmusters einfach ist und die Erzeugung des Phasenmusters durch die Steuereinheit 12 ist ebenfalls einfach. Des Weiteren ist es in dem Verfahren, das in der Nicht-Patentliteratur 2 offenbart ist, erforderlich, die Form der gesamten Wellenfront auf der Grundlage der Daten für die Lichtintensitätsverteilung, die von dem Wellenfrontsensor 12 ausgegeben werden, zu berechnen. Andererseits wird hier der Berechnungsvorgang vereinfacht, da der Betrag des Winkelversatzes auf der Grundlage lediglich eines Teils der Daten für die Lichtintensitätsverteilung in dieser Ausführungsform erfasst werden kann.
  • Wie zuvor beschrieben ist, ist es möglich, einen Betrag an Winkelversatz um die optische Achse zwischen der Modulationsoberfläche 11a und dem Wellenfrontsensor 12 zu erfassen und eine Winkeljustierung entsprechend dem Verfahren zur Erfassung eines Winkelversatzes dieser Ausführungsform und gemäß dem adaptiven Optiksystem 10 auszuführen.
  • Die Größen der Gebiete B1 und B2 werden ferner so festgelegt, dass die Größe eines Teils der Wellenfront A4 (siehe 7) mit einem Durchmesser der Linse 124 in dieser Ausführungsform übereinstimmt (siehe Formel (5)). Jedoch sind die Größen der Gebiete B1 und B2 nicht darauf beschränkt, und sie können beispielsweise so festgelegt werden, dass eine Länge einer Seite des Teils der Wellenfront A4 gleich wird zu n1 (n1 ist eine natürliche Zahl) mal dem Durchmesser der Linse 124. In diesem Falle sei angenommen, dass ein Array-Abstand der Pixel 11b in der Modulationsoberfläche 11a durch slmPITCH bezeichnet ist, eine Array-Abstand der Linsen 124 in dem Linsen-Array 120 ist durch mlaPITCH bezeichnet, und eine Abbildungsvergrößerung eines optischen Systems zwischen der Modulationsoberfläche 11a und der Linsenoberfläche des Linsen-Array 120 ist durch M bezeichnet, so dass dann die Anzahl an Pixel w einer Seite des Gebiets B1 oder B2 durch die folgende Formel (7) ausgedrückt wird.
  • [Mathe 7]
    • w = n₁ / M × mlaPITCH / slmPITCH (7)
  • Anders ausgedrückt, eine Breite (= w × slmPITCH) des Gebiets B1 und B2 in einer Array-Richtung der mehreren Linsen 124 kann (n1/M) mal dem Array-Abstand mlaPITCH der mehreren Linsen 124 sein.
  • (Zweite Ausführungsform)
  • In der zuvor beschriebenen ersten Ausführungsform werden die Daten für die Lichtintensitätsverteilung DA in einem Zustand gewonnen, in welchem das erste Phasenmuster mit Linearität in mindestens einer Richtung in den Gebieten B1 und B2 in dem Schritt zur Gewinnung der Lichtintensitätsverteilung S13 angezeigt wird. Jedoch ist nicht unbedingt notwendig, das erste Phasenmuster, das in den Gebieten B1 und B2 anzuzeigen ist, simultan anzuzeigen, und die zuvor beschriebene Ausführungsform kann wie folgt modifiziert werden.
  • 21 ist ein Flussdiagramm, das ein Verfahren zur Erfassung eines Winkelversatzes und eine Funktionsweise einer Steuereinheit 13 gemäß der zweiten Ausführungsform darstellt. Ein Unterschied zwischen dieser Ausführungsform und der zuvor beschriebenen ersten Ausführungsform besteht darin, dass die Schritte S21 bis S24 anstelle der Schritte S12 und S13 vorgesehen sind, die in 20 gezeigt sind. Da die anderen Schritte ähnlich zu jenen der zuvor beschriebenen ersten Ausführungsform sind, wird eine detaillierte Beschreibung davon weggelassen.
  • Im Schritt S21 erzeugt die Steuereinheit 13 ein spezielles Phasenmuster PB zu Erfassung eines Betrags eines Winkelversatzes und zeigt das erzeugte spezielle Phasenmuster PB auf der Modulationsoberfläche 11a an. 22 ist ein Diagramm, das konzeptionell das Phasenmuster PB dieses modifizierten Beispiels darstellt. Wie in 22 gezeigt ist, wird in dem Phasenmuster PB das erste Phasenmuster (siehe beispielsweise 18) mit Linearität in mindestens einer Richtung in dem ersten Gebiet B1 auf der Modulationsoberfläche 11a angezeigt. Gleichzeitig wird ein räumlich nichtlineares zweites Phasenmuster (siehe beispielsweise 12 bis 15) in einem Gebiet B4 angezeigt, das das erste Gebiet B1 auf der Modulationsoberfläche 11a umgibt.
  • Nachfolgend erhält im Schritt S22 die Steuereinheit 13 die ersten Daten der Lichtintensitätsverteilung (im weiteren als Daten für die Lichtintensitätsverteilung DB bezeichnet) über den Bildsensor 122 in einem Zustand, in welchem das zuvor beschriebene Phasenmuster PB angezeigt wird (erster Schritt zur Gewinnung der Lichtintensitätsverteilung). In diesen Daten der ersten Lichtintensitätsverteilung DB ist ein konvergierender Fleck P, der dem Gebiet B1 entspricht, enthalten.
  • Danach erzeugt im Schritt S23 die Steuereinheit 13 ein spezielles Phasenmuster PC zur Erfassung eines Betrags eines Winkelversatzes und zeigt das erzeugte spezielle Phasenmuster PC auf der Modulationsoberfläche 11a an. 23 ist ein Diagramm, das konzeptionell das Phasenmuster PC dieses modifizierten Beispiels darstellt. Wie in 23 dargestellt ist, wird in dem Phasenmuster PC das erste Phasenmuster (siehe beispielsweise 18) mit Linearität in mindestens einer Richtung in dem zweiten Gebiet B2 auf der Modulationsoberfläche 11a angezeigt. Gleichzeitig wird ein räumlich nicht-lineares zweites Phasenmuster (siehe beispielsweise 12 bis 15) in einem Gebiet B5 angezeigt, das das zweite Gebiet B2 auf der Modulationsoberfläche 11a umgibt.
  • Danach erhält im Schritt S24 die Steuereinheit 13 die Daten der zweiten Lichtintensitätsverteilung (im Weiteren als die Daten der Lichtintensitätsverteilung DC bezeichnet) über den Bildsensor 122 in einem Zustand, in welchem das zuvor beschriebene Phasenmuster PC angezeigt wird (zweiter Schritt zur Gewinnung der Lichtintensitätsverteilung). In diesen Daten der zweiten Lichtintensitätsverteilung DC ist ein konvergierender Fleck P, der dem Gebiet B2 entspricht, enthalten.
  • Danach spezifiziert die Steuereinheit 13 Positionskoordinaten eines konvergierenden Flecks P, der in jedem von zwei Datenpunkten der Daten DB und DC der Lichtintensitätsverteilung enthalten ist (Schritt S14), und berechnet einen Betrag eines Winkelversatzes zwischen der Modulationsoberfläche 11a und dem Wellenfrontsensor 12 auf der Grundlage einer relativen Positionsabhängigkeit zwischen den Positionskoordinaten (Winkelberechnungsschritt S15). Auch in dieser Ausführungsform kann die Steuereinheit 13 einen Winkel um das optische Bild La der Modulationsoberfläche 11a und/oder des Wellenfrontsensors 12 so justieren, dass der Betrag des Winkelversatzes, der im Schritt S15 berechnet wird, reduziert wird. (Justierschritt S16).
  • Wie in dieser Ausführungsform können die Daten DC der ersten Lichtintensitätsverteilung, die den konvergierenden Fleck P enthalten, der dem ersten Gebiet B entspricht, und die Daten DC der zweiten Lichtintensitätsverteilung, die den konvergierenden Fleck P enthalten, der dem zweiten Gebiet B2 entspricht, sequenziell gewonnen werden, und es kann eine relative Positionsabhängigkeit zwischen den beiden konvergierenden Flecken P aus den Daten DB und DC der Lichtintensitätsverteilung ermittelt werden. Selbst in diesem Verfahren können die gleichen Wirkungen wie jene der zuvor beschriebenen ersten Ausführungsform erreicht werden.
  • (Dritte Ausführungsform)
  • In der zuvor beschriebenen ersten und zweiten Ausführungsform wird das erste Phasenmuster mit Linearität in mindestens einer Richtung in zwei Gebieten B1 und B2 angezeigt und es wird ein Betrag eines Winkelversatzes auf der Grundlage einer relativen Positionsabhängigkeit zwischen konvergierenden Flecken P erhalten, die den Gebieten B1 und B2 entsprechen. In dem Verfahren zur Erfassung eines Winkelversatzes und in dem adaptiven Optiksystem 10 gemäß einem Aspekt der vorliegenden Erfindung ist es möglich, den Betrag des Winkelversatzes selbst in einem Verfahren zu erhalten, das nachfolgend beschrieben ist. Ferner ist die Konfiguration des adaptiven Optiksystems 10 ähnlich zu jener der zuvor beschriebenen ersten Ausführungsform mit Ausnahme der Funktion der Steuereinheit 13.
  • 24 ist ein Diagramm, das konzeptionell ein spezielles Phasenmuster PD zur Erfassung eines Betrags eines Winkelversatzes darstellt, der auf der Modulationsoberfläche 11a in dieser Ausführungsform anzuzeigen ist. Wie in 24 gezeigt ist, enthält das Phasenmuster PD drei Gebiete B6 bis B8, die benachbart zueinander auf einer Linie in einer gewissen Richtung angeordnet sind. Ferner enthält das Phasenmuster PD ein Gebiet B9, das die Gebiete B6 bis B8 umgibt. Eine Länge einer Seite jedes der Gebiete B6 bis B8 ist ähnlich zu jener der Gebiete B1 und B2 der zuvor beschriebenen ersten und zweiten Ausführungsform.
  • 25(a) ist ein Diagramm, das konzeptionell eine relative Abhängigkeit zwischen den Gebieten B6 bis B8 und dem Linsen-Array 120 zeigt und den Fall darstellt, in welchem es keinen Winkelversatz zwischen der Modulationsoberfläche 11a und dem Wellenfrontsensor 12 gibt, und auch den Fall zeigt, in welchem keine Positionsverschiebung zwischen der Modulationsoberfläche 11a und dem Wellenfrontsensor 12 besteht. 25(b) ist ein Diagramm, das die Daten DD der Lichtintensitätsverteilung in dem Falle darstellt, der in 25(a) gezeigt ist. In diesen Zeichnungen bezeichnet ein Pfeil An eine Zeilenrichtung der Modulationsoberfläche 11a und ein File Am bezeichnet eine Spaltenrichtung der Modulationsoberfläche 11a. Wie in 25(b) gezeigt ist, sind konvergierende Flecken P, die den Gebieten B6 bis B8 entsprechen, klar bzw. deutlich in den Daten der Lichtintensitätsverteilung DD gezeigt, wenn ein Winkelversatz und eine Positionsverschiebung zwischen der Modulationsoberfläche 11a und dem Wellenfrontsensor 12 nicht vorhanden sind. In den Zeichnung dieser Ausführungsform ist ferner ein klarer konvergierender Fleck P durch einen schwarzen Punkt gekennzeichnet.
  • Andererseits zeigt 26(a) den Fall, in welchem ein Winkelversatz (Versetzungsbetrag θ) zwischen der Modulationsoberfläche 11a und dem Wellenfrontsensor 12 auftritt. In diesem Falle ändert sich, wie in 26(b) gezeigt ist, die Klarheit bzw. Deutlichkeit des konvergierenden Flecks P, der dem Gebiet B7 entspricht, der am Drehmittelpunkt geordnet ist, in den Daten der Lichtintensitätsverteilung DD nicht, aber die Klarheit der konvergierenden Flecken P, die den Gebieten B6 und B8 entsprechen, die über und unter dem Gebiet B7 angeordnet sind, ist beeinträchtigt. Da ferner Licht auch auf einer benachbarten Linse 124 in einer Richtung des Winkelversatzes in Bezug auf die Linsen 124 eintrifft, die den Gebieten B6 und B8 entsprechen, wird ein schwacher konvergierender Fleck P von diesen Linsen 124 erzeugt. In der Zeichnung dieser Ausführungsform ist der konvergierende Fleck P mit der geringfügig beeinträchtigten Klarheit bzw. Deutlichkeit durch einen weißen Punkt gekennzeichnet und der schwach konvergierende Fleck P ist durch eine gestrichelte Linie gekennzeichnet. Daher ist es möglich, einen Betrag θ eines Winkelversatzes zwischen der Modulationsoberfläche 11a und dem Wellenfrontsensor 12 auf der Grundlage der relativen Positionsabhängigkeit und der Klarheit bzw. Deutlichkeit dieser konvergierenden Flecke P zu erfassen.
  • Ferner zeigt 27(a) den Fall, in welchem eine Positionsverschiebung in einer Ebene senkrecht zu einer optischen Achse des optischen Bildes La zusätzlich zu einem Winkelversatz (Versetzungsbetrag θ) zwischen der Modulationsoberfläche 11a und dem Wellenfrontsensor 12 auftritt. In diesem Falle wird, wie in 27(b) gezeigt ist, die Klarheit bzw. Deutlichkeit des konvergierenden Flecks P, der dem Gebiet B7 entspricht, ebenfalls beeinträchtigt, da das mittlere Gebiet B7 ebenfalls zu einer vorbestimmten Position verschoben ist. Da ferner Licht auch auf die Linsen 124 fällt, die in einer Richtung der Positionsverschiebung der Gebiete B6 bis B8 angeordnet sind, werden mehrere schwache konvergierende Flecken P durch diese Linsen 124 erzeugt. Daher wird die Justierung der relativen Positionen der Modulationsoberfläche 11a und des Wellenfrontsensors 12 auf der Grundlage derartiger Daten der Lichtintensitätsverteilung DD ausgeführt und anschließend ist es möglich, eine Winkeljustierung zwischen der Modulationsoberfläche 11a und dem Wellenfrontsensor 12 auszuführen.
  • 28 ist ein Flussdiagramm, das ein Verfahren zur Erfassung eines Winkelversatzes und eine Funktionsweise der Steuereinheit 13 gemäß dieser Ausführungsform zeigt. Das Verfahren zur Erfassung eines Winkelversatzes ist als ein Programm für das adaptive Optiksystem in dem Speichergebiet 13a der Steuereinheit 13, die in 1 gezeigt ist, gespeichert, und die Steuereinheit 13 führt das Verfahren zur Erfassung eines Winkelversatzes durch Auslesen des Programms aus.
  • In dem adaptiven Optiksystem 10 wird eine Initialisierung der Steuereinheit 13 ausgeführt (Schritt S31). Details des Schritts S31 sind ähnlich zu jenen im Schritt S11 der zuvor beschriebenen ersten Ausführungsform.
  • Als nächstes erzeugt die Steuereinheit 13 das spezielle Phasenmuster PD zur Erfassung des Betrags des Winkelversatzes und zeigt das erzeugte spezielle Phasenmuster PD auf der Modulationsoberfläche 11a an (Schritt S32). In diesem Schritt S32 wird das Phasenmuster (siehe beispielsweise 18) mit Linearität in mindestens einer Richtung in den Gebieten B6 bis B8 auf der Modulationsoberfläche 11a entsprechend den drei Linsen 124, die in einer Linie angeordnet sind, aus den mehreren Linsen 124 des Linsen-Arrays 120 angezeigt, und das räumlich nicht-lineare Phasenmuster (siehe beispielsweise 12 bis 15) wird in einem Gebiet B9 angezeigt, das die Gebiete B6 bis B8 umgibt.
  • Danach erhält die Steuereinheit 13 die Daten DD der Lichtintensitätsverteilung durch den Bildsensor 122 in einem Zustand, in welchem das zuvor beschriebene Phasenmuster PD angezeigt wird (Schritt S33). Normalerweise werden zu dieser Zeit die Daten DD für die Lichtintensitätsverteilung so, wie in 27(b) gezeigt ist, da sowohl der Winkelversatz als auch die Positionsverschiebung zwischen der Modulationsoberfläche 11a und dem Wellenfrontsensor 12 auftreten. Die Steuereinheit 13 justiert die Positionsverschiebung zwischen der Modulationsoberfläche 11a und dem Wellenfrontsensor 12 derart, dass der konvergierende Fleck P, der einem der Gebiete B6 bis B8 entspricht (beispielsweise dem mittleren Gebiet B7) der Daten der Lichtintensitätsverteilung DD klar ist (Schritt S34). Diese Justierung der Positionsverschiebung wird ausgeführt, indem eine relative Abhängigkeit zwischen einer Montageposition des Wellenfrontsensors 12 und einer Montageposition des räumlichen Lichtmodulators 11 justiert wird. Alternativ kann die Justierung der Positionsverschiebung entsprechend der Justierung einer relativen Positionsabhängigkeit zwischen Positionskoordinaten, die auf der Modulationsoberfläche 11a angenommen werden, wenn das Phasenmuster PD angezeigt wird, und dem Wellenfrontsensor 12 ausgeführt werden.
  • Nachfolgend erhält die Steuereinheit 13 die Daten der Lichtintensitätsverteilung DD durch den Bildsensor 122 in einem Zustand, in welchem das oben beschriebene Phasenmuster PD angezeigt wird (Schritt S35, Schritt zur Gewinnung der Lichtintensitätsverteilung). Da die Positionsverschiebung zwischen der Modulationsoberfläche 11a und dem Wellenfrontsensor 12 bereits in dem zuvor beschriebenen Schritt S34 justiert wurde, werden die Daten der Lichtintensitätsverteilung DD so, wie in 26(b) gezeigt ist. Die Steuereinheit 13 erhält einen Betrag θ des Winkelversatzes zwischen der Modulationsoberfläche 11a und dem Wellenfrontsensor 12 auf der Grundlage einer relativen Abhängigkeit zwischen Positionskoordinaten der Klarheit bzw. Deutlichkeit mehrerer konvergierender Flecken P, die dem Gebiet B6 entsprechen, und Positionskoordinaten und der Klarheit bzw. Deutlichkeit mehrerer konvergierender Flecken P, die dem Gebiet B8 entsprechen, die in den Daten der Lichtintensitätsverteilung DD enthalten sind (Schritt S36, Winkelberechnungsschritt).
  • Danach kann die Steuereinheit 13 einen Winkel um das optische Bild La der Modulationsoberfläche 11a und/oder des Wellenfrontsensors 12 so justieren, dass der Betrag des Winkelversatzes θ, der im Schritt S36 erhalten wird, reduziert wird (Schritt S16, Justierschritt). Anders ausgedrückt, diese Winkel werden so eingestellt, dass die Klarheit bzw. Deutlichkeit zweier konvergierender Flecke P, die den Gebieten B6 und B8 entsprechen, anwächst und ein schwacher konvergierender Fleck P, der benachbart zu den konvergierenden Flecken P ist, die den Gebieten B6 und B8 entsprechen, reduziert wird. Diese Justierung wird beispielsweise ausgeführt, indem ein Montagewinkel des räumlichen Lichtmodulators 11 und/oder ein Montagewinkel des Wellenfrontsensors 12 justiert werden.
  • Normalerweise wird die Positionsverschiebung zwischen der Modulationsoberfläche 11a und dem Wellenfrontsensor 12 durch die Winkeljustierung des Schritts S37 hervorgerufen. Folglich werden die zuvor beschriebenen Schritte S33 bis S37 alternativ ausgeführt, bis eine vorbestimmte Beendigungsbedingung erfüllt ist (Schritt S38). Wenn alternativ Positionskoordinaten, die auf der Modulationsoberfläche 11a angenommen werden, eingestellt werden, wenn das Phasenmuster PD angezeigt wird, werden die zuvor beschriebenen Schritte S32 bis S37 iterativ ausgeführt, bis eine vorbestimmte Beendigungsbedingung erfüllt ist (Schritt S38). Wenn die Positionsverschiebung und der Winkelversatz zwischen der Modulationsoberfläche 11a und dem Wellenfrontsensor 12 im Wesentlichen null sind (siehe 25(b)), ist die Verschiebung abgeschlossen.
  • Nachfolgend sind Wirkungen angegeben, die durch das Verfahren zur Erfassung eines Winkelversatzes für das adaptive Decksystem 10 und durch das adaptive Optiksystem 10 gemäß dieser Ausführungsform, die zuvor beschrieben ist, erreicht werden. In dieser Ausführungsform werden in dem Schritt S35 zur Gewinnung der Lichtintensitätsverteilung die Daten der Lichtintensitätsverteilung DD durch den Bildsensor 122 des Wellenfrontsensors 12 in einem Zustand gewonnen, in welchem das Phasenmuster mit Linearität in mindestens einer Richtung in den Gebieten B6 bis B8 des räumlichen Lichtmodulators 11 angezeigt wird und das räumlich nicht-lineare Phasenmuster in dem Gebiet B9 angezeigt wird, das die Gebiete B6 bis B8 umgibt. In den Daten der Lichtintensitätsverteilung DD werden die konvergierenden Flecke P, die den Gebieten B6 bis B8 entsprechen, erzeugt, aber die relative Positionsabhängigkeit zwischen den konvergierenden Flecken P (insbesondere der konvergierenden Flecken P, die den Gebieten B6 bis B8 entsprechen) ändert sich gemäß dem Betrag an Winkelversatz zwischen der Modulationsoberfläche 11a und dem Wellenfrontsensor 12. Daher ist es möglich, den Betrag an Winkelversatz zwischen der Modulationsoberfläche 11a und dem Wellenfrontsensor 12 auf der Grundlage der relativen Positionsabhängigkeit zwischen den konvergierenden Flecken P, die den Gebieten B6 bis B8 entsprechen, zu erfassen. Des weiteren ist es in dieser Ausführungsform, wie in der ersten Ausführungsform, möglich, den Betrag an Winkelversatz einfach und schnell zu erfassen nur mittels einer gewissen Funktion der Steuereinheit 13, ohne dass eine spezielle Komponente oder spezieller Aufbau zur Erfassung des Betrags des Winkelversatzes erforderlich sind.
  • In dieser Ausführungsform werden in dem Schritt S35 zur Gewinnung der Lichtintensitätsverteilung die Daten der Lichtintensitätsverteilung DD in einem Zustand gewonnen, in welchem das erste Phasenmuster mit Linearität in mindestens einer Richtung in den Gebieten B6 bis B8 angezeigt wird. Es ist jedoch nicht unbedingt erforderlich, die ersten Phasenmuster, die in den Gebieten B6 bis B8 anzuzeigen sind, simultan anzuzeigen. Wie in der zweiten Ausführungsform können die Daten der Lichtintensitätsverteilung gewonnen werden, wenn die ersten Phasenmuster der Reihe nach in den Gebieten B6 bis B8 angezeigt werden und der Prozess des Schrittes S36 kann auf der Grundlage dreier Datenpunkte von erhaltenen Daten der Lichtintensitätsverteilung ausgeführt werden.
  • (Vierte Ausführungsform)
  • Die erste bis dritte Ausführungsform betreffen jeweils einen Betrag eines Winkelversatzes zwischen der Modulationsoberfläche 11a und dem Wellenfrontsensor 12. In dieser Ausführungsform wird ein Verfahren zur Erfassung einer Abbildungsvergrößerung für ein adaptives Optiksystem 10 und das adaptive Optiksystem 10, das das Verfahren und die Funktionsweise, die der ersten bis dritten Ausführungsform gemeinsam sind, enthält. Auch in dieser Ausführungsform ist der Aufbau des adaptiven Optiksystems 10 ähnlich zu jenem der zuvor beschriebenen ersten Ausführungsform mit Ausnahme der Funktion der Steuereinheit 13.
  • 29 ist ein Flussdiagramm, das das Verfahren zur Erfassung der Abbildungsvergrößerung und die Funktion der Steuereinheit 13 gemäß dieser Ausführungsform darstellt. Das Verfahren zur Erfassung der Abbildungsvergrößerung ist als ein Programm für das adaptive Optiksystem in dem Speichergebiet 13a der Steuereinheit 13, die in 1 gezeigt ist, gespeichert, und die Steuereinheit 13 führt das Verfahren zur Erfassung der Abbildungsvergrößerung aus, indem das Programm ausgelesen wird.
  • In dem adaptiven Optiksystem 10 wird eine Initialisierung der Steuereinheit 13 ausgeführt (Schritt S41). Details des Schritts S41 sind ähnlich zu jenen des Schritts S11 der zuvor beschriebenen ersten Ausführungsform.
  • Anschließend erzeugt die Steuereinheit 13 das spezielle Phasenmuster PA (siehe 8) zur Erfassung einer Abbildungsvergrößerung und zeigt das erzeugte spezielle Phasenmuster PA auf der Modulationsoberfläche 11a an (Schritt S42). Details des Phasenmusters PA sind ähnlich zu jenen der ersten Ausführungsform. Daraufhin erhält die Steuereinheit 13 die Daten der Lichtintensitätsverteilung DA durch den Bildsensor 122 in einem Zustand, in welchem das zuvor beschriebene Phasenmuster PA angezeigt wird (Schritt S43, Schritt zur Gewinnung der Lichtintensitätsverteilung).
  • Anschließend spezifiziert die Steuereinheit 13 Positionskoordinaten (xp, yp) des konvergierenden Flecks P, indem Schwerpunkte zweier konvergierender Flecke P berechnet werden, die in den Daten der Lichtintensitätsverteilung DA enthalten sind (Schritt S44). Ferner ist ein Verfahren zur Berechnung der Positionskoordinaten (xp, yp) des konvergierenden Flecks P ähnlich zu dem Schritt S14 der zuvor beschriebenen ersten Ausführungsform. Die Positionskoordinaten des konvergierenden Flecks P, der dem Gebiet B1 entspricht, werden als (xp1, yp1) zugewiesen und die Positionskoordinaten des konvergierenden Flecks P, der dem Gebiet B2 entspricht, werden als (xp2, yp2) zugewiesen.
  • Danach berechnet die Steuereinheit 13 die Abbildungsvergrößerung M zwischen der Modulationsoberfläche 11a und dem Wellenfrontsensor 12 auf der Grundlage eines Abstands zwischen den Positionskoordinaten (xp1, yp1) des konvergierenden Flecks P, der dem Gebiet B1 entspricht, und den Positionskoordinaten (xp2, yp2) des konvergierenden Flecks P, der dem Gebiet B2 entspricht (Schritt S45, Vergrößerungsberechnungsschritt). Wenn dabei der Abstand zwischen den Positionskoordinaten (xp1, yp1) und den Positionskoordinaten (xp2, ein yp2) als H1 bezeichnet wird und der Abstand zwischen der zentralen Position (xc1, yc1) des Gebiets B1 und der zentralen Position (xc2, yc2) des Gebiets B2 als H2 bezeichnet wird, wird die Abbildungsvergrößerung M gemäß einem Verhältnis (H1/H2) erhalten. Anders ausgedrückt, die Abbildungsvergrößerung M wird gemäß der folgenden Formel (8) erhalten. [Mathe 8]
    Figure DE112014002681T5_0006
  • Daraufhin werden diverse Justierungen auf der Grundlage der Abbildungsvergrößerung M durchgeführt, die im Schritt S45 berechnet wurde (Schritt S46). Beispielsweise ist es möglich, die Vergrößerung eines lichtführenden optischen Systems (beispielsweise die in 1 gezeigten Linsen 15 und 16), das zwischen der Modulationsoberfläche 11a und dem Wellenfrontsensor 12 angeordnet ist, so zu justieren, dass die Abbildungsvergrößerung M, die im Schritt S45 berechnet wird, nahe an einer vorbestimmten Abbildungsvergrößerung liegt. Diese Einstellung kann angewendet werden, wenn das lichtführende optische System aus einem Zoom-Objektiv aufgebaut ist, in welchem die Abbildungsvergrößerung M variabel ist, usw. Da es die Möglichkeit einer Verschiebung einer relativen Position in Richtung einer optischen Achse zwischen der Modulationsoberfläche 11a und dem Wellenfrontsensor 12 gibt, wenn die Abbildungsvergrößerung M zu der vorbestimmten Abbildungsvergrößerung beispielsweise verschoben wird, ist es möglich, einen optischen Abstand zwischen der Modulationsoberfläche 11a und dem Wellenfrontsensor 12 so zu justieren, dass die im Schritt S45 berechnete Abbildungsvergrößerung M nahe an der vorbestimmten Abbildungsvergrößerung liegt. Des Weiteren ist es beispielsweise auch möglich, eine Größe eines Gebiets, in welchem ein Phasenmuster zur Kompensation einer Wellenfrontverzerrung auf der Modulationsoberfläche 11a angezeigt wird, auf der Grundlage der im Schritt S45 berechnete Abbildungsvergrößerung einzustellen.
  • Es werden nun Wirkungen beschrieben, die durch das Verfahren zur Erfassung der Abbildungsvergrößerung für das adaptive Optiksystem 10 und durch das adaptive Optiksystem 10 gemäß dieser Ausführungsform, die zuvor beschrieben ist, erreicht werden. In dieser Ausführungsform werden in dem Schritt zur Gewinnung der Lichtintensitätsverteilung S43 die Daten der Lichtintensitätsverteilung DA von dem Bildsensor 122 des Wellenfrontsensors 12 in einem Zustand gewonnen, in welchem das Phasenmuster mit Linearität in mindestens einer Richtung in den Gebieten B1 und B2 des räumlichen Lichtmodulators 11 angezeigt wird und das räumlich nicht-lineare Phasenmuster in dem Gebiet B3 angezeigt wird, das die Gebiete B1 und B2 umgibt. In den Daten der Lichtintensitätsverteilung DA werden die konvergierenden Flecke P, die den Gebieten B1 und B2 entsprechen, erzeugt, aber der Abstand zwischen den konvergierenden Flecken P ändert sich entsprechend der Abbildungsvergrößerung M zwischen der Modulationsoberfläche 11a und dem Wellenfrontsensor 12. Daher ist es möglich, die Abbildungsvergrößerung M zwischen der Modulationsoberfläche 11a und dem Wellenfrontsensor 128 auf Grundlage des Abstands zwischen den konvergierenden Flecken P, die den Gebieten B1 und B2 entsprechen, zu erfassen. Des Weiteren ist es in dieser Ausführungsform möglich, die Abbildungsvergrößerung M einfach und rasch lediglich durch eine entsprechende Funktionsweise der Steuereinheit 13 zu erfassen, ohne dass eine spezielle Komponente oder ein spezieller Aufbau zur Erfassung der Abbildungsvergrößerung M erforderlich sind.
  • (Fünfte Ausführungsform)
  • In der zuvor beschriebenen vierten Ausführungsform werden die Daten der Lichtintensitätsverteilung DA in einem Zustand gewonnen, in welchem das erste Phasenmuster mit Linearität in mindestens einer Richtung in den Gebieten B1 und B2 in dem Schritt S43 zur Gewinnung der Lichtintensitätsverteilung angezeigt wird. Jedoch ist es nicht unbedingt erforderlich, das erste Phasenmuster, das in den Gebieten B1 und B2 anzuzeigen ist, simultan wie in der zweiten Ausführungsform in dem Verfahren zur Erfassung der Abbildungsvergrößerung anzuzeigen.
  • 30 ist ein Flussdiagramm, das das Verfahren zur Erfassung der Abbildungsvergrößerung und die Funktion der Steuereinheit 13 gemäß der fünften Ausführungsform darstellt. Ein Unterschied zwischen dieser Ausführungsform und der zuvor beschriebenen Ausführungsform besteht darin, dass die Schritte S51 bis S54 anstelle der Schritte S42 und S43, die in 29 dargestellt sind, vorgesehen sind. Da ferner andere Schritte ähnlich zu jenen der zuvor beschriebenen vierten Ausführungsform sind, wird eine detaillierte Beschreibung davon weggelassen.
  • Im Schritt S51 erzeugt die Steuereinheit 13 ein spezielles Phasenmuster PB (siehe 22) zur Erfassung der Abbildungsvergrößerung und zeigt das erzeugte spezielle Phasenmuster PB auf der Modulationsoberfläche 11a an. Details des Phasenmusters PB sind ähnlich zu jenen der zweiten Ausführungsform. Daraufhin ermittelt im Schritt S52 die Steuereinheit 13 die Daten der ersten Lichtintensitätsverteilung DB durch den Bildsensor 122 in einem Zustand, in welchem das zuvor beschriebene Phasenmuster PB angezeigt wird (Schritt zur Gewinnung der ersten Lichtintensitätsverteilung). Der konvergierende Fleck P, der dem Gebiet B1 entspricht, ist in den Daten der ersten Lichtintensitätsverteilung DB enthalten.
  • Nachfolgend erzeugt im Schritt S53 die Steuereinheit 13 ein spezielles Phasenmuster PC (siehe 23) zur Erfassung der Abbildungsvergrößerung und zeigt das erzeugte spezielle Phasenmuster PC auf der Modulationsoberfläche 11a an. Details des Phasenmusters PC sind ähnlich zu jenen der zweiten Ausführungsform. Daraufhin erhält im Schritt S54 die Steuereinheit 13 Daten der zweiten Lichtintensitätsverteilung DC über den Bildsensor 122 in einem Zustand, in welchem das zuvor beschriebene Phasenmuster PC angezeigt wird (zweiter Schritt zur Gewinnung der Lichtintensitätsverteilung). Der konvergierende Fleck P, der dem Gebiet B2 entspricht, ist in den Daten der zweiten Lichtintensitätsverteilung DC enthalten.
  • Daraufhin spezifiziert die Steuereinheit 13 Positionskoordinaten der konvergierenden Flecken P, die in zwei Datenpunkten der Daten DB und DC der Lichtintensitätsverteilung, die in den Schritten S51 bis S54 erhalten werden, enthalten sind (Schritt S44) und berechnet eine Abbildungsvergrößerung M zwischen der Modulationsoberfläche 11a und dem Wellenfrontsensor 12 auf der Grundlage eines Abstands zwischen den Positionskoordinaten (Vergrößerungsberechnungsschritt S45). Daraufhin werden diverse Justierungen im Schritt S46 vorgenommen.
  • In dieser Ausführungsform können die Daten der ersten Lichtintensitätsverteilung DB, die den konvergierenden Fleck P enthalten, der dem ersten Gebiet B1 entspricht, und die Daten der zweiten Lichtintensitätsverteilung DC, die den konvergierenden Fleck P, der dem zweiten Gebiet B2 entspricht, enthalten, der Reihe nach gewonnen werden, und ein Abstand zwischen den zwei konvergierenden Flecken P kann aus den Daten DB und DC der Lichtintensitätsverteilung ermittelt werden. Selbst in diesem Verfahren können ähnliche Wirkungen wie bei der zuvor beschriebenen vierten Ausführungsform erreicht werden.
  • (Erstes modifiziertes Beispiel)
  • Obwohl der Fall, in welchem das erste Gebiet B1 und das zweite Gebiet B2 Gebiete sind, die voneinander getrennt sind, in den zuvor beschriebenen Ausführungsformen mit Ausnahme der dritten Ausführungsform gezeigt ist, können beispielsweise das erste Gebiet B1 und das zweite Gebiet B2 in einer Zeilenrichtung oder Spaltenrichtung zueinander angrenzend bzw. benachbart sein, wie in 31(a) und 31(b) dargestellt ist. Alternativ können, wie beispielsweise in 32 dargestellt ist, das erste Gebiet B1 und das zweite Gebiet B2 in einer Richtung der Diagonalen benachbart zueinander sein. Selbst wenn die Gebiete B1 und B2 so angeordnet sind, wie zuvor beschrieben ist, ist es möglich, ähnliche Wirkungen wie bei den zuvor beschriebenen Ausführungsformen zu erhalten. Wenn jedoch die Gebiete B1 und B2 voneinander getrennt bzw. beabstandet sind, ist es unwahrscheinlich, dass entsprechende konvergierende Flecken P miteinander überlappen. Daher können die Gebiete B1 und B2 entsprechend einer Form eines ersten Phasenmusters, das Linearität besitzt, getrennt werden.
  • (Zweites modifiziertes Beispiel)
  • In der zuvor beschriebenen Ausführungsform wird das erste Phasenmuster mit der Linearität in mindestens einer Richtung in den Gebieten B1 und B2 (oder den Gebieten B6 bis B8) angezeigt und das räumlich nicht-lineare zweite Phasenmuster wird in den Gebieten B2 bis B5 (oder dem Gebiet B9) angezeigt. Selbst wenn jedoch das erste Phasenmuster mit der Linearität in mindestens einer Richtung in den Gebieten B3 bis B5 (oder dem Gebiet B9) angezeigt wird und das räumlich nicht-lineare zweite Phasenmuster in den Gebieten B1 und B2 (oder den Gebieten B6 bis B8) angezeigt wird, ist es möglich, ähnliche Wirkungen wie in den zuvor beschriebenen Ausführungsformen zu erhalten. In diesem Falle wird die zuvor angegebene Formel (3) wie folgt umgeschrieben. [Mathe 9]
    Figure DE112014002681T5_0007
  • In diesem modifizierten Beispiel werden konvergierende Flecke P, die den Gebieten B1 und B2 (oder den Gebieten B6 bis B8) entsprechen, unklar und konvergierende Flecke P, die den Gebieten B3 bis B5 (oder dem Gebiet B9) um die Gebiete B1 und B2 herum (oder die Gebiete B6 bis B8) werden klar. In diesem Falle ist es möglich, den Betrag eines Winkelversatzes (oder der Abbildungsverstärkung M) zwischen der Modulationsoberfläche 11a und dem Wellenfrontsensor 12 auf der Grundlage einer relativen Abhängigkeit (oder Abstand) zwischen Positionskoordinaten des konvergierenden Flecks P, der um das Gebiet B1 (oder das Gebiet B6) herum ausgebildet ist, und Positionskoordinaten des konvergierenden Flecks p, der um das Gebiet B2 (ob das Gebiet B8) herum gebildet ist, zu berechnen.
  • Gemäß diesem modifizierten Beispiel ist es, wie in der zuvor beschriebenen Ausführungsform, möglich, den Betrag eines Winkelversatzes um die optische Achse (oder die Abbildungsvergrößerung M) zwischen der Modulationsoberfläche 11a und dem Wellenfrontsensor 12 in einfacher Weise zu erfassen. Da das Phasenmuster mit Linearität in allen Gebieten außer den Gebieten B1 und B2 (oder den Gebieten B6 bis B8) angezeigt werden kann, ist es möglich, den Betrag an Winkelversatz um die optische Achse (oder die Abbildungsvergrößerung M) parallel während der Ausführung einer optischen Adaption zu erfassen, indem das Phasenmuster als ein Phasenmuster zur Kompensation der Wellenfrontverzerrung zugewiesen wird.
  • (Drittes modifiziertes Beispiel)
  • In den zuvor beschriebenen Ausführungsformen ist eine im Wesentlichen gleichförmige Verteilung, die durch eine Konstante a ausgedrückt ist, als ein Beispiel eines ersten Phasenmusters mit Linearität in mindestens einer Richtung gezeigt, das in den Gebieten B1 und B2 oder B6 bis B8 (in dem zweiten modifizierten Beispiel die Gebiete B3 bis B5 oder B9) angezeigt sind. Jedoch kann das erste Phasenmuster eine Phasenverteilung sein, die in mindestens einer Richtung geneigt (sich linear ändernd) ist. Ein Phasenmuster PA, das das zuvor beschriebene Phasenmuster enthält, ist durch die folgende Formel (10) ausgedrückt. [Mathe 10]
    Figure DE112014002681T5_0008
  • Dabei bezeichnen n0 und m0 zentrale Pixel der Gebiete B1 und B2 (ROI) und a, b und c sind Konstanten.
  • 33 zeigt eine Phasenverteilung, in der Phasenwerte in einer ersten Richtung (beispielsweise eine Zeilenrichtung) geneigt bzw. sich linear ändernd sind und Phasenwerte im Wesentlichen gleichförmig in einer zweiten Richtung sind (beispielsweise eine Spaltenrichtung), die die erste Richtung schneidet. Dies ist eine Phasenverteilung im ROI für den Fall, in welchem b ≠ 0 und c = 0 in der zuvor beschriebenen Formel (10) gilt. 34 zeigt eine Phasenverteilung, in der Phasenwerte sowohl in der ersten Richtung (beispielsweise die Zeilenrichtung) als auch in der zweiten Richtung (beispielsweise die Spaltenrichtung) geneigt bzw. sich linear ändernd sind. Dies ist eine Phasenverteilung im ROI für den Fall, in welchem b ≠ 0 und c ≠ 0 in der zuvor beschriebenen Formel (10) gilt. Ein Graph eines Betrags der Phasenmodulation in einer Position in jeweils der Zeilenrichtung und der Spaltenrichtung ist ebenfalls in 32 und 34 dargestellt. Da die Wellenfront des optischen Bildes La des relevanten Teils flach ist, wenn diese Phasenmuster in den Gebieten B1 und B2 oder B6 bis B8 angezeigt werden, wird der klare bzw. deutliche konvergierende Fleck P von der Linse 124 erzeugt. Folglich ist es, wie in den zuvor beschriebenen Ausführungsformen und modifizierten Beispielen, möglich, den Betrag des Winkelversatzes oder die Abbildungsvergrößerung M auf der Grundlage der relativen Positionsabhängigkeit oder des Abstands zwischen den konvergierenden Flecken P zu erfassen.
  • Jedoch ist in diesem modifizierten Beispiel die Position des Schwerpunkts des konvergierenden Flecks P durch eine Steigung des ersten Phasenmusters verschoben. Wenn folglich der Betrag des Winkelversatzes oder der Abbildungsvergrößerung M erfasst wird, ist es möglich, eine ähnliche Berechnung wie bei den zuvor beschriebenen Ausführungsformen im Hinblick auf die Verschiebung einer Position des Schwerpunkts auszuführen. Ein Verschiebungsbetrag der Position des Schwerpunkts des konvergierenden Flecks P ist eindeutig auf der Grundlage eines Konfigurationsparameters des Wellenfrontsensors 12 und auf der Grundlage der Koeffizienten b und c definiert. Da es ferner möglich ist, die ursprüngliche Position des Schwerpunkts zu ermitteln, indem der zuvor beschriebene Verschiebungsbetrag von der Position des Schwerpunkts des konvergierenden Flecks P subtrahiert wird, ist es möglich, den Betrag des Winkelversatzes oder den Betrag der Abbildungsvergrößerung M entsprechend einer ähnlichen Prozedur wie bei den zuvor beschriebenen Ausführungsformen zu erfassen.
  • (Viertes modifiziertes Beispiel)
  • Das in den Gebieten B1 und B2 oder B6 bis B8 (in dem zweiten modifizierten Beispiel die Gebiete B3 bis B5 oder das Gebiet B9) angezeigte erste Phasenmuster kann eine Phasenverteilung mit einer quadratischen Funktion in der ersten Richtung sein, und wobei Phasenwerte der zweiten Richtung im Wesentlichen gleichförmig sind (d. h., eine Phasenverteilung mit der Wirkung einer Zylinderlinse in der ersten Richtung), wie in 35 dargestellt ist. Dieses Phasenmuster PA, das eine derartige Phasenverteilung enthält, wird durch die folgende Formel (11) ausgedrückt. [Mathe 11]
    Figure DE112014002681T5_0009
  • In der zuvor beschriebenen Formel (11) bezeichnen n1 und m1 zentrale Pixel des Gebiets B1 (ROI(n1, m1)), n2 und m2 bezeichnen zentrale Pixel des Gebiets B2 (ROI(n2, m2)) und a1, b1, a2 und b2 bezeichnen Konstanten.
  • Wenn das in 35 dargestellte Phasenmuster auf der Modulationsoberfläche 11a angezeigt wird, wird ein konvergierender Fleck P, der sich in der ersten Richtung erstreckt und in der zweiten Richtung konvergierend ist, in dem Wellenfrontsensor 12 erzeugt. Dadurch ist es möglich, eine Position des konvergierenden Flecks P zu erhalten, der in der zweiten Richtung zu erzeugen ist. Wenn nachfolgend das Phasenmuster PA der Phasenverteilung (d. h., eine Phasenverteilung mit der Wirkung der Zylinderlinse in der zweiten Richtung), in welcher die erste und die zweite Richtung ausgetauscht sind, auf der Modulationsoberfläche 11a angezeigt wird, wird die Position des konvergierenden Flecks P in der ersten Richtung erhalten. Es ist daher möglich, den Betrag des Winkelversatzes oder die Abbildungsvergrößerung wie in den zuvor beschriebenen Ausführungsformen und dem ersten bis dritten modifizierten Beispiel unter Anwendung des Phasenmusters mit Linearität in mindestens einer Richtung, wie in 35, zu erfassen. Alternativ kann das Phasenmuster PA, das eine Phasenverteilung mit der Wirkung einer Zylinderlinse enthält, erzeugt werden durch die folgende Formel (12). [Mathe 12]
    Figure DE112014002681T5_0010
  • Das Phasenmuster PA, das durch die folgende Formel (12) ausgedrückt ist, unterscheidet sich von dem Phasenmuster, das durch die Formel (11) ausgedrückt ist, hat eine quadratische Funktion in der ersten Richtung in dem Gebiet B1 und hat eine quadratische Funktion in der zweiten Richtung in dem Gebiet B2. Wenn das Phasenmuster PA, das durch die folgende Formel (12) ausgedrückt ist, auf der Modulationsoberfläche 11a angezeigt wird, wird die Position der zweiten Richtung auf der Grundlage des konvergierenden Flecks P, der dem Gebiet B1 entspricht, erhalten, das heißt, der konvergierende Fleck P, der sich in der ersten Richtung erstreckt und in der zweiten Richtung konvergiert. Ferner wird die Position der ersten Richtung auf der Grundlage des konvergierenden Flecks P ermittelt, der dem Gebiet B2 entspricht, d. h. auf der Grundlage des konvergierenden Flecks P, der sich in der zweiten Richtung erstreckt und in der ersten Richtung konvergiert. Wenn nachfolgend das Phasenmuster PA mit Phasenverteilungen, die durch Austausch der Phasenverteilungen der Gebiete B1 und B2 erhalten werden (d. h., eine Phasenverteilung mit einer quadratischen Funktion in der zweiten Richtung in dem Gebiet B1 und einer Phasenverteilung mit einer quadratischen Funktion in der ersten Richtung in dem Gebiet B2), auf der Modulationsoberfläche 11a angezeigt wird, wird die Position der ersten Richtung auf der Grundlage des konvergierenden Flecks P, der sich in der zweiten Richtung erstreckt, die dem Gebiet B1 entspricht, erhalten und die Position der zweiten Richtung wird auf der Grundlage des konvergierenden Flecks P, der sich in der ersten Richtung erstreckt, die dem zweiten Gebiet B2 entspricht, erhalten. Es ist möglich, den Betrag des Winkelversatzes oder der Abbildungsvergrößerung wie in den zuvor beschriebenen Ausführungsformen und modifizierten Beispielen unter Anwendung von Positionen von konvergierenden Flecken P, die den Gebieten B1 und P2 entsprechen, zu erfassen.
  • (Fünftes modifiziertes Beispiel)
  • Erste Phasenmuster, die in den Gebieten B1 und B2 oder B6 bis B8 (die Gebiete B3 bis P5 oder das Gebiet B9 in dem zweiten modifizierten Beispiel) angezeigt sind, können eine Phasenverteilung haben, die ein Beugungsgitter in der ersten Richtung bildet, und in der Phasenwerte im Wesentlichen gleichförmig in der zweiten Richtung sind, wie in 36 dargestellt ist. Wenn das Phasenmuster, das in 36 dargestellt ist, auf der Modulationsoberfläche 11a angezeigt wird, werden mehrere konvergierende Flecke P, die in der ersten Richtung getrennt sind und in der zweiten Richtung konvergieren, in dem Wellenfrontsensor 12 erzeugt. Folglich wird die Position des konvergierenden Flecks P in der zweiten Richtung erhalten. Nachfolgend wird die Position des konvergierenden Flecks P in der ersten Richtung unter Anwendung von Phasenmustern erhalten, die Phasenverteilungen enthalten, in denen die Richtung des Beugungsgitters um 90 Grad in den Gebieten B1 und B2 gedreht ist. Es ist möglich, den Betrag des Winkelversatzes oder der Abbildungsvergrößerung wie in den zuvor beschriebenen Ausführungsformen und modifizierten Beispielen unter Anwendung von Positionen von konvergierenden Flecken P, die den Gebieten B1 und B2 entsprechen, zu erfassen.
  • (Sechstes modifiziertes Beispiel)
  • Erste Phasenmuster, die in den Gebieten B1 und B2 oder B6 bis B8 (in dem zweiten modifizierten Beispiel die Gebiete B3 bis B5 oder das Gebiet B9) angezeigt sind, können ein zusammengesetztes Muster enthalten, in welchem Phasenverteilungen, die in der ersten Ausführungsform und dem dritten bis fünften modifizierten Beispiel gezeigt sind, gegenseitig überlagert sind. 37 ist ein Diagramm, das ein Beispiel des durch eine derartige Überlagerung erhaltenen zusammengesetzten Musters darstellt. Das in 37(a) dargestellte Phasenmuster ist das Phasenmuster, das in 35 dargestellt ist, und das in 37(b) gezeigte Phasenmuster, ist das Phasenmuster, das durch Drehung des in 33 gezeigten Phasenmusters um 90 Grad erhalten wird. Das in 37(c) dargestellte Phasenmuster ist ein zusammengesetztes Muster, in welchem die Phasenmuster überlagert sind und ist ein Phasenmuster einer Phasenverteilung mit einer quadratischen Funktion in der ersten Richtung und einer linearen Funktion in der zweiten Richtung. Wenn das in 37(c) gezeigte zusammengesetzte Muster auf der Modulationsoberfläche 11a angezeigt wird, wird der konvergierende Fleck P, der sich in der ersten Richtung erstreckt und in der zweiten Richtung konvergiert, in dem Wellenfrontsensor 12 erzeugt. Folglich kann die Position des konvergierenden Flecks P, der in der zweiten Richtung zu bilden ist, erhalten werden. Der Versetzungsbetrag ist an der erhaltenen Position der zweiten Richtung entsprechend einer geneigten Phasenverteilung wie in 37(b) enthalten. Es ist möglich, die ursprüngliche Position des Schwerpunkts der zweiten Richtung zu ermitteln, indem der Versetzungsbetrag subtrahiert wird. Folglich ist es möglich, die Position des Schwerpunkts der ersten Richtung zu ermitteln, indem ein Phasenmuster angezeigt wird, das durch Drehung des in 37(c) gezeigten Phasenmusters um 90 Grad erhalten wird. Es ist möglich, den Betrag des Winkelversatzes oder der Abbildungsvergrößerung wie in den oben beschriebenen Ausführungsformen und modifizierten Beispielen unter Verwendung von Positionen konvergierender Flecke P, die den Gebieten B1 und B2 entsprechen, zu erfassen.
  • (Siebtes modifiziertes Beispiel)
  • In den zuvor beschriebenen Ausführungsformen und modifizierten Beispielen sind Beispiele der Zufallsverteilung (12) und der Defokussier-Verteilung (13) als ein Beispiel des räumlich nicht-linearen zweiten Phasenmusters, das in den Gebieten B2 bis B5 (in dem zweiten modifizierten Beispiel das Gebiet B9) angezeigt ist, dargestellt. Das zweite Phasenmuster ist nicht darauf beschränkt, sondern es ist lediglich notwendig, dass das zweite Phasenmuster eine Phasenverteilung aufweist, so dass ein klarer bzw. deutlicher konvergierender Fleck P nicht erzeugt wird. Als diese Phasenverteilung gibt es beispielsweise ein Phasenmuster des Fresnel-Zonenplatten(FZP)-Typs. Das Phasenmuster des FZP-Typs hat eine Funktion zum Bündeln oder Zerstreuen eines einfallenden optischen Bildes La mit einem im Wesentlichen gleichförmigen Phasenwert. Wenn folglich das optische Bild La durch das Phasenmuster des FZP-Typs gesammelt oder zerstreut wird, und auf die Linse 124 trifft, wird die Position der Richtung der optischen Achse des konvergierenden Flecks P von einer Brennebene der Linse 124 (d. h., der Oberfläche des Bildsensors 122) weg verschoben. Somit wird ein verschwommenes Punktbild in der Oberfläche des Bildsensors 122 gebildet.
  • Das Phasenmuster PA, das das Phasenmuster des FZP-Typs enthält, wird durch die folgende Formel (13) ausgedrückt. [Mathe 13]
    Figure DE112014002681T5_0011
  • Dabei bezeichnet a2 eine Konstante und b2 bezeichnet eine ausreichend große Konstante. (nk, mk) bezeichnet zentrale Pixel der Gebiete B3 bis B5. Wenn ferner b2 ausreichend groß ist, ist es möglich, den konvergierenden Fleck P, der durch die Linse 124 gebildet wird, ausreichend von der Brennebene der Linse 124 (der Oberfläche des Bildsensors 122) abzutrennen.
  • (Achtes modifiziertes Beispiel)
  • In den zuvor beschriebenen Ausführungsformen und modifizierten Beispielen ist ein Beispiel einer Form gezeigt, in der die mehreren Linsen 124 als das Linsen-Array 120 des Wellenfrontsensors 12 in Form des zweidimensionalen Gitters angeordnet sind, wie in 3 dargestellt ist. Jedoch ist das Linsen-Array des Wellenfrontsensors 12 nicht auf eine derartige Form beschränkt. Wie beispielsweise in 38 gezeigt ist, kann das Linsen-Array 120 eine Waben-Struktur aufweisen, in der mehrere reguläre hexagonale Linsen 128 ohne Abstand angeordnet sind. In diesem Falle können die Gebiete B1 und B2 oder die Gebiete B6 bis B8 mit einer hexagonale Form festgelegt werden.
  • Ferner kann eine Form, in der mehrere reguläre hexagonale Pixel ohne Abstand angeordnet sind, als der räumliche Lichtmodulator verwendet werden. Des Weiteren ist der räumliche Lichtmodulator als ein Beispiel in den zuvor beschriebenen Ausführungsformen angegeben, aber ein räumlicher Lichtmodulator unter Anwendung eines Materials mit einem elektro-optischen Effekt, das nicht ein Flüssigkristall ist, ein räumlicher Lichtmodulator, in welchem ein Pixel aus einem Mikro-Spiegel gebildet ist, ein variabler Spiegel zur Verformung eines Schichtspiegels unter Anwendung eines Aktuators, oder dergleichen können ebenso eingesetzt werden.
  • Ein Verfahren zur Erfassung eines Winkelversatzes für ein adaptives Optiksystem, ein Verfahren zur Erfassung einer Abbildungsvergrößerung für ein adaptives Optiksystem und ein adaptives Optiksystem gemäß einem Aspekt der vorliegenden Erfindung sind nicht auf die zuvor beschriebenen Ausführungsformen beschränkt, und es sind diverse andere Modifizierungen möglich. Beispielsweise sind die Größen der Gebiete B1 und B2 oder der Gebiete B6 bis B8 im Voraus gegeben und der Betrag des Winkelversatzes, usw. werden in den zuvor beschriebenen Ausführungsformen und modifizierten Beispielen erfasst, wobei die Größen der Gebiete B1 und B2 oder der Gebiete B6 bis B8 variabel sein können. 39 ist ein Diagramm, das ein Beispiel des Falles darstellt, in welchem Größen eines ersten und eines zweiten Gebiets B1 und B2 so eingerichtet sind, dass sie variabel sind. In dem in 39(a) dargestellten Beispiel werden die Größen der Gebiete B1 und B2 relativ groß festgelegt und werden auf eine geeignete Größe (beispielsweise eine Größe, die dem Durchmesser der Linse 124 entspricht) auf der Grundlage der erhaltenen Daten der Lichtintensitätsverteilung reduziert. Des Weiteren werden in dem in 39(b) dargestellten Beispiel die Größen der Gebiete B1 und B2 relativ klein festgelegt und werden auf eine geeignete Größe (beispielsweise eine Größe, die dem Durchmesser der Linse 124 entspricht) auf der Grundlage der erhaltenen Daten der Lichtintensitätsverteilung vergrößert. Wie zuvor beschrieben ist, werden die Größen der Gebiete B1 und B2 (oder der Gebiete B6 bis B8) so festgelegt, dass sie variabel sind, so dass es möglich ist, die Gebiete B1 und B2 (oder die Gebiete B6 bis B8) so festzulegen, dass sie eine geeignete Größe haben und diese können ferner präzise den Betrag des Winkelversatzes oder der Abbildungsvergrößerung erfassen. Ferner müssen die Phasenmuster, die in den Gebieten B1 und B2 anzuzeigen sind, nicht notwendigerweise gleich sein. Beispielsweise kann das Phasenmuster mit der zylindrischen Wirkung, wie in 35, in dem Gebiet B1 angezeigt werden, und das Phasenmuster mit der Struktur des Beugungsgitters, wie in 36, kann in dem Gebiet B2 angezeigt werden.
  • Obwohl der Fall, in welchem das adaptive Optiksystem einen einzigen räumlichen Lichtmodulator enthält, in den zuvor beschriebenen Ausführungsformen und modifizierten Beispielen beschrieben ist, kann das adaptive Optiksystem mehrere räumliche Lichtmodulatoren, die optisch gekoppelt sind, aufweisen. Wenn die mehreren räumlichen Lichtmodulatoren in Reihe gekoppelt sind, ist es möglich, den Betrag des Winkelversatzes oder der Abbildungsvergrößerung zwischen einem räumlichen Lichtmodulator und dem Wellenfrontsensor zu erfassen, indem ein räumlicher Lichtmodulator veranlasst wird, das Phasenmuster PA (oder PD) anzuzeigen, und indem der andere räumliche Lichtmodulator veranlasst wird, beispielsweise das im Wesentlichen gleichförmige Phasenmuster anzuzeigen. Wenn ferner die mehreren räumlichen Lichtmodulatoren parallel gekoppelt sind, ist es möglich, den Betrag des Winkelversatzes oder der Abbildungsvergrößerung zwischen einem räumlichen Lichtmodulator und dem Wellenfrontsensor zu erfassen, indem ein räumlicher Lichtmodulator veranlasst wird, das Phasenmuster PA (oder PD) anzuzeigen, und indem der andere räumliche Lichtmodulator veranlasst wird, beispielsweise das im Wesentlichen gleichförmige Phasenmuster anzuzeigen, oder indem ein optisches Bild vor oder nach dem Einfall auf den anderen räumlichen Lichtmodulator abgeschirmt wird. Eine derartige Funktion wird von jedem der mehreren räumlichen Lichtmodulatoren ausgeführt, so dass es möglich ist, Beträge des Winkelversatzes und Abbildungsvergrößerung zwischen allen räumlichen Lichtmodulatoren und dem Wellenfrontsensor zu erfassen.
  • Industrielle Anwendbarkeit
  • Gemäß einem Verfahren zur Erfassung eines Winkelversatzes für ein adaptives Optiksystem und einem adaptiven Optiksystem gemäß einem Aspekt der vorliegenden Erfindung ist es möglich, einen Winkelversatz um eine optische Achse zwischen einer Modulationsoberfläche eines räumlichen Lichtmodulators und einem Wellenfrontsensor einfach zu erfassen. Gemäß einem Verfahren zur Erfassung einer Abbildungsvergrößerung für ein adaptives Optiksystem und gemäß einem adaptiven Optiksystem entsprechend einem Aspekt der vorliegenden Erfindung ist es möglich, eine Abbildungsvergrößerung zwischen einer Modulationsoberfläche eines räumlichen Lichtmodulators und einem Wellenfrontsensor in einfacher Weise zu erfassen.
  • Bezugszeichenliste
  • 10
    Adaptives Optiksystem
    11
    Räumlicher Lichtmodulator
    11a
    Modulationsoberfläche
    12
    Wellenfrontsensor
    13
    Steuereinheit
    14
    Strahlteiler
    15, 16
    Übertragungslinse
    17
    Steuerschaltungseinheit
    18
    Optisches Erfassungselement
    120
    Linsen-Array
    122
    Bildsensor
    122a
    Lichtempfangsoberfläche
    122b
    Pixel
    124
    Linse
    B1
    Erstes Gebiet
    B2
    Zweites Gebiet
    D1, D2, DA bis DD
    Daten der Lichtintensitätsverteilung
    La
    Optisches Bild
    P
    Konvergierender Fleck
    PA bis PD
    Phasenmuster

Claims (16)

  1. Ein Verfahren zur Erfassung eines Winkelversatzes für ein adaptives Optiksystem, das einen räumlichen Lichtmodulator, der ausgebildet ist, eine Phase eines optischen Bildes, das auf eine Modulationsoberfläche fällt, räumlich zu modulieren, und einen Wellenfrontsensor aufweist mit einem Linsen-Array mit mehreren zweidimensional angeordneten Linsen und einem optischen Erfassungselement zur Erfassung einer Lichtintensitätsverteilung mit konvergierenden Flecken, die von dem Linsen-Array erzeugt sind, und der ausgebildet ist, das optische Bild nach der Modulation aus dem räumlichen Lichtmodulator zu empfangen, und das eine Wellenfrontverzerrung kompensiert, indem ein Phasenmuster, das in dem räumlichen Lichtmodulator angezeigt wird, auf der Grundlage einer Form der Wellenfront des optischen Bildes, die aus der Lichtintensitätsverteilung erhalten wird, gesteuert wird, wobei ein Betrag eines Winkelversatzes zwischen der Modulationsoberfläche und dem Wellenfrontsensor berechnet wird, wobei das Verfahren zur Erfassung eines Winkelversatzes umfasst: einen Schritt zur Gewinnung einer Lichtintensitätsverteilung, um die Lichtintensitätsverteilung durch das optische Erfassungselement in einem Zustand zu gewinnen, in welchem ein Phasenmuster mit Linearität in mindestens einer Richtung oder ein räumlich nicht-lineares Phasenmuster in einem ersten Gebiet und einem zweiten Gebiet auf der Modulationsoberfläche korrespondierend zu einer der mehreren Linsen oder zwei oder mehr Linsen, die benachbart zueinander sind, angezeigt wird, und das andere in einem Gebiet angezeigt wird, das das erste und das zweite Gebiet umgibt; und einen Winkelberechnungsschritt, um den Betrag an Winkelversatz zwischen der Modulationsoberfläche und dem Wellenfrontsensor auf der Grundlage einer relativen Positionsabhängigkeit zwischen dem konvergierenden Fleck, der dem ersten Gebiet entspricht, und dem konvergierenden Fleck, der dem zweiten Gebiet entspricht, die in der Lichtintensitätsverteilung enthalten sind, die in dem Schritt zur Gewinnung der Lichtintensitätsverteilung erhalten werden, zu erhalten.
  2. Ein Verfahren zur Erfassung eines Winkelversatzes für ein adaptives Optiksystem, das einen räumlichen Lichtmodulator, der ausgebildet ist, eine Phase eines optischen Bildes, das auf eine Modulationsoberfläche fällt, räumlich zu modulieren, und einen Wellenfrontsensor aufweist mit einem Linsen-Array mit mehreren zweidimensional angeordneten Linsen und einem optischen Erfassungselement zur Erfassung einer Lichtintensitätsverteilung, die konvergierende Flecken enthält, die von dem Linsen-Array erzeugt werden, und ausgebildet ist, das optische Bild nach der Modulation aus dem räumlichen Lichtmodulator zu empfangen, und das eine Wellenfrontverzerrung kompensiert, indem ein in dem räumlichen Lichtmodulator angezeigtes Phasenmuster auf der Grundlage einer Form der Wellenfront des optischen Bildes, die aus der Lichtintensitätsverteilung erhalten wird, gesteuert wird, wobei ein Betrag an Winkelversatz zwischen der Modulationsoberfläche und dem Wellenfrontsensor berechnet wird, wobei das Verfahren zur Erfassung eines Winkelversatzes umfasst: einen Schritt zur Gewinnung einer ersten Lichtintensitätsverteilung, um eine erste Lichtintensitätsverteilung durch das optische Erfassungselement in einem Zustand zu erhalten, in welchem ein Phasenmuster mit Linearität in mindestens einer Richtung oder ein räumlich nicht-lineares Phasenmuster in einem ersten Gebiet auf der Modulationsoberfläche korrespondierend zu einer der mehreren Linsen oder zwei oder mehreren Linsen, die benachbart zueinander angeordnet sind, angezeigt wird und das andere in einem Gebiet angezeigt wird, das das erste Gebiet umgibt; einen Schritt zur Gewinnung einer zweiten Lichtintensitätsverteilung, um eine zweite Lichtintensitätsverteilung durch das optische Erfassungselement in einem Zustand zu erhalten, in welchem ein Phasenmuster mit Linearität in mindestens einer Richtung oder ein räumlich nicht-lineares Phasenmuster in einem zweiten Gebiet angezeigt wird, das ein von dem ersten Gebiet getrenntes Gebiet auf der Modulationsoberfläche korrespondierend zu einer der mehreren Linsen oder zwei oder mehreren Linsen, die benachbart zueinander angeordnet sind, ist, und das andere in einem Gebiet angezeigt wird, das das zweite Gebiet umgibt; und einen Winkelberechnungsschritt, um den Betrag an Winkelversatz zwischen der Modulationsoberfläche und dem Wellenfrontsensor auf der Grundlage einer relativen Positionsabhängigkeit zwischen dem konvergierenden Fleck, der dem ersten Gebiet entspricht und in der ersten Lichtintensitätsverteilung enthalten ist, und dem konvergierenden Fleck, der dem zweiten Gebiet entspricht und in der zweiten Lichtintensitätsverteilung enthalten ist, zu erhalten.
  3. Das Verfahren zur Erfassung eines Winkelversatzes für das adaptive Optiksystem nach Anspruch 1 oder 2, das ferner umfasst: einen Justierschritt, um einen Winkel um das optische Bild der Modulationsoberfläche und/oder des Wellenfrontsensors so zu justieren, dass der Betrag an Winkelversatz, der in dem Winkelberechnungsschritt berechnet wird, reduziert wird.
  4. Das Verfahren zur Erfassung eines Winkelversatzes für das adaptive Optiksystem nach einem der Ansprüche 1 bis 3, wobei das erste und das zweite Gebiet Gebiete sind, die zueinander benachbart sind.
  5. Das Verfahren zur Erfassung eines Winkelversatzes für das adaptive Optiksystem nach einem der Ansprüche 1 bis 3, wobei das erste und das zweite Gebiet Gebiete sind, die voneinander getrennt sind.
  6. Ein Verfahren zur Erfassung einer Abbildungsvergrößerung für ein adaptives Optiksystem, das einen räumlichen Lichtmodulator, der ausgebildet ist, eine Phase eines optischen Bildes, das auf eine Modulationsoberfläche fällt, räumlich zu modulieren, und einen Wellenfrontsensor aufweist mit einem Linsen-Array mit mehreren zweidimensional angeordneten Linsen und einem optischen Erfassungselement zur Erfassung einer Lichtintensitätsverteilung mit konvergierenden Flecken, die durch das Linsen-Array erzeugt werden, und ausgebildet ist, das optische Bild nach der Modulation aus dem räumlichen Lichtmodulator zu empfangen, und das eine Wellenfrontverzerrung kompensiert, indem ein Phasenmuster, das in dem räumlichen Lichtmodulator angezeigt ist, auf der Grundlage einer Form der Wellenfront des optischen Bildes, das aus der Lichtintensitätsverteilung erhalten wird, gesteuert wird, wobei die Abbildungsvergrößerung zwischen der Modulationsoberfläche und dem Wellenfrontsensor erfasst wird, wobei das Verfahren zur Erfassung einer Abbildungsvergrößerung umfasst: einen Schritt zur Gewinnung einer Lichtintensitätsverteilung, um die Lichtintensitätsverteilung durch das optische Erfassungselement in einem Zustand zu erhalten, in welchem ein Phasenmuster mit Linearität in mindestens einer Richtung und ein räumlich nicht-lineares Phasenmuster in einem ersten Gebiet und einem zweiten Gebiet auf der Modulationsoberfläche korrespondierend zu einer der mehreren Linsen oder zwei oder mehreren Linsen, die benachbart zueinander angeordnet sind, angezeigt wird, und das andere in einem Gebiet angezeigt wird, das das erste und das zweite Gebiet umgibt; und einen Vergrößerungsberechnungsschritt, um die Abbildungsvergrößerung zwischen der Modulationsoberfläche und dem Wellenfrontsensor auf der Grundlage eines Abstands zwischen dem konvergierenden Fleck, der dem ersten Gebiet entspricht, und dem konvergierenden Fleck, der dem zweiten Gebiet entspricht, die in der Lichtintensitätsverteilung enthalten sind, die in dem Schritt zur Gewinnung der Lichtintensitätsverteilung erhalten wird, zu erhalten.
  7. Ein Verfahren zur Erfassung einer Abbildungsvergrößerung für ein adaptives Optiksystem, das einen räumlichen Lichtmodulator, der ausgebildet ist, eine Phase eines optischen Bildes, das auf eine Modulationsoberfläche fällt, räumlich zu modulieren, und einen Wellenfrontsensor aufweist mit einem Linsen-Array mit mehreren zweidimensional angeordneten Linsen und einem optischen Erfassungselement zur Erfassung einer Lichtintensitätsverteilung mit konvergierenden Flecken, die durch das Linsen-Array erzeugt werden, und ausgebildet ist, das optische Bild nach der Modulation aus dem räumlichen Lichtmodulator zu empfangen, und das eine Wellenfrontverzerrung kompensiert, indem ein Phasenmuster, das in dem räumlichen Lichtmodulator angezeigt ist, auf der Grundlage einer Form der Wellenfront des optischen Bildes, das aus der Lichtintensitätsverteilung erhalten wird, gesteuert wird, wobei die Abbildungsvergrößerung zwischen der Modulationsoberfläche und dem Wellenfrontsensor erfasst wird, wobei das Verfahren zur Erfassung einer Abbildungsvergrößerung umfasst: einen Schritt zur Gewinnung einer ersten Lichtintensitätsverteilung, um eine erste Lichtintensitätsverteilung durch das optische Erfassungselement in einem Zustand zu erhalten, in welchem ein Phasenmuster mit Linearität in mindestens einer Richtung oder ein räumlich nicht-lineares Phasenmuster in einem ersten Gebiet auf der Modulationsoberfläche korrespondierend zu einer der mehreren Linsen oder zwei oder mehreren Linsen, die benachbart zueinander angeordnet sind, angezeigt wird, und das andere in einem Gebiet angezeigt wird, das das erste Gebiet umgibt; einen Schritt zur Gewinnung einer zweiten Lichtintensitätsverteilung, um eine zweite Lichtintensitätsverteilung durch das optische Erfassungselement in einem Zustand zu erhalten, in welchem ein Phasenmuster mit Linearität in mindestens einer Richtung oder ein räumlich nicht-lineares Phasenmuster in einem zweiten Gebiet angezeigt wird, das ein Gebiet, das von dem ersten Gebiet auf der Modulationsoberfläche getrennt ist, korrespondierend zu einer der mehreren Linsen oder zwei oder mehreren Linsen, die benachbart zueinander angeordnet sind, ist, und wobei das andere in einem Gebiet angezeigt wird, das das zweite Gebiet umgibt; und einen Vergrößerungsberechnungsschritt, um die Abbildungsvergrößerung zwischen der Modulationsoberfläche und dem Wellenfrontsensor auf der Grundlage eines Abstands zwischen dem konvergierenden Fleck, der dem ersten Gebiet entspricht und in der ersten Lichtintensitätsverteilung enthalten ist, und dem konvergierenden Fleck, der dem zweiten Gebiet entspricht und in der zweiten Lichtintensitätsverteilung enthalten ist, zu erhalten.
  8. Das Verfahren zur Erfassung einer Abbildungsvergrößerung für das adaptive Optiksystem nach Anspruch 6 oder 7, das ferner umfasst: einen Justierschritt, um die Vergrößerung eines lichtführenden optischen Systems, das zwischen der Modulationsoberfläche und dem Wellenfrontsensor angeordnet ist, so zu justieren, dass die in dem Vergrößerungsberechnungsschritt berechnete Abbildungsvergrößerung nahe an einer vorbestimmten Abbildungsvergrößerung liegt.
  9. Das Verfahren zur Erfassung einer Abbildungsvergrößerung für das adaptive Optiksystem nach Anspruch 6 oder 7, das ferner umfasst: einen Justierschritt, um einen optischen Abstand zwischen der Modulationsoberfläche und dem Wellenfrontsensor so zu justieren, dass die in dem Vergrößerungsberechnungsschritt berechnete Abbildungsvergrößerung nahe bei einer vorbestimmten Abbildungsvergrößerung liegt.
  10. Das Verfahren zum Erfassen einer Abbildungsvergrößerung für das adaptive Optiksystem nach Anspruch 6 oder 7, das ferner umfasst: einen Justierschritt, um eine Größe eines Gebiets auf der Modulationsoberfläche, in welchem das Phasenmuster zum Kompensieren der Wellenfrontverzerrung angezeigt wird, auf der Grundlage der in dem Vergrößerungsberechnungsschritt berechneten Abbildungsvergrößerung zu justieren.
  11. Das Verfahren zum Erfassen einer Abbildungsvergrößerung für das adaptive Optiksystem nach einem der Ansprüche 6 bis 10, wobei das erste und das zweite Gebiet benachbart zueinander angeordnet sind.
  12. Das Verfahren zum Erfassen einer Abbildungsvergrößerung für das adaptive Optiksystem nach einem der Ansprüche 6 bis 10, wobei das erste und das zweite Gebiet Gebiete sind, die voneinander beabstandet sind.
  13. Ein adaptives Optiksystem mit: einem räumlichen Lichtmodulator, der ausgebildet ist, eine Phase eines auf eine Modulationsoberfläche einfallenden optischen Bildes räumlich zu modulieren; einem Wellenfrontsensor mit einem Linsen-Array mit mehreren zweidimensional angeordneten Linsen und einem optischen Erfassungselement zum Erfassen einer Lichtintensitätsverteilung mit konvergierenden Flecken, die durch das Linsen-Array gebildet sind, und ausgebildet ist, das optische Bild nach der Modulation aus dem räumlichen Lichtmodulator zu empfangen; und einer Steuereinheit, die ausgebildet ist, eine Wellenfrontverzerrung zu kompensieren, indem ein in dem räumlichen Lichtmodulator angezeigtes Phasenmuster auf der Grundlage einer Form der Wellenfront des optischen Bildes, das aus der Lichtintensitätsverteilung erhalten wird, gesteuert wird, wobei die Steuereinheit die Lichtintensitätsverteilung durch das optische Erfassungselement in einem Zustand erhält, in welchem ein Phasenmuster mit Linearität in mindestens einer Richtung oder ein räumlich nicht-lineares Phasenmuster in einem ersten Gebiet und einem zweiten Gebiet auf der Modulationsoberfläche korrespondierend zu einer der mehreren Linsen oder zwei oder mehr Linsen, die benachbart zueinander sind, angezeigt wird, und das andere in einem Gebiet angezeigt wird, das das erste und das zweite Gebiet umgibt, und den Betrag an Winkelversatz zwischen der Modulationsoberfläche und dem Wellenfrontsensor auf der Grundlage einer relativen Positionsabhängigkeit zwischen dem konvergierenden Fleck, der dem ersten Gebiet entspricht, und dem konvergierenden Fleck, der dem zweiten Gebiet entspricht, die in der Lichtintensitätsverteilung enthalten sind, die in der Lichtintensitätsverteilung enthalten sind, erhält
  14. Ein adaptives Optiksystem mit: einem räumlichen Lichtmodulator, der ausgebildet ist, eine Phase eines auf eine Modulationsoberfläche einfallenden optischen Bildes räumlich zu modulieren; einem Wellenfrontsensor mit einem Linsen-Array mit mehreren zweidimensional angeordneten Linsen und einem optischen Erfassungselement zum Erfassen einer Lichtintensitätsverteilung mit konvergierenden Flecken, die durch das Linsen-Array gebildet sind, und ausgebildet ist, das optische Bild nach der Modulation aus dem räumlichen Lichtmodulator zu empfangen; und einer Steuereinheit, die ausgebildet ist, eine Wellenfrontverzerrung zu kompensieren, indem ein in dem räumlichen Lichtmodulator angezeigtes Phasenmuster auf der Grundlage einer Form der Wellenfront des optischen Bildes, das aus der Lichtintensitätsverteilung erhalten wird, gesteuert wird, wobei die Steuereinheit eine erste Lichtintensitätsverteilung durch das optische Erfassungselement in einem Zustand erhält, in welchem ein Phasenmuster mit Linearität in mindestens einer Richtung oder ein räumlich nicht-lineares Phasenmuster in einem ersten Gebiet auf der Modulationsoberfläche korrespondierend zu einer der mehreren Linsen oder zwei oder mehreren Linsen, die benachbart zueinander angeordnet sind, angezeigt wird und das andere in einem Gebiet angezeigt wird, das das erste Gebiet umgibt, eine zweite Lichtintensitätsverteilung durch das optische Erfassungselement in einem Zustand erhält, in welchem ein Phasenmuster mit Linearität in mindestens einer Richtung oder ein räumlich nicht-lineares Phasenmuster in einem zweiten Gebiet angezeigt wird, das ein von dem ersten Gebiet getrenntes Gebiet auf der Modulationsoberfläche korrespondierend zu einer der mehreren Linsen oder zwei oder mehreren Linsen, die benachbart zueinander angeordnet sind, ist, und das andere in einem Gebiet angezeigt wird, das das zweite Gebiet umgibt, und den Betrag an Winkelversatz zwischen der Modulationsoberfläche und dem Wellenfrontsensor auf der Grundlage einer relativen Positionsabhängigkeit zwischen dem konvergierenden Fleck, der dem ersten Gebiet entspricht und in der ersten Lichtintensitätsverteilung enthalten ist, und dem konvergierenden Fleck, der dem zweiten Gebiet entspricht und in der zweiten Lichtintensitätsverteilung enthalten ist, ermittelt.
  15. Ein adaptives Optiksystem mit: einem räumlichen Lichtmodulator, der ausgebildet ist, eine Phase eines auf eine Modulationsoberfläche einfallenden optischen Bildes räumlich zu modulieren; einem Wellenfrontsensor mit einem Linsen-Array mit mehreren zweidimensional angeordneten Linsen und einem optischen Erfassungselement zum Erfassen einer Lichtintensitätsverteilung mit konvergierenden Flecken, die durch das Linsen-Array gebildet sind, und ausgebildet ist, das optische Bild nach der Modulation aus dem räumlichen Lichtmodulator zu empfangen; und einer Steuereinheit, die ausgebildet ist, eine Wellenfrontverzerrung zu kompensieren, indem ein in dem räumlichen Lichtmodulator angezeigtes Phasenmuster auf der Grundlage einer Form der Wellenfront des optischen Bildes, das aus der Lichtintensitätsverteilung erhalten wird, gesteuert wird, wobei die Steuereinheit die Lichtintensitätsverteilung durch das optische Erfassungselement in einem Zustand erhält, in welchem ein Phasenmuster mit Linearität in mindestens einer Richtung und ein räumlich nicht-lineares Phasenmuster in einem ersten Gebiet und einem zweiten Gebiet auf der Modulationsoberfläche korrespondierend zu einer der mehreren Linsen oder zwei oder mehreren Linsen, die benachbart zueinander angeordnet sind, angezeigt wird, und das andere in einem Gebiet angezeigt wird, das das erste und das zweite Gebiet umgibt, und die Abbildungsvergrößerung zwischen der Modulationsoberfläche und dem Wellenfrontsensor auf der Grundlage eines Abstands zwischen dem konvergierenden Fleck, der dem ersten Gebiet entspricht, und dem konvergierenden Fleck, der dem zweiten Gebiet entspricht, die in der Lichtintensitätsverteilung enthalten sind, ermittelt.
  16. Ein adaptives Optiksystem mit: einem räumlichen Lichtmodulator, der ausgebildet ist, eine Phase eines auf eine Modulationsoberfläche einfallenden optischen Bildes räumlich zu modulieren; einem Wellenfrontsensor mit einem Linsen-Array mit mehreren zweidimensional angeordneten Linsen und einem optischen Erfassungselement zum Erfassen einer Lichtintensitätsverteilung mit konvergierenden Flecken, die durch das Linsen-Array gebildet sind, und ausgebildet ist, das optische Bild nach der Modulation aus dem räumlichen Lichtmodulator zu empfangen; und einer Steuereinheit, die ausgebildet ist, eine Wellenfrontverzerrung zu kompensieren, indem ein in dem räumlichen Lichtmodulator angezeigtes Phasenmuster auf der Grundlage einer Form der Wellenfront des optischen Bildes, das aus der Lichtintensitätsverteilung erhalten wird, gesteuert wird, wobei die Steuereinheit eine erste Lichtintensitätsverteilung durch das optische Erfassungselement in einem Zustand erhält, in welchem ein Phasenmuster mit Linearität in mindestens einer Richtung oder ein räumlich nicht-lineares Phasenmuster in einem ersten Gebiet auf der Modulationsoberfläche korrespondierend zu einer der mehreren Linsen oder zwei oder mehreren Linsen, die benachbart zueinander angeordnet sind, angezeigt wird, und das andere in einem Gebiet angezeigt wird, das das erste Gebiet umgibt, eine zweite Lichtintensitätsverteilung durch das optische Erfassungselement in einem Zustand erhält, in welchem ein Phasenmuster mit Linearität in mindestens einer Richtung oder ein räumlich nicht-lineares Phasenmuster in einem zweiten Gebiet angezeigt wird, das ein Gebiet, das von dem ersten Gebiet auf der Modulationsoberfläche getrennt ist, korrespondierend zu einer der mehreren Linsen oder zwei oder mehreren Linsen, die benachbart zueinander angeordnet sind, ist, und wobei das andere in einem Gebiet angezeigt wird, das das zweite Gebiet umgibt, und die Abbildungsvergrößerung zwischen der Modulationsoberfläche und dem Wellenfrontsensor auf der Grundlage eines Abstands zwischen dem konvergierenden Fleck, der dem ersten Gebiet entspricht und in der ersten Lichtintensitätsverteilung enthalten ist, und dem konvergierenden Fleck, der dem zweiten Gebiet entspricht und in der zweiten Lichtintensitätsverteilung enthalten ist, ermittelt.
DE112014002681.6T 2013-06-06 2014-05-29 Verfahren zur Erfassung eines Winkelversatzes für adaptives Optiksystem, Verfahren zur Erfassung einer Abbildungsvergrößerung für adaptives Optiksystem und adaptives Optiksystem Pending DE112014002681T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013119851 2013-06-06
JP2013-119851 2013-06-06
PCT/JP2014/064293 WO2014196447A1 (ja) 2013-06-06 2014-05-29 補償光学システムの角度ずれ検出方法、補償光学システムの結像倍率検出方法、及び補償光学システム

Publications (1)

Publication Number Publication Date
DE112014002681T5 true DE112014002681T5 (de) 2016-03-17

Family

ID=52008093

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112014002681.6T Pending DE112014002681T5 (de) 2013-06-06 2014-05-29 Verfahren zur Erfassung eines Winkelversatzes für adaptives Optiksystem, Verfahren zur Erfassung einer Abbildungsvergrößerung für adaptives Optiksystem und adaptives Optiksystem

Country Status (5)

Country Link
US (1) US9477082B2 (de)
JP (1) JP6226977B2 (de)
CN (1) CN105264346B (de)
DE (1) DE112014002681T5 (de)
WO (1) WO2014196447A1 (de)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014196450A1 (ja) * 2013-06-06 2014-12-11 浜松ホトニクス株式会社 補償光学システムの対応関係特定方法、波面歪み補償方法、補償光学システム、および補償光学システム用プログラムを記憶する記録媒体
EP2908341B1 (de) * 2014-02-18 2018-07-11 ams AG Halbleitervorrichtung mit oberflächenintegriertem Fokussierelement
WO2017009808A2 (en) * 2015-07-15 2017-01-19 The Secretary, Department of Electronics and Information Technology (DeitY) Free space optical communication system, apparatus and a method thereof
CN105700157B (zh) * 2016-04-22 2019-01-08 四川大学 惯性约束聚变装置中基于复合型光栅的光谱色散匀滑方法
CN106226042B (zh) * 2016-07-27 2018-06-15 中国科学院长春光学精密机械与物理研究所 空间光学遥感器碳纤维结构稳定性的自动测试系统及方法
IL251636B (en) 2017-04-06 2018-02-28 Yoav Berlatzky A system and method for a coherent camera
JP7158827B2 (ja) * 2017-04-21 2022-10-24 キヤノン株式会社 眼科撮影装置およびその制御方法
CN110389020B (zh) * 2018-04-16 2021-11-30 深圳光峰科技股份有限公司 空间光调制器的检测方法
CN109342324A (zh) * 2018-11-27 2019-02-15 中国航空工业集团公司沈阳飞机设计研究所 一种飞机风挡玻璃光学角偏差测试系统
CN110346340B (zh) * 2019-07-19 2020-08-14 浙江大学 基于波前传感器的机器学习快速像差测量系统与方法
CN113777777A (zh) * 2021-03-12 2021-12-10 中国人民解放军国防科技大学 一种具有激光防御功能的光电成像系统
CN114859577B (zh) * 2022-07-07 2022-10-28 浙江大学 一种基于生物组织成像的自适应光学校正系统
US20240329381A1 (en) * 2023-04-03 2024-10-03 Araceli Biosciences Inc. System and method for microscope optical alignment

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6911637B1 (en) * 2002-05-23 2005-06-28 The United States Of America As Represented By The Secretary Of The Army Wavefront phase sensors using optically or electrically controlled phase spatial light modulators
JP4479282B2 (ja) * 2004-03-03 2010-06-09 ソニー株式会社 記録媒体キュアー方法及びホログラム記録装置
JP4531431B2 (ja) * 2004-04-02 2010-08-25 浜松ホトニクス株式会社 波面補償装置、波面補償方法、プログラム、及び、記録媒体
JP5139832B2 (ja) * 2008-02-14 2013-02-06 浜松ホトニクス株式会社 観察装置
CN102331303B (zh) * 2011-08-05 2012-10-03 中国科学院光电技术研究所 一种基于光栅的相位差波前传感器
JP5919100B2 (ja) * 2012-06-04 2016-05-18 浜松ホトニクス株式会社 補償光学システムの調整方法および補償光学システム

Also Published As

Publication number Publication date
US9477082B2 (en) 2016-10-25
WO2014196447A1 (ja) 2014-12-11
JP6226977B2 (ja) 2017-11-08
JPWO2014196447A1 (ja) 2017-02-23
US20160109700A1 (en) 2016-04-21
CN105264346A (zh) 2016-01-20
CN105264346B (zh) 2018-04-13

Similar Documents

Publication Publication Date Title
DE112014002683B4 (de) Justierverfahren für adaptives Optiksystem, adaptives Optiksystem und Speichermedium, das ein Programm für ein adaptives Optiksystem speichert
DE112014002681T5 (de) Verfahren zur Erfassung eines Winkelversatzes für adaptives Optiksystem, Verfahren zur Erfassung einer Abbildungsvergrößerung für adaptives Optiksystem und adaptives Optiksystem
DE112014002694B4 (de) Verfahren zur Bestimmung einer Übereinstimmungsbeziehung für ein adaptives Optiksystem, Verfahren zur Kompensation einer Wellenfrontverzerrung, adaptives Optiksystem und Speichermedium zur Speicherung eines Programms für ein adaptives Optiksystem
DE112013002773B4 (de) Verfahren zum Einstellen eines kompensierenden Optiksystems und kompensierendes Optiksystem
DE112014002729T5 (de) Verfahren zur Bestimmung einer Übereinstimmungsbeziehung für ein adaptives Optiksystem, ein adaptives Optiksystem, und ein Speichermedium zur Speicherung eines Programms für ein adaptives Optiksystem
EP0167877B1 (de) Gerät zur Darstellungflächenhafter Bereiche des menschlichen Auges
DE102011114500B4 (de) Mikroskopvorrichtung
DE3886893T2 (de) Gerät zur drei-dimensionalen Messung einer Form.
EP3186952B1 (de) Bildaufnahmevorrichtung und verfahren zur bildaufnahme
DE102011001083B4 (de) Projektorvorrichtung mit Selbstkorrekturfunktion sowie Medizingerät mit der Projektorvorrichtung
DE102005034332A1 (de) Einrichtung und Verfahren zur Beobachtung, Dokumentation und/oder Diagnose des Augenhintergrundes
DE112009000369T5 (de) Beobachtungsvorrichtung
DE102010000122A1 (de) Vorrichtung zum dreidimensionalen Messen
DE10257766A1 (de) Verfahren zur Einstellung einer gewünschten optischen Eigenschaft eines Projektionsobjektivs sowie mikrolithografische Projektionsbelichtungsanlage
DE102010016997A1 (de) Inspektionssystem und Verfahren mit Mehrfachbildphasenverschiebungsanalyse
DE202015009623U1 (de) Bildbearbeitungseinrichtung und Kombinationsmikroskop zur Korrektur eines OCT-Bildes
DE102011083353A1 (de) Abbildungsvorrichtung und Abbildungsverfahren
EP2680738A1 (de) Projektorvorrichtung sowie medizingerät mit der projektorvorrichtung
DE102007057260A1 (de) Verfahren und Anordnung zur Bestimmung der optischen Abbildungsqualität von Gleitsichtgläsern
DE112015002582T5 (de) Einstellsystem für ein Phasenmodulationselement und Einstellverfahren für ein Phasenmodulationselement
DE10202738B4 (de) Phasenverschiebungsstreifenanalyseverfahren und eine dieses Verfahren verwendende Vorrichtung
DE102015118278A1 (de) Verfahren und System zur Vergrößerungskorrektur aus mehreren Fokusebenen
DE102014010667B4 (de) Verfahren und Vorrichtung zur Messung der Form einer Wellenfront eines optischen Strahlungsfeldes
DE10014334A1 (de) Vorrichtung und Verfahren zur ortsaufgelösten Brechkraft-Bestimmung
EP1293817B1 (de) Vorrichtung und Verfahren zur Fokuskontrolle in einem Mikroskop mit digitaler Bildgebung, vorzugsweise einem konfokalen Mikroskop

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R002 Refusal decision in examination/registration proceedings