DE112014002683B4 - Justierverfahren für adaptives Optiksystem, adaptives Optiksystem und Speichermedium, das ein Programm für ein adaptives Optiksystem speichert - Google Patents

Justierverfahren für adaptives Optiksystem, adaptives Optiksystem und Speichermedium, das ein Programm für ein adaptives Optiksystem speichert Download PDF

Info

Publication number
DE112014002683B4
DE112014002683B4 DE112014002683.2T DE112014002683T DE112014002683B4 DE 112014002683 B4 DE112014002683 B4 DE 112014002683B4 DE 112014002683 T DE112014002683 T DE 112014002683T DE 112014002683 B4 DE112014002683 B4 DE 112014002683B4
Authority
DE
Germany
Prior art keywords
light intensity
intensity distribution
phase
phase pattern
wavefront
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE112014002683.2T
Other languages
English (en)
Other versions
DE112014002683T5 (de
Inventor
Hongxin Huang
Takashi Inoue
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hamamatsu Photonics KK
Original Assignee
Hamamatsu Photonics KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hamamatsu Photonics KK filed Critical Hamamatsu Photonics KK
Publication of DE112014002683T5 publication Critical patent/DE112014002683T5/de
Application granted granted Critical
Publication of DE112014002683B4 publication Critical patent/DE112014002683B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B26/00Optical devices or arrangements for the control of light using movable or deformable optical elements
    • G02B26/06Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the phase of light
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J9/00Measuring optical phase difference; Determining degree of coherence; Measuring optical wavelength
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M11/00Testing of optical apparatus; Testing structures by optical methods not otherwise provided for
    • G01M11/02Testing optical properties
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0025Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for optical correction, e.g. distorsion, aberration
    • G02B27/0068Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for optical correction, e.g. distorsion, aberration having means for controlling the degree of correction, e.g. using phase modulators, movable elements
    • GPHYSICS
    • G02OPTICS
    • G02FOPTICAL DEVICES OR ARRANGEMENTS FOR THE CONTROL OF LIGHT BY MODIFICATION OF THE OPTICAL PROPERTIES OF THE MEDIA OF THE ELEMENTS INVOLVED THEREIN; NON-LINEAR OPTICS; FREQUENCY-CHANGING OF LIGHT; OPTICAL LOGIC ELEMENTS; OPTICAL ANALOGUE/DIGITAL CONVERTERS
    • G02F1/00Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics
    • G02F1/01Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour 
    • G02F1/13Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour  based on liquid crystals, e.g. single liquid crystal display cells
    • GPHYSICS
    • G02OPTICS
    • G02FOPTICAL DEVICES OR ARRANGEMENTS FOR THE CONTROL OF LIGHT BY MODIFICATION OF THE OPTICAL PROPERTIES OF THE MEDIA OF THE ELEMENTS INVOLVED THEREIN; NON-LINEAR OPTICS; FREQUENCY-CHANGING OF LIGHT; OPTICAL LOGIC ELEMENTS; OPTICAL ANALOGUE/DIGITAL CONVERTERS
    • G02F2203/00Function characteristic
    • G02F2203/18Function characteristic adaptive optics, e.g. wavefront correction

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Nonlinear Science (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Crystallography & Structural Chemistry (AREA)
  • Optical Modulation, Optical Deflection, Nonlinear Optics, Optical Demodulation, Optical Logic Elements (AREA)
  • Liquid Crystal (AREA)

Abstract

Ein Justierverfahren für ein adaptives Optiksystem (10), das einen räumlichen Lichtmodulator (11), der ausgebildet ist, eine Phase eines optischen Bildes (La) räumlich zu modulieren, das auf eine Modulationsoberfläche (11a) fällt, und einen Wellenfrontsensor (12) aufweist mit einem Linsen-Array (120) mit mehreren zweidimensional angeordneten Linsen (124) und einem optischen Erfassungselement (122) zur Erfassung einer Lichtintensitätsverteilung, die konvergierende Flecken (P), die von dem Linsen-Array (120) erzeugt werden, enthält, und das ausgebildet ist, das optische Bild (La) nach der Modulation aus dem räumlichen Lichtmodulator (11) zu empfangen, und das eine Wellenfrontverzerrung kompensiert, indem ein Phasenmuster, das in dem räumlichen Lichtmodulator (11) angezeigt wird, auf der Grundlage einer Form der Wellenfront des optischen Bildes (La), die aus der Lichtintensitätsverteilung ermittelt wird, gesteuert wird, wobei die Zuordnungsrelation zwischen der Modulationsoberfläche (11a) und dem Wellenfrontsensor (12) justiert wird, wobei das Justierverfahren umfasst:einen ersten Schritt zur Gewinnung einer Lichtintensitätsverteilung, um die Lichtintensitätsverteilung durch das optische Erfassungselement (122) in einem Zustand zu erhalten, in welchem ein erstes Phasenmuster mit Linearität in mindestens einer Richtung oder ein räumlich nicht-lineares zweites Phasenmuster in einem ersten Gebiet (B1) auf der Modulationsoberfläche korrespondierend zu einer der mehreren Linsen (124) oder zwei oder mehr Linsen (124), die benachbart zueinander sind, angezeigt wird und das andere des ersten und des zweiten Phasenmusters in einem zweiten Gebiet (B2), das das erste Gebiet (B1) umgibt, angezeigt wird; undeinen Justierschritt, um die Zuordnungsrelation zwischen der Modulationsoberfläche und dem Wellenfrontsensor (12) auf der Grundlage einer Deutlichkeit des konvergierenden Flecks (P), der in der Lichtintensitätsverteilung enthalten ist, die in dem ersten Schritt zur Gewinnung der Lichtintensitätsverteilung erhalten wird, zu justieren.

Description

  • Technisches Gebiet
  • Ein Aspekt der vorliegenden Erfindung betrifft ein Justierverfahren für ein adaptives Optiksystem, ein adaptives Optiksystem und ein Speichermedium, das ein Programm für ein adaptives Optiksystem speichert.
  • Stand der Technik
  • Die DE 11 2009 000 369 T5 betrifft eine Beobachtungsvorrichtung. Die US 6 827 442 B2 betrifft Vorrichtungen und ein Verfahren zur Verbesserung der Aberrationsbestimmung.
    In den Druckschriften Nicht-Patentliteratur 1 und Nicht-Patentliteratur 2 sind Verfahren zur Einstellung eines adaptiven Optiksystems gemäß einem Phasenmessverfahren offenbart. Das Phasenmessverfahren ist ein Verfahren zur Messung einer Phasenverteilung mittels eines Wellenfrontsensors, nachdem bewirkt wird, dass ein räumlicher Lichtmodulator eine bekannte Phasenverteilung anzeigt, und zur gegenseitigen Zuordnung von Koordinaten auf einer Modulationsoberfläche und Koordinaten auf einer Erfassungsoberfläche durch Vergleich eines Messergebnisses mit der bekannten Phasenverteilung.
  • Zitatliste
  • Nicht-Patentliteratur
    • [Nicht-Patentliteratur 1] AWWAL, A. [et al.]: Characterization and Operation of a Liquid Crystal Adaptive Optics Phoropter. In: Proc. of SPIE, Vol. 5169, 2003, Pages 104 – 122, ISSN 1996 - 756X
    • [Nicht-Patentliteratur 2] Porter [et al.]: Adaptive Optics for Vision Science. Hoboken: Wiley Interscience, 2006. Chapter 18, pp. 496-499. - ISBN 9780471679417
  • Überblick über die Erfindung
  • Technisches Problem
  • Die Technik der adaptiven Optik ist eine Technik zur dynamischen Entfernung einer Abberation durch Messung einer optischen Abberation (Wellenfrontverzerrung) unter Anwendung eines Wellenfrontsensors und Steuerung eines Wellenfrontmodulationselements (räumlicher Lichtmodulator) auf der Grundlage eines Messergebnisses. Es ist möglich, eine Abbildungseigenschaft, einen Grad an Konvergenz, ein SN-Verhältnis eines Bildes und eine Messgenauigkeit durch die zuvor beschriebene Technik der adaptiven Optik zu verbessern. Konventionellerweise wird die Technik der adaptiven Optik hauptsächlich in astronomischen Teleskopen und großen Laser-Vorrichtungen eingesetzt. In jüngerer Zeit ist die Technik der adaptiven Optik auch auf Augengrund-Kameras, Raster-Laser-Ophtalmoscope, Vorrichtungen zur optischen Kohärenztomographie, Laser-Mikroskope, usw. angewendet worden. Die Abbildung unter Verwendung derartiger Techniken mit adaptiver Optik ermöglicht eine Beobachtung mit hoher Auflösung, die bislang nicht verfügbar war. Beispielsweise wird die Abberation im Auge entfernt, indem die Technik der adaptiven Optik auf eine Augengrund-Bildgebungsvorrichtung angewendet wird, um den Hintergrund (Augengrund) des Auges zu beobachten. Beispielsweise ist es möglich, eine Mikrostruktur des Augengrunds, etwa eine Sehzelle, eine Nervenfaser oder ein Kapillargefäß, klar zu beobachten. Die Technik der adaptiven Optik kann auf die frühe Diagnose von Krankheiten im Hinblick auf das Kreislaufsystem sowie auch auf Augenerkrankungen angewendet werden.
  • Ein adaptives Optiksystem zur Implementierung der zuvor beschriebenen Technik der adaptiven Optik ist hauptsächlich aus einem räumlichen Lichtmodulator, einem Wellenfrontsensor und einer Steuervorrichtung zur Steuerung des räumlichen Lichtmodulators und des Wellenfrontsensors aufgebaut. Eine Justierung (Kalibrierung) des adaptiven Optiksystems ist erforderlich, um eine Wellenfrontverzerrung bzw. Wellenfrontverformung vollständig zu eliminieren, indem das adaptive Optiksystem in korrekter Weise betrieben wird. Bei der Kalibrierung des adaptiven Optiksystems wird eine entsprechende Zuordnungsabhängigkeit bzw. Zuordnungsrelation zwischen einem Steuersignal für den räumlichen Lichtmodulator und einem Messsignal aus dem Wellenfrontsensor eingestellt.
  • Diese Zuordnungsrelation ist grob in zwei Arten unterteilt.
    • (1) Zuordnungsrelation zwischen einer Größe des Steuersignals für den räumlichen Lichtmodulator und einer Größe des Messsignals von dem Wellenfrontsensor
    • (2) Zuordnungsrelation zwischen einer Position eines Steuerungspunktes in dem räumlichen Lichtmodulator und einer Position eines Messpunktes in dem Wellenfrontsensor
  • Die zuvor beschriebene Zuordnungsrelation (1) kann einfach aus einer Phasenmodulationscharakteristik des räumlichen Lichtmodulators gewonnen werden. Die Phasenmodulationscharakteristik des räumlichen Lichtmodulators kann von einer Umgebung (beispielsweise einer Temperatur oder einer zeitabhängigen Änderung) bei der Verwendung des räumlichen Lichtmodulators abhängen, aber ist in vielen Fällen auf einem vernachlässigbaren Niveau. Ferner hängt die zuvor beschriebene Zuordnungsrelation (2) von einer räumlichen Positionsbeziehung bzw. Positionsrelation (hauptsächlich eine Positionsrelation innerhalb einer Ebene, die die optische Achse schneidet) zwischen dem räumlichen Lichtmodulator und dem Wellenfrontsensor ab.
  • In dem adaptiven Optiksystem wird eine Wellenfront mit einer Genauigkeit einer Lichtwellenlänge oder weniger (beispielsweise auf Sub-Mikrometer-Ebene) gesteuert. Daher kann eine Positionsverschiebung zwischen einer Phasenverteilung, die in dem Wellenfrontsensor gemessen wird, und einem Kompensationsphasenmuster, das in dem räumlichen Lichtmodulator angezeigt wird, aufgrund einer Erschütterung zum Zeitpunkt des Transportes oder in einem Installationsort oder aufgrund einer Verformung oder dergleichen eines Elements zum Halten des Wellenfrontsensor oder des räumlichen Lichtmodulator aufgrund von Wärme auftreten. Daher ist ein Justiervorgang, der den zuvor beschriebenen Punkt (2) betrifft, nicht auf die Zeit der Installation oder eine Wartung einer Vorrichtung, die das adaptive optische System beinhaltet, beschränkt, und es ist bevorzugt, den Justiervorgang selbst unmittelbar vor Verwendung der Vorrichtung oder einige Male während der Bilderzeugung auszuführen. Somit sind Mittel zur Ausführung der zuvor beschriebenen Justierung in einfacher Weise und mit hoher Genauigkeit erforderlich.
  • Da es jedoch erforderlich ist, eine Phasenverteilung aus einem Messergebnis des Wellenfrontsensors in dem in der Nicht-Patentliteratur 1 offenbarten Phasenmessverfahren zu berechnen, hängt die Genauigkeit der Justierung von der Genauigkeit der Phasenmodulation des räumlichen Lichtmodulators, der Genauigkeit der Phasenmessung des Wellenfrontsensors und der Genauigkeit einer optischen Abbildung zur Kalibrierung ab, und es ist schwierig, die Justierung mit hoher Genauigkeit in stabiler Weise umzusetzen.
  • Ein Aspekt der vorliegenden Erfindung wurde im Hinblick auf die zuvor beschriebenen Probleme erdacht, und es ist eine Aufgabe der Erfindung, ein Justierverfahren für ein adaptives Optiksystem, ein adaptives Optiksystem und ein Speichermedium zur Speicherung eines Programms für ein adaptives Optiksystem bereitzustellen, die eine Zuordnungsrelation zwischen einem in einem Wellenfrontsensor gemessenen Phasenmuster und einem Kompensationsphasenmuster, das in einem räumlichen Lichtmodulator angezeigt wird, rasch und mit hoher Genauigkeit justieren können.
  • Lösung des Problems
  • Gemäß einem Aspekt der vorliegenden Erfindung wird zur Lösung der zuvor beschriebenen Probleme ein Justierverfahren für ein adaptives Optiksystem bereitgestellt, das einen räumlichen Lichtmodulator, der ausgebildet ist, eine Phase eines optischen Bildes, das auf eine Modulationsoberfläche fällt, räumlich zu modulieren, und einen Wellenfrontsensor aufweist, der ein Linsen-Array mit mehreren zweidimensional angeordneten Linsen und ein optisches Erfassungselement zum Erfassen einer Lichtintensitätsverteilung mit konvergierenden Flecken, die von dem Linsen-Array erzeugt sind, aufweist, und ausgebildet ist, das optische Bild nach der Modulation von dem räumlichen Lichtmodulator zu empfangen, und eine Wellenfrontverzerrung kompensiert, indem ein Phasenmuster, das in dem räumlichen Lichtmodulator angezeigt wird, auf der Grundlage einer Wellenfrontform des optischen Bildes, das aus der Lichtintensitätsverteilung erhalten wird, gesteuert wird, wobei die Zuordnungsrelation zwischen der Modulationsoberfläche und dem Wellenfrontsensor eingestellt wird, wobei das ist die Verfahren umfasst: einen ersten Schritt zur Gewinnung einer Lichtintensitätsverteilung, um die Lichtintensitätsverteilung durch das optische Erfassungselement in einem Zustand zu erhalten, in welchem ein erstes Phasenmuster mit Linearität zumindest in einer Richtung oder ein räumlich nicht-lineares zweites Phasenmuster in einem ersten Gebiet der Modulationsoberfläche entsprechend zu einer der mehreren Linsen oder zwei oder mehr Linsen, die benachbart zu einander sind, angezeigt wird, und das andere Phasenmuster des ersten und des zweiten Phasenmusters in einem zweiten Gebiet, das das erste Gebiet umgibt, angezeigt wird; und einen Justierschritt zur Justierung der Zuordnungsrelation zwischen der Modulationsoberfläche und dem Wellenfrontsensor auf der Grundlage der Klarheit bzw. Deutlichkeit des konvergierenden Flecks, der in der Lichtintensitätsverteilung enthalten ist, die in dem ersten Schritt zur Gewinnung der Lichtintensitätsverteilung erhalten wird.
  • Das Justierverfahren für das adaptive Optiksystem kann ferner umfassen: einen zweiten Schritt zur Gewinnung einer Lichtintensitätsverteilung, um die Lichtintensitätsverteilung durch das optische Erfassungselement in einem Zustand zu gewinnen, in welchem ein räumlich nicht-lineares Phasenmuster in dem ersten und dem zweiten Gebiet angezeigt wird; und einen Differenzberechnungsschritt zur Berechnung einer Differenz zwischen einem numerischen Wert, der mit der Klarheit bzw. Deutlichkeit des konvergierenden Flecks in Beziehung steht, der in dem aus dem ersten Schritt zur Gewinnung der Lichtintensitätsverteilung erhaltenen Lichtintensitätsverteilung enthalten wird, und einem numerischen Wert, der mit der Deutlichkeit des konvergierenden Flecks in Beziehung steht, der in der in dem zweiten Schritt zur Gewinnung der Lichtintensitätsverteilung erhaltenen Lichtintensitätsverteilung enthalten wird, wobei die Zuordnungsrelation zwischen der Modulationsoberfläche und dem Wellenfrontsensor , zum Zeitpunkt des Justierschrittes auf der Grundlage der Differenz eingestellt wird, die in dem Differenzberechnungsschritt erhalten wird, anstatt auf der Grundlage der Klarheit des konvergierenden Flecks, der in der Lichtintensitätsverteilung enthalten ist, die in dem ersten Schritt zur Gewinnung der Lichtintensitätsverteilung erhalten wird.
  • Ferner kann in dem Justierverfahren für das adaptive Optiksystem die Justierung der Zuordnungsrelation zwischen der Modulationsoberfläche und dem Wellenfrontsensor in dem Justierschritt eine Justierung einer relativen Positionsrelation sein zwischen Positionskoordinaten, die auf der Modulationsoberfläche eingenommen werden, wenn das Phasenmuster für die Kompensation der Wellenfrontverzerrung angezeigt wird, und dem Wellenfrontsensor. Alternativ kann in dem Justierverfahren für das adaptive Optiksystem die Justierung der Zuordnungsrelation zwischen der Modulationsoberfläche und dem Wellenfrontsensor in dem Justierschritt eine Justierung einer relativen Beziehung bzw. Relation zwischen einer Montageposition des Wellenfrontsensors und einer Montageposition des räumlichen Lichtmodulators sein.
  • Ferner kann in dem Justierverfahren für das adaptive Optiksystem eine Breite des ersten Gebiets in einer Array-Richtung der mehreren Linsen (n1/M) mal einem Array-Abstand der mehreren Linsen (hier ist n1 eine natürliche Zahl und M ist eine Abbildungsvergrößerung eines optischen Systems zwischen der Modulationsoberfläche und dem Linsen-Array) betragen.
  • Ferner kann in dem Justierverfahren für das adaptive Optiksystem das räumlich nicht-lineare Phasenmuster (das heißt, ein Phasenmuster mit einem räumlich nicht-linearen Phasenprofil) eine zufällige Verteilung, in der eine Verteilung von Größen von Phasen unregelmäßig ist, und/oder eine Defokussier-Verteilung enthalten, die einen Durchmesser des konvergierenden Flecks vergrößert.
  • Ferner enthält in dem Justierverfahren für das adaptive Optiksystem das Phasenmuster mit der Linearität in der zumindest einen Richtung (d.h., ein Phasenmuster, in welchem ein Phasenprofil mindestens einer Richtung die Linearität aufweist) eine im Wesentlichen gleichförmige Phasenverteilung und/oder eine Phasenverteilung, die in mindestens einer Richtung geneigt bzw. linear veränderlich ist, und/oder eine Phasenverteilung, die eine Wirkung einer Zylinderlinse in einer ersten Richtung hat und im Wesentlichen gleichförmig in einer zweiten Richtung ist, die die erste Richtung schneidet (beispielsweise dazu senkrecht ist), und/oder eine Phasenverteilung, die ein Beugungsgitter in einer ersten Richtung bildet und in einer zweiten Richtung, die die erste Richtung schneidet (beispielsweise, dazu senkrecht ist) im Wesentlichen gleichförmig ist.
  • Ferner ist gemäß einem Aspekt der vorliegenden Erfindung ein adaptives Optiksystem bereitgestellt, das umfasst: einen räumlichen Lichtmodulator, der ausgebildet ist, eine Phase eines optischen Bildes, das auf eine Modulationsoberfläche fällt, räumlich zu modulieren; einen Wellenfrontsensor mit einem Linsen-Array mit mehreren zweidimensional angeordneten Linsen und einem optischen Erfassungselement zur Erfassung einer Lichtintensitätsverteilung, die konvergierende Flecke enthält, die von dem Linsen-Array gebildet sind, und der ausgebildet ist, das optische Bild nach der Modulation von dem optischen Lichtmodulator zu empfangen; und eine Steuereinheit, die ausgebildet ist, eine Wellenfrontverzerrung zu kompensieren, indem ein Phasenmuster, das in dem räumlichen Lichtmodulator angezeigt wird, auf der Grundlage einer Wellenfrontform des optischen Bildes, das von der Lichtintensitätsverteilung erhalten wird, gesteuert wird, wobei die Steuereinheit die Lichtintensitätsverteilung durch das optische Erfassungselement in einem Zustand gewinnt, in welchem ein erstes Phasenmuster mit Linearität in mindestens einer Richtung oder ein räumlich nicht-lineares zweites Phasenmusters in einem ersten Gebiet auf der Modulationsoberfläche zur Entsprechung mit einer der mehreren Linsen oder zwei oder mehr Linsen, die benachbart zueinander sind, angezeigt wird, und das andere Phasenmuster des ersten und des zweiten Phasenmusters in einem zweiten Gebiet angezeigt wird, das das erste Gebiet umgibt, und die Zuordnungsrelation zwischen der Modulationsoberfläche und dem Wellenfrontsensor auf der Grundlage von Klarheit bzw. Deutlichkeit des konvergierenden Flecks justiert wird, der in der Lichtintensitätsverteilung enthalten ist.
  • Des Weiteren wird ein Programm für ein adaptives Optiksystem bereitgestellt, das einen räumlichen Lichtmodulator, der ausgebildet ist, eine Phase eines optischen Bildes, das auf eine Modulationsoberfläche fällt, räumlich zu modulieren, und einen Wellenfrontsensor aufweist, der ein Linsen-Array mit mehreren zweidimensional angeordneten Linsen und ein optisches Erfassungselement zum Erfassen einer Lichtintensitätsverteilung mit konvergierenden Flecken, die von dem Linsen-Array erzeugt sind, aufweist, und ausgebildet ist, das optische Bild nach der Modulation von dem räumlichen Lichtmodulator zu empfangen, und eine Steuereinheit, die ausgebildet ist, eine Wellenfrontverzerrung zu kompensieren, indem ein Phasenmuster, das in dem räumlichen Lichtmodulator angezeigt wird, auf der Grundlage einer Wellenfrontform des optischen Bildes, das aus der Lichtintensitätsverteilung erhalten wird, gesteuert wird, wobei das Programm den Betrieb der Steuereinheit in dem adaptiven Optiksystem steuert, wobei das Programm die Steuereinheit veranlasst, um auszuführen: einen ersten Schritt zur Gewinnung einer Lichtintensitätsverteilung, um die Lichtintensitätsverteilung durch das optische Erfassungselement in einem Zustand zu erhalten, in welchem ein erstes Phasenmuster mit Linearität zumindest in einer Richtung oder ein räumlich nicht-lineares zweites Phasenmuster in einem ersten Gebiet der Modulationsoberfläche so angezeigt wird, dass es einer der mehreren Linsen oder zwei oder mehr Linsen, die benachbart zu einander sind, entspricht, und das andere Phasenmuster des ersten und des zweiten Phasenmusters in einem zweiten Gebiet, das das erste Gebiet umgibt, angezeigt wird; und einen Justierschritt zur Justierung der Zuordnungsrelation zwischen der Modulationsoberfläche und dem Wellenfrontsensor auf der Grundlage der Klarheit bzw. Deutlichkeit des konvergierenden Flecks, der in der Lichtintensitätsverteilung enthalten ist, die in dem ersten Schritt zur Gewinnung der Lichtintensitätsverteilung erhalten wird.
  • Ferner wird gemäß einem Aspekt der vorliegenden Erfindung ein Speichermedium bereitgestellt, um ein Programm für ein adaptives Optiksystem zu speichern, das einen räumlichen Lichtmodulator, der ausgebildet ist, eine Phase eines optischen Bildes, das auf eine Modulationsoberfläche fällt, räumlich zu modulieren, und einen Wellenfrontsensor aufweist, der ein Linsen-Array mit mehreren zweidimensional angeordneten Linsen und ein optisches Erfassungselement zum Erfassen einer Lichtintensitätsverteilung mit konvergierenden Flecken, die von dem Linsen-Array erzeugt sind, aufweist, und ausgebildet ist, das optische Bild nach der Modulation von dem räumlichen Lichtmodulator zu empfangen, und eine Steuereinheit, die ausgebildet ist, eine Wellenfrontverzerrung zu kompensieren, indem ein Phasenmuster, das in dem räumlichen Lichtmodulator angezeigt wird, auf der Grundlage einer Wellenfrontform des optischen Bildes, das aus der Lichtintensitätsverteilung erhalten wird, gesteuert wird, wobei das Programm für das adaptive Optiksystem den Betrieb der Steuereinheit steuert, wobei das Programm die Steuereinheit veranlasst, um auszuführen: einen ersten Schritt zur Gewinnung einer Lichtintensitätsverteilung, um die Lichtintensitätsverteilung durch das optische Erfassungselement in einem Zustand zu erhalten, in welchem ein erstes Phasenmuster mit Linearität zumindest in einer Richtung oder ein räumlich nicht-lineares zweites Phasenmuster in einem ersten Gebiet der Modulationsoberfläche so angezeigt wird, dass es einer der mehreren Linsen oder zwei oder mehr Linsen, die benachbart zu einander sind, entspricht, und das andere Phasenmuster des ersten und des zweiten Phasenmusters in einem zweiten Gebiet, das das erste Gebiet umgibt, angezeigt wird; und einen Justierschritt zur Justierung der Zuordnungsrelation zwischen der Modulationsoberfläche und dem Wellenfrontsensor auf der Grundlage der Klarheit bzw. Deutlichkeit des konvergierenden Flecks, der in der Lichtintensitätsverteilung enthalten ist, die in dem ersten Schritt zur Gewinnung der Lichtintensitätsverteilung erhalten wird.
  • Vorteilhafte Wirkungen der Erfindung
  • Gemäß einem Justierverfahren für ein adaptives Optiksystem, einem adaptiven Optiksystem und einem Speichermedium zur Speicherung eines Programms für ein adaptives Optiksystem gemäß einem Aspekt der vorliegenden Erfindung ist es möglich, eine Beziehung bzw. eine Zuordnungsrelation zwischen einem Phasenmuster, das in einem Wellenfrontsensor gemessen wird, und einem Kompensationsphasenmuster, das in einem räumlichen Lichtmodulator angezeigt ist, rasch und mit hoher Genauigkeit einzustellen.
  • Kurze Beschreibung von Zeichnungen
    • 1 ist ein Diagramm, das schematisch einen Aufbau eines adaptiven Optiksystems gemäß einer Ausführungsform zeigt.
    • 2 ist eine Querschnittsansicht, die schematisch einen Aufbau eines Wellenfrontsensors einer Ausführungsform zeigt und einen Querschnitt entlang einer optischen Achse eines optischen Bildes darstellt.
    • 3 ist eine Ansicht eines Linsen-Arrays, das in dem Wellenfrontsensor vorgesehen ist, wobei dieser in Richtung der optischen Achse eines optischen Bildes betrachtet wird.
    • 4 ist eine Ansicht eines Bildsensors, der in dem Wellenfrontsensor bereitgestellt ist, der in Richtung der optischen Achse des optischen Bildes betrachtet wird.
    • 5 ist eine Querschnittsansicht, die schematisch einen räumlichen Lichtmodulator des LCOS-Typs als ein Beispiel eines räumlichen Lichtmodulators einer Ausführungsform zeigt, wobei ein Querschnitt entlang der optischen Achse des optischen Bildes gezeigt ist.
    • 6 ist eine Frontansicht einer Modulationsoberfläche des räumlichen Lichtmodulators.
    • 7 ist eine Konzeptansicht, die das Prinzip eines Justierverfahrens in einer Ausführungsform zeigt.
    • 8 ist ein Diagramm, das konzeptionell ein spezielles Phasenmuster darstellt, das auf der Modulationsoberfläche angezeigt wird.
    • 9 ist ein Diagramm, das konzeptionell Daten einer Lichtintensitätsverteilung (Shack-Hartmann-Gram) darstellt, die von dem Bildsensor des Wellenfrontsensors erfasst werden.
    • 10 ist eine vergrößerte Ansicht der Umgebung des Wellenfrontsensors aus 7.
    • 11 ist eine Draufsicht, die eine vereinfachte Positionsrelation zwischen einem Wellenfrontteil und einer Linse zeigt, wenn die Betrachtung in Richtung der optischen Achse erfolgt.
    • 12 ist eine Ansicht, die eine zufällige Verteilung, in der eine Verteilung von Größen von Phasen unregelmäßig ist, als Beispiel eines räumlich nicht-linearen Phasenmusters darstellt.
    • 13 ist eine Ansicht, die eine Defokussier-Verteilung darstellt, die einen Durchmesser eines konvergierenden Flecks als ein Beispiel des räumlich nicht-linearen Phasenmusters vergrößert.
    • 14 ist ein Diagramm, das eine Verteilung, die eine große sphärische Abberation in einem optischen Bild hervorruft, als ein Beispiel des räumlich nicht-linearen Phasenmusters zeigt.
    • 15 ist ein Diagramm, das eine Verteilung, die eine große Abberation hoher Ordnung in dem optischen Bild hervorruft, als ein Beispiel des räumlich nicht-linearen Phasenmusters zeigt.
    • 16 zeigt ein Beispiel eines Phasenmusters, in welchem eine gemeinsame Phasenverteilung (beispielsweise eine Defokussier-Verteilung) für alle zwei oder mehr Gebiete angeordnet ist.
    • 17 zeigt ein Beispiel eines Phasenmusters, in welchem unterschiedliche Phasenverteilungen (beispielsweise Phasenverteilung mit einer Abberation hoher Ordnung) für jeweils alle zwei oder mehr Gebiete angeordnet sind.
    • 18 ist ein Diagramm, das eine Phasenverteilung, in welchen Phasenwerte im Wesentlichen gleichmäßig über die gesamte Oberfläche der Modulationsoberfläche verteilt sind, als ein Beispiel eines Phasenmusters zeigt, das zumindest in einer Richtung Linearität besitzt.
    • 19 ist eine Blockansicht, die ein Beispiel eines internen Aufbaus einer Steuereinheit zeigt.
    • 20 ist ein Flussdiagramm, das eine Funktionsweise und ein Justierverfahren für die Zuordnungsrelation des adaptiven Optiksystems darstellt.
    • 21 ist ein Diagramm, das ein rechteckiges Gebiet gegenüberliegend zu einer gewissen Linse auf einem Bildsensor und rechteckige Gebiete gegenüberliegend zu vier benachbarten Linsen um die Linse herum zeigt.
    • 22 ist ein vergrößertes Diagramm des Gebiets, das in 21 gezeigt ist.
    • 23 ist ein Flussdiagramm, das ein Verfahren zur Berechnung einer Eigenschaftsquantität eines konvergierenden Flecks zeigt.
    • 24 (a) ist ein Diagramm, das ein spezielles Phasenmusters zur Kalibrierung als ein Beispiel zeigt, 24 (b) ist ein Diagramm, das Daten der Lichtintensitätsverteilung als ein Beispiel zeigt, wenn eine Positionsverschiebung in einer Linse auftritt, die einem ersten Gebiet entspricht, und 24 (c) ist ein Diagramm, das Daten einer Lichtintensitätsverteilung als ein Beispiel nach Kalibrierung mit einer Linse, die dem ersten Gebiet entspricht, zeigt.
    • 25 ist ein Diagramm, das den Vorteil einer Erhöhung an Genauigkeit bei der Justierung (Kalibrierung) des adaptiven Optiksystems zeigt.
    • 26 ist ein Flussdiagramm, das ein Justierverfahren (eine Funktionsweise einer Steuereinheit) für das adaptive Optiksystem gemäß einem modifizierten Beispiel zeigt.
    • 27 ist ein Diagramm, das Beispiele diverse Größen des ersten Gebiets zeigt.
    • 28 ist ein Diagramm, das eine Phasenverteilung darstellt, in welcher Phasenwerte in einer ersten Richtung (beispielsweise eine Zeilenrichtung) geneigt sind und in der Phasenwerte in einer zweiten Richtung (beispielsweise eine Spaltenrichtung), die die erste Richtung schneidet (senkrecht dazu ist) im Wesentlichen gleichmäßig angeordnet sind.
    • 29 ist ein Diagramm, das eine Phasenverteilung zeigt, in der Phasenwerte sowohl in der ersten Richtung (beispielsweise die Zeilenrichtung) als auch in der zweiten Richtung (beispielsweise die Spaltenrichtung) geneigt bzw. sich linear ändernd sind.
    • 30 ist ein Diagramm, das eine Phasenverteilung zeigt mit der Wirkung einer Zylinderlinse in der ersten Richtung und in der Phasenwerte im Wesentlichen gleichförmig in der zweiten Richtung sind, wobei dies als ein Beispiel eines Phasenmusters mit Linearität in mindestens einer Richtung dient.
    • 31 ist ein Diagramm, das eine Phasenverteilung zeigt, die ein Beugungsgitter in der ersten Richtung bildet, und in dem Phasenwerte in der zweiten Richtung im Wesentlichen gleichförmig sind, wobei dies als ein Beispiel eines Phasenmusters dient, das in mindestens einer Richtung Linearität besitzt.
    • 32 ist ein Diagramm, das ein Beispiel eines zusammengesetzten Musters zeigt, das durch Überlagerung erhalten wird.
    • 33 ist ein Diagramm, das ein modifiziertes Beispiel eines Linsen-Arrays zeigt.
    • 34 ist ein Diagramm, das jedes Gebiet, das in 21 dargestellt ist, und ein modifiziertes Beispiel eines Berechnungsgebiets für die Größe bzw. Quantität einer Eigenschaft zeigt.
    • 35 ist eine vergrößerte Ansicht der Umgebung des Wellenfrontsensors aus 7.
    • 36 ist ein Diagramm, das ein Beispiel einer Anordnung eines ersten Gebiets zeigt.
    • 37 ist ein Diagramm, das ein Beispiel des Falles zeigt, in welchem eine Größe des ersten Gebiets variabel ist.
  • Beschreibung von Ausführungsformen
  • Im Folgenden sind mit Bezug zu den begleitenden Zeichnungen Ausführungsformen eines Justierverfahrens für ein adaptives Optiksystem, ein adaptives Optiksystem, ein Programm für ein adaptives Optiksystem und ein Speichermedium zur Speicherung eines Programms für ein adaptives Optiksystem gemäß einem Aspekt der vorliegenden Erfindung beschrieben. Ferner werden die gleichen Elemente mit gleichen Bezugszeichen in der Beschreibung der Zeichnungen bezeichnet und eine wiederholte Beschreibung ist daher weggelassen. Ferner wird in der folgenden Beschreibung angenommen, dass eine „Phasenverteilung“ zweidimensionale verteilte Phasenwerte bezeichnet, ein „Phasenmuster“ ein Muster bezeichnet, das durch Kodierung der Phasenverteilung (zweidimensionale Phasenwerte) auf der Grundlage eines gewissen Standards erhalten wird, und ein „Phasenprofil“ eine Verteilung von Phasenwerten in einer gewissen Richtung (Linie) in der Phasenverteilung bezeichnet.
  • (Ausführungsformen)
  • 1 ist ein Diagramm, das schematisch einen Aufbau eines adaptiven optischen Systems 10 gemäß dieser Ausführungsform zeigt. Das adaptive Optiksystem 10 ist beispielsweise in einer ophtalmologischen Inspektionsvorrichtung, einer Laser-Verarbeitungsvorrichtung, einer Mikroskop-Vorrichtung, einer adaptiven Optikvorrichtung oder dergleichen enthalten. Dieses adaptive Optiksystem 10 umfasst einen räumlichen Lichtmodulator (SLM) 11, einen Wellenfrontsensor 12, eine Steuereinheit 13, einen Strahlteiler 14, Übertragungslinsen bzw. Relaislinsen 15 und 16 und eine Steuerschaltungseinheit 17.
  • Der räumliche Lichtmodulator 11 empfängt ein optisches Bild La mittels einer Modulationsoberfläche 11a, die ein Phasenmuster anzeigt und eine Wellenfrontform des optischen Bildes La moduliert, um die modulierte Form der Wellenfront auszugeben. Das optische Bild La, das auf den räumlichen Lichtmodulator 11 einfällt, ist beispielsweise Licht, das von einer Laser-Lichtquelle oder einer super-leuchtstarken Diode (SLD) ausgesandt wird, oder ist reflektiertes Licht, gestreutes Licht, Fluoreszenzlicht oder dergleichen, das von einem Beobachtungsobjekt, das mit Licht bestrahlt wird, erzeugt wird. Der Wellenfrontsensor 12 versorgt die Steuereinheit 13 mit Daten S1 einschließlich von Information über die Form der Wellenfront des optischen Bildes La, das den räumlichen Lichtmodulator 11 erreicht (typischerweise wird eine Verzerrung einer Wellenfront angezeigt, d.h., eine Verschiebung einer Wellenfront in Bezug auf eine Referenzfront, aufgrund einer Abberation bzw. eines Abbildungsfehlers eines optischen Systems). Die Steuereinheit 13 erzeugt ein Steuersignal S2 zur Anzeige eines Phasenmusters, das für den räumlichen Lichtmodulator 11 geeignet ist, auf der Grundlage der Daten S1, die aus dem Wellenfrontsensor 12 erhalten werden. In einem Beispiel umfasst die Steuereinheit 13 eine Eingabeeinheit, die ausgebildet ist, die Daten S1 aus dem Wellenfrontsensor 12 einzuspeisen, eine Abberationsberechnungseinheit, die ausgebildet ist, eine Abberation bzw. einen Abbildungsfehler aus den Daten S1 zu berechnen, eine Phasenmuster-Berechnungseinheit, die ausgebildet ist, ein in dem räumlichen Lichtmodulator 11 anzuzeigendes Phasenmuster zu berechnen, und eine Signalerzeugungseinheit, die ausgebildet ist, das Steuersignal S2 entsprechend dem berechneten Phasenmusters zu erzeugen. Die Steuerschaltungseinheit 17 empfängt das Steuersignal S2 aus der Steuereinheit 13 und legt eine Spannung V1 auf der Grundlage des Steuersignals S2 an mehrere Elektroden des räumlichen Lichtmodulators 11 an.
  • Der Strahlteiler 14 ist zwischen dem Wellenfrontsensor 12 und dem räumlichen Lichtmodulator 12 angeordnet und teilt das optische Bild La auf. Der Strahlteiler 14 kann ein Strahlteiler des Typs sein, der von der Polarisationsrichtung unabhängig ist, kann ein Polarisationsrichtung abhängiger Typ oder ein wellenlängenabhängiger Typ (dichroischer Spiegel) sein. Ein optisches Bild La, das beispielsweise von dem Strahlteiler 14 abgezweigt wird, wird zu einem optischen Erfassungselement 18, etwa ein CCD, eine Fotovervielfacher-Röhre oder eine Avalanche-Fotodiode gesendet. Das optische Erfassungselement 18 ist beispielsweise in einem Raster-Laser-Ophtalmoskop (SLO), einer optischen Kohärenz-Tomographie-(OCT) Kamera, einer Augengrund-Kamera, einem Mikroskop, einem Teleskop oder dergleichen enthalten. Ferner fällt das andere optische Bild La, das von dem Strahlteiler 14 abgezweigt wird, auf den Wellenfrontsensor 12.
  • Die Übertragungslinsen 15 und 16 sind nebeneinander in Richtung der optischen Achse zwischen dem Wellenfrontsensor 12 und dem räumlichen Lichtmodulator 11 angeordnet. Der Wellenfrontsensor 12 und der räumlichen Lichtmodulator 11 sind in einer zueinander optisch konjugierten Relation durch die Übertragungslinsen 15 und 16 gehalten. Des Weiteren können eine optische Abbildungslinse bzw. ein Abbildungsobjektiv und/oder ein Polarisationsspiegel, usw. zwischen dem Wellenfrontsensor 12 und dem räumlichen Lichtmodulator 11 angeordnet sein.
  • 2 ist eine Querschnittsansicht, die schematisch einen Aufbau des Wellenfrontsensors 12 dieser Ausführungsform darstellt, und einen Querschnitt entlang der optischen Achse des optischen Bildes La zeigt. 3 ist eine Ansicht eines Linsen-Arrays 120, das in dem Wellenfrontsensor 12 vorgesehen ist, wenn dieser in der Richtung der optischen Achse des optischen Bildes La betrachtet wird. 4 ist eine Ansicht eines Bildsensors (optisches Erfassungselement) 122, der in dem Wellenfrontsensor 12 vorgesehen ist, wenn dieser in Richtung der optischen Achse des optischen Bildes La betrachtet wird.
  • Obwohl der Wellenfrontsensor 12 ein Interferenz-Typ oder ein Nicht-Interferenz-Typ sein kann, wird der Shack-Hartmann-Wellenfrontsensor des Nicht-Interferenz-Typs mit dem Linsen-Array 120 und dem Bildsensor 122 als der Wellenfrontsensor 12 in dieser Ausführungsform verwendet. Wenn der Wellenfrontsensor des Nicht-Interferenz-Typs verwendet wird, ergibt sich ein Vorteil dahingehend, dass die Unempfindlichkeit bei Erschütterung ausgezeichnet ist und ein Aufbau des Wellenfrontsensors und ein Vorgang zur Berechnung von Messdaten können einfacher sein im Vergleich dazu, dass der Wellenfrontsensor als ein Interferenz-Typ verwendet wird.
  • Wie in 2 gezeigt ist, hat das Linsen-Array 120 N (N ist eine ganze Zahl größer oder gleich 4) Linsen 124. Die N Linsen 124 sind beispielsweise in Form eines zweidimensionalen Gitters aus Na Zeilen und Nb Spalten (Na und Nb sind ganze Zahlen größer oder gleich 2) angeordnet.
  • Des Weiteren hat der in 2 dargestellte Bildsensor 122 eine Empfangsoberfläche 122a an einer Position, die mit einer hinteren Brennebene der N Linsen 124 überlappt, die das Linsen-Array 120 bilden, und er erfasst eine Lichtintensitätsverteilung mit N konvergierenden Flecken bzw. Leuchtflecken P, die durch die N Linsen 124 gebildet werden. Wie in 4 gezeigt, ist der Bildsensor 122 ausgebildet, mehrere Pixel 122b zu enthalten, die in Form eines zweidimensionalen Gitters aus Ma Zeilen und Mb Spalten (Ma und Mb sind ganze Zahl größer oder gleich 2) angeordnet sind. Ferner stimmen die Zeilenrichtung und die Spaltenrichtung des Bildsensors 122 mit denen des Linsen-Arrays 120 überein. Ein Array-Abstand der Pixel 122b des Bildsensors 122 ist so gestaltet, dass er ausreichend kleiner ist als ein Array-Abstand der Linsen 124, so dass eine Größe an Verschiebung einer konvergierenden Bildposition in Bezug auf eine Referenzposition mit hoher Genauigkeit erfasst werden kann.
  • In der Steuereinheit 13, die nachfolgend beschrieben ist, wird eine Form der Wellenfront (eine Verteilung von Phasengradienten) des optischen Bildes La auf der Grundlage einer Lichtintensitätsverteilung gemessen, die von dem Bildsensor 122 erfasst wird. D.h., eine Größe an Verschiebung zwischen der Position des konvergierenden Flecks P durch die Linse 124 und der Referenzposition ist proportional zu einer Steigung einer lokalen Wellenfront des optischen Bildes La, das auf die Linse 124 einfällt. Daher ist es möglich, die Größe der Positionsverschiebung des konvergierenden Flecks P aus der Referenzposition für die Linse 124 zu berechnen und eine Form der Wellenfront des optischen Bildes La auf der Grundlage der Positionsverschiebung des konvergierenden Flecks P zu messen.
  • Es ist möglich, eine Position, an der eine optische Achse jeder der mehreren Linsen 124 die Licht empfangende Oberfläche 122a des Bildsensors 122 schneidet, als die Referenzposition anzugeben, die zur Berechnung der Größe der Verschiebung der konvergierenden Bildposition zu verwenden ist. Diese Position wird einfach durch eine Schwerpunktsberechnung erhalten, indem ein konvergierendes Bild, das erhalten wird, indem parallele ebene Wellen hervorgerufen werden, die senkrecht auf jede Linse 124 einfallen, verwendet wird.
  • Der räumliche Lichtmodulator 11 ist ein Element, das das optische Bild La aus einer Lichtquelle oder einem Beobachtungsobjekt empfängt und eine Wellenfront des optischen Bildes La moduliert, um die modulierte Wellenfront auszugeben. Insbesondere hat der räumliche Lichtmodulator 11 mehrere Pixel (Steuerpunkte), die in Form eines zweidimensionalen Gitters angeordnet sind, und er ändert einen Modulationsbetrag (beispielsweise den Betrag einer Phasenmodulation) für jedes Pixel entsprechend dem Steuersignal S2, das von der Steuereinheit 13 bereitgestellt wird. Der räumliche Lichtmodulator 11 umfasst beispielsweise einen räumlichen Lichtmodulator mit Flüssigkristall auf Silizium (LCOS-SLM), einen programmierbaren Phasenmodulator (PPM), eine Flüssigkristallanzeige (LCD), mikro-elektro-mechanische Systeme (MEMS), oder einen räumlichen Lichtmodulator des Typs mit elektrischer Adressierung, der durch Kopplung eines LCD-Elements und eines räumlichen Lichtmodulators mit Flüssigkristall des Typs mit optische Adressierung gebildet ist. Obwohl ferner der räumliche Lichtmodulator 11 als Reflexions-Typ in 1 gezeigt ist, kann der räumliche Lichtmodulator 11 ein Transmissionstyp sein.
  • 5 ist eine Querschnittsansicht, die schematisch einen räumlichen Lichtmodulator des LCOS-Typs als ein Beispiel des räumlichen Lichtmodulators 11 dieser Ausführungsform zeigt, wobei ein Querschnitt entlang der optischen Achse des optischen Bildes La dargestellt ist. Dieser räumliche Lichtmodulator 11 umfasst ein transparentes Substrat 111, ein Siliziumsubstrat 112, mehrere Pixel-Elektroden 113, eine Flüssigkristallanzeige (Modulationseinheit) 114, eine transparente Elektrode 115, orientierte Schichten 116a und 116b, einen dielektrischen Spiegel 117 und einen Abstandshalter 118.
  • Das transparente Substrat 111 ist aus einem Material hergestellt, das das optische Bild La durchlässt, und ist entlang einer Hauptoberfläche des Siliziumsubstrats 112 angeordnet. Die mehreren Pixel-Elektroden 113 sind in Form eines zweidimensionalen Gitters auf der Hauptoberfläche des Siliziumsubstrats 112 angeordnet und bilden die Pixel des räumlichen Lichtmodulators 11. Die transparente Elektrode 115 ist auf der Oberfläche des transparenten Substrats 111 gegenüberliegend zu den mehreren Pixel-Elektroden 113 angeordnet. Die Flüssigkristalleinheit 114 ist zwischen den mehreren Pixel-Elektroden 113 und der transparenten Elektrode 115 angeordnet. Die orientierte Schicht 116a ist zwischen der Flüssigkristalleinheit 114 und der transparenten Elektrode 115 angeordnet und die orientierte Schicht 116b ist zwischen der Flüssigkristalleinheit 114 und den mehreren Pixel-Elektroden 112 angeordnet. Der dielektrische Spiegel 117 ist zwischen der orientierten Schicht 116b und den mehreren Pixel-Elektroden 113 angeordnet. Der dielektrische Spiegel 117 reflektiert das optische Bild La, das ausgehend von dem transparenten Substrat 111 einfällt, und durch die Flüssigkristalleinheit 114 durchgelassen wird und bewirkt, dass das optische Bild La von dem transparenten Substrat 111 erneut ausgesendet wird.
  • Der räumliche Lichtmodulator 11 umfasst ferner eine Pixel-Elektrodenschaltung (Treiberschaltung für aktive Matrix) 119, die ausgebildet ist, eine zwischen den mehreren Pixel-Elektroden 113 und der transparenten Elektrode 115 anzulegende Spannung zu steuern. Wenn die Spannung von der Pixel-Elektrodenschaltung 119 an eine beliebige Pixel-Elektrode 113 angelegt wird, ändert sich ein Brechungsindex der Flüssigkristalleinheit 114 an der Pixel-Elektrode 113 entsprechend einer Größe eines elektrischen Feldes, das zwischen der Pixel-Elektrode 113 und der transparenten Elektrode 115 erzeugt wird. Folglich ändert sich eine optische Weglänge des optischen Bildes La, das durch einen entsprechenden Teil der Flüssigkristalleinheit 114 durchgelassen wird, und daher letztlich auch eine Phase des optischen Bildes La. Durch Anlegen von Spannungen mit unterschiedlichen Größen an die mehreren Pixel-Elektroden 113 ist es möglich, eine räumliche Verteilung eines Betrages der Phasenjustierung elektrisch zu schreiben und bei Bedarf diverse Formen für Wellenfronten umzusetzen.
  • 6 ist eine Frontalansicht einer Modulationsoberfläche 11a des räumlichen Lichtmodulators 11. Wie in 6 gezeigt ist, ist die Modulationsoberfläche 11a so ausgebildet, dass sie mehrere Pixel 11b enthält, die in Form eines zweidimensionalen Gitters aus Pa Zeilen und Pb Spalten (Pa und Pb sind ganze Zahlen größer oder gleich 2) angeordnet sind. Ferner ist jedes der mehreren Pixel 11b aus einer der mehreren Pixel-Elektroden 113 gebildet.
  • Die Beschreibung geht zurück zu 1. In diesem adaptiven Optiksystem 10 fällt das optische Bild La aus einer Lichtquelle oder einem Beobachtungsobjekt (nicht gezeigt) zuerst auf den räumlichen Lichtmodulator 11 in Form von im Wesentlichen parallelem Licht. Das optische Bild La, das von dem räumlichen Lichtmodulator 11 moduliert ist, fällt auf den Strahlteiler 14 über die Übertragungslinsen 15 und 16 und wird in zwei optische Bilder aufgeteilt. Ein optisches Bild La nach der Verteilung trifft auf den Wellenfrontsensor 12. Die Daten S1, die die Wellenfrontform (Phasenverteilung) des optischen Bildes La enthalten, werden in dem Wellenfrontsensor 12 erzeugt und die Daten S1 werden der Steuereinheit 13 zugeleitet. Die Steuereinheit 13 berechnet die Form der Wellenfront (Phasenverteilung) des optischen Bildes La, wenn nötig auf der Grundlage der Daten S1 aus dem Wellenfrontsensor 12 und gibt das Steuersignal S2, das das Phasenmuster für eine geeignete Kompensation in Bezug auf eine Wellenfrontverzerrung des optischen Bildes La enthält, an den räumlichen Lichtmodulator 11 aus. Daraufhin wird das optische Bild La ohne Verzerrung, das durch den räumlichen Lichtmodulator 11 kompensiert ist, von dem Strahlteiler 14 aufgeteilt und fällt auf das optische Erfassungselement 18 über ein optisches System (nicht gezeigt) und wird aufgenommen.
  • Dabei wird ein Koordinatensystem in der Modulationsoberfläche 11a des räumlichen Lichtmodulators 11 und der Erfassungsoberfläche des Wellenfrontsensors 12 wie folgt festgelegt. D.h., zwei Richtungen parallel zu der Modulationsoberfläche 11a des räumlichen Lichtmodulators 11 und senkrecht zueinander werden als eine x-Achsenrichtung und eine y-Achsenrichtung in der Modulationsoberfläche 11a gekennzeichnet, und zwei Richtungen parallel zu der Erfassungsoberfläche des Wellenfrontsensors 12 und senkrecht zueinander werden als eine x-Achsenrichtung und eine y-Achsenrichtung in der Erfassungsoberfläche ausgewählt. Jedoch sind die x-Achse in der Modulationsoberfläche 11a des räumlichen Lichtmodulators 11 und die x-Achse in der Erfassungsoberfläche des Wellenfrontsensors 12 so ausgerichtet, dass sie entgegengesetzt zueinander ausgerichtet sind, und die y-Achse in der Modulationsoberfläche 11a des räumlichen Lichtmodulators 11 und die y-Achse in der Erfassungsoberfläche des Wellenfrontsensors 12 sind so ausgerichtet, dass sie entgegengesetzt zueinander sind. Auch Koordinaten, an denen der Mittelpunkt der Modulationsoberfläche 11a des räumlichen Lichtmodulators 11 als der Ursprung festgelegt ist, werden als (Xs, Ys) gesetzt und Koordinaten, an denen der Mittelpunkt der Erfassungsoberfläche des Wellenfrontsensors 12 als der Ursprung zugeordnet ist, werden als (Xc, Yc) festgelegt.
  • Dabei wird die Phase der Wellenfront an einer Position (Xs, Ys) auf der Modulationsoberfläche 11a des räumlichen Lichtmodulators 11 Eins-zu-Eins auf die Phase der Wellenfront an einer Position (Xc, Yc) auf der Erfassungsoberfläche des Wellenfrontsensors 12 abgebildet und eine Beziehung zwischen diesen wird durch die folgenden Formeln (1) ausgedrückt, wenn es keine Rotationsverschiebung zwischen der Modulationsoberfläche 11a und der Erfassungsoberfläche gibt.
    [Mathe 1] X s = X c M + X s 0 Y s = Y c M + Y s 0
    Figure DE112014002683B4_0001
  • Dabei bezeichnet M Vergrößerungen der Linsen 15 und 16. Des Weiteren bezeichnet (Xs0, Ys0) Koordinaten auf der Modulationsoberfläche 11a des räumlichen Lichtmodulators 11, die auf einen Koordinatenursprung auf der Erfassungsoberfläche des Wellenfrontsensors 12 projiziert sind, und bezeichnet einen Betrag an Positionsverschiebung zwischen der Modulationsoberfläche 11a und der Erfassungsoberfläche. Ferner ist die Vergrößerung M, die in den Formeln (1) enthalten ist, in vielen Fällen bekannt.
  • Die Justierung (Kalibrierung) einer Zuordnungsrelation zwischen der Modulationsoberfläche 11a und dem Wellenfrontsensor 12 des adaptiven optischen Systems 10 in dieser Ausführungsform ist eine Untersuchung eines Wertes des zuvor beschriebenen (Xs0, Ys0) und der Vorgang, den Wert auf nahe null zu bringen. Anders ausgedrückt, dies ist die Justierung einer relativen Relation zwischen einer Befestigensposition des Wellenfrontsensors 12 und einer Befestigungsposition des räumlichen Lichtmodulators 11. Alternativ wird der Wert des zuvor beschriebenen (Xs0, Ys0) bei der Justierung (Kalibrierung) einer Zuordnungsrelation zwischen der Modulationsoberfläche 11a und dem Wellenfrontsensor 12 in Betracht gezogen, wenn ein den räumlichen Lichtmodulator 11 zugewiesenes Phasenmuster mit einer Wellenfrontform einhergeht, die aus dem Wellenfrontsensor 12 erhalten wird. Anders ausgedrückt, dies ist die Justierung einer relativen Positionsrelation zwischen den Positionskoordinaten, die auf der Modulationsoberfläche 11a angenommen werden, wenn das Phasenmuster zum Kompensieren einer Wellenfrontverzerrung angezeigt wird, und dem Wellenfrontsensor 12.
  • In dem Justierverfahren für das adaptiven Optiksystem gemäß dieser Ausführungsform wird ein spezielles Phasenmuster für die Justierung in dem räumlichen Lichtmodulator 11 angezeigt und eine Eigenschaft, die aufgrund des Phasenmusters in dem Wellenfrontsensor 12 auftritt, wird erfasst, so dass ein Betrag an Positionsverschiebung zwischen der Form der Wellenfront, die in dem Wellenfrontsensor 12 gemessen wird, und dem Phasenmuster, das in dem räumlichen Lichtmodulator 11 angezeigt wird, erhalten wird und die Justierung (Kalibrierung) der Zuordnungsrelation zwischen der Modulationsoberfläche 11a und dem Wellenfrontsensor 12 wird auf Grundlage des Betrags an Positionsverschiebung ausgeführt.
  • Im Weiteren ist ein Verfahren der Justierung (Kalibrierung) der Zuordnungsrelation zwischen der Modulationsoberfläche 11a und dem Wellenfrontsensor 12 detailliert beschrieben. Das Justierverfahren ist auch als ein Programm in einem Speichergebiet 13a der Steuereinheit 13 gespeichert, die in 1 gezeigt ist, und die Steuereinheit 13 führt das Justierverfahren durch Auslesen des Programms aus.
  • 7 ist eine konzeptionelle Ansicht, die das Prinzip des Justierverfahrens gemäß dieser Ausführungsform zeigt. In 7 sind die Übertragungslinsen 15 und 16, eine Wellenfront W1 eines optischen Bildes, das auf die Modulationsoberfläche 11a fällt, eine Wellenfront W2 des optischen Bildes, das von der Modulationsoberfläche 11a ausgesendet wird, und eine Wellenfront W3 des optischen Bildes, das auf dem Wellenfrontsensor 12 eintrifft, zusätzlich zu der Modulationsoberfläche 11a des räumlichen Lichtmodulators 11 und dem Wellenfrontsensor 12 (das Linsen-Array 120 und der Bildsensor 122) gezeigt. Die Wellenfront W2, die durch Anwenden einer Wellenfront entsprechend dem Phasenmuster, das in dem räumlichen Lichtmodulator 11 angezeigt ist, auf die einfallende Wellenfront W1 erhalten wird, wird von dem räumlichen Lichtmodulator 11 ausgesendet. Die Wellenfront W3 fällt über ein konjugiertes optisches System, das die Übertragungslinsen 15 und 16 enthält, auf den Wellenfrontsensor 12. Ferner ist das optische Bild La, das von dem Gebiet auf der Modulationsoberfläche 11a ausgesandt wird, das einer Linse 124 entspricht und das die Linse 124 erreicht, in 7 gezeigt.
  • Dabei ist 8 ein Diagramm, das konzeptionell ein spezielles Phasenmuster zeigt, das auf der Modulationsoberfläche 11a angezeigt ist. Ferner ist ein erstes Phasenmuster mit Linearität in mindestens einer Richtung in einem Gebiet B1 (im Weiteren als ein erstes Gebiet gezeichnet) auf der Modulationsoberfläche 11a angezeigt, wobei das Gebiet eine Größe aufweist, die einer einzelnen Linse 124 entspricht. Das erste Phasenmuster ist beispielsweise so implementiert, dass es eine im Wesentlichen gleichförmige Phasenverteilung, eine Phasenverteilung, die in mindestens einer Richtung geneigt ist, oder dergleichen enthält. Alternativ ist das erste Phasenmuster so implementiert, dass es eine Phasenverteilung mit einer Wirkung einer Zylinderlinse in einer gewissen ersten Richtung und eine im Wesentlichen gleichförmige Verteilung in der zweiten Richtung hat, die die erste Richtung schneidet (beispielsweise senkrecht dazu), oder eine Phasenverteilung enthält, die ein Beugungsgitter in der ersten Richtung bildet, und in der zweiten Richtung, die erste Richtung schneidet (beispielsweise senkrecht dazu), im Wesentlichen gleichmäßig ist. Ferner kann die im Wesentlichen gleichförmige Phasenverteilung eine Phasenverteilung mit einer linearen Funktion sein.
  • Gleichzeitig ist ein räumlich nicht-lineares zweites Phasenmuster (beispielsweise eine zufällige Verteilung, in der eine Verteilung von Größen von Phasen unregelmäßig ist, eine Defokussier-Verteilung, die einen Durchmesser eines konvergierenden Flecks vergrößert, oder dergleichen) in einem Gebiet B2 (das im Weiteren als ein zweites Gebiet bezeichnet ist), das das erste Gebiet B1 auf der Modulationsoberfläche 11a umgibt, angezeigt. Damit wird eine Wellenfront eines Teils, der dem zweiten Gebiet B2 in der ausgesandten Wellenfront W2 entspricht, gestört (Teil A1 der 7). Die Steuerung der Wellenfront tritt in einem Teil auf, der auf die Linse 124 fällt und dem zweiten Gebiet B2 in der einfallenden Wellenfront W3 für den Wellenfrontsensor 12 entspricht (Teil A2 aus 7). Dadurch divergiert der konvergierende Fleck P, der von der Linse 124 gebildet wird, und der konvergierende Fleck P wird nicht gebildet, oder seine Lichtintensität wird schwach.
  • Andererseits fällt die Wellenfront auf die Linse 124, ohne dass sie in mindestens einer Richtung gestört wird, entsprechend einem ersten Phasenmuster mit Linearität in der zumindest einen Richtung in Teilen (Teile A3 und A4 der 7), die den ersten Gebieten B1 in den Wellenfronten W2 und W3 entsprechen. Daher wird der konvergierende Fleck P von der Linse 124 deutlich erzeugt.
  • 9 ist ein Diagramm, das konzeptionell Daten für die Lichtintensitätsverteilung (Shack-Hartmann-Gram) zeigt, die von dem Bildsensor 122 des Wellenfrontsensors 12 erfasst werden. 9(a) zeigt die Daten der Lichtintensitätsverteilung D1 für den Fall, in welchem ein Phasenmuster mit Linearität in mindestens einer Richtung in dem ersten Gebiet B1 und das räumlich nicht-lineare Phasenmuster in dem zweiten Gebiet B2 angezeigt wird. 9(b) zeigt die Daten der Lichtintensitätsverteilung D2 für den Fall, in welchem ein Phasenmuster mit Linearität im gesamten Gebiet zum Vergleich angezeigt ist.
  • Wenn das Phasenmuster mit der Linearität in allen Gebieten angezeigt wird, wie in 9(b) gezeigt ist, sind N konvergierende Flecken P, die den Linsen 124 entsprechen, in den Daten der Lichtintensitätsverteilung enthalten. Wenn andererseits das Phasenmuster mit der Linearität in der mindestens einen Richtung in dem ersten Gebiet B1 und das räumlich nicht-lineare Phasenmuster in dem zweiten Gebiet B2 angezeigt wird, wie in 9(a) dargestellt ist, ist ein einzelner konvergierender Fleck P, der dem ersten Gebiet B1 entspricht, in den Daten der Lichtintensitätsverteilung enthalten, aber der konvergierende Fleck, der dem zweiten Gebiet B2 entspricht, wird nicht gebildet, oder die maximale Leuchtstärke des Fleckes ist reduziert, oder der Fleckdurchmesser ist erweitert. D.h., es wird nur der konvergierende Fleck, der dem zweiten Gebiet B2 entspricht, mit beeinträchtigter Deutlichkeit bzw. Klarheit gebildet.
  • Das Beispiel der Lichtintensitätsverteilung, die in 9(a) gezeigt ist, ist der Fall, in welchem angenommen wird, dass die Justierung (Kalibrierung) einer Positionsverschiebung bzw. Abweichung zwischen den in dem räumlichen Lichtmodulator 11 angezeigten Phasenmuster und der in dem Wellenfrontsensor 12 gemessenen Form der Wellenfront geeignet ausgeführt ist. Weiterhin wird der Fall betrachtet, in welchem diese Positionsverschiebung auftritt.
  • 10(a) und 10(b) sind vergrößerte Ansichten der Umgebung des Wellenfrontsensors 12 aus 7. Da ein Teil der Wellenfront A4, der dem ersten Gebiet B1 entspricht, vollständig mit der Linse 124 übereinstimmt, die dem ersten Gebiet B1 entspricht, wenn sie in der Richtung der optischen Achse betrachtet wird, wenn die Justierung der Positionsverschiebung zwischen dem Phasenmuster des Wellenfrontsensors 12 und des räumlichen Lichtmodulators 11 ausgeführt wird, wie in 10(a) dargestellt ist, wird ein vollständiger konvergierender Fleck P (im Weiteren wird dieses optische Bild als ein vollständiges konvergierendes Punktbild bezeichnet) in der Linse 124 gebildet. Andererseits wird ein konvergierender Fleck nicht gebildet oder wird sehr klein in einer peripheren Linse 124, d.h., eine Linse 124, die dem zweiten Gebiet B2 entspricht.
  • Wenn andererseits eine Positionsverschiebung zwischen dem Phasenmuster des Wellenfrontsensors 12 und dem räumlichen Lichtmodulator 11 auftritt, wie in 10(b) dargestellt ist, überlappt der Teil A4 der Wellenfront, der dem ersten Gebiet B1 entspricht, die Linse 124, die dem ersten Gebiet B1 entspricht, und eine separate Linse 124, die benachbart zu der Linse 124 ist, wenn die Betrachtung in Richtung der optischen Achse erfolgt. In diesem Falle hat der konvergierende Fleck P, der von der Linse 124, die dem ersten Gebiet B1 entspricht, gebildet wird, eine geringe Lichtintensität und eine geringe Klarheit bzw. Deutlichkeit im Vergleich zu dem Fall, der in 10(a) dargestellt ist (im Weiteren wird dieses optische Bild als ein konvergierendes Teilbild bezeichnet).
  • 11 (a) bis 11 (c) sind Draufsichten, die vereinfachte Positionsrelationen zwischen dem Teil A4 der Wellenfront und der Linse 124 zeigen, wenn die Betrachtung in Richtung der optischen Achse erfolgt. In 11 (a) bis 11(c) ist der Teil der Wellenfront A4 so gezeigt, dass er vier Linsen 124 überlappt, die zueinander benachbart sind. Wenn beispielsweise der Teil A4 der Wellenfront über vier Linsen hinweg 124 angeordnet ist, wie in 11 (a) dargestellt ist, enthalten die Daten der Lichtintensitätsverteilung D1 vier konvergierende Flecken P, die durch die vier Linsen 124 gebildet sind, wie in 11(d) dargestellt ist. Wenn der Mittelpunkt des Teils A4 der Wellenfront nahe an dem Mittelpunkt der gewissen Linse 124 in einem derartigen Zustand liegt (11(b)), wird eine Fläche eines Teils, in welchem die drei anderen Linsen 124 und der Teil A4 der Wellenfront einander überlappen, reduziert und die konvergierenden Punkte P, die von den drei anderen Linsen 124 gebildet sind, sind graduell abgeschwächt, wie in 11(e) gezeigt ist. Wenn der Mittelpunkt des Teils A4 der Wellenfront vollständig mit dem Mittelpunkt der Linse 124 (1(c)) übereinstimmt, verschwindenden die konvergierenden Flecken P, die von den drei anderen Linsen 124 erzeugt werden, oder sie werden deutlich abgeschwächt, wie in 11(f) dargestellt ist. Andererseits wird der konvergierende Fleck P als das vollständige konvergierende Punktbild in einer einzelnen Linse 124 gebildet.
  • Daher ist es möglich, einen Betrag an Positionsverschiebung zwischen dem Teil A4 der Wellenfront und der speziellen Linse 124 zu kennen (d.h., einen Betrag an Positionsverschiebung bzw. Abweichung zwischen dem auf dem räumlichen Lichtmodulator 11 angezeigten Phasenmuster und der Form der Wellenfront, die in der Wellenfrontoberfläche 12 gemessen wird), indem die Verteilung des konvergierenden Flecks P untersucht wird, der in den Daten der Lichtintensitätsverteilung D1 enthalten ist.
  • Hier ist ein Beispiel eines „räumlich nicht-linearen zweiten Phasenmusters“, das in dem zweiten Gebiet B2 der 8 angezeigt ist, dargestellt. 12 bis 15 sind Diagramme, die Beispiele eines derartigen Phasenmusters zeigen, wobei die Größe einer Phase als Licht und Schatten dargestellt ist, wobei eine Phase des dunkelsten Teils 0 (rad) und eine Phase eines hellsten Teils 2π (rad) ist.
  • 12 zeigt eine zufällige Verteilung, in der eine Verteilung von Größen von Phasen unregelmäßig ist. Es ist auch ein Beispiel, in welchem ein Graph eines Profils eines Phasenmodulationsbetrages an einer Position jeder Zeilen- und Spaltenrichtung vorliegt, ebenfalls gezeigt. Wenn dieses Phasenmuster in dem zweiten Gebiet B2 angezeigt wird, divergiert das optische Bild La eines relevanten Teiles und ein klarer bzw. deutlicher konvergierender Fleck P wird nicht gebildet. 13 zeigt eine Defokussier-Verteilung, die einen Durchmesser eines konvergierenden Flecks P vergrößert. Selbst in 13 ist ein Beispiel eines Grafen eines Phasenmodulationsbetrags an einer einzelnen Position jeder Zeilen- und Spaltenrichtung dargestellt. Wenn ein derartiges Phasenmuster in dem zweiten Gebiet B2 angezeigt wird, wird ein klarer konvergierender Fleck P nicht gebildet, da das optische Bild La des relevanten Teils ohne Konvergenz entsprechend aufgeweitet wird. 14 zeigt eine Verteilung, die eine große sphärische Abberation in dem optischen Bild La hervorruft. Anstelle des Phasenmusters, in welchem eine Defokussierung und sphärische Abberation auftreten, kann ein Phasenmuster, in welchem eine große Astigmatismus-Abberation oder eine Koma-Abberation auftreten, verwendet werden. 15 zeigt eine Verteilung, in der eine Abberation einschließlich einer Abberation höherer Ordnung als eine sphärische Abberation, eine Astigmatismus-Abberation oder eine Koma-Abberation auftreten. Selbst wenn das in 14 oder 15 gezeigte Phasenmuster in dem zweiten Gebiet B2 angezeigt wird, wird der deutliche konvergierende Fleck P nicht gebildet. Das räumlich nicht-lineare zweite Phasenmuster kann zumindest eine der zuvor beschriebenen Verteilungen enthalten oder kann ein zusammengesetztes Muster enthalten, in welchem zumindest eine der zuvor beschriebenen Verteilungen und ein lineares Phasenmuster überlagert sind.
  • Ferner kann das nicht-lineare Phasenmuster, das in dem zweiten Gebiet B2 angezeigt ist, eine gemeinsame Phasenverteilung für alle zwei oder mehr Gebiete, die durch Teilung des zweiten Gebiets B2 gebildet sind, enthalten und kann unterschiedliche Phasenverteilungen für jeweils zwei oder mehr Gebiete enthalten, die durch Unterteilen des zweiten Gebiets B2 gebildet sind. 16 zeigt ein Beispiel eines Phasenmusters, in welchem eine gemeinsame Phasenverteilung (beispielsweise eine Phasenverteilung mit einer Abberation hoher Ordnung) für jeweils zwei oder mehr Gebiete, die durch Teilung des zweiten Gebiets B2 gebildet sind, angeordnet ist. Auch zeigt 17 ein Beispiel eines Phasenmusters, in welchem unterschiedliche Phasenverteilungen (beispielsweise Defokussier-Verteilungen) für jeweils zwei oder mehr Gebiete, die durch Unterteilung des zweiten Gebiets B2 gebildet sind, angeordnet sind.
  • Ein „erstes Phasenmuster mit Linearität in mindestens einer Richtung“, das in dem ersten Gebiet B1 der 8 beispielsweise angezeigt ist, wird durch eine Phasenverteilung implementiert, in der Phasenwerte im Wesentlichen gleichförmig über die gesamte Oberfläche der Modulationsoberfläche 11a hinweg sind. 18 ist ein Diagramm, das ein derartiges Phasenmuster darstellt, wobei die Größe der Phase durch Licht und Schatten wie in 12 bis 17 angegeben ist. Da die Wellenfront des optischen Bildes La des relevanten Teils flach ist, wenn das Phasenmuster, wie es in 18 dargestellt ist, in dem ersten Gebiet B1 angezeigt wird, wird der deutliche konvergierende Fleck P von der Linse 124 gebildet.
  • 19 ist eine Blockansicht, die ein Beispiel eines inneren Aufbaus der Steuereinheit 13 dieser Ausführungsform darstellt. Die Steuereinheit 13 kann ausgebildet sein, eine Mustererzeugungseinheit 13b und eine Berechnungsverarbeitungseinheit 13c aufzuweisen. Ferner sind die Mustererzeugungseinheit 13b und die Berechnungsverarbeitungseinheit 13c als ein Programm innerhalb des Speichergebiets 13a der Steuereinheit 13, das in 1 gezeigt ist, gespeichert und können von der Steuereinheit 13 durch Auslesen und Ausführen des Programms umgesetzt werden.
  • Die Mustererzeugungseinheit 13b erzeugt ein spezielles Phasenmuster für die Justierung (Kalibrierung) einer Zuordnungsrelation zwischen der Modulationsoberfläche 11a und dem Wellenfrontsensor 12, das heißt, ein Phasenmuster, das das erste Gebiet B1 und das zweite Gebiet B2 enthält. Des Weiteren erzeugt die Mustererzeugungseinheit 13b ein räumlich nicht-lineares Phasenmuster in allen Gebieten separat zu dem zuvor beschriebenen Phasenmuster. Diese Phasenmuster werden auch an die Steuerschaltungseinheit 17 als das Steuersignal S2 von der Mustererzeugungseinheit 13b gesendet.
  • Dabei ist ein spezielles Phasenmuster PA für die Kalibrierung beispielsweise durch die folgende Formel (2) ausgedrückt.
    [Mathe 2 P A ( n , m ) = { a ( n , m ) R O I r a n d (   ) ( n , m ) R O I
    Figure DE112014002683B4_0002
  • Dabei bezeichnet a eine gewisse Konstante und ist ein Beispiel eines ersten Phasenmusters mit Linearität in mindestens einer Richtung. rand()bezeichnet eine Zufallsfunktion und ist ein Beispiel eines räumlich nicht-linearen zweiten Phasenmusters, (n, m) bezeichnen Koordinaten in Einheiten von Pixel auf der Modulationsoberfläche 11a. ROI ist als Bezugszeichen definiert, das das erste Gebiet B1 kennzeichnet. Des Weiteren wird ein Phasenmuster PB, das nicht räumlich linear in allen Gebieten ist, durch die folgende Formel (3) ausgedrückt.
    [Mathe 3] P B ( n , m ) = rand (   )   ( n , m ) ( gesamtes Gebiet der Modulationsoberfl a ¨ che )
    Figure DE112014002683B4_0003
  • Wie zuvor beschrieben ist, hat das erste Gebiet B1 in dieser Ausführungsform eine Größe, die einer einzelnen Linse 124 entspricht. Wenn die mehreren Linsen 124 in Form eines zweidimensionalen Gitters angeordnet sind, wie in 3 in dem Linsen-Array 120 gezeigt ist, wird die Form des ersten Gebiets B1 zu einem Quadrat. Folglich kann die vorhergehende Formel (2) in die folgende Formel (4) modifiziert werden.
    [Mathe 4] P A ( n , m ) = { a | n x c | w 2 , | w y c | w 2 r a n d (   ) | n x c | > w 2 , | w y c | > w 2
    Figure DE112014002683B4_0004
  • Dabei sind (xc, yc) Mittelpunktskoordinaten des ersten Gebiets B1 und w ist die Anzahl an Pixel einer Seite des ersten Gebiets B1. Wenn ferner angenommen wird, dass ein Array-Abstand der Pixel 11b in der Modulationsoberfläche 11a durch sImPITCH angegeben ist, ein Array-Abstand der Linsen in dem Linsen-Array 120 durch mlaPITCH angegeben ist, und eine Abbildungsvergrößerung eines optischen Systems zwischen der Modulationsoberfläche 11a und der Linsenoberfläche des Linsen-Array 120 als M bezeichnet ist, wird die Anzahl an Pixel w einer Seite des ersten Gebiets B1 durch die folgende Formel (5) ausgedrückt.
    [Mathe 5] w = 1 M × m l a P I T C H s l m P I T C H
    Figure DE112014002683B4_0005
  • Anders ausgedrückt, eine Breite (=w×slmPITCH) des ersten Gebiets B1 in einer Array-Richtung der mehreren Linsen 124 ist (1/M) mal dem Array-Abstand mlaPITCH der mehreren Linsen 124.
  • Wenn jedes der zuvor beschriebenen Phasenmusters PA und PB auf der Modulationsoberfläche 11a angezeigt wird, erhält die Berechnungsverarbeitungseinheit 13c die Daten der Lichtintensitätsverteilung S1, die von dem Wellenfrontsensor 12 ausgegeben werden. Die Berechnungsverarbeitungseinheit 13c berechnet eine Größe einer Eigenschaft bzw. eine Eigenschaftsquantität, die mit dem konvergierenden Fleck P in Beziehung steht, der in den Daten der Lichtintensitätsverteilung S1 enthalten ist, entsprechend einem Algorithmus, der nachfolgend beschrieben ist. Die Berechnungsverarbeitungseinheit 13c verschiebt eine Mittelposition (xc, yc) des ersten Gebiets B1 derart, dass die Eigenschaftsquantität einer Bedingung genügt (typischerweise so, dass die Eigenschaftsquantität minimiert wird, oder so dass die Eigenschaftsquantität kleiner als ein vorbestimmter Schwellwert ist).
  • Eine Funktionsweise des adaptiven Optiksystems 10 einschließlich der Justierung (Kalibrierung) der Zuordnungsrelation zwischen der Modulationsoberfläche 11a und dem Wellenfrontsensor 12, die zuvor beschrieben sind, ist mit Bezug zu 20 beschrieben. 20 ist ein Flussdiagramm, das die Arbeitsweise und das Justierverfahren für die Zuordnungsrelation des adaptiven Optiksystems 10 dieser Ausführungsform darstellt. Des Weiteren ist das Justierverfahren für die Zuordnungsrelation als ein Programm für das adaptive Optiksystem innerhalb des Speichergebiets 13a der Steuereinheit 12, die in 1 gezeigt ist, gespeichert, und die Steuereinheit 13 führt das Justierverfahren für die Zuordnungsrelation aus, indem das Programm ausgelesen wird. Ferner kann die Steuereinheit 13 im Wesentlichen durch einen Computer mit einer CPU, einem RAM und einem ROM, die Hauptspeichereinrichtungen sind, einem Kommunikationsmodul zur Ausführung einer Kommunikation und Hardware-Ressourcen gebildet sein, etwa einer Zusatzspeichereinrichtung, etwa einer Festplatte. Ein Programm für ein adaptives Optiksystem ist in einem Speichermedium gespeichert, das in den Computer eingeführt wird und auf das er zugreift, oder ist auf einem Speichermedium gespeichert, das in dem Computer vorgesehen ist. Dieses Speichermedium entspricht beispielsweise einer Magnetdiskette, einer optischen Diskette, einer CD-ROM, einen USB-Speicher, einem Speicher (das Speichergebiet 13a), der in dem Rechner eingebettet ist, oder dergleichen.
  • In dem adaptiven Optiksystem 10 wird zunächst eine Initialisierung der Steuereinheit 13 ausgeführt (Schritt S11). In diesem Initialisierungsschritt S11 werden beispielsweise die Reservierung eines Speichergebiets, das für eine Berechnung erforderlich ist, anfängliche Einstellungen von Parametern, usw. ausgeführt. Des Weiteren kann in diesem Schritt S11 die Mitte des ersten Gebiets B1 in jedem Pixel in der Umgebung des Mittelpunkts der Modulationsoberfläche 11a als ein Initialisierungsprozess für ein spezielles Phasenmuster PA für die Kalibrierung zugewiesen werden. Des Weiteren kann die Anzahl an Iterationen der nachfolgenden Schritte S12 bis S19 festgelegt werden. Die Anzahl an Iterationen wird beispielsweise auf eine ganze Zahl festgelegt, die größer ist als ein Wert, der durch Quadrieren der Anzahl an Pixel einer Seite des ersten Gebiets B1 ermittelt wird.
  • Als nächstes erzeugt die Steuereinheit 13 das spezielle Phasenmuster PA für die Kalibrierung und zeigt das erzeugte Phasenmuster PA auf der Modulationsoberfläche 11a an (Schritt S12). In diesem Schritt S12 wird ein Phasenmuster (siehe beispielsweise 18) mit Linearität in mindestens einer Richtung in dem ersten Gebiet B1 auf der Modulationsoberfläche 11a, das einer einzelnen Linse 124 der mehreren Linsen 124 des Linsen-Arrays 120 entspricht, und ein räumlich nicht-lineares Phasenmuster (siehe beispielsweise 12 bis 15) in dem zweiten Gebiet B2 angezeigt, das das erste Gebiet B1 umgibt.
  • Nachfolgend erhält die Steuereinheit 13 Daten der Lichtintensitätsverteilung (im Weiteren werden diese Daten der Lichtintensitätsverteilung als DA bezeichnet) aus dem Bildsensor 122 in einem Zustand, in welchem das zuvor beschriebene Phasenmuster PA angezeigt wird (Schritt S13, erster Schritt zur Gewinnung einer Lichtintensitätsverteilung).
  • Nachfolgend erzeugt die Steuereinheit 13 ein Phasenmuster PB, das räumlich nicht linear in allen Gebieten ist und zeigt das erzeugte Phasenmuster PB auf der Modulationsoberfläche 11a an (Schritt S14). In diesem Schritt S14 wird das räumlich nicht-lineare Phasenmuster (siehe beispielsweise 12 bis 15) sowohl in dem ersten Gebiet B1 als auch einem zweiten Gebiet B2 angezeigt.
  • Danach erhält die Steuereinheit 13 Daten der Lichtintensitätsverteilung (im Weiteren wird diese Lichtintensitätsverteilung als Da bezeichnet) durch den Bildsensor 122 in einem Zustand, in welchem das oben beschriebene Phasenmuster PB angezeigt wird (Schritt S15, zweiter Schritt zur Gewinnung der Lichtintensitätsverteilung).
  • Nachfolgend ermittelt die Steuereinheit 13 einen numerischen Wert, der mit der Klarheit bzw. Deutlichkeit des konvergierenden Flecks P in Beziehung steht, der in den Daten der Lichtintensitätsverteilung DA enthalten ist, und einen numerischen Wert, der mit der Klarheit bzw. Deutlichkeit des konvergierenden Flecks P in Beziehung steht, der in den Daten der Lichtintensitätsverteilung DB enthalten ist (Schritt S16). Dabei wird der numerische Wert, der mit der Deutlichkeit des konvergierenden Flecks P in Beziehung steht, als eine „Eigenschaftsquantität“ bezeichnet. Im Weiteren ist ein Verfahren zur Ermittelung der Eigenschaftsquantität beschrieben.
  • 21 ist ein Diagramm, das ein rechteckiges Gebiet L0 gegenüberliegend zu einer einzelnen gewissen Linse 124 auf dem Bildsensor 122 und rechteckige Gebiete L1 bis L4 gegenüberliegend zu vier benachbarten Linsen 124 um die Linse 124 herum zeigt. In 21 sind die Gebiete L1 und L2 so angeordnet, dass sie das Gebiet L0 in der Zeilenrichtung einschließen, und die Gebiete L3 und L4 sind so angeordnet, dass sie das Gebiet L0 in der Spaltenrichtung einschließen. Die Anzahl an Pixel auf einer Seite jedes der Gebiete L1 bis L4 und ein Mittelpunktsabstand d zwischen jedem der Gebiete L1 bis L4 und dem Gebiet L0 werden entsprechend der folgenden Formel (6) aus dem Abstand mlaPITCH des Linsen-Arrays und einem Pixel-Abstand ccdPITCH des Bildsensors errechnet.
    [Mathe 6] d = m l a P I T C H c c d P I T C H
    Figure DE112014002683B4_0006
  • Des Weiteren werden Berechnungsgebiete für die Eigenschaftsquantität R0 bis R4 innerhalb der Gebiete L0 bis L4 festgelegt. Die Berechnungsgebiete für die Eigenschaftsquantität R0 bis R4 haben beispielsweise ähnliche Formen wie die Gebiete L1 bis L4 und die Mittelpositionen der Berechnungsgebiete für die Eigenschaftsquantität R0 bis R4 stimmen mit der Mittelposition der Gebiete L1 bis L4 über ein.
  • 22 ist eine vergrößerte Ansicht der Gebiete L0 bis L4. Die Gebiete L0 bis L4 sind aus mehreren Pixel 122b gebildet, und die mehreren Pixel 122b sind in Form eines zweidimensionalen Gitters über Ma1 Zeilen und Mb1 Spalten (Ma1 und Mb1 sind ganze Zahlen, die größer oder gleich 2 sind) hinweg angeordnet. Ferner sind die Berechnungsgebiete für die Eigenschaftsquantität R0 bis R4, die in den Gebieten L0 bis L4 enthalten sind, durch parallele diagonale Linien in der Zeichnung angegeben und enthalten Pixel 122b, die in Form eines zweidimensionalen Gitters über Ma2 Zeilen und Mb2 Spalten hinweg (Ma2 < Ma1 und Mb2 < Mb1) angeordnet sind. Ein schwarz gefülltes Pixel in der Zeichnung repräsentiert eines von gemeinsamen zentralen Pixel zwischen den Gebieten L0 bis L4 und den Berechnungsgebieten für die Eigenschaftsquantität R0 bis R4.
  • 23 ist ein Flussdiagramm, das ein Verfahren zur Berechnung einer Eigenschaftsquantität des konvergierenden Flecks P zeigt. Wenn die Eigenschaftsquantität erhalten wird, wird zuerst eine Position des konvergierenden Flecks P in den Daten der Lichtintensitätsverteilung DA erfasst (Schritt S21). Eine Position (cx, cy) des konvergieren Flecks P wird durch die folgende Formel (7) ausgedrückt. Aj,j bezeichnet eine Lichtintensität bei den Koordinaten (i, y) der Daten der Lichtintensitätsverteilung DA und R0 bezeichnet ein Berechnungsgebiet für die Eigenschaftsquantität einschließlich einer Höchstwertposition des konvergierenden Flecks P.
    [Mathe 7] c x = i , j R 0 i A i j i , j R 0 A i j c y = i , j R 0 j A i j i , j R 0 A i j
    Figure DE112014002683B4_0007
  • Da der Schwerpunkt des konvergierenden Flecks P und die Mittelpositionen des Gebiets L0 und des Berechnungsgebiets für die Eigenschaftsquantität R0 in vielen Fällen miteinander übereinstimmen, werden die Mittelpunktskoordinaten der Gebiete L0 und R0 durch (cx, cy) bezeichnet. Des Weiteren werden die Mittelpunktskoordinaten der Gebiete L1 und R1 durch (cx-d, cy) bezeichnet, die Mittelpunktskoordinaten der Gebiete L2 und R2 werden durch (cx+d, cy) bezeichnet, die Mittelpunktskoordinaten der Gebiete L3 und R3 werden durch (cx, cy-d) bezeichnet, und die Mittelpunktskoordinaten der Gebiete L4 und R4 werden durch (cx, cy+d) bezeichnet.
  • Als nächstes werden in den Berechnungsgebieten für die Eigenschaftsquantität R1 bis R4 der vier Gebiete L1 bis L4, die benachbart zu dem Gebiet L0 liegen, das die Höchstwertposition des konvergierenden Flecks P enthält, die Eigenschaftsquantitäten VA1, VA2, VA3, und VA4, die durch die folgenden Formeln (8) ausgedrückt sind, berechnet (Schritt S22).
    [Mathe 8] V A 1 = i , j R 1 A i j V A 2 = i , j R 2 A i j V A 3 = i , j R 3 A i j V A 4 = i , j R 4 A i j
    Figure DE112014002683B4_0008
  • Anschließend werden in den Berechnungsgebieten für die Eigenschaftsquantität R1 bis R4 in den Daten der Lichtintensitätsverteilung DB Eigenschaftsquantitäten VB1, VB2, VB3, und VB4, die durch die folgenden Formeln (9) ausgedrückt sind, berechnet (Schritt S23).
    [Mathe 9] V B 1 = i , j R 1 B i j V B 2 = i , j R 2 B i j V B 3 = i , j R 3 B i j V B 4 = i , j R 4 B i j
    Figure DE112014002683B4_0009
  • Somit sind die Eigenschaftsquantitäten VA1 bis VA4 der konvergierenden Flecken P, die in den Daten der Lichtintensitätsverteilung DA und die Eigenschaftsquantitäten VB1 bis VB4 der konvergierenden Flecke P, die in den Daten der Lichtintensitätsverteilung DB enthalten sind, berechnet.
  • Die Beschreibung geht nun zurück zu 20. Nachfolgend werden, wie in den folgenden Formeln (10) gezeigt ist, Differenzen ΔV1 bis ΔV4 zwischen den Eigenschaftsquantitäten VA1 bis VA4 der konvergierenden Flecken P, die in den Daten der Lichtintensitätsverteilung DA enthalten sind, und den Eigenschaftsquantitäten VB1 bis VB4 der konvergierenden Flecke P, die in den Daten der Lichtintensitätsverteilung DB enthalten sind, berechnet (Schritt S17, Differenzberechnungsschritt). Das Symbol
    Figure DE112014002683B4_0010
    bezeichnet einen Absolutwert der Differenz.
    [Mathe 10] Δ V 1 = | V A 1 V B 1 | Δ V 2 = | V A 2 V B 2 | Δ V 3 = | V A 3 V B 3 | Δ V 4 = | V A 4 V B 4 |
    Figure DE112014002683B4_0011
  • Obwohl die Berechnung unter Anwendung der Daten der Lichtintensitätsverteilung DA und DB in den Formeln zur Berechnung der Eigenschaftsquantität (8) und (9), die sich auf die Klarheit des zuvor beschriebenen konvergierenden Flecks beziehen, ausgeführt wird, kann die Berechnung auch unter Anwendung von Daten nach der Bildverarbeitung der Daten der Lichtintensitätsverteilung DA und DB ausgeführt werden. Insbesondere wenn die Berechnung unter Anwendung eines Prozesses mit Binär-Bildung ausgeführt wird, der einer der Bildverarbeitungsverfahren ist, zeigt die Eigenschaftsquantität, die zu berechnen ist, eine Aufweitung des konvergierenden Fleckes an. D.h., die Eigenschaftsquantität, die die Klarheit bzw. Deutlichkeit des konvergierenden Flecks betrifft, beinhaltet eine Quantität bzw. Größe, die die Intensität des konvergierenden Flecks betrifft, und eine Quantität bzw. Größe, die die Aufweitung des konvergierenden Flecks betrifft.
  • Nachfolgend justiert die Steuereinheit 13 eine Zuordnungsrelation zwischen dem ersten Gebiet B1 des Phasenmusters PA und dem Gebiet L0 auf der Grundlage der Differenzen ΔV1 bis ΔV4, die in dem Differenzberechnungsschritt S17 erhalten wurden (Schritt S18, erster Justierschritt). In diesem Schritt S18 werden zunächst Werte Vx und Vy, die in den folgenden Gleichungen (11) gezeigt sind, berechnet.
    [Mathe 11] V x = | Δ V 1 Δ V 2 | V y = | Δ V 3 Δ V 4 |
    Figure DE112014002683B4_0012
  • Der Wert Vx ist ein Absolutwert einer Differenz zwischen der Differenz ΔV1 und der Differenz ΔV2 und bezeichnet eine Ausgewogenheit der Deutlichkeit bzw. Klarheit der konvergierenden Flecke P in den Gebieten L1 und L2, die in der Zeilenrichtung angeordnet sind, so dass sie das Gebiet L0 einschließen. Des Weiteren ist der Wert Vy ein Absolutwert einer Differenz zwischen der Differenz ΔV3 der Differenz ΔV4 und bezeichnet eine Ausgewogenheit der Klarheit der konvergierenden Flecke P in den Gebieten L3 und L4, die in der Spaltenrichtung so angeordnet sind, dass sie das Gebiet L0 einschließen.
  • Als nächstes wird die Zuordnungsrelation zwischen der Modulationsoberfläche 11a und dem Wellenfrontsensor 12 in einer Richtung justiert, in der die Werte Vx und Vy reduziert sind. Wenn beispielsweise die Differenz ΔV1 kleiner (oder größer) als die Differenz ΔV2 ist, wird das erste Gebiet B1 des Phasenmusters PA beispielsweise um ein Pixel in der Zeilenrichtung in eine Richtung verschoben, in der die Differenz ΔV1 anwächst und die Differenz ΔV2 kleiner wird (oder in einer Richtung, in der die Differenz ΔV1 kleiner wird und die Differenz ΔV2 größer wird). Wenn ferner die Differenz ΔV3 a (oder größer) als die Differenz ΔV4 ist, wird das erste Gebiet B1 des Phasenmusters PA beispielsweise um ein Pixel in der Spaltenrichtung in einer Richtung verschoben, in der die Differenz ΔV3 größer wird und die Differenz ΔV4 kleiner wird (oder in einer Richtung, in der die Differenz ΔV3 kleiner wird und die Differenz ΔV4 größer wird).
  • Nach dem Schritt S18 ermittelt die Steuereinheit 13, ob die zuvor beschriebenen Differenzen ΔV1 bis A\/4 einer vorbestimmten Beendigungsbedingung genügen (Schritt S19). Beispielsweise ermittelt die Steuereinheit 13 darüber, ob die Werte Vx und Vy minimal oder die Werte Vx und Vy kleiner als ein vorbestimmter Schwellwert sind. Wenn die Beendigungsbedingung so bestimmt ist, dass die Werte Vx und Vy minimal sind, werden die zuvor beschriebenen Schritte S12 bis S19 wiederholt, bis die vorgegebene Anzahl an Iterationen erreicht ist. Da das erste Gebiet B1 des Phasenmusters PA in dieser Ausführungsform um ein Pixel verschoben wird, ist ein maximaler Wert der Anzahl an Iterationen gleich der Anzahl an Pixel, die das erste Gebiet B1 bilden. Wenn ferner die Beendigungsbedingung entsprechend den Größen der Werte Vx und Vy und dem vorbestimmten Schwellwert bestimmt ist, werden die zuvor beschriebenen Schritte S12 bis S19 wiederholt, bis die Beendigungsbedingung erfüllt ist.
  • Wenn die Differenzen ΔV1 bis ΔV4 die vorbestimmte Beendigungsbedingung erfüllen, ist die Kalibrierung abgeschlossen. Zur Zeit des Aufbaus oder der Wartung des optischen Systems und wenn die Zuordnungsrelation zwischen dem räumlichen Lichtmodulator 11 und dem Wellenfrontsensor 12 plötzlich verschoben ist, kann die Steuereinheit 13 die Zuordnungsrelation zwischen der Modulationsoberfläche 11a und dem Wellenfrontsensor 12 vor der zuvor beschriebenen Kalibrierung ausführen (zweiter Justierschritt). Beispielsweise wird eine relative Beziehung zwischen einer Befestigungsposition des Wellenfrontsensors 12 und einer Befestigungsposition des räumlichen Lichtmodulators 11 so eingestellt, dass relative Positionen des Phasenmusters und des Wellenfrontsensors 12 im Hinblick auf eine Kompensation einer Wellenfrontverzerrung miteinander übereinstimmen.
  • Es werden nunmehr Wirkungen beschrieben, die durch das Justierverfahren für das adaptive Optiksystem 10, das adaptive Optiksystem 10, das Programm für das adaptive Optiksystem und das Speichermedium, das das Programm für das adaptive Optiksystem speichert, gemäß der zuvor beschriebenen Ausführungsformen bereit gestellt werden.
  • in dieser Ausführungsform werden in dem ersten Schritt zur Gewinnung der Lichtintensitätsverteilung S13 die Daten der Lichtintensitätsverteilung DA von dem Bildsensor 122 des Wellenfrontsensors 12 in einem Zustand gewonnen, in welchem ein Phasenmuster mit Linearität in mindestens einer Richtung in dem ersten Gebiet B1 des räumlichen Lichtmodulators 11 und ein räumlich nicht-lineares Phasenmuster in dem zweiten Gebiet B2, das das erste Gebiet B1 umgibt, angezeigt. Obwohl der konvergierende Fleck P in dem Gebiet L0 gebildet ist, das dem ersten Gebiet B1 in den Daten der Lichtintensitätsverteilung DA entspricht, wird der konvergierende Fleck P des Gebiets L0 nicht deutlich gebildet und ein gewisser Anteil an Licht aus dem ersten Gebiet B1 verläuft konvergent zu einem der Gebiete L1 bis L4 über die benachbarte Linse 124, wenn das erste Gebiet B1 und die entsprechende Linse 124 eine Positionsverschiebung hervorrufen. Ferner werden die konvergierenden Flecke P, die in den Gebieten L1 bis L4 gebildet werden, deutlicher bzw. klarer, wenn die Positionsverschiebung größer ist. Daher ist es möglich, die Zuordnungsrelation zwischen der Modulationsoberfläche 11a und dem Wellenfrontsensor 12 auf der Grundlage der Klarheit bzw. Deutlichkeit (d.h., die Eigenschaftsquantitäten VA1 bis VA4) der konvergierenden Flecke P in den Gebieten L0 bis L4 zu justieren.
  • Hier zeigt 24(a) als Beispiel ein spezielles Phasenmuster zur Kalibrierung, 24(b) zeigt Arten der Lichtintensitätsverteilung DA, wenn eine Positionsverschiebung bzw. Abweichung in einer Linse 124 auftritt, die dem ersten Gebiet B1 entspricht, als Beispiel, und 24(c) zeigt als ein Beispiel Arten für die Lichtintensitätsverteilung DA nach Kalibrierung mit einer Linse 124, die dem ersten Gebiet B1 entspricht. Auch in diesem Beispiel sind mehrere (in der Zeichnung fünf) erste Gebiete B1 vorgesehen. Wie man aus 24 erkennen kann, ist der konvergierende Fleck P diffus und die Klarheit bzw. Deutlichkeit geht verloren, wenn eine Positionsverschiebung auftritt (24(b)), aber der konvergierende Fleck P läuft auf einen einzelnen Punkt zusammen und die Klarheit ist nach Kalibrierung verbessert (24 (c)).
  • Wie zuvor beschrieben ist, ist es möglich, da die Kalibrierung durch lediglich Steuerung des Phasenmusters des räumlichen Lichtmodulators 11 durch die Steuereinheit 13 und durch Berechnung in der Steuereinheit 13 gemäß dieser Ausführungsform ausgeführt wird, die Zuordnungsrelation zwischen dem Phasenmuster, das in dem Wellenfrontsensor 12 gemessen wird, und dem Kompensationsphasenmuster, das in dem räumlichen Lichtmodulator 11 angezeigt wird, schnell und mit hoher Genauigkeit einzustellen.
  • 25 ist ein Diagramm, das einen Vorteil gemäß einer Zunahme der Genauigkeit der Justierung (Kalibrierung) des adaptiven Optiksystems zeigt. 25(a) zeigt konzeptionell eine einfallende Wellenfront 61, eine Kompensationswellenfront 62 und eine konjugierte Wellenfront 63 (Summe der einfallende Wellenfront 61 und der Kompensationswellenfront 62), wenn zu Vergleichszwecken die Justiergenauigkeit gering ist. Ferner zeigt 25(b) konzeptionell eine einfallende Wellenfront 71, eine Kompensationswellenfront 72 und eine konjugierte Wellenfront 73 (eine Summe der einfallende Wellenfront 71 und der Kompensationswellenfront 72), wenn die Justiergenauigkeit hoch ist.
  • Wie in 25 (a) gezeigt ist, ist die Verzerrung bzw. Verformung einer Wellenfront nicht vollständig in der kompensierten Wellenfront 63 entfernt, wenn es eine Positionsverschiebung zwischen der einfallende Wellenfront 61 und der Kompensationswellenfront 62 gibt, da die Justiergenauigkeit gering ist. Folglich ist eine Abbildungseigenschaft mit hoher Wahrscheinlichkeit beeinträchtigt und die Wellenfrontverzerrung kann aufgrund eines Einflusses einer Rückkopplungssteuerung anwachsen. Im Gegensatz kann, wie in 25(b) dargestellt ist, die Wellenfrontverzerrung in geeigneter Weise korrigiert werden und die konjugierte Wellenfront 73 kann im Wesentlichen eine ebene Welle sein, wenn die Justiergenauigkeit hoch ist und die Positionsverschiebung zwischen der einfallenden Wellenfront 71 und der Kompensationswellenfront 72 klein ist.
  • Ferner ist in dem Verfahren, das in der zuvor beschriebenen Nicht-Patentliteratur 2 beschrieben ist, eine Struktur eines Phasenmusters, das bei der Kalibrierung anzuwenden ist, komplex und es ist schwierig, eine Struktur eines komplexen Phasenmusters durch den räumlichen Lichtmodulator 11 in korrekter Weise zu erzeugen. Andererseits ist es in dieser Ausführungsform lediglich erforderlich, dass das Phasenmuster PA das erste und das zweite Gebiet B1 und B2 enthält, die aus einem einfachen Phasenmuster gebildet sind, so dass eine Struktur des Phasenmusters einfach ist, das Phasenmusters in einfacher Weise durch die Steuereinheit 13 erzeugt wird und die Struktur des Phasenmusters in korrekter Weise erzeugt werden kann.
  • Ferner ist es in dem Verfahren, das in der Nicht-Patentliteratur 2 offenbart ist, erforderlich, die gesamte Form der Wellenfront auf der Grundlage von Daten der Lichtintensitätsverteilung zu berechnen, die von dem Wellenfrontsensor 12 ausgegeben werden. Andererseits wird ein Berechnungsvorgang in dieser Ausführungsform erleichtert, da es möglich ist, eine Kalibrierung auf der Grundlage lediglich eines Teils der Daten der Lichtintensitätsverteilung auszuführen.
  • Ferner ist in dem Verfahren, das in der Nicht-Patentliteratur 2 offenbart ist, ein optisches Bild mit einem großen Strahldurchmesser als ein optisches Bild erforderlich, das auf die Modulationsoberfläche einzustrahlen ist, da eine Größe, in der das für die Kalibrierung zu verwendende Phasenmuster auf im Wesentlichen der gesamten Modulationsoberfläche angezeigt wird, gewünscht ist. Da andererseits es nur notwendig ist, ein optisches Bild auf das erste Gebiet B1 und sein peripheres Gebiet B2 in dieser Ausführungsform einzustrahlen, ist es möglich, einen Strahldurchmesser des optischen Bildes La, das auf die Modulationsoberfläche 11a einzustrahlen ist, zu verringern. Für den Strahldurchmesser des optischen Bildes La ist es in dieser Ausführungsform nur erforderlich, dass er dreimal so groß ist wie der Durchmesser der Linse 124. Da der Strahldurchmesser des optischen Bildes La in der zuvor beschriebenen Weise verringert werden kann, kann auch die Größe einer Lichtquelle reduziert werden. Dadurch ist es möglich, eine Kalibrierung in einfacher Weise auszuführen.
  • Ferner haben die Modulationsoberfläche 11a und der Wellenfrontsensor 12 eine optisch zueinander konjugierte Beziehung, es tritt jedoch eine Differenz zwischen dem Phasenmuster, das auf der Modulationsoberfläche 11a angezeigt wird, und dem Phasenmuster auf, das in dem Wellenfrontsensor 12 erfasst wird, wenn es eine Verschiebung in einem optischen Abstand zwischen der Modulationsoberfläche 11a und dem Wellenfrontsensor 12 gibt. Folglich kann in dem Verfahren, das in der Nicht-Patentliteratur 2 offenbart ist, die Genauigkeit der Kalibrierung aufgrund der Verschiebung des optischen Abstands zwischen der Modulationsoberfläche 11a und dem Wellenfrontsensor 12 beeinträchtigt sein.
  • Selbst wenn die Modulationsoberfläche 11a und der Wellenfrontsensor 12 geringfügig von der zueinander konjugierten Positionsrelation in dieser Ausführungsform abweichen, kann andererseits die Kalibriergenauigkeit beibehalten werden. Dies gilt aus dem folgenden Grund. Wenn die Phasenmuster des ersten Gebiets B1 und des zweiten Gebiets B2 auf dem Wellenfrontsensor 12 projiziert werden, wenn die Modulationsoberfläche 11a und der Wellenfrontsensor 12 geringfügig zu der zueinander konjugierten Positionsrelation verschoben sind, wird die Form der Wellenfront, die dem ersten Gebiet B1 entspricht, eine Kugelwelle, da eine leicht defokussierende Komponente einem linearen Muster hinzugefügt wird und die Form der Wellenfront, die dem zweiten Gebiet B2 entspricht, bleibt eine nicht-lineare (beispielsweise zufällige Form) Wellenfront. Wenn ein Teil der Kugelwelle eine gewisse Linse 124 überlappt, gibt es einen geringen defokussierenden Effekt, aber es wird ein deutlicher konvergierender Fleck P gebildet. Andererseits bleibt in der Linse 124, die den Teil der nicht-linearen Wellenfront überlappt, der konvergierende Fleck P divergent und wird nicht in deutlicher Weise gebildet. Selbst wenn es in dieser Ausführungsform eine geringfügige Abweichung von einer Positionsrelation gibt, in der die Modulationsoberfläche 11a und der Wellenfrontsensor 12 konjugiert zueinander sind, ist es daher möglich, in ausreichender Weise eine Differenz zwischen Eigenschaftsquantitäten der konvergierenden Flecke P zu ermitteln und die Kalibriergenauigkeit aufrechtzuerhalten.
  • Ferner ist es in dieser Ausführungsform mehr bevorzugt, dass die Daten der Lichtintensitätsverteilung DB in einem Zustand gewonnen werden, in welchem das räumlich nicht-lineare Phasenmuster PB in dem ersten und dem zweiten Gebiet B1 und B2 angezeigt wird (Schritt S15), die Differenzen ΔV1 bis ΔV4 zwischen den Eigenschaftsquantitäten VA1 bis VA4 der konvergierenden Flecke P, die in den Daten der Lichtintensitätsverteilung DA enthalten sind, und den Eigenschaftsquantitäten VB1 bis VB4 der konvergierenden Flecke P, die in den Daten der Lichtintensitätsverteilung DB enthalten sind, berechnet werden (Schritt S17), und dass die Zuordnungsrelation zwischen der Modulationsoberfläche 11a und dem Wellenfrontsensor 12 auf Grundlage der Differenzen ΔV1 bis ΔV4 in dem ersten Justierschritt S18 justiert wird. Es ist möglich, eine Kalibrierung genauer auszuführen, während ein Einfluss des Rauschens oder dergleichen ausgeschlossen wird, indem die Zuordnungsrelation auf der Grundlage der Differenzen ΔV1 bis ΔV4 justiert wird.
  • Ferner kann, wie in dieser Ausführungsform, eine Breite (w×slmPITCH) des ersten Gebiets B1 in der Array-Richtung (Zeilen- und Spaltenrichtung) der mehreren Linsen 124 auf (1/M) mal dem Array-Abstand mIaPITCH der mehreren Linsen 124 eingerichtet werden. Da die Breite des Teils A4 der Wellenfront, der dem ersten Gebiet B1 entspricht, mit dem Durchmesser der Linse 124 übereinstimmt, ist es damit möglich, Unterschiede in der Klarheit bzw. Deutlichkeit zwischen dem konvergierenden Fleck P in dem in 21 dargestellten Gebiet R0 und den konvergierenden Flecken P in den peripheren Gebieten L1 bis L4 zu erzeugen, und daher ist es auch möglich, eine genauere Kalibrierung auszuführen. Wie nachfolgend beschrieben ist, kann die Breite des ersten Gebiets B1 (n1/M) (n1 ist eine ganze Zahl größer oder gleich 1) mal dem Array-Abstand mlaPITCH der mehreren Linsen 124 sein. Selbst in diesem Falle ist es möglich, ähnliche Wirkungen zu erzielen, wie sie zuvor beschrieben sind.
  • In dieser Ausführungsform werden die Daten der Lichtintensitätsverteilung DA in einem Zustand gewonnen, in welchem das Phasenmuster PA für die Kalibrierung angezeigt wird (Schritt S13) und anschließend werden die Daten der Lichtintensitätsverteilung DB in einem Zustand gewonnen, in welchem das Phasenmuster PB, das nicht räumlich linear in allen Gebieten ist, angezeigt wird (Schritt S15). Die Reihenfolge der Gewinnung der Daten der Lichtintensitätsverteilung DA und DB ist nicht beschränkt, sondern die Daten der Lichtintensitätsverteilung DA können erhalten werden, nachdem die Daten der Lichtintensitätsverteilung DB gewonnen wurden.
  • Ferner kann eine Form als der räumlichen Lichtmodulator verwendet werden, in der mehrere reguläre hexagonale Pixel ohne Abstand angeordnet sind. Ferner ist der räumliche Lichtmodulator unter Anwendung eines Flüssigkristalls als ein Beispiel in den zuvor beschriebenen Ausführungsformen angegeben, es können aber auch ein räumlicher Lichtmodulator unter Anwendung eines Materials, das einen anderen elektrooptischen Effekt als der Flüssigkristall zeigt, ein räumlicher Lichtmodulator, in welchem ein Pixel eines Mikro-Spiegels gebildet wird, ein variabler Spiegel zur Verformung einer Spiegelschicht unter Anwendung eines Aktuators, oder dergleichen verwendet werden.
  • (Erstes modifiziertes Beispiel)
  • in der zuvor beschriebenen Ausführungsform werden die Differenzen ΔV1 bis ΔV4 zwischen den Eigenschaftsquantitäten VA1 bis VA4 und den Eigenschaftsquantitäten VB1 bis VB4, die aus den Daten der Lichtintensitätsverteilung DA und DB berechnet sind, ermittelt, nachdem die Daten der Lichtintensitätsverteilung DA in einem Zustand gewonnen werden, in welchem das Phasenmuster PA angezeigt wird (Schritt S13), und die Daten der Lichtintensitätsverteilung DB werden in einem Zustand gewonnen, in welchem das Phasenmuster PB angezeigt wird (Schritt S15). Es ist jedoch möglich, eine Kalibrierung auf der Grundlage nur der Eigenschaftsquantitäten VA1 bis VA4 auszuführen.
  • 26 ist ein Flussdiagramm, das ein Justierverfahren (eine Funktionsweise der Steuereinheit 13) für das adaptive Optiksystem 10 gemäß diesem modifizierten Beispiel zeigt. Wie in 26 dargestellt ist, führt in diesem modifizierten Beispiel die Steuereinheit 13 die Schritte S11 bis S13 (siehe 20) ähnlich zu jenen der zuvor beschriebenen Ausführungsformen aus. Daraufhin werden Schritte S14 und S15, die in 20 dargestellt sind, weggelassen und der Prozess geht weiter zum Schritt S30 für die Berechnung der Eigenschaftsquantitäten. Ein Unterschied von Schritt S26 zum Schritt S16 der zuvor beschriebenen Ausführungsformen ist, dass der Schritt S21 (Berechnung eines Schwerpunkt des Flecks) und Schritt S22 (Berechnung von Eigenschaftsquantitäten VA1 bis VA4), die in 23 gezeigt sind, ausgeführt werden und dass Schritt S23 (Berechnung der Eigenschaftsquantitäten VB1 bis VB4) weggelassen wird.
  • Nachfolgend führt die Steuereinheit 13 einen ersten Justierschritt S37 ohne Ausführung des Schritts S17 der zuvor beschriebenen Ausführungsformen aus. Im Schritt S37 justiert die Steuereinheit 13 eine Zuordnungsrelation zwischen dem ersten Gebiet B1 des Phasenmusters PA und dem Gebiet L0 auf der Grundlage der Eigenschaftsquantitäten VA1 bis VA4, die im Schritt S36 erhalten werden.
  • In diesem Schritt S37 werden zuerst Werte Vx und Vy, die in den folgenden Formeln (12) gezeigt sind, berechnet.
    [Mathe 12] V x = | V A 1 V A 2 | V y = | V A 3 V A 4 |
    Figure DE112014002683B4_0013
    Der Wert Vx ist ein Absolutwert einer Differenz zwischen der Eigenschaftsquantität VA1 und der Eigenschaftsquantitäten VA2 und gibt eine Ausgewogenheit der Klarheit bzw. der Deutlichkeit der konvergierenden Flecken P in den Gebieten L1 und L2, die in der Zeilenrichtung so angeordnet sind, dass sie das Gebiet L0 einschließen, an. Ferner ist der Wert Vy ein Absolutwert einer Differenz zwischen der Eigenschaftsquantität VA3 und der Eigenschaftsquantität VA4 und bezeichnet eine Ausgewogenheit der Klarheit der konvergierenden Flecke P in den Gebieten L3 und L4, die in der Spaltenrichtung so angeordnet sind, dass sie das Gebiet L0 einschließen.
  • Als nächstes wird die Zuordnungsrelation zwischen der Modulationsoberfläche 11a und dem Wellenfrontsensor 12 in einer Richtung justiert, in der die Werte Vx und Vy reduziert sind. Wenn beispielsweise die Eigenschaftsquantität VA1 größer (oder kleiner) als die Eigenschaftsquantität VA2 ist, ist das erste Gebiet B1 des Phasenmusters PA beispielsweise um ein Pixel in der Zeilenrichtung in einer Richtung verschoben, in der die Eigenschaftsquantität VA1 anwächst und die Eigenschaftsquantität VA2 kleiner wird (oder in einer Richtung, in der die Eigenschaftsquantität VA1 kleiner wird und die Eigenschaftsquantität VA1 größer wird). Wenn des Weiteren die Eigenschaftsquantität VA3 größer (oder kleiner) als die Eigenschaftsquantität VA4 ist, wird das erste Gebiet B1 des Phasenmusters PA beispielsweise um ein Pixel in der Spaltenrichtung in einer Richtung verschoben, in der die Eigenschaftsquantität VA3 größer wird und die Eigenschaftsquantität VA4 kleiner wird (oder in einer Richtung, in der die Eigenschaftsquantität VA3 kleiner wird und die Eigenschaftsquantitäten VA4 größer wird).
  • Daraufhin ermittelt die Steuereinheit 13, ob die zuvor beschriebenen Eigenschaftsquantitäten VA1 bis VA4 eine vorbestimmte Beendigungsbedingung erfüllen (Schritt S38). Beispielsweise ermittelt die Steuereinheit 13, ob die Werte Vx und Vy minimal sind oder ob die Werte Vx und Vy kleiner als ein vorbestimmter Schwellwert sind. Wenn die Beendigungsbedingung so festgelegt ist, dass die Werte Vx und Vy minimal sind, werden die zuvor beschriebenen Schritte S12 bis S19 oder S12 bis S38 wiederholt, bis die vorgegebene Anzahl an Iterationen erreicht ist. Wenn ferner die Beendigungsbedingung entsprechend den Größen der Werte Vx und Vy und entsprechend dem vorbestimmten Schwellwert festgelegt ist, werden die zuvor beschriebenen Schritte S12 bis S19 oder S12 bis S38 wiederholt, bis die Beendigungsbedingung erfüllt ist.
  • Wenn die Eigenschaftsquantitäten VA1 bis VA4 die vorbestimmte Beendigungsbedingung erfüllen, ist die Kalibrierung abgeschlossen. Damit kann die Steuereinheit 13 die Zuordnungsrelation zwischen der Modulationsoberfläche 11a und dem Wellenfrontsensor 12 justieren (zweiter Justierschritt). Ferner ist das Justierverfahren in dem zweiten Justierschritt ähnlich zu jenem der zuvor beschriebenen Ausführungsform.
  • In diesem modifizierten Beispiel wird die Zuordnungsrelation zwischen der Modulationsoberfläche 11a und dem Wellenfrontsensor 12 auf der Grundlage der Klarheit bzw. Deutlichkeit (d.h., den Eigenschaftsquantitäten VA1 bis VA4) der konvergierenden Flecke P, die in den Daten der Lichtintensitätsverteilung DA enthalten sind, justiert. Selbst wenn die Eigenschaftsquantitäten VA1 bis VA4 anstelle der Differenzen ΔV1 bis ΔV4 verwendet werden, wie zuvor beschrieben ist, ist es möglich, eine Zuordnungsrelation zwischen der in dem Wellenfrontsensor 12 gemessenen Wellenfront und dem Kompensationsphasenmuster, das in dem räumlichen Lichtmodulator 11 angezeigt ist, rasch und mit hoher Genauigkeit in der zuvor beschriebenen Ausführungsform einzustellen. Ferner ist es möglich, eine Zeit zu verkürzen, die zur Einstellung erforderlich ist, da die Anzahl an Schritten in diesem modifizierten Beispiel kleiner ist als in den zuvor beschriebenen Ausführungsformen.
  • (Zweites modifiziertes Beispiel)
  • In den zuvor beschriebenen Ausführungsformen und in dem ersten modifizierten Beispiel werden die Eigenschaftsquantitäten VA1 bis VA4 und die Eigenschaftsquantitäten VB1 bis VB4 für die Gebiete L1 bis L4, die benachbart zu dem Gebiet L0 liegen, berechnet, wenn die Eigenschaftsquantität berechnet wird, und eine Kalibrierung wird auf der Grundlage dieser Eigenschaftsquantitäten ausgeführt. Jedoch kann die Kalibrierung auf der Grundlage der Eigenschaftsquantitäten für das Gebiet L0 ausgeführt werden.
  • D.h., in dem Schritt zur Berechnung der Eigenschaftsquantitäten S16, der in 20 in diesem modifizierten Beispiel dargestellt ist, werden die Eigenschaftsquantitäten VA0 und VB0, die durch die folgenden Formeln (13) ausgedrückt sind, anstelle der Eigenschaftsquantitäten VA1 bis VA4 und den Eigenschaftsquantitäten VB1 bis VB4 ermittelt.
    [Mathe 13] V A 0 = i , j R 0 A i j V B 0 = i , j R 0 B i j
    Figure DE112014002683B4_0014
    Des Weiteren wird im nachfolgenden Schritt S17 die Differenz ΔV0, die durch die folgende Formel (14) ausgedrückt ist, ermittelt.
    [Mathe 14] Δ V 0 = | V A 0 V B 0 |
    Figure DE112014002683B4_0015
  • In den ersten Justierschritt S18 justiert die Steuereinheit 13 die Zuordnungsrelation zwischen dem ersten Gebiet B1 des Phasenmusters PA und dem Gebiet L0 auf der Grundlage der Differenz ΔV0, die in dem Differenzberechnungsschritt S17 erhalten wird. Insbesondere wird in einer Richtung, in der die Differenz ΔV0 ansteigt, das erste Gebiet B1 des Phasenmusters PA beispielsweise um ein Pixel in der Zeilenrichtung oder Spaltenrichtung verschoben.
  • Daraufhin ermittelt im Schritt S19 die Steuereinheit 13, ob die zuvor beschriebene Differenz ΔV0 einer vorbestimmten Beendigungsbedingung genügt. Beispielsweise führt die Steuereinheit 13 eine Bestimmung darüber aus, ob die Differenz ΔV0 maximal ist oder ob die Differenz ΔV0 größer als der vorbestimmte Schwellwert ist. Wenn die Beendigungsbedingung so bestimmt ist, dass die Differenz ΔV0 maximal ist, werden die Schritte S12 bis S19 wiederholt, bis die vorgegebene Anzahl an Iterationen erreicht ist. Wenn ferner die Beendigungsbedingung entsprechend den Größen der Differenz ΔV0 und des vorbestimmten Schwellwerts bestimmt wird, werden die zuvor beschriebenen Schritte S12 bis S19 wiederholt, bis die Beendigungsbedingung erfüllt ist. Ein Prozess (zweite Justierschritt) für den Fall, in welchem die Differenz ΔV0 der vorbestimmten Beendigungsbedingung genügt, ist ähnlich zu jenem der zuvor beschriebenen Ausführungsformen.
  • In diesem modifizierten Beispiel wird die Zuordnungsrelation zwischen der Modulationsoberfläche 11a und dem Wellenfrontsensor 12 auf der Grundlage der Differenz ΔV0 anstelle der Differenzen ΔV1 bis ΔV4 justiert. Selbst in diesem Verfahren, wie auch in der zuvor beschriebenen Ausführungsform, ist es möglich, die Zuordnungsrelation zwischen der Wellenfront, die in dem Wellenfrontsensor 12 gemessen wird, und dem Kompensationsphasenmuster, das in dem räumlichen Lichtmodulator 11 angezeigt wird, rasch und mit hoher Genauigkeit zu justieren. In dem zuvor beschriebenen ersten modifizierten Beispiel kann die Zuordnungsrelation auf der Grundlage der Eigenschaftsquantität VA0 anstelle der Differenz ΔV0 justiert werden. In diesem Falle ist es möglich, eine Zeit zu verkürzen, die zur Einstellung erforderlich ist, da die Anzahl an Schritten reduziert wird. Ferner ist es in diesem modifizierten Beispiel bevorzugt, eine Lichtintensität des optischen Bildes La, das auf die Modulationsoberfläche 11a einfällt, zeitlich konstant zu halten.
  • (Drittes modifiziertes Beispiel)
  • Wenn die Zuordnungsrelation zwischen der Modulationsoberfläche 11a und dem Wellenfrontsensor 12 im Schritt S18 justiert wird, der in 20 in den zuvor beschriebenen Ausführungsformen und in den modifizierten Beispielen gezeigt ist, wird das erste Gebiet B1 des Phasenmusters PA in der Zeilenrichtung (oder Spaltenrichtung) um ein Pixel verschoben. Jedoch ist ein Betrag der Verschiebung des ersten Gebiets B1 im Schritt S18 nicht auf ein Pixel beschränkt. Beispielsweise kann sich der Betrag der Verschiebung des ersten Gebiets B1 entsprechend den Größen der Werte Vx und Vy ändern. Beispielsweise wird der Betrag der Verschiebung des ersten Gebiets B1 für jede Verschiebung als ein Pixel festgelegt, wenn der Wert Vx kleiner als ein vorbestimmter Wert ist, und der Betrag der Verschiebung des ersten Gebiets B1 für jede Verschiebung wird auf zwei Pixel, drei Pixel oder dergleichen festgelegt, wenn der Wert Vx größer ist als der vorbestimmte Wert. Wenn dieses Verfahren auf das zuvor beschriebene zweite modifizierte Beispiel angewendet wird, ist es möglich, den Betrag der Verschiebung des ersten Gebiets B1 entsprechend der Größe der Differenz ΔV0 zu bestimmen.
  • Die Relation zwischen den Größen der Werte Vx und Vy (oder der Differenz ΔV0) und dem Betrag der Verschiebung des ersten Gebiets B1 für jede Verschiebung kann beispielsweise durch ein im Voraus ausgeführtes Experiment ermittelt werden. In diesem Experiment wird beispielsweise angenommen, dass der Wellenfrontsensor 12 und der räumlichen Lichtmodulator 11 eine geeignete Zuordnungssimulation besitzen. Aus diesem Zustand wird die Eigenschaftsquantität nach der Verschiebung des ersten Gebiets B1 um ein Pixel in der Zeilen- oder Spaltenrichtung berechnet. Ein Graph, der eine Korrelation zwischen dem Betrag der Verschiebung (der Anzahl an Pixel) des ersten Gebiets B1 und den Werten Vx und Vy (oder der Differenz ΔV0) angibt, wird entsprechend erzeugt. Es ist möglich, den Betrag der Verschiebung des ersten Gebiets B1 für jede Verschiebung aus den Größen der Werte Vx und Vy (oder der Differenz ΔV0) auf der Grundlage des Grafen zu ermitteln.
  • Gemäß diesem modifizierten Beispiel ist es, ebenso wie in den zuvor beschriebenen Ausführungsformen, möglich, die Zuordnungsrelation zwischen der in dem Wellenfrontsensor 12 gemessenen Wellenfront und dem Kompensationsphasenmuster, das in dem räumlichen Lichtmodulator 11 angezeigt wird, rasch und mit hoher Genauigkeit zu justieren. Ferner ist es möglich, eine Zeit zu verkürzen, die zur Justierung der Zuordnungsrelation erforderlich ist, indem der Betrag der Verschiebung des ersten Gebiets B1 entsprechend den Größen der Werte Vx und Vy (oder der Differenz ΔV0) geändert wird.
  • (Viertes modifiziertes Beispiel)
  • In den zuvor beschriebenen Ausführungsformen und modifizierten Beispielen ist die Größe des ersten Gebiets B1 so festgelegt, dass die Größe des Teils A4 der Wellenfront (siehe 7) an einen Durchmesser einer einzelnen Linse 124 (siehe Formel (5)) angepasst ist. Jedoch ist die Größe des ersten Gebiets B1 nicht darauf beschränkt. Es können diverse Größen festgelegt werden, wie nachfolgend angegeben ist.
  • 27 ist ein Diagramm, das Beispiele diverser Größen des ersten Gebiets B1 zeigt. 27(a) und 27(b) zeigen konzeptionell den Fall, in welchem die Größe des ersten Gebiets B1 so festgelegt ist, dass die Länge (die Anzahl an Pixel) einer Seite des Gebiets L0 dem dreifachen Durchmesser der Linse 124 entspricht. In 27(a) ist der Fall, in welchem die Länge (die Anzahl an Pixel) einer Seite jedes der peripheren Gebiete L1 bis L4 gleich dem Durchmesser der Linse 124 ist, dargestellt. In 27(b) ist der Fall gezeigt, in welchem die Länge (die Anzahl an Pixel) einer Seite, die in Kontakt ist mit dem Gebiet L0, der vier Seiten der peripheren Gebiete L1 bis L4 gleich der Länge der Seite des Gebiets L0 ist, und die Länge (der Anzahl an Pixel) einer Seite, die nicht mit dem Gebiet L0 in Kontakt ist, gleich dem Durchmesser der Linse 124 ist.
  • Ferner zeigt 27(c) konzeptionell den Fall, in welchem die Größe des ersten Gebiets B1 so festgelegt ist, dass die Länge (die Anzahl an Pixel) einer Seite des Gebiets L0 dem dreifachen Durchmesser der Linse 124 entspricht. In 27(c) ist der Fall dargestellt, in welchem die Länge (die Anzahl an Pixel) einer Seite jedes der peripheren Gebiete L1 bis L4 gleich dem Durchmesser der Linse 124 ist. Jedoch kann die Länge (die Anzahl an Pixel) einer Seite, die mit dem Gebiet L0 in Kontakt ist, gleich der Länge der Seite des Gebiets L0 gesetzt werden, wie in 27(b) dargestellt ist.
  • Ferner zeigt 27(d) ein Beispiel, in welchem die Länge der Zeilenrichtung und die Länge der Spaltenrichtung des ersten Gebiets B1 unterschiedlich zueinander sind. In diesem Falle sind die Länge der Zeilenrichtung und die Länge der Spaltenrichtung des Gebiets L0 unterschiedlich. Es ist auch möglich, die in 27(a) dargestellte Form, die in 27(b) gezeigte Form, usw. für Formen der peripheren Gebiete L1 bis L4 beliebig zu kombinieren.
  • Die Form des ersten Gebiets B1 gemäß diesem modifizierten Beispiel kann wie folgt ausgedrückt werden. D.h., unter der Annahme, dass ein Array-Abstand der Pixel 11b in der Modulationsoberfläche 11a durch slmPITCH bezeichnet ist, ein Array-Abstand der Linsen 124 in den Linsen-Array 120 als mlaPITCH bezeichnet ist und eine Abbildungsvergrößerung eines optischen Systems zwischen der Modulationsoberfläche 11a und der Linsenoberfläche des Linsen-Array 120 durch M bezeichnet ist, kann die Anzahl an Pixel w einer Seite des ersten Gebiets B1 durch die folgende Formel (15) ausgedrückt werden.
    [Mathe 15] w = n 1 M × m l a P I T C H s l m P I T C H
    Figure DE112014002683B4_0016
  • Hier ist n1 eine natürliche Zahl. Anders ausgedrückt, eine Breite (=w×slmPITCH) des ersten Gebiets B1 in einer Array-Richtung der mehreren Linsen 124 kann (n1/M) mal dem Array-Abstand mlaPITCH der mehreren Linsen 124 sein.
  • (Fünftes modifiziertes Beispiel)
  • In den zuvor beschriebenen Ausführungsformen und modifizierten Beispielen wird im Schritt S12, der in 20 dargestellt ist, das erste Phasenmuster mit Linearität in mindestens einer Richtung in dem ersten Gebiet B1 angezeigt und das räumlich nicht-lineare zweite Phasenmuster wird in dem zweiten Gebiet B2 angezeigt. Selbst wenn das erste Phasenmuster mit Linearität in mindestens einer Richtung in dem zweiten Gebiet B2 angezeigt wird und das räumlich nicht-lineare zweite Phasenmuster in dem ersten Gebiet B1 angezeigt ist, ist es jedoch möglich, ähnliche Wirkungen wie in den zuvor beschriebenen Ausführungsformen zu erreichen. Auch in diesem Falle kann die zuvor beschriebene Formel (2) umgeschrieben werden wie folgt.
    [Mathe 16] P A ( n , m ) = { r a n d ( ) ( n , m ) R O I a ( n , m ) R O I
    Figure DE112014002683B4_0017
    Ferner wird die zuvor beschriebene Formel (3) wie folgt umgeschrieben. Dabei ist a' eine gewisse Konstante und ist ein Beispiel des ersten Phasenmusters mit Linearität in mindestens einer Richtung.
    [Mathe 17] P B ( n , m ) = a '   ( n , m ) WFM gesamtes Gebiet
    Figure DE112014002683B4_0018
  • In diesen modifizierten Beispiel ist der konvergierende Fleck P des Gebiets L0 weniger deutlich und die Klarheit bzw. Deutlichkeit der konvergierenden Flecke P der Gebiete L1 bis L4 wächst weiter an, wenn die Zuordnungsrelation zwischen der Modulationsoberfläche 11a und dem Wellenfrontsensor 12 geeigneter eingestellt wird. Selbst in diesem Falle, wie im Schritt S18, der in 20 dargestellt ist, ist es möglich, die Zuordnungsrelation zwischen der Modulationsoberfläche 11a und dem Wellenfrontsensor 12 in einer Richtung zu justieren, in der die Werte Vx und Vy reduziert werden.
  • Gemäß diesem modifizierten Beispiel ist es, wie in der zuvor beschriebenen Ausführungsform, möglich, die Zuordnungsrelation zwischen der in dem Wellenfrontsensor 12 gemessenen Wellenfront und dem Kompensationsphasenmuster, das in dem räumlichen Lichtmodulator 11 angezeigt wird, rasch und mit hoher Genauigkeit zu justieren. Da ferner das Phasenmuster mit der Linearität in allen Gebieten außer dem ersten Gebiet B1 angezeigt werden kann, kann eine Kalibrierung parallel während der Ausführung adaptiven Optik durchgeführt werden, indem das Phasenmuster als ein Phasenmuster zur Kompensation der Wellenfrontverzerrung gekennzeichnet wird.
  • (Sechstes modifiziertes Beispiel)
  • Obwohl der Fall, in welchem nur ein erstes Gebiet B1 in der Modulationsoberfläche 11a festgelegt ist, in den vorhergehenden Ausführungsformen und modifizierten Beispielen beschrieben ist, kann das erste Gebiet B1 an mehreren Positionen festgelegt werden. Dadurch ist es möglich, Positionsabweichungen statistisch zu verarbeiten, nachdem die Positionsabweichung zwischen mehreren ersten Gebieten B1 und dem Wellenfrontsensor 12 auf der Grundlage von Eigenschaftsquantitäten, die in Relation zu den mehreren ersten Gebieten B1 berechnet werden, untersucht sind, und die Zuordnungsrelation zwischen der Modulationsoberfläche 11a und dem Wellenfrontsensor 12 mit höherer Genauigkeit auf der Grundlage eines Verarbeitungsergebnisses zu justieren.
  • (Siebtes modifiziertes Beispiel)
  • In den zuvor beschriebenen Ausführungsformen ist eine im Wesentlichen gleichförmige Verteilung, die durch eine Konstante a (oder a') ausgedrückt ist, als ein Beispiel eines ersten Phasenmusters mit Linearität in mindestens einer Richtung gezeigt, das in dem ersten Gebiet B1 (in dem fünften modifizierten Beispiel das zweite Gebiet B2) angezeigt wird. Jedoch kann das erste Phasenmuster eine Phasenverteilung sein, die in mindestens einer Richtung geneigt ist (sich linear ändert). Ein spezielles Phasenmuster PA zur Kalibrierung, das das zuvor beschriebene Phasenmuster enthält, ist durch die folgende Formel (18) ausgedrückt.
    [Mathe 18] P A ( n , m ) = { a + b ( n n 0 ) + c ( m m 0 ) ( n , m ) R O I r a n d ( ) ( n , m ) R O I
    Figure DE112014002683B4_0019
    Hier bezeichnen n0 und n Pixel in der Mitte des Gebiets B1 (ROI) und a, b und c sind Konstanten.
  • 28 zeigt eine Phasenverteilung, in der Phasenwerte in einer ersten Richtung (beispielsweise Zeilenrichtung) geneigt bzw. sich linear ändernd sind und Phasenwerte in einer zweiten Richtung (beispielsweise eine Spaltenrichtung), die die erste Richtung schneidet (beispielsweise senkrecht dazu ist), im Wesentlichen gleichförmig sind. Dies ist eine Phasenverteilung im ROI für den Fall, in welchem b ≠ 0 und c = 0 in der oben beschriebenen Formel (18) gilt. 29 zeigt ferner eine Phasenverteilung, in der Phasenwerte in sowohl der ersten Richtung (beispielsweise die Zeilenrichtung) als auch in der zweiten Richtung (beispielsweise die Spaltenrichtung) geneigt bzw. sich linear ändernd sind. Dies ist eine Phasenverteilung im ROI für den Fall, in welchem b ≠ 0 und c ≠ 0 in der zuvor beschriebenen Formel (18) gilt. Es ist auch ein Graph eines Betrags der Phasenmodulation in einer Zeile und einer Spalte in jeweils der Zeilenrichtung und der Spaltenrichtung in 28 und 29 gezeigt. Da die Wellenfront des optischen Bildes La des relevanten Teils schwach ist, wenn diese Phasenmuster in dem ersten Gebiet B1 angezeigt werden, wird der deutliche konvergierende Fleck P von der Linse 124 erzeugt. Folglich ist es, wie in den zuvor beschriebenen Ausführungsformen und modifizierten Beispielen, möglich, eine Kalibrierung auf der Grundlage der Klarheit bzw. Deutlichkeit der konvergierenden Flecken P in den Gebieten L0 bis L4 auszuführen.
  • Jedoch sind in diesem modifizierten Beispiel die Positionen der Schwerpunkte der konvergierenden Flecken P, die in den Gebieten L0 bis L4 gebildet sind, in Bezug auf die Mittelpunktspositionen der Gebiete L0 bis L4 (d.h., auf der optischen Achse jeder Linse 124) entsprechend einer Steigung des ersten Phasenmusters verschoben. Folglich ist es möglich, eine ähnliche Berechnung wie in den oben beschriebenen Ausführungsformen auszuführen, nachdem jedes Berechnungsgebiet für Eigenschaftsquantitäten R0 bis R4, die in 21 dargestellt sind, um einen Verschiebungsbetrag verschoben sind, wenn die Eigenschaftsquantität berechnet wird. Ein Verschiebungsbetrag der Position des Schwerpunkts des konvergierenden Flecks P ist eindeutig auf der Grundlage eines Konfigurationsparameters des Wellenfrontsensors 12 und den Koeffizienten b und c definiert. Da es ferner möglich ist, die ursprüngliche Position des Schwerpunkts zu ermitteln, indem der zuvor beschriebene Verschiebungsbetrag von der Position des Schwerpunkts des konvergierenden Flecks P subtrahiert wird, ist es möglich, eine Kalibrierung entsprechend einer ähnlichen Prozedur wie bei den zuvor beschriebenen Ausführungsformen auszuführen.
  • (Achtes modifiziertes Beispiel)
  • Das in dem ersten Gebiet B1 (in dem fünftem modifizierten Beispiel das zweite Gebiet B2) angezeigte erste Phasenmuster kann eine Phasenverteilung mit der Wirkung einer Zylinderlinse in einer ersten Richtung sein (beispielsweise die Zeilenrichtung), und in der Phasenwerte im Wesentlichen gleichmäßig in einer zweiten Richtung sind (beispielsweise Spaltenrichtung), wie in 30 gezeigt ist. Ein spezielles Phasenmuster PA zur Kalibrierung, das eine derartige Phasenverteilung enthält, ist durch die folgende Formel (19) ausgedrückt.
    [Mathe 19] P A ( n , m ) = { a 1 + b 1 ( n n 0 ) 2 ( n , m ) R O I r a n d ( ) ( n , m ) R O I
    Figure DE112014002683B4_0020
  • Das Phasenmuster PA, wenn eine Phasenverteilung eingerichtet ist, in der die Phasenwerte im Wesentlichen gleichförmig in der Zeilenrichtung sind und die eine Wirkung einer Zylinderlinse in der Spaltenrichtung hat und eine quadratische Funktion hat, ist durch die folgende Formel (20) ausgedrückt.
    [Mathe 20] P A ( n , m ) = { a 1 + c 1 ( m m 0 ) 2 ( n , m ) R O I r a n d ( ) ( n , m ) R O I
    Figure DE112014002683B4_0021
    In den zuvor beschriebenen Formeln (19) und (20) bezeichnen n0 und m0 Pixel in der Mitte des ersten Gebiets B1 (ROI) und a1, b1 und c1 bezeichnen Konstanten.
  • Wenn das in der Formel (19) dargestellte Phasenmuster PA auf der Modulationsoberfläche 11a angezeigt wird, wird der konvergierende Fleck P, der sich in der Zeilenrichtung erstreckt und in der Spaltenrichtung konvergiert, in dem Wellenfrontsensor 12 gebildet. Es ist daher möglich, eine Kalibrierung der Spaltenrichtung unter Anwendung des Phasenmusters PA, das in Formel (19) gezeigt ist, durchzuführen. Wenn ferner das Phasenmuster PA, das in Formel (20) dargestellt ist, auf der Modulationsoberfläche 11a angezeigt wird, wird der konvergierende Fleck P, der in der Zeilenrichtung konvergiert und in der Spaltenrichtung divergiert, in dem Wellenfrontsensor 12 erzeugt. Daher ist es möglich, eine Kalibrierung der Zeilenrichtung unter Anwendung des Phasenmusters PA, das in Formel (20) gezeigt ist, auszuführen. In diesem modifizierten Beispiel kann beispielsweise die Kalibrierung der Spaltenrichtung unter Anwendung des Phasenmusters PA, das in Formel (19) gezeigt ist, ausgeführt werden, und die Kalibrierung der Zeilenrichtung kann unter Anwendung des Phasenmusters PA, das in Formel (20) dargestellt ist, vor oder nach der Kalibrierung der Spaltenrichtung ausgeführt werden,.
  • (Neuntes modifiziertes Beispiel)
  • Das erste Phasenmuster, das in dem ersten Gebiet B1 gezeigt ist (in dem fünftem modifizierten Beispiel das zweite Gebiet B2) kann eine Phasenverteilung sein, die ein Beugungsgitter in einer ersten Richtung (beispielsweise die Zeilenrichtung) bildet und in der Phasenwerte in einer zweiten Richtung im Wesentlichen gleichförmig sind (beispielsweise die Spaltenrichtung), wie in 31 gezeigt ist. Wenn das Phasenmuster PA, das das erste Phasenmuster, das in 31 dargestellt ist, enthält, auf der Modulationsoberfläche 11a angezeigt wird, werden mehrere konvergierende Flecke P, die in der Zeilenrichtung getrennt sind, in dem Wellenfrontsensor 12 erzeugt. Daher ist es möglich, die Kalibrierung der Spaltenrichtung unter Anwendung des Phasenmusters PA auszuführen. Wenn die Kalibrierung der Zeilenrichtung ausgeführt wird, ist es möglich, das Phasenmuster PA, das das erste Phasenmuster enthält, in welchem die zuvor beschriebene erste Richtung als die Spaltenrichtung bezeichnet ist und die zuvor beschriebene zweite Richtung als die Zeilenrichtung bezeichnet ist, auf der Modulationsoberfläche 11a anzuzeigen.
  • (Zehntes modifiziertes Beispiel)
  • Das erste Phasenmuster, das in dem ersten Gebiet B1 (in dem fünftem modifizierten Beispiel das zweite Gebiet B2) angezeigt ist, kann eine zusammengesetzte Phasenverteilung enthalten, in der die Phasenverteilungen, die in den zuvor beschriebenen Ausführungsformen und dem siebten bis neunten modifizierten Beispiel gezeigt sind, überlagert sind. 32 ist ein Diagramm, das ein Beispiel eines zusammengesetzten Musters darstellt, das durch Überlagerung erhalten wird. Das in 32(a) dargestellte Phasenmuster ist in 30 gezeigt, und das Phasenmuster, das in 32(b) dargestellt ist, wird erhalten, indem das in 28 dargestellte Phasenmuster um 90° gedreht wird. Das in 32(c) dargestellte Phasenmuster ist ein zusammengesetztes Muster, das durch Überlagerung der Phasenmuster erhalten wird. Das in 32(c) dargestellte Phasenmuster ist ein Phasenmuster einer Phasenverteilung mit einer quadratischen Funktion in einer ersten Richtung und einer linearen Funktion in einer zweiten Richtung. Wenn das Phasenmuster PA, das das in 32(c) dargestellte zusammengesetzte Muster enthält, auf der Modulationsoberfläche 11a angezeigt wird, wird ein konvergierender Fleck P, der in der Zeilenrichtung divergiert und in der Spaltenrichtung konvergiert, in dem Wellenfrontsensor 12 erzeugt. Es ist daher möglich, die Kalibrierung der Spaltenrichtung unter Anwendung des Phasenmusters PA auszuführen. Wenn die Kalibrierung der Zeilenrichtung ausgeführt wird, kann das Phasenmuster PA, das das zuvor beschriebene zusammengesetzte Muster enthält, in welchem die erste Richtung als die Spaltenrichtung angegeben ist und die zweite Richtung als die Zeilenrichtung wie bei dem ersten Phasenmuster angegeben ist, auf der Modulationsoberfläche 11a angezeigt werden.
  • (Elftes modifiziertes Beispiel)
  • In den zuvor beschriebenen Ausführungsformen und modifizierten Beispielen sind Beispiele der zufälligen Verteilung (12) und der defokussierenden Verteilung ( 13) als ein Beispiel des räumlichen nicht-linearen zweiten Phasenmusters, das in dem zweiten Gebiet B2 (in dem fünftem modifizierten Beispiel das erste Gebiet B1) angezeigt wird. Das zweite Phasenmuster ist jedoch nicht darauf beschränkt, sondern es ist nur für das zweite Phasenmusters erforderlich, dass es eine Phasenverteilung so hat, dass ein deutlicher konvergierender Fleck P erzeugt wird. Für diese Phasenverteilung gibt es beispielsweise ein Phasenmuster des Typs mit Fresnel-Zonenplatte (FZP). Das Phasenmusters des FZP-Typs hat eine Funktion, in der ein einfallendes optisches Bild La mit einem im Wesentlichen gleichförmigen Phasenwert konvergierend oder divergierend gemacht wird. Wenn daher das optische Bild La, das durch das Phasenmuster des FZP-Typs konvergierend oder divergierend gemacht wird, auf die Linse 124 fällt, wird die Position der Richtung der optischen Achse des konvergierenden Flecks P in Bezug zur Brennebene der Linse 124 verschoben (d.h., die Oberfläche des Bildsensors 122). Es wird somit ein verschwommenes Bild in der Oberfläche des Bildsensors 122 erzeugt.
  • Das spezielle Phasenmuster PA zur Kalibrierung, das dieses Phasenmuster des FZP-Typs enthält, ist durch die folgende Formel (21) ausgedrückt.
    [Mathe 21] P A ( n , m ) = { a 1 + b 1 ( n n 0 ) + c 1 ( m m 0 ) ( n , m ) R O I a 2 + b 2 ( ( n n k ) 2 + ( m m k ) 2 ) ( n , m ) R O I
    Figure DE112014002683B4_0022
    Dabei bezeichnet a2 eine Konstante und b2 bezeichnet eine ausreichend große Konstante. (nk, mk) bezeichnet ein mittleres Pixel des zweiten Gebiets B2. Wenn b2 ausreichend groß ist, ist es möglich, den konvergierenden Fleck P, der durch die Linse 124 gebildet wird, aus der Brennebene der Linse 124 (die Oberfläche des Bildsensors 122) abzutrennen.
  • (Zwölftes modifiziertes Beispiel)
  • In den zuvor beschriebenen Ausführungsformen und modifizierten Beispielen ist ein Beispiel einer Form gezeigt, in der die mehreren Linsen 124 als das Linsen-Array 120 des Wellenfrontsensors 12 in Form eines zweidimensionalen Gitters angeordnet sind, wie in 3 dargestellt ist. Jedoch ist das Linsen-Array des Wellenfrontsensors 12 nicht auf eine derartige Form beschränkt. Wie beispielsweise in 33 gezeigt ist, kann das Linsen-Array 120 eine Waben-Struktur aufweisen, in der mehrere reguläre hexagonale Linsen 128 ohne Abstand angeordnet sind. In diesem Falle kann das erste Gebiet B1 auf eine hexagonale Form festgelegt werden. Alle Gebiete, d.h., das Gebiet L0, das Berechnungsgebiet für Eigenschaftsquantitäten R0, das in 21 gezeigt ist, usw. können auf hexagonale Formen festgelegt werden. Ferner können Werte, die den Werten Vx und Vy, die im Schritt S18 der 20 berechnet werden, entsprechen, aus Eigenschaftsquantitäten ermittelt werden, die in gegenüberliegenden Gebieten (insbesondere Gebiete L1 und L2, Gebiete L3 und L4 und Gebiete L 5 und L 6) berechnet werden, die das Gebiet L0 einschließen.
  • (Dreizehntes modifiziertes Beispiel)
  • In den zuvor beschriebenen Ausführungsformen und modifizierten Beispielen wird eine Größe des Teils A4 der Wellenfront (siehe 10), der dem ersten Gebiet B1 entspricht, als n1 mal (hier ist n1 eine natürliche Zahl) dem Durchmesser der Linse 124 angenommen. Jedoch kann n1 eine reelle Zahl und keine natürliche Zahl sein (beispielsweise 0,8, 1,2 oder dergleichen). Damit wird eine Relation zwischen der Größe des ersten Gebiets B1 und der Kalibriergenauigkeit beschrieben, wenn n1 eine reelle Zahl ist. 35 ist eine vergrößerte Ansicht der Umgebung des Wellenfrontsensors 12 aus 7. 35(a) zeigt den Fall, in welchem die Breite des Teils A4 der Wellenfront, der dem ersten Gebiet B1 entspricht, geringfügig größer ist als der Durchmesser der einzelnen Linse 124, und 35(b) zeigt den Fall, in welchem die Breite des Teils A4 der Wellenfront geringfügig kleiner ist als der Durchmesser einer einzelnen Linse 124.
  • Wenn die Breite des Teils A4 der Wellenfront geringfügig größer als eine einzelne Linse 124 ist, wie in 35(a) dargestellt ist, ändert sich der Wert Vx (oder der Wert Vy) der zuvor beschriebenen Ausführungsform, da die Intensität an Licht, das auf die benachbarte Linse 124 einfällt, sich entsprechend einer Positionsverschiebung des Teils A4 der Wellenfront ändert, selbst wenn die Mittelpunktsposition des Teils A4 der Wellenfront nahe an dem Mittelpunkt der Linse 124 liegt. Daher ist es möglich, eine ähnlich hohe Kalibriergenauigkeit wie bei der zuvor beschriebenen Ausführungsform beizubehalten, indem Bestimmung zur Beendigung danach gemacht wird, ob die Werte Vx und Vy minimal sind oder ob die Werte Vx und Vy kleiner als ein vorbestimmter Schwellwert in der zuvor beschriebenen Ausführungsform sind. Da andererseits die Intensität an Licht, das auf die benachbarte Linse 124 fällt, sich bei der Positionsverschiebung des Teils A4 der Wellenfront nicht ändert, wenn die Mittelposition des Teils der Wellenfront A4 nahe an dem Mittelpunkt der Linse 124 liegt, wenn die Breite des Teils A4 der Wellenfront geringfügig größer als der Durchmesser einer einzelnen Linse 124 ist, wie in 35(b) dargestellt ist, ändert sich der Wert Vx (oder der Wert Vy) der zuvor beschriebenen Ausführungsform nicht oder ändert sich nur geringfügig. Daher wird die Kalibriergenauigkeit nur geringfügig im Vergleich zu den zuvor beschriebenen Ausführungsformen beeinträchtigt.
  • In den in 35(a) und 35(b) dargestellten Fällen in dem Verfahren, das in dem zweiten modifizierten Beispiel gezeigt ist, wird die Kalibriergenauigkeit geringfügig beeinträchtigt im Vergleich zu den zuvor beschriebenen Ausführungsformen, da eine Intensität an Licht, das auf die benachbarte Linse 124 fällt, sich nicht entsprechend der Positionsverschiebung des Teils A4 der Wellenfront ändert, wenn die Mittelposition des Teils A4 der Wellenfront nahe an der Mitte der Linse 124 liegt.
  • Aus dem Vorhergehenden ergibt sich, dass n1 größer ist als 1, wenn n1 keine natürliche Zahl ist. In diesem Falle ist es, wie in der zuvor beschriebenen Ausführungsform, möglich, Bestimmung des Endes dahingehend zu machen, ob die Werte Vx und Vy minimal sind oder ob die Werte Vx und Vy kleiner als der vorbestimmte Schwellwert sind. Auch diese Form ist beispielsweise zweckdienlich, wenn die Abbildungsvergrößerung M zwischen dem räumlichen Lichtmodulator 11 und dem Wellenfrontsensor 12 einen Fehlerbereich für den Entwurfswert berücksichtigt. Ferner ist ein numerischer Wert, der durch Formel (5) (Formel (15)) abgeschätzt wird, generell zulässig, selbst im Falle einer Zahl, die keine ganze Zahl ist. Wenn der durch Formel (5) (Formel (15)) abgeschätzte numerische Wert keine ganze Zahl ist, ist es lediglich erforderlich, einen numerischen Wert einer ganzen Zahl, die größer als der numerische Wert ist, als die Breite (die Anzahl an Pixel) des ersten Gebiets B1 festzulegen.
  • (Vierzehntes modifiziertes Beispiel)
  • Obwohl die Schritte S12 bis S18 iterativ ausgeführt werden, während das erste Gebiet B1 des Phasenmusters PA im Schritt S18, der in 20 gezeigt ist, um ein Pixel in der zuvor beschriebenen Ausführungsform verschoben wird, ist auch die folgende Form möglich. D.h., eine Gruppe aus mehreren Werten Vx und Vy (in Anzahl gleich den Pixel, die das erste Gebiet B1 bilden) wird im Voraus erhalten, indem die Schritte S12 bis S18 ausgeführt werden, bevor die Kalibrierung durchgeführt wird. Während der Kalibrierung werden die Schritte S12 bis S18 lediglich einmal ausgeführt (bis die Werte Vx und Vy berechnet sind). Die ermittelten Werte Vx und Vy werden mit der im Voraus erhaltenen Gruppe der mehreren Werte Vx und Vy verglichen. Dabei kann beispielsweise ein Grad an Ähnlichkeit (Korrelationskoeffizient) zwischen den erhaltenen Werten Vx und Vy und der im Voraus erhaltenen Gruppe der mehreren Werte Vx und Vy berechnet werden. Auf der Grundlage der Position des ersten Gebiets B1, wenn die Gruppe an Werten Vx und Vy, die den erhaltenen Werten Vx und Vy am nächsten sind, berechnet wird, wird eine Zuordnungsrelation zwischen der Modulationsoberfläche 11a und dem Wellenfrontsensor 12 justiert. Dadurch ist es möglich, die Kalibrierung ohne die Wiederholung der Schritte S12 bis S18, die in 20 gezeigt sind, rasch auszuführen. Anstelle der Gruppe aus Werten Vx und Vy können mehrere Datenpunkten der Daten der Lichtintensitätsverteilung DA oder Eigenschaftsquantitäten, die im Voraus ermittelt werden, als ein Vergleichszielwert vorgesehen werden.
  • (Fünfzehntes modifiziertes Beispiel)
  • In den zuvor beschriebenen Ausführungsformen und modifizierten Beispielen ist ein maximaler Wert einer Verschiebungsbreite zwischen dem ersten Gebiet B1 und der Linse 124, die dem ersten Gebiet B1 entspricht, ±1/2 mal der Anzahl an Pixel w einer Seite des ersten Gebiets B1. Folglich ist die Anzahl an Kombinationen von Positionsbeziehungen zwischen dem ersten Gebiet B1 und der Linse 124, die dem ersten Gebiet B1 entspricht, w×w. Von den w×w Positionsbeziehungen ist die Anzahl an Positionsbeziehungen, in denen die Position des ersten Gebiets B1 vollständig der Position der Linse 124 spricht, genau eins. In den Fällen der (w×w -1) anderen Positionsbeziehungen hat das erste Gebiet B1 den speziellen Verschiebebetrag für jede Positionsbeziehung in der Zeilenrichtung, der Spaltenrichtung oder sowohl der Zeilenals auch der Spaltenrichtung für die Linse 124.
  • Daher wird in diesem modifizierten Beispiel im Schritt S12, der in 20 gezeigt ist, ein Kalibrierphasenmuster PA, das in ähnlicher Weise mehrere (typischerweise w×w) erste Gebiete B1 enthält, in denen die Verschiebungsbeträge für entsprechende Linsen 124 um ein Pixel unterschiedlich zueinander sind, erzeugt, und das Phasenmuster PA wird auf der Modulationsoberfläche 11a angezeigt. Dabei kann der Array-Abstand (die Anzahl an Pixel) des ersten Gebiets B1 auf (2×w) oder größer festgelegt werden. Es ist möglich, die Zuordnungsrelation zwischen der Modulationsoberfläche 11a und dem Wellenfrontsensor 12 auf der Grundlage eines Verschiebungsbetrags, der in dem ersten Gebiet B1 vorgesehen ist, in welchem die im Schritt S18 berechneten Werte Vx und Vy minimiert werden, zu justieren. Dadurch ist es möglich, die Kalibrierung ohne Wiederholung der Schritte S12 bis S18, die in 20 gezeigt sind, rasch auszuführen.
  • Eine Mittelposition (slmXi,j, slmYj,j) eines (i, j)-ten ersten Gebiets B1, das in dem Phasenmuster PA in diesem modifizierten Beispiel enthalten ist, wird beispielsweise durch die folgende Formel (22) ausgedrückt.
    [Mathe 22] s l m X  i j = P a/2 + 2  i w i s l m Y  i j = P b/2 + 2  j w j
    Figure DE112014002683B4_0023
    Dabei ist i = -w/2, ..., w/2-1 und j = -w/2, ..., w/2-1. Des Weiteren ist Pa die Anzahl an Pixel in der Zeilenrichtung der Modulationsoberfläche 11a und Pb ist die Anzahl an Pixel in der Spaltenrichtung der Modulationsoberfläche 11a. Die obigen Formeln (22) zeigen den Fall, in welchem die Breite des Teils A4 der Wellenfront, der dem ersten Gebiet B1 entspricht, und der Durchmesser der Linse 124 gleich sind (siehe Formel (5)).
  • 36 ist ein Diagramm, das ein Beispiel einer Anordnung des ersten Gebiets B1 zeigt, wenn w = 3. In 36 repräsentiert ein Gebiet, das durch einen dick umrandetes Rechteck dargestellt ist, ein erstes Gebiet B1 und ein Pixel D innerhalb des ersten Gebiets B1 repräsentiert ein Pixel, das der Mitte einer entsprechenden Linse 124 entspricht. In diesem Beispiel stimmt die Mittelposition des ersten Gebiets B1, das in der Mitte angeordnet ist, mit einer Mittelposition der entsprechenden Linse 124 überein, und die Mittelpositionen von acht anderen ersten Gebieten B1 sind in Bezug auf die Mittelposition einer entsprechender Linsen 124 verschoben. Folglich wird aus den neun konvergierenden Flecken P, die in den Daten der Lichtintensitätsverteilung DA enthalten sind, nur der konvergierende Fleck P, der dem zentralen ersten Gebiets B1 entspricht, deutlich und die acht weiteren konvergierenden Flecken P werden undeutlich. In diesem modifizierten Beispiel ist es möglich, eine Position des ersten Gebiets B1 zu ermitteln, in welchem der konvergierende Fleck P am deutlichsten ist (insbesondere werden die Werte Vx und Vy minimiert), und einen Verschiebebetrag zwischen der Modulationsoberfläche 11a und dem Wellenfrontsensor 12 auf der Grundlage der Position des ersten Gebiets B1 zu ermitteln.
  • Ein Justierverfahren für eine adaptives Optiksystem, ein adaptives Optiksystem, ein Programm für ein adaptives Optiksystem und ein Speichermedium, das ein Programm für ein adaptives Optiksystem speichert, gemäß einem Aspekt der vorliegenden Erfindung sind nicht auf die zuvor beschriebenen Ausführungsformen eingeschränkt, und es sind diverse andere Modifizierungen möglich. Obwohl beispielsweise ein Kalibriervorgang durch Festlegen, im Voraus, der Größe des ersten Gebiets B1 in den zuvor beschriebenen Ausführungsformen und modifizierten Beispielen ausgeführt ist, kann die Größe des ersten Gebiets B1 variabel sein. 37 zeigt ein Beispiel des Falles, in welchem die Größe des ersten Gebiets B1 variabel ist. In dem in 37(a) gezeigten Beispiel wird die Größe des ersten Gebiets B1 so festgelegt, dass es vergleichsweise groß ist, und wird auf eine geeignete Größe (beispielsweise eine Größe, die dem Durchmesser der Linse 124 entspricht) auf der Grundlage der erhaltenen Daten der Lichtintensitätsverteilung verkleinert. Ferner ist in dem in 37(b) gezeigten Beispiel die Größe des ersten Gebiets B1 vergleichsweise klein festgelegt und wird auf eine geeignete Größe (beispielsweise eine Größe, die dem Durchmesser der Linse 124 entspricht) auf der Grundlage der erhaltenen Daten der Lichtintensitätsverteilung vergrößert. Wie zuvor beschrieben ist, ist es möglich, das erste Gebiet B1 auf eine geeignete Größe festzulegen und eine Kalibrierung mit höherer Genauigkeit auszuführen, wenn die Größe des ersten Gebiets B1 variabel gemacht wird.
  • Ferner ist der Fall gezeigt, in welchem das adaptive Optiksystem einen einzelnen räumlichen Lichtmodulator in den zuvor beschriebenen Ausführungsformen und modifizierten Beispielen enthält, aber das adaptive Optiksystem kann mehrere räumliche Lichtmodulatoren aufweisen, die optisch in Reihe geschaltet sind. In diesem Falle ist es möglich, eine Kalibrierung eines einzelnen räumlichen Lichtmodulators und eines Wellenfrontsensors auszuführen, indem bewirkt wird, dass der eine räumliche Lichtmodulator ein spezielles Phasenmuster PA für die Kalibrierung anzeigt und ein weiterer räumlicher Lichtmodulator beispielsweise ein im Wesentlichen gleichförmiges Phasenmuster anzeigt. Es ist möglich, eine Kalibrierung aller räumlichen Lichtmodulatoren und eines Wellenfrontsensors auszuführen, indem der zuvor beschriebene Vorgang an jedem von mehreren räumlichen Lichtmodulatoren ausgeführt wird. Selbst wenn die mehreren räumlichen Lichtmodulatoren in einem adaptiven Optiksystem, das mehrere räumliche Lichtmodulator enthält, optisch parallel gekoppelt sind, ist es möglich, die Kalibrierung aller räumlicher Lichtmodulatoren und des Wellenfrontsensors und die gegenseitige Zuordnung zwischen den mehreren räumlichen Lichtmodulator auszuführen.
  • Industrielle Anwendbarkeit
  • Gemäß einem Justierverfahren für ein adaptives Optiksystem, einem adaptiven Optiksystem, einem Programm für ein adaptives Optiksystem und einem Speichermedium, das ein Programm für ein adaptives Optiksystem speichert, entsprechend einem Aspekt der vorliegenden Erfindung ist es möglich, eine Zuordnungsrelation zwischen einem Phasenmuster, das in einem Wellenfrontsensor gemessen wird, und einem Kompensationsphasenmuster, das in einem räumlichen Lichtmodulator angezeigt wird, schnell und mit hoher Genauigkeit zu justieren.
  • Liste der Bezugszeichen
  • 10
    Adaptives Optiksystem
    11
    Räumlicher Lichtmodulator
    11a
    Modulationsoberfläche
    11b
    Pixel
    12
    Wellenfrontsensor
    13
    Steuereinheit
    13a
    Speichergebiet
    13b
    Mustererzeugungseinheit
    13c
    Berechnungsverarbeitungseinheit
    14
    Strahlteiler
    15,16
    Übertragungslinse
    17
    Steuerschaltungseinheit
    18
    Optisches Erfassungselement
    120
    Linsen-Array
    122
    Bildsensor
    122a
    Lichtempfangsoberfläche
    122b
    Pixel
    124
    Linse
    B1
    Erstes Gebiet
    B2
    zweites Gebiet
    DA, DB
    Daten der Lichtintensitätsverteilung
    La
    optisches Bild
    P
    konvergierender Fleck bzw. Leuchtfleck
    PA, PB
    Phasenmuster
    R0 bis R4
    Berechnungsgebiet für Eigenschaftsquantitäten

Claims (9)

  1. Ein Justierverfahren für ein adaptives Optiksystem (10), das einen räumlichen Lichtmodulator (11), der ausgebildet ist, eine Phase eines optischen Bildes (La) räumlich zu modulieren, das auf eine Modulationsoberfläche (11a) fällt, und einen Wellenfrontsensor (12) aufweist mit einem Linsen-Array (120) mit mehreren zweidimensional angeordneten Linsen (124) und einem optischen Erfassungselement (122) zur Erfassung einer Lichtintensitätsverteilung, die konvergierende Flecken (P), die von dem Linsen-Array (120) erzeugt werden, enthält, und das ausgebildet ist, das optische Bild (La) nach der Modulation aus dem räumlichen Lichtmodulator (11) zu empfangen, und das eine Wellenfrontverzerrung kompensiert, indem ein Phasenmuster, das in dem räumlichen Lichtmodulator (11) angezeigt wird, auf der Grundlage einer Form der Wellenfront des optischen Bildes (La), die aus der Lichtintensitätsverteilung ermittelt wird, gesteuert wird, wobei die Zuordnungsrelation zwischen der Modulationsoberfläche (11a) und dem Wellenfrontsensor (12) justiert wird, wobei das Justierverfahren umfasst: einen ersten Schritt zur Gewinnung einer Lichtintensitätsverteilung, um die Lichtintensitätsverteilung durch das optische Erfassungselement (122) in einem Zustand zu erhalten, in welchem ein erstes Phasenmuster mit Linearität in mindestens einer Richtung oder ein räumlich nicht-lineares zweites Phasenmuster in einem ersten Gebiet (B1) auf der Modulationsoberfläche korrespondierend zu einer der mehreren Linsen (124) oder zwei oder mehr Linsen (124), die benachbart zueinander sind, angezeigt wird und das andere des ersten und des zweiten Phasenmusters in einem zweiten Gebiet (B2), das das erste Gebiet (B1) umgibt, angezeigt wird; und einen Justierschritt, um die Zuordnungsrelation zwischen der Modulationsoberfläche und dem Wellenfrontsensor (12) auf der Grundlage einer Deutlichkeit des konvergierenden Flecks (P), der in der Lichtintensitätsverteilung enthalten ist, die in dem ersten Schritt zur Gewinnung der Lichtintensitätsverteilung erhalten wird, zu justieren.
  2. Das Justierverfahren nach Anspruch 1, das ferner umfasst: einen zweiten Schritt zur Gewinnung einer Lichtintensitätsverteilung, um die Lichtintensitätsverteilung durch das optische Erfassungselement (122) in einem Zustand zu erhalten, in welchem ein räumlich nicht-lineares Phasenmuster in dem ersten und dem zweiten Gebiet (B1, B2) angezeigt wird; und einen Differenzberechnungsschritt, um eine Differenz zwischen einem numerischen Wert, der mit der Deutlichkeit des konvergierenden Flecks (P), der in der in dem ersten Schritt zur Gewinnung der Lichtintensitätsverteilung erhaltenen Lichtintensitätsverteilung enthalten ist, und einem numerischen Wert, der mit der Deutlichkeit des konvergierenden Flecks (P), der in der Lichtintensitätsverteilung enthalten ist, die in dem zweiten Schritt zur Gewinnung der Lichtintensitätsverteilung erhalten wird, zu berechnen, wobei die Zuordnungsrelation zwischen der Modulationsoberfläche (11a) und dem Wellenfrontsensor (12) auf der Grundlage der Differenz justiert wird, die in dem Differenzberechnungsschritt erhalten wird, anstelle der Deutlichkeit des konvergierenden Flecks (P), der in der Lichtintensitätsverteilung enthalten ist, die in dem ersten Schritt zur Gewinnung der Lichtintensitätsverteilung zur Zeit des Justierschrittes erhalten wird.
  3. Das Justierverfahren nach Anspruch 1 oder 2, wobei die Justierung der Zuordnungsrelation zwischen der Modulationsoberfläche (11a) und dem Wellenfrontsensor (12) in dem Justierschritt eine Justierung einer relativen Positionsrelation zwischen Positionskoordinaten, die auf der Modulationsoberfläche (11a) eingenommen werden, wenn das Phasenmuster für die Wellenfrontverzerrungskompensation angezeigt wird, und dem Wellenfrontsensor (12) ist.
  4. Das Justierverfahren nach Anspruch 1 oder 2, wobei die Justierung der Zuordnungsrelation zwischen der Modulationsoberfläche (11a) und dem Wellenfrontsensor (12) in dem Justierschritt eine Justierung einer relativen Abhängigkeit zwischen einer Befestigungsposition des Wellenfrontsensors (12) und einer Befestigungsposition des räumlichen Lichtmodulators (11) ist.
  5. Das Justierverfahren nach einem der Ansprüche 1 bis 4, wobei eine Breite des ersten Gebiets (B1) in einer Array-Richtung der mehreren Linsen (124) n1/M mal einem Array-Abstand der mehreren Linsen (124) ist, wobei n1 eine natürliche Zahl und M ist eine Abbildungsvergrößerung eines optischen Systems (10) zwischen der Modulationsoberfläche (11a) und dem Linsen-Array (120) ist.
  6. Das Justierverfahren nach einem der Ansprüche 1 bis 5, wobei das räumlich nicht-lineare Phasenmuster eine zufällige Verteilung, in der eine Verteilung von Größen von Phasen unregelmäßig ist, und/oder eine Defokussier- Verteilung, die einen Durchmesser für den konvergierenden Fleck (P) vergrößert, umfasst.
  7. Das Justierverfahren nach einem der Ansprüche 1 bis 6, wobei das Phasenmuster mit Linearität in der mindestens einen Richtung umfasst: eine im Wesentlichen gleichförmige Phasenverteilung und/oder eine Phasenverteilung, die in mindestens einer Richtung sich linear ändernd ist, und/oder eine Phasenverteilung, die die Wirkung einer Zylinderlinse in einer ersten Richtung hat und im Wesentlichen gleichförmig in einer zweiten Richtung ist, die die erste Richtung schneidet, und/oder eine Phasenverteilung, die ein Beugungsgitter in einer ersten Richtung bildet und im Wesentlichen gleichförmig in einer zweiten Richtung ist, die die erste Richtung schneidet.
  8. Ein adaptives Optiksystem mit: einem räumlichen Lichtmodulator (11), der ausgebildet ist, eine Phase eines optischen Bildes (La), das auf eine Modulationsoberfläche (11a) fällt, räumlich zu modulieren; einem Wellenfrontsensor (12) mit einem Linsen-Array (120) mit mehreren zweidimensional angeordneten Linsen (124) und einem optischen Erfassungselement (122) zur Erfassung einer Lichtintensitätsverteilung, die konvergierende Flecke (P) enthält, die von dem Linsen-Array (120) gebildet werden, und der ausgebildet ist, das optische Bild (La) nach der Modulation aus dem räumlichen Lichtmodulator (11) zu empfangen; und einer Steuereinheit (13), die ausgebildet ist, eine Wellenfrontverzerrung zu kompensieren, indem ein Phasenmuster, das in dem räumlichen Lichtmodulator (11) angezeigt wird, auf der Grundlage einer Form der Wellenfront des optischen Bildes (La), das aus der Lichtintensitätsverteilung erhalten wird, gesteuert wird, wobei die Steuereinheit (13) die Lichtintensitätsverteilung durch das optische Erfassungselement (122) in einem Zustand erhält, in welchem ein erstes Phasenmuster mit Linearität in mindestens einer Richtung oder ein räumlich nicht-lineares zweites Phasenmuster in einem ersten Gebiet (B1) auf der Modulationsoberfläche (11 a) korrespondierend zu einer der mehreren Linsen (124) oder zwei oder mehr Linsen (124), die benachbart zueinander sind, angezeigt wird und das andere Phasenmuster des ersten und des zweiten Phasenmusters in einem zweiten Gebiet (B1, B2), das das erste Gebiet (B1) umgibt, angezeigt wird, und eine Zuordnungsrelation zwischen der Modulationsoberfläche (11a) und dem Wellenfrontsensor (12) auf der Grundlage von Deutlichkeit des konvergierenden Flecks (P), der in der Lichtintensitätsverteilung enthalten ist, justiert.
  9. Ein Speichermedium, das ein Programm für ein adaptives Optiksystem (10) speichert, das einen räumlichen Lichtmodulator (11), der ausgebildet ist, eine Phase eines optischen Bildes (La), das auf eine Modulationsoberfläche (11a) fällt, räumlich zu modulieren, einen Wellenfrontsensor (12) mit einem Linsen-Array (120) mit mehreren zweidimensional angeordneten Linsen (124) und einem optischen Erfassungselement (122) zur Erfassung einer Lichtintensitätsverteilung, die konvergierende Flecke (P) enthält, die von dem Linsen-Array (120) gebildet werden, und das ausgebildet ist, das optische Bild (La) nach der Modulation aus dem räumlichen Lichtmodulator (11) zu empfangen, und eine Steuereinheit (13) aufweist, die ausgebildet ist, eine Wellenfrontverzerrung zu kompensieren, indem ein Phasenmuster, das in dem räumlichen Lichtmodulator (11) angezeigt wird, auf der Grundlage einer Form der Wellenfront (12) des optischen Bildes (La), das aus der Lichtintensitätsverteilung erhalten wird, gesteuert wird, wobei das Programm für das adaptive Optiksystem (10) einen Betrieb der Steuereinheit (13) steuert, wobei das Programm für ein adaptives Optiksystem (10) die Steuereinheit (13) veranlasst, um auszuführen: einen ersten Schritt zur Gewinnung einer Lichtintensitätsverteilung, um die Lichtintensitätsverteilung durch das optische Erfassungselement (122) in einem Zustand zu erhalten, in welchem ein erstes Phasenmuster mit Linearität in mindestens einer Richtung oder ein räumlich nicht-lineares zweites Phasenmuster in einem ersten Gebiet (B1) auf der Modulationsoberfläche (11) korrespondierend zu einer der mehreren Linsen (124) oder zwei oder mehr Linsen (124), die benachbart zueinander sind, angezeigt wird und das andere des ersten und des zweiten Phasenmusters in einem zweiten Gebiet (B2), das das erste Gebiet (B1) umgibt, angezeigt wird; und einen Justierschritt, um die Zuordnungsrelation zwischen der Modulationsoberfläche (11a) und dem Wellenfrontsensor (12) auf der Grundlage einer Deutlichkeit des konvergierenden Flecks (P), der in der Lichtintensitätsverteilung enthalten ist, die in dem ersten Schritt zur Gewinnung der Lichtintensitätsverteilung erhalten wird, zu justieren.
DE112014002683.2T 2013-06-06 2014-05-29 Justierverfahren für adaptives Optiksystem, adaptives Optiksystem und Speichermedium, das ein Programm für ein adaptives Optiksystem speichert Active DE112014002683B4 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013-119852 2013-06-06
JP2013119852 2013-06-06
PCT/JP2014/064294 WO2014196448A1 (ja) 2013-06-06 2014-05-29 補償光学システムの調整方法、補償光学システム、及び補償光学システム用プログラムを記憶する記録媒体

Publications (2)

Publication Number Publication Date
DE112014002683T5 DE112014002683T5 (de) 2016-03-10
DE112014002683B4 true DE112014002683B4 (de) 2024-04-18

Family

ID=52008094

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112014002683.2T Active DE112014002683B4 (de) 2013-06-06 2014-05-29 Justierverfahren für adaptives Optiksystem, adaptives Optiksystem und Speichermedium, das ein Programm für ein adaptives Optiksystem speichert

Country Status (6)

Country Link
US (1) US9594245B2 (de)
JP (1) JP6259825B2 (de)
KR (1) KR102128642B1 (de)
CN (1) CN105264428B (de)
DE (1) DE112014002683B4 (de)
WO (1) WO2014196448A1 (de)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112014002694B4 (de) * 2013-06-06 2024-05-29 Hamamatsu Photonics K.K. Verfahren zur Bestimmung einer Übereinstimmungsbeziehung für ein adaptives Optiksystem, Verfahren zur Kompensation einer Wellenfrontverzerrung, adaptives Optiksystem und Speichermedium zur Speicherung eines Programms für ein adaptives Optiksystem
EP2908341B1 (de) * 2014-02-18 2018-07-11 ams AG Halbleitervorrichtung mit oberflächenintegriertem Fokussierelement
JP6768444B2 (ja) * 2016-10-14 2020-10-14 浜松ホトニクス株式会社 レーザ加工装置、及び、動作確認方法
IL251636B (en) * 2017-04-06 2018-02-28 Yoav Berlatzky A system and method for a coherent camera
US20180301484A1 (en) * 2017-04-17 2018-10-18 Semiconductor Components Industries, Llc Image sensors with high dynamic range and autofocusing hexagonal pixels
JP6969164B2 (ja) * 2017-05-31 2021-11-24 株式会社リコー 評価装置、評価プログラム及び評価方法
KR20190054353A (ko) 2017-11-13 2019-05-22 한국 천문 연구원 범용 적응 광학 시스템
JP6924163B2 (ja) * 2018-03-27 2021-08-25 株式会社日立製作所 撮像装置、撮像モジュールおよび撮像方法
CN110501826B (zh) * 2018-05-18 2021-09-07 中国科学院上海光学精密机械研究所 基于相位载波的提高光束质量的方法
EP3620763A1 (de) * 2018-09-07 2020-03-11 Boegli-Gravures S.A. Adaptive laserstrahlformung
CN109358030B (zh) * 2018-11-26 2020-10-30 浙江大学 一种具有自动对准功能的多色超分辨显微镜系统
CN109520712B (zh) * 2018-12-03 2021-08-17 江苏慧光电子科技有限公司 光学检测方法、系统及光学器件制造系统
CN109683312B (zh) * 2019-01-22 2021-03-12 中国工程物理研究院激光聚变研究中心 一种自适应光学系统像传递关系的调节方法
FR3092396B1 (fr) * 2019-01-31 2021-04-09 Centre Nat Rech Scient Système de contrôle de surfaces d’onde optique par filtre à gradient de densité
US11662597B2 (en) * 2019-07-03 2023-05-30 Texas Instruments Incorporated Homogenizing lens array for display imaging
CN112161584A (zh) * 2020-10-27 2021-01-01 龚海 一种基于照明光倾斜调制的波前三维显微镜
CN113295286A (zh) * 2021-05-20 2021-08-24 中国科学院西安光学精密机械研究所 一种夏克-哈特曼波前传感器测量系统及相位恢复方法
CN113534255B (zh) 2021-07-07 2024-07-16 南方海洋科学与工程广东省实验室(湛江) 一种任意形态不连续面自适应表达的方法
CN113267909B (zh) * 2021-07-19 2021-10-08 军事科学院系统工程研究院网络信息研究所 基于波前畸变补偿的防窥显示方法
WO2024030902A1 (en) * 2022-08-01 2024-02-08 California Institute Of Technology Complex-wavefront photonic transceiver processor
CN115685565B (zh) * 2022-08-05 2024-07-26 华侨大学 一种透过散射介质的复杂光场的调控方法及装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6827442B2 (en) 2001-09-12 2004-12-07 Denwood F. Ross Ophthalmic wavefront measuring devices
DE112009000369T5 (de) 2008-02-14 2011-01-13 Hamamatsu Photonics K.K., Hamamatsu-shi Beobachtungsvorrichtung

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0915057A (ja) 1995-06-26 1997-01-17 Mitsubishi Electric Corp 波面センサ並びに波面計測方法
US6771417B1 (en) * 1997-08-01 2004-08-03 Carl Zeiss Jena Gmbh Applications of adaptive optics in microscopy
GB0314444D0 (en) * 2003-06-20 2003-07-23 Univ Heriot Watt Novel wavefront sensor
US7333215B2 (en) * 2003-06-25 2008-02-19 The Boeing Company Adaptive optics control system
JP4531431B2 (ja) * 2004-04-02 2010-08-25 浜松ホトニクス株式会社 波面補償装置、波面補償方法、プログラム、及び、記録媒体
JP4804358B2 (ja) * 2004-09-27 2011-11-02 浜松ホトニクス株式会社 空間光変調装置、光学処理装置、及びカップリングプリズムの使用方法
WO2006090320A1 (en) * 2005-02-23 2006-08-31 Lyncee Tec S.A. Wave front sensing method and apparatus
US8158917B2 (en) * 2005-12-13 2012-04-17 Agency For Science Technology And Research Optical wavefront sensor and optical wavefront sensing method
US8451427B2 (en) * 2007-09-14 2013-05-28 Nikon Corporation Illumination optical system, exposure apparatus, optical element and manufacturing method thereof, and device manufacturing method
JP2009162614A (ja) * 2008-01-07 2009-07-23 Mitsubishi Electric Corp 光波面計測装置
JP5692969B2 (ja) * 2008-09-01 2015-04-01 浜松ホトニクス株式会社 収差補正方法、この収差補正方法を用いたレーザ加工方法、この収差補正方法を用いたレーザ照射方法、収差補正装置、及び、収差補正プログラム
US8551730B2 (en) * 2008-10-24 2013-10-08 The Regents Of The University Of California Use of a reference source with adaptive optics in biological microscopy
JP5599563B2 (ja) * 2008-12-25 2014-10-01 浜松ホトニクス株式会社 光制御装置および光制御方法
JP5289173B2 (ja) 2009-05-07 2013-09-11 三菱電機株式会社 波面センサ
JP2012037572A (ja) * 2010-08-03 2012-02-23 Hamamatsu Photonics Kk レーザ光整形及び波面制御用光学系
US8237835B1 (en) * 2011-05-19 2012-08-07 Aeon Imaging, LLC Confocal imaging device using spatially modulated illumination with electronic rolling shutter detection
JP5919100B2 (ja) 2012-06-04 2016-05-18 浜松ホトニクス株式会社 補償光学システムの調整方法および補償光学システム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6827442B2 (en) 2001-09-12 2004-12-07 Denwood F. Ross Ophthalmic wavefront measuring devices
DE112009000369T5 (de) 2008-02-14 2011-01-13 Hamamatsu Photonics K.K., Hamamatsu-shi Beobachtungsvorrichtung

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
AWWAL, A. [et al.]: Characterization and Operation of a Liquid Crystal Adaptive Optics Phoropter. In: Proc. of SPIE, Vol. 5169, 2003, Pages 104 – 122, ISSN 1996 - 756X
Porter [et al.]: Adaptive Optics for Vision Science. Hoboken: Wiley Interscience, 2006. Chapter 18, pp. 496-499. - ISBN 9780471679417

Also Published As

Publication number Publication date
KR102128642B1 (ko) 2020-06-30
DE112014002683T5 (de) 2016-03-10
WO2014196448A1 (ja) 2014-12-11
US9594245B2 (en) 2017-03-14
KR20160016962A (ko) 2016-02-15
JP6259825B2 (ja) 2018-01-10
CN105264428A (zh) 2016-01-20
CN105264428B (zh) 2018-06-29
US20160131901A1 (en) 2016-05-12
JPWO2014196448A1 (ja) 2017-02-23

Similar Documents

Publication Publication Date Title
DE112014002683B4 (de) Justierverfahren für adaptives Optiksystem, adaptives Optiksystem und Speichermedium, das ein Programm für ein adaptives Optiksystem speichert
DE112014002694B4 (de) Verfahren zur Bestimmung einer Übereinstimmungsbeziehung für ein adaptives Optiksystem, Verfahren zur Kompensation einer Wellenfrontverzerrung, adaptives Optiksystem und Speichermedium zur Speicherung eines Programms für ein adaptives Optiksystem
DE112013002773B4 (de) Verfahren zum Einstellen eines kompensierenden Optiksystems und kompensierendes Optiksystem
DE112014002729T5 (de) Verfahren zur Bestimmung einer Übereinstimmungsbeziehung für ein adaptives Optiksystem, ein adaptives Optiksystem, und ein Speichermedium zur Speicherung eines Programms für ein adaptives Optiksystem
DE112014002681T5 (de) Verfahren zur Erfassung eines Winkelversatzes für adaptives Optiksystem, Verfahren zur Erfassung einer Abbildungsvergrößerung für adaptives Optiksystem und adaptives Optiksystem
EP0167877B1 (de) Gerät zur Darstellungflächenhafter Bereiche des menschlichen Auges
DE112009000369B4 (de) Beobachtungsvorrichtung
DE102011114500B4 (de) Mikroskopvorrichtung
EP1984770B1 (de) Verfahren und anordnung zur schnellen und robusten, chromatisch-konfokalen 3d-messtechnik
DE3886893T2 (de) Gerät zur drei-dimensionalen Messung einer Form.
DE112014001147B4 (de) Fluoreszenz-Empfangsvorrichtung und Verfahren zum Empfangen von Fluoreszenz
EP3058414B1 (de) Scanmikroskop und verfahren zum bestimmung der punkt-spreiz-funktion (psf) eines scanmikroskops
DE102010016997B4 (de) Inspektionssystem und Verfahren mit Mehrfachbildphasenverschiebungsanalyse
DE60225320T2 (de) Bereicherweiterndes system und raumfilter
WO2018172161A1 (de) Mikroskop und verfahren zum abbilden eines objekts
DE102011083353A1 (de) Abbildungsvorrichtung und Abbildungsverfahren
DE102018130162A1 (de) Verfahren, Interferometer und Signalverarbeitungsvorrichtung, jeweils zur Bestimmung einer Eingangsphase und/oder einer Eingangsamplitude eines Eingangslichtfelds
DE10202738B4 (de) Phasenverschiebungsstreifenanalyseverfahren und eine dieses Verfahren verwendende Vorrichtung
DE112016001974T5 (de) Verfahren zur Brennweiten- und Drehwinkel-Messung mittels eines Fabry-Pérot-Etalons
DE102015118278A1 (de) Verfahren und System zur Vergrößerungskorrektur aus mehreren Fokusebenen
DE102014010667A1 (de) Verfahren und Vorrichtung zur Messung der Form einer Wellenfront eines optischen Strahlungsfeldes
EP4067809A2 (de) Computerimplementiertes verfahren, verfahren, messgerät und computerprogrammprodukt
EP4227636A1 (de) Bestimmung von tiefenwerten eines oberflächenbereichs eines werkstücks
DE102021129821B4 (de) Ermittlung einer wellenfrontsteigung eines lichts basierend auf winkelabhängiger transmission
DE102021214142A1 (de) Verfahren zum Kalibrieren eines manipulierbaren optischen Moduls

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division