WO2014196447A1 - 補償光学システムの角度ずれ検出方法、補償光学システムの結像倍率検出方法、及び補償光学システム - Google Patents

補償光学システムの角度ずれ検出方法、補償光学システムの結像倍率検出方法、及び補償光学システム Download PDF

Info

Publication number
WO2014196447A1
WO2014196447A1 PCT/JP2014/064293 JP2014064293W WO2014196447A1 WO 2014196447 A1 WO2014196447 A1 WO 2014196447A1 JP 2014064293 W JP2014064293 W JP 2014064293W WO 2014196447 A1 WO2014196447 A1 WO 2014196447A1
Authority
WO
WIPO (PCT)
Prior art keywords
light intensity
intensity distribution
region
modulation surface
displayed
Prior art date
Application number
PCT/JP2014/064293
Other languages
English (en)
French (fr)
Inventor
洪欣 黄
卓 井上
Original Assignee
浜松ホトニクス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 浜松ホトニクス株式会社 filed Critical 浜松ホトニクス株式会社
Priority to DE112014002681.6T priority Critical patent/DE112014002681T5/de
Priority to JP2015521416A priority patent/JP6226977B2/ja
Priority to CN201480031945.8A priority patent/CN105264346B/zh
Priority to US14/895,517 priority patent/US9477082B2/en
Publication of WO2014196447A1 publication Critical patent/WO2014196447A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J9/00Measuring optical phase difference; Determining degree of coherence; Measuring optical wavelength
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0025Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for optical correction, e.g. distorsion, aberration
    • G02B27/0068Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for optical correction, e.g. distorsion, aberration having means for controlling the degree of correction, e.g. using phase modulators, movable elements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/1015Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for wavefront analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/12Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J1/00Photometry, e.g. photographic exposure meter
    • G01J1/42Photometry, e.g. photographic exposure meter using electric radiation detectors
    • G01J1/44Electric circuits
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M11/00Testing of optical apparatus; Testing structures by optical methods not otherwise provided for
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M11/00Testing of optical apparatus; Testing structures by optical methods not otherwise provided for
    • G01M11/02Testing optical properties
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/09Beam shaping, e.g. changing the cross-sectional area, not otherwise provided for
    • G02B27/0927Systems for changing the beam intensity distribution, e.g. Gaussian to top-hat
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B3/00Simple or compound lenses
    • G02B3/0006Arrays
    • GPHYSICS
    • G02OPTICS
    • G02FOPTICAL DEVICES OR ARRANGEMENTS FOR THE CONTROL OF LIGHT BY MODIFICATION OF THE OPTICAL PROPERTIES OF THE MEDIA OF THE ELEMENTS INVOLVED THEREIN; NON-LINEAR OPTICS; FREQUENCY-CHANGING OF LIGHT; OPTICAL LOGIC ELEMENTS; OPTICAL ANALOGUE/DIGITAL CONVERTERS
    • G02F2203/00Function characteristic
    • G02F2203/12Function characteristic spatial light modulator
    • GPHYSICS
    • G02OPTICS
    • G02FOPTICAL DEVICES OR ARRANGEMENTS FOR THE CONTROL OF LIGHT BY MODIFICATION OF THE OPTICAL PROPERTIES OF THE MEDIA OF THE ELEMENTS INVOLVED THEREIN; NON-LINEAR OPTICS; FREQUENCY-CHANGING OF LIGHT; OPTICAL LOGIC ELEMENTS; OPTICAL ANALOGUE/DIGITAL CONVERTERS
    • G02F2203/00Function characteristic
    • G02F2203/18Function characteristic adaptive optics, e.g. wavefront correction

Definitions

  • One aspect of the present invention relates to an angle shift detection method for an adaptive optics system, an imaging magnification detection method for the adaptive optics system, and an adaptive optics system.
  • Non-Patent Documents 1 and 2 describe a method of adjusting an adaptive optical system by a phase measurement method.
  • a phase measurement method a known phase distribution is displayed on a spatial light modulator, this phase distribution is measured by a wavefront sensor, and the measurement result is compared with the known phase distribution, thereby making it possible to measure the phase distribution on the modulation surface.
  • the coordinates and the coordinates on the detection surface are associated with each other.
  • the adaptive optics technology is a technology that dynamically removes aberrations by measuring optical aberration (wavefront distortion) using a wavefront sensor and controlling the wavefront modulation element (spatial light modulator) based on the result. is there.
  • This adaptive optics technique it is possible to improve the imaging characteristics, the degree of light collection, the SN ratio of the image, and the measurement accuracy.
  • adaptive optics technology has been mainly used in astronomical telescopes and large laser devices.
  • adaptive optics technology is being applied to fundus cameras, scanning laser ophthalmoscopes, optical coherence tomographs, laser microscopes, and the like. Imaging using such an adaptive optics technique enables observation with an unprecedented high resolution.
  • the wavefront is controlled with accuracy below the wavelength of light (for example, sub-micro level). Therefore, the angle deviation around the optical axis between the modulation surface of the spatial light modulator and the wavefront sensor due to the assembly accuracy of the wavefront sensor and the spatial light modulator, manufacturing errors of the optical component and its fixed components, etc. And fluctuations in the imaging magnification may occur. If such an angle shift or imaging magnification fluctuation occurs, the correspondence between the control point position in the spatial light modulator and the measurement point position in the wavefront sensor becomes inaccurate, which affects the accuracy of the adaptive optics. End up.
  • the angle deviation between the modulation surface and the wavefront sensor and the imaging magnification can be easily detected. Also, for example, it is desirable that the imaging magnification between the modulation surface and the wavefront sensor can be easily detected even when the optical magnification between the modulation surface of the spatial light modulator and the wavefront sensor is variable. It is.
  • One aspect of the present invention provides an angle shift detection method and a compensation optical system for an adaptive optical system capable of easily detecting an angle shift around an optical axis between a modulation surface of a spatial light modulator and a wavefront sensor. The purpose is to do.
  • Another aspect of the present invention provides an imaging magnification detection method of an adaptive optics system and an adaptive optics system that can easily detect the imaging magnification between the modulation surface of the spatial light modulator and the wavefront sensor. The purpose is to do.
  • An angle shift detection method for an adaptive optics system includes a spatial light modulator that spatially modulates the phase of an optical image incident on a modulation surface, and a lens in which a plurality of lenses are arranged in a two-dimensional manner. And a wavefront sensor having a light detecting element for detecting a light intensity distribution including a condensing spot formed by the lens array and receiving a modulated light image from the spatial light modulator, and from the light intensity distribution
  • a compensation optical system that compensates for wavefront distortion by controlling the phase pattern displayed on the spatial light modulator based on the wavefront shape of the obtained optical image, the angle deviation between the modulation surface and the wavefront sensor is calculated. is there.
  • the first angular deviation detection method has linearity in at least one direction in the first and second regions on the modulation surface respectively corresponding to one of the plurality of lenses or two or more adjacent lenses.
  • the second angular deviation detection method includes a phase pattern having linearity in at least one direction in a first region on a modulation surface corresponding to one of a plurality of lenses or two or more lenses adjacent to each other.
  • First light intensity distribution acquisition in which one of spatially nonlinear phase patterns is displayed and the other is displayed in a region surrounding the first region, and the first light intensity distribution is acquired by the light detection element.
  • the second light intensity distribution is acquired by the photodetecting element in a state where one of the phase pattern having a spatial pattern and the spatially non-linear phase pattern is displayed and the other is displayed in the region surrounding the second region.
  • Light intensity A straight line connecting the cloth acquisition step, the focused spot corresponding to the first area included in the first light intensity distribution, and the focused spot corresponding to the second area included in the second light intensity distribution.
  • An angle calculating step for obtaining an angle deviation amount between the modulation surface and the wavefront sensor based on the inclination.
  • the first and second angular deviation detection methods include an adjustment step of adjusting an angle around the optical image of at least one of the modulation surface and the wavefront sensor so that the angular deviation amount calculated in the angle calculation step is small. Further, it may be provided.
  • the first and second regions may be regions adjacent to each other, or the first and second regions may be regions separated from each other. Also good.
  • An imaging magnification detection method for an adaptive optics system includes a spatial light modulator that spatially modulates the phase of an optical image incident on a modulation surface, and a plurality of lenses arranged in a two-dimensional manner.
  • a light intensity distribution having a lens array and a wavefront sensor having a light detection element for detecting a light intensity distribution including a condensing spot formed by the lens array and receiving a modulated light image from a spatial light modulator;
  • linearity is at least in one direction in the first and second regions on the modulation surface respectively corresponding to one of a plurality of lenses or two or more adjacent lenses.
  • the second imaging magnification detection method includes a phase pattern having linearity in at least one direction in a first region on a modulation surface corresponding to one of a plurality of lenses or two or more adjacent lenses. And a first light intensity distribution in which one of the spatially nonlinear phase patterns is displayed and the other is displayed in a region surrounding the first region, and the first light intensity distribution is acquired by the light detection element.
  • the second light intensity distribution is acquired by the photodetecting element in a state where one of the phase pattern having the characteristics and the spatially nonlinear phase pattern is displayed and the other is displayed in the region surrounding the second region.
  • Light intensity of 2 Based on the distance between the cloth acquisition step, the focused spot corresponding to the first area included in the first light intensity distribution, and the focused spot corresponding to the second area included in the second light intensity distribution.
  • a magnification calculating step for obtaining an imaging magnification between the modulation surface and the wavefront sensor.
  • the light guide optical disposed between the modulation surface and the wavefront sensor so that the imaging magnification calculated in the magnification calculation step approaches a predetermined imaging magnification.
  • An adjustment step for adjusting the magnification of the system may be further provided.
  • adjustment is performed to adjust the optical distance between the modulation surface and the wavefront sensor so that the imaging magnification calculated in the magnification calculation step approaches a predetermined imaging magnification.
  • a step may be further provided.
  • An adjustment step for adjusting the thickness may be further provided.
  • the first and second regions may be adjacent to each other, or the first and second regions may be regions separated from each other. May be.
  • An adaptive optics system includes a spatial light modulator that spatially modulates the phase of an optical image incident on a modulation surface, a lens array in which a plurality of lenses are two-dimensionally arranged, and A wavefront sensor that has a light detecting element that detects a light intensity distribution including a condensing spot formed by a lens array and receives a modulated light image from a spatial light modulator, and a light image obtained from the light intensity distribution A controller that compensates for wavefront distortion by controlling a phase pattern displayed on the spatial light modulator based on the wavefront shape.
  • the control unit has at least one direction in the first and second regions on the modulation surface respectively corresponding to one of the plurality of lenses or two or more lenses adjacent to each other.
  • One of the linear phase pattern and the spatially nonlinear phase pattern is displayed, and the other is displayed in the area surrounding the first and second areas, and the light intensity distribution is acquired by the light detection element.
  • the amount of angular deviation between the modulation surface and the wavefront sensor Ask for is calculated.
  • the control unit has linearity in at least one direction in the first region on the modulation surface corresponding to one of the plurality of lenses or two or more lenses adjacent to each other.
  • a first light intensity distribution is acquired by the light detection element in a state in which one of the phase pattern and the spatially nonlinear phase pattern is displayed, and the other is displayed in a region surrounding the first region, and a plurality of lenses Phase pattern and space having linearity in at least one direction in the second region on the modulation surface corresponding to one or two or more lenses adjacent to each other and different from the first region
  • the second light intensity distribution is acquired by the light detection element, and the first light intensity distribution is obtained. 1st territory included Based on the slope of a straight line connecting the focused spots corresponding, and a focusing spot corresponding to the second area included in the second light intensity distribution, determining the angle deviation between the modulation plane and the wavefront sensor.
  • the control unit has at least one direction in the first and second regions on the modulation surface respectively corresponding to one of the plurality of lenses or two or more lenses adjacent to each other.
  • One of the linear phase pattern and the spatially nonlinear phase pattern is displayed, and the other is displayed in the area surrounding the first and second areas, and the light intensity distribution is acquired by the light detection element.
  • the imaging magnification between the modulation surface and the wavefront sensor is included in the light intensity distribution.
  • the control unit has linearity in at least one direction in the first region on the modulation surface corresponding to one of the plurality of lenses or two or more lenses adjacent to each other.
  • a first light intensity distribution is acquired by the light detection element in a state in which one of the phase pattern and the spatially nonlinear phase pattern is displayed, and the other is displayed in a region surrounding the first region, and a plurality of lenses Phase pattern and space having linearity in at least one direction in the second region on the modulation surface corresponding to one or two or more lenses adjacent to each other and different from the first region
  • the second light intensity distribution is acquired by the light detection element, and the first light intensity distribution is obtained.
  • 1st territory included A focusing spot corresponding to, based on the distance between the focused spots corresponding to the second area included in the second light intensity distribution, obtaining the imaging magnification between the modulation surface and the wavefront sensor.
  • the angle deviation detection method and the compensation optical system of the adaptive optical system it is possible to easily detect the angular deviation around the optical axis between the modulation surface of the spatial light modulator and the wavefront sensor. Can do.
  • the imaging magnification detection method and the compensation optical system of the adaptive optics system according to one aspect of the present invention the imaging magnification between the modulation surface of the spatial light modulator and the wavefront sensor can be easily detected. it can.
  • FIG. 1 is a diagram schematically showing a configuration of an adaptive optics system according to an embodiment.
  • FIG. It is sectional drawing which shows the structure of the wavefront sensor of one Embodiment roughly, Comprising: The cross section along the optical axis of the optical image is shown. It is the figure which looked at the lens array with which a wavefront sensor is provided from the optical axis direction of an optical image. It is the figure which looked at the image sensor with which a wavefront sensor is provided from the optical axis direction of an optical image.
  • FIG. 2 is a cross-sectional view schematically showing an LCOS type spatial light modulator as an example of the spatial light modulator of one embodiment, showing a cross section along the optical axis of an optical image.
  • phase pattern in which different phase distributions (for example, phase distributions that cause aberrations including higher-order aberrations) are arranged for each of a plurality of regions is illustrated.
  • a phase pattern having linearity in at least one direction it is a diagram showing a phase distribution having a substantially uniform phase value over the entire modulation surface.
  • (A) It is a figure which shows notionally the relative relationship between each area
  • (B) It is a figure which shows light intensity distribution data in the case shown by (a).
  • (A) It is a figure which shows notionally the relative relationship between each area
  • (B) It is a figure which shows light intensity distribution data in the case shown by (a). It is a flowchart which shows the operation
  • the phase distribution in the first direction has a cylindrical lens effect and the phase distribution has a substantially uniform phase value in the second direction.
  • the phase distribution in the first direction forms a diffraction grating, and the phase distribution has a substantially uniform phase value in the second direction.
  • combination pattern obtained by superimposition It is a figure which shows the modification of a lens array. It is a figure which shows an example in the case of making the magnitude
  • phase distribution refers to two-dimensionally distributed phase values
  • phase pattern refers to a phase distribution (two-dimensional phase value) coded based on a certain standard
  • phase profile refers to a distribution of phase values along a certain direction (line) in the phase distribution.
  • FIG. 1 is a diagram schematically showing a configuration of an adaptive optics system 10 according to the present embodiment.
  • the adaptive optics system 10 is incorporated into, for example, an ophthalmic examination apparatus, a laser processing apparatus, a microscope apparatus, or an adaptive optics apparatus.
  • the adaptive optics system 10 includes a spatial light modulator (SLM) 11, a wavefront sensor 12, a control unit 13, a beam splitter 14, relay lenses 15 and 16, and a control circuit unit 17.
  • SLM spatial light modulator
  • the spatial light modulator 11 receives the optical image La on the modulation surface 11a for displaying the phase pattern, modulates the wavefront shape of the optical image La, and outputs the result.
  • the light image La incident on the spatial light modulator 11 is, for example, light emitted from a laser light source or a super luminescent diode (SLD), or reflected light, scattered light, fluorescence, or the like generated from an observation object irradiated with the light. is there.
  • the wavefront sensor 12 includes information relating to the wavefront shape of the optical image La that has arrived from the spatial light modulator 11 (typically, which appears due to aberrations of the optical system and represents wavefront distortion, that is, wavefront deviation from the reference wavefront).
  • the data S1 is provided to the control unit 13.
  • the control unit 13 Based on the data S ⁇ b> 1 obtained from the wavefront sensor 12, the control unit 13 generates a control signal S ⁇ b> 2 for causing the spatial light modulator 11 to display an appropriate phase pattern.
  • the control unit 13 includes an input unit that inputs data S1 from the wavefront sensor 12, an aberration calculation unit that calculates aberration from the data S1, a phase pattern calculation unit that calculates a phase pattern to be displayed on the spatial light modulator 11, and A signal generation unit that generates the control signal S2 according to the calculated phase pattern is included.
  • the control circuit unit 17 receives the control signal S2 from the control unit 13 and applies a voltage V1 based on the control signal S2 to the plurality of electrodes of the spatial light modulator 11.
  • the beam splitter 14 is disposed between the wavefront sensor 12 and the spatial light modulator 11 and branches the optical image La.
  • the beam splitter 14 may be any of a polarization direction independent type, a polarization direction dependent type, or a wavelength dependent type (dichroic mirror) beam splitter.
  • One light image La branched by the beam splitter 14 is sent to a light detection element 18 such as a CCD, a photomultiplier tube, or an avalanche photodiode.
  • the light detection element 18 is incorporated in, for example, a scanning laser ophthalmoscope (SLO), an optical tomography apparatus (Optical Coherence Tomography; OCT), a fundus camera, a microscope, a telescope, or the like.
  • SLO scanning laser ophthalmoscope
  • OCT optical tomography apparatus
  • the other optical image La branched by the beam splitter 14 enters the wavefront sensor 12.
  • the relay lenses 15 and 16 are arranged in the optical axis direction between the spatial light modulator 11 and the wavefront sensor 12. By these relay lenses 15 and 16, the spatial light modulator 11 and the wavefront sensor 12 are maintained in an optical conjugate relationship with each other.
  • An optical imaging lens and / or a deflection mirror may be further disposed between the spatial light modulator 11 and the wavefront sensor 12.
  • FIG. 2 is a cross-sectional view schematically showing the configuration of the wavefront sensor 12 of the present embodiment, and shows a cross section along the optical axis of the optical image La.
  • FIG. 3 is a diagram of the lens array 120 included in the wavefront sensor 12 as viewed from the optical axis direction of the optical image La.
  • FIG. 4 is a view of the image sensor (light detection element) 122 included in the wavefront sensor 12 as viewed from the optical axis direction of the optical image La.
  • the wavefront sensor 12 includes an interference type and a non-interference type.
  • a non-interference type Shack-Hartmann type wavefront sensor having a lens array 120 and an image sensor 122 is used as the wavefront sensor 12.
  • the seismic resistance is superior to the case where an interference wavefront sensor is used, and the configuration of the wavefront sensor and the calculation processing of measurement data can be simplified. There is.
  • the lens array 120 has N lenses (N is an integer of 4 or more).
  • the N lenses 124 are arranged in a two-dimensional lattice pattern of Na rows and Nb columns (Na and Nb are integers of 2 or more).
  • the image sensor 122 shown in FIG. 2 has a light receiving surface 122 a at a position overlapping the rear focal plane of the N lenses 124 constituting the lens array 120, and the N formed by the N lenses 124.
  • a light intensity distribution including a single condensing spot P is detected.
  • the image sensor 122 includes a plurality of pixels 122 b arranged in a two-dimensional grid of Ma rows and Mb columns (Ma and Mb are integers of 2 or more).
  • the arrangement pitch of the pixels 122b of the image sensor 122 is sufficiently smaller than the arrangement pitch of the lenses 124 so that the magnitude of the deviation of the condensed image position from the reference position can be detected with high accuracy.
  • the wavefront shape (phase gradient distribution) of the optical image La is measured based on the light intensity distribution detected by the image sensor 122. That is, the magnitude of the deviation between the position of the focused spot P by the lens 124 and the reference position is proportional to the local wavefront inclination of the optical image La incident on the lens 124. Therefore, the magnitude of the positional deviation of the condensed spot P from the reference position can be calculated for each lens 124, and the wavefront shape of the optical image La can be measured based on the positional deviation of the condensed spot P.
  • the reference position used for calculating the magnitude of the deviation of the focused image position can be a position where the optical axis of each of the plurality of lenses 124 and the light receiving surface 122a of the image sensor 122 intersect. This position can be easily obtained by calculating the center of gravity using a condensed image obtained by allowing a parallel plane wave to vertically enter each lens 124.
  • the spatial light modulator 11 is an element that receives a light image La from a light source or an observation object, modulates the wavefront of the light image La, and outputs the modulated light wave.
  • the spatial light modulator 11 has a plurality of pixels (control points) arranged in a two-dimensional lattice, and modulates each pixel according to a control signal S2 provided from the control unit 13.
  • the amount (for example, phase modulation amount) is changed.
  • the spatial light modulator 11 includes, for example, LCOS-SLM (Liquid Crystal Crystal On Spatial Light Modulator), PPM (Programmable Phase Modulator), LCD (Liquid Crystal Display), micro electromechanical element (Micro Electro Electro Mechanical Systems; MEMS), or There is an electrical address type spatial light modulator formed by combining a liquid crystal display element and an optical address type liquid crystal spatial light modulator.
  • LCOS-SLM Liquid Crystal Crystal On Spatial Light Modulator
  • PPM Programmable Phase Modulator
  • LCD Liquid Crystal Display
  • MEMS Micro Electro Electro Electro Mechanical Systems
  • an electrical address type spatial light modulator formed by combining a liquid crystal display element and an optical address type liquid crystal spatial light modulator.
  • the reflective spatial light modulator 11 is shown in FIG. 1, the spatial light modulator 11 may be a transmissive type.
  • FIG. 5 is a cross-sectional view schematically showing an LCOS type spatial light modulator as an example of the spatial light modulator 11 of the present embodiment, and shows a cross section along the optical axis of the optical image La.
  • the spatial light modulator 11 includes a transparent substrate 111, a silicon substrate 112, a plurality of pixel electrodes 113, a liquid crystal part (modulation part) 114, a transparent electrode 115, alignment films 116a and 116b, a dielectric mirror 117, and a spacer 118. ing.
  • the transparent substrate 111 is made of a material that transmits the optical image La, and is disposed along the main surface of the silicon substrate 112.
  • the plurality of pixel electrodes 113 are arranged in a two-dimensional lattice pattern on the main surface of the silicon substrate 112 and constitute each pixel of the spatial light modulator 11.
  • the transparent electrode 115 is disposed on the surface of the transparent substrate 111 facing the plurality of pixel electrodes 113.
  • the liquid crystal unit 114 is disposed between the plurality of pixel electrodes 113 and the transparent electrode 115.
  • the alignment film 116 a is disposed between the liquid crystal part 114 and the transparent electrode 115, and the alignment film 116 b is disposed between the liquid crystal part 114 and the plurality of pixel electrodes 113.
  • the dielectric mirror 117 is disposed between the alignment film 116 b and the plurality of pixel electrodes 113.
  • the dielectric mirror 117 reflects the light image La incident from the transparent substrate 111 and transmitted through the liquid crystal unit 114 and emits the light from the transparent substrate 111 again.
  • the spatial light modulator 11 further includes a pixel electrode circuit (active matrix drive circuit) 119 that controls a voltage applied between the plurality of pixel electrodes 113 and the transparent electrode 115.
  • a pixel electrode circuit active matrix drive circuit
  • the liquid crystal unit 114 on the pixel electrode 113 is changed according to the magnitude of the electric field generated between the pixel electrode 113 and the transparent electrode 115.
  • the refractive index of. Therefore, the optical path length of the optical image La that passes through the portion of the liquid crystal unit 114 changes, and as a result, the phase of the optical image La changes.
  • the spatial distribution of the phase modulation amount can be electrically written, and various wavefront shapes can be realized as necessary. it can.
  • FIG. 6 is a front view of the modulation surface 11 a of the spatial light modulator 11.
  • the modulation surface 11 a includes a plurality of pixels 11 b arranged in a two-dimensional lattice pattern with Pa rows and Pb columns (Pa and Pb are integers of 2 or more).
  • Each of the plurality of pixels 11b includes a plurality of pixel electrodes 113.
  • a light image La from a light source (not shown) or an observation object enters the spatial light modulator 11 as substantially parallel light.
  • the light image La modulated by the spatial light modulator 11 enters the beam splitter 14 via the relay lenses 15 and 16, and is branched into two light images.
  • One optical image La after branching enters the wavefront sensor 12.
  • the wavefront sensor 12 generates data S1 including the wavefront shape (for example, phase distribution) of the optical image La, and the data S1 is provided to the control unit 13.
  • the control unit 13 calculates the wavefront shape (phase distribution) of the optical image La as necessary based on the data S1 from the wavefront sensor 12, and calculates a phase pattern for appropriately compensating for the wavefront distortion of the optical image La.
  • the control signal S2 including the signal is output to the spatial light modulator 11. Thereafter, the undistorted optical image La compensated by the spatial light modulator 11 is branched by the beam splitter 14, enters the light detection element 18 through an optical system (not shown), and is imaged.
  • the coordinate systems on the modulation surface 11a of the spatial light modulator 11 and the detection surface of the wavefront sensor 12 are set as follows. That is, two directions parallel to and perpendicular to the modulation surface 11a of the spatial light modulator 11 are defined as an x-axis direction and a y-axis direction on the modulation surface 11a, and are parallel to the detection surface of the wavefront sensor 12 and to each other. Two orthogonal directions are defined as an x-axis direction and a y-axis direction on the detection surface.
  • the x-axis on the modulation surface 11 a of the spatial light modulator 11 and the x-axis on the detection surface of the wavefront sensor 12 are opposite to each other, the y-axis on the modulation surface 11 a of the spatial light modulator 11, and the wavefront sensor 12. Are opposite to each other in the y-axis on the detection surface.
  • the center of the modulation surface 11a of the spatial light modulator 11 is the origin of the coordinate system on the modulation surface 11a, and the point obtained by mapping the center of the modulation surface 11a to the detection surface of the wavefront sensor 12 is the coordinate system on the detection surface. The origin.
  • Equation (1) M is the magnification of the relay lenses 15 and 16. Note that the magnification M included in Equation (1) is often known.
  • An angular misalignment around the axis may occur.
  • a special phase pattern for adjustment is displayed on the spatial light modulator 11, and the wavefront sensor 12 detects a characteristic caused by the phase pattern, thereby detecting the wavefront.
  • the amount of angular deviation between the sensor 12 and the modulation surface 11a is acquired.
  • the angle adjustment between the modulation surface 11a and the wavefront sensor 12 is performed based on the amount of angular deviation.
  • This detection method is stored as a program in the storage area 13a of the control unit 13 shown in FIG. 1, and is performed by the control unit 13 reading and executing this program.
  • FIG. 7 is a conceptual diagram for explaining the principle of the detection method according to the present embodiment.
  • the wavefronts W1 and W1 of the optical image incident on the modulation surface 11a the relay lenses 15 and 16
  • the wavefront W2 of the optical image emitted from the modulation surface 11a and the wavefront W3 of the optical image incident on the wavefront sensor 12 are shown.
  • the spatial light modulator 11 emits a wavefront W2 in which a wavefront corresponding to the phase pattern displayed on the spatial light modulator 11 is added to the incident wavefront W1.
  • FIG. 7 shows an optical image La that is emitted from a region on the modulation surface 11 a corresponding to one lens 124 and reaches the lens 124.
  • FIG. 8 is a diagram conceptually showing a special phase pattern displayed on the modulation surface 11a.
  • the first area B1 on the modulation surface 11a having a size corresponding to one lens 124 is spaced from the first area B1 and corresponds to the other lens 124.
  • a first phase pattern having linearity in at least one direction is displayed on the second region B2 on the modulation surface 11a having the size.
  • the first phase pattern is realized by including, for example, a substantially uniform phase distribution, a phase distribution inclined in at least one direction, and the like.
  • the first phase pattern has a cylindrical lens effect in a certain first direction and is substantially uniform in a second direction intersecting the first direction, or diffracted in the first direction. This is realized by forming a grating and including a phase distribution that is substantially uniform in a second direction that intersects (eg, is orthogonal to) the first direction.
  • a spatially non-linear second phase pattern (for example, the distribution of phase magnitudes is irregular in the region B3 surrounding the first region B1 and the second region B2 on the modulation surface 11a. Random distribution or defocus distribution that expands the focused spot).
  • the wavefront corresponding to the region B3 in the outgoing wavefront W2 is disturbed (portion A1 in FIG. 7).
  • the disturbance of the wavefront also occurs in a portion of the incident wavefront W3 incident on the wavefront sensor 12 that enters the lens 124 corresponding to the region B3 (portion A2 in FIG. 7).
  • the condensing spot P formed by the lens 124 is diffused, and the condensing spot P is not formed, or the maximum brightness of the spot is reduced or the spot diameter is enlarged. That is, only the condensing spot corresponding to the region B3 can be formed with reduced clarity.
  • the at least one of the at least one is due to the first phase pattern having linearity in at least one direction.
  • the wavefront enters the lens 124 without being disturbed in the direction. Therefore, the condensing spot P is clearly formed by the lens 124.
  • FIG. 9 is a diagram conceptually showing light intensity distribution data (Shack-Hartmanngram) detected by the image sensor 122 of the wavefront sensor 12.
  • FIG. 9A shows light intensity distribution data D1 when a phase pattern having linearity in at least one direction is displayed in the regions B1 and B2 and a spatially nonlinear phase pattern is displayed in the region B3. ing.
  • FIG. 9B shows light intensity distribution data D2 when a phase pattern having linearity is displayed in all regions.
  • N focused spots P corresponding to the N lenses 124 are light intensity distribution data.
  • N focused spots P corresponding to the N lenses 124 are light intensity distribution data.
  • FIG. 9A a phase pattern having linearity in at least one direction is displayed in the regions B1 and B2, and a spatially nonlinear phase pattern is displayed in the region B3.
  • 2 includes two focused spots P corresponding to the areas B1 and B2, respectively, but the focused spot corresponding to the area B3 is not formed or the maximum brightness of the spot is reduced. Or the spot diameter is enlarged. That is, only the condensing spot corresponding to the region B3 can be formed with reduced clarity.
  • FIG. 10 is a diagram conceptually showing the relative relationship between the modulation surface 11 a and the lens array 120.
  • FIG. 10A shows the case where there is no angular deviation between the modulation surface 11a and the wavefront sensor 12, that is, the arrangement direction of the modulation surface 11a and the arrangement direction of the lenses 124 (shown by broken lines in the figure) are aligned. Shows the case.
  • N regions 11c (indicated by bold lines in the drawing) on the modulation surface 11a correspond to the N lenses 124, respectively.
  • Each region 11c includes a plurality of pixels 11b.
  • FIG. 11 is a diagram illustrating a change in the position of the focused spot P of the light intensity distribution data D ⁇ b> 1 due to the angular deviation between the modulation surface 11 a and the wavefront sensor 12.
  • two focused spots P1 respectively corresponding to the regions B1 and B2 are formed at predetermined positions.
  • the two focused spots P2 corresponding to the regions B1 and B2 are the above focused spots. It is formed at a position different from P1.
  • the relative positional relationship between the two focused spots P2 is uniquely determined by the amount of angular deviation between the modulation surface 11a and the wavefront sensor 12. Specifically, the angle ⁇ formed by the line segment L1 connecting the two focused spots P1 and the line segment L2 connecting the two focused spots P2 coincides with the angular deviation amount between the modulation surface 11a and the wavefront sensor 12. To do. From this, by examining the relative positional relationship between the focused spot P corresponding to the area B1 and the focused spot P corresponding to the area B2 included in the light intensity distribution data D1, the modulation surface 11a and the wavefront sensor 12 Can be obtained. The angle deviation amount ⁇ is calculated by the following mathematical formula (2).
  • FIG. 12 to FIG. 15 are diagrams showing examples of such phase patterns, where the magnitude of the phase is shown by light and dark, the phase of the darkest part is 0 (rad), and the brightest part is shown.
  • the phase is 2 ⁇ (rad).
  • FIG. 12 shows a random distribution in which the phase size distribution is irregular.
  • FIG. 12 also illustrates a graph of the amount of phase modulation at one location in each of the row direction and the column direction.
  • FIG. 13 shows a defocus distribution in which the focused spot P is enlarged.
  • FIG. 13 also illustrates a graph of the amount of phase modulation at one place in each of the row direction and the column direction.
  • FIG. 14 shows a distribution that causes a large spherical aberration in the optical image La.
  • FIG. 15 shows a distribution that causes a large high-order aberration in the optical image La. Even when the phase pattern shown in FIG. 14 or FIG. 15 is displayed in the region B3, a clear focused spot P is not formed.
  • the spatially nonlinear second phase pattern may include at least one of these distributions, or may include a composite pattern in which at least one of these distributions and a linear phase pattern are superimposed. Good.
  • the non-linear phase pattern displayed in the region B3 may include a common phase distribution for a plurality of regions formed by dividing the region B3, and is different for each of the plurality of regions formed by dividing the region B3.
  • a phase distribution may be included.
  • FIG. 16 illustrates a phase pattern in which a common phase distribution (for example, defocus distribution) is arranged for each of a plurality of regions formed by dividing the region B3.
  • FIG. 17 illustrates a phase pattern in which different phase distributions (for example, phase distributions that cause aberrations including higher-order aberrations) are arranged for a plurality of regions obtained by dividing the region B3.
  • the “first phase pattern having linearity in at least one direction” displayed in the areas B1 and B2 in FIG. 8 is realized by, for example, a phase distribution having substantially uniform phase values over the entire modulation surface 11a.
  • FIG. 18 is a diagram showing such a phase pattern, and the magnitude of the phase is shown by light and dark as in FIGS.
  • the phase pattern as shown in FIG. 18 is displayed in the areas B 1 and B 2, the wavefront of the optical image La of the part becomes flat, and a clear condensing spot P is formed by the lens 124.
  • FIG. 19 is a block diagram illustrating an example of the internal configuration of the control unit 13 of the present embodiment.
  • the control unit 13 can include a pattern creation unit 13b and a calculation processing unit 13c.
  • the pattern creation unit 13b and the calculation processing unit 13c are stored as programs in the storage area 13a of the control unit 13 shown in FIG. 1, and are realized by the control unit 13 reading and executing this program. .
  • the pattern creation unit 13b creates a special phase pattern for detecting the amount of angular deviation between the modulation surface 11a and the wavefront sensor 12, that is, a phase pattern including the regions B1 to B3. This phase pattern is sent from the pattern creating unit 13b to the control circuit unit 17 as a control signal S2.
  • a special phase pattern P A for the detection of the angular shift amount is expressed, for example, by the following equation (3).
  • a is a certain constant and is an example of a first phase pattern having linearity in at least one direction.
  • rand () is a random function and is an example of a second phase pattern that is spatially nonlinear.
  • (N, m) represents coordinates in pixel units on the modulation surface 11a.
  • the ROI is defined as a symbol representing the areas B1 and B2.
  • the regions B1 and B2 in this embodiment each have a size corresponding to one lens 124.
  • the lens array 120 when the plurality of lenses 124 are arranged in a two-dimensional lattice as shown in FIG. 3, the shapes of the regions B1 and B2 are square. Therefore, the previous equation (3) can be modified as the following equation (4).
  • (xc 1 , yc 1 ) is the central coordinate of the region B1
  • (xc 2 , yc 2 ) is the central coordinate of the region B2
  • w is the number of pixels on one side of the regions B1, B2
  • a ′ Is the same constant as the constant a or a different constant.
  • the arrangement pitch of the pixels 11b on the modulation surface 11a is slmPITCH
  • the arrangement pitch of the lenses 124 on the lens array 120 is mlaPITCH
  • the imaging magnification of the optical system between the modulation surface 11a and the lens surface of the lens array 120 is M.
  • the number of pixels w on one side of the regions B1 and B2 is expressed by the following formula (5).
  • Calculation processing unit 13c when the phase pattern P A described above are respectively displayed on the modulation surface 11a, to obtain the light intensity distribution data S1 output from the wavefront sensor 12.
  • the calculation processing unit 13c calculates the gravity center position of each focused spot P included in the light intensity distribution data S1 according to an algorithm described later.
  • the calculation processing unit 13c then shifts the angle between the modulation surface 11a and the wavefront sensor 12 based on the barycentric position of the focused spot P corresponding to the region B1 and the barycentric position of the focused spot P corresponding to the region B2. Calculate the amount.
  • FIG. 20 is a flowchart illustrating the operation of the adaptive optics system 10 and the angular deviation detection method according to this embodiment.
  • the angle deviation detection method is stored as the adaptive optics system program in the storage area 13a of the control unit 13 shown in FIG. 1, and the control unit 13 reads and executes this program.
  • step S11 an initial process of the control unit 13 is performed (step S11).
  • this initial processing step S11 for example, a memory area necessary for calculation processing is secured, initial parameter settings, and the like are performed.
  • the initialization of the special phase pattern P A for the detection of the angular deviation amount, the center of the area B1, B2, may be specified for any pixel of the modulation surface 11a.
  • the control unit 13 creates a special phase pattern P A for the detection of the angular deviation amount, to be displayed on the modulation surface 11a (step S12).
  • step S12 phase patterns having linearity in at least one direction in the regions B1 and B2 on the modulation surface 11a respectively corresponding to the two lenses 124 of the plurality of lenses 124 of the lens array 120 (see, for example, FIG. 18).
  • a spatially nonlinear phase pattern is displayed in the region B3 surrounding the regions B1 and B2.
  • step S13 Light intensity distribution acquisition step
  • the control unit 13 by calculating the two centroids focused spots P contained in the light intensity distribution data D A, specifies the position coordinates of each focused spot P (step S14).
  • the position coordinates (xp, yp) of the focused spot P are expressed by the following formula (6).
  • a ij is the light intensity at the coordinates (i, j) of the light intensity distribution data D A
  • R 0 is a calculation target area where the focused spot P can exist in the image sensor 122. Note that before the center of gravity calculations, the light intensity distribution data D A, may be subjected to processing such as threshold and noise reduction.
  • control unit 13 shifts the angle between the modulation surface 11a and the wavefront sensor 12 according to the principle shown in FIG. 11 based on the relative relationship between the position coordinates of the two focused spots P calculated in step S14.
  • the amount is calculated (step S15, angle calculation step).
  • control unit 13 may adjust the angle around at least one of the light image La of the modulation surface 11a and the wavefront sensor 12 so that the amount of angular deviation calculated in step S15 is small (step S16, Adjustment step).
  • This adjustment is performed, for example, by adjusting one or both of the attachment angle of the spatial light modulator 11 and the attachment angle of the wavefront sensor 12.
  • the angle adjustment eliminates the correspondence between the regions B1 and B2 and the two focused spots P, so the above steps S12 to S16 may be repeated. If the amount of angular deviation calculated in step S15 becomes substantially zero, the angle adjustment is completed.
  • a phase pattern having linearity in at least one direction is displayed in the regions B1 and B2 of the spatial light modulator 11, and a space B3 surrounding the regions B1 and B2 is displayed in the space B3.
  • a space B3 surrounding the regions B1 and B2 is displayed in the space B3.
  • the angle shift amount of the relative positional relationship between these focused spots P includes a modulation surface 11a and the wavefront sensor 12 Fluctuates depending on Therefore, the amount of angular deviation between the modulation surface 11a and the wavefront sensor 12 can be detected based on the relative positional relationship between the focused spots P corresponding to the regions B1 and B2.
  • a special part or structure for detecting the angle deviation amount is not required, and the angle deviation amount can be detected easily and in a short time only by the operation of the control unit 13.
  • the structure of the phase pattern is complicated, and its creation is not easy.
  • it may be an area B1 ⁇ B3 consisting of simple phase pattern including the phase pattern P A, a structure of the phase pattern is simple, creating a phase pattern is easy by the control unit 13 .
  • it is necessary to calculate the overall wavefront shape based on the light intensity distribution data output from the wavefront sensor 12.
  • the present embodiment since the amount of angular deviation can be detected based on only a part of the light intensity distribution data, the calculation process is facilitated.
  • the angle deviation amount around the optical axis between the modulation surface 11a and the wavefront sensor 12 can be easily detected, and the angle Adjustments can be made.
  • the sizes of the regions B1 and B2 are set so that the size of the wavefront portion A4 (see FIG. 7) matches the diameter of the lens 124 (see Formula (5)).
  • the sizes of the regions B1 and B2 are not limited to this, and may be set such that, for example, the length of one side of the wavefront portion A4 is n 1 times the diameter of the lens 124 (n 1 is a natural number).
  • the arrangement pitch of the pixels 11 b on the modulation surface 11 a is slmPITCH
  • the arrangement pitch of the lenses 124 in the lens array 120 is mlaPITCH
  • the imaging magnification of the optical system between the modulation surface 11 a and the lens surface of the lens array 120 is Assuming M, the number of pixels w on one side of the regions B1 and B2 is expressed by the following equation (7).
  • the light intensity distribution acquisition step S13 in a state of displaying the first phase pattern having a linearity in at least one direction in the region B1 and B2, obtains the light intensity distribution data D A ing.
  • the first phase patterns displayed in the areas B1 and B2 are not necessarily displayed at the same time, and the above-described embodiment can be modified as follows.
  • FIG. 21 is a flowchart showing the operation of the angle deviation detection method and the control unit 13 according to the second embodiment.
  • steps S21 to S24 are provided instead of steps S12 and S13 shown in FIG. Since other steps are the same as those in the first embodiment, detailed description thereof is omitted.
  • step S21 the control unit 13 creates a special phase pattern P B for detecting the amount of angular deviation and displays it on the modulation surface 11a.
  • FIG. 22 is a diagram conceptually showing the phase pattern P B of this modification. As shown in FIG. 22, in the phase pattern P B , a first phase pattern (for example, see FIG. 18) having linearity in at least one direction is displayed in the first region B1 on the modulation surface 11a. At the same time, a spatially nonlinear second phase pattern (see, for example, FIGS. 12 to 15) is displayed in a region B4 surrounding the first region B1 on the modulation surface 11a.
  • a first phase pattern for example, see FIG. 18
  • a spatially nonlinear second phase pattern is displayed in a region B4 surrounding the first region B1 on the modulation surface 11a.
  • step S22 the control unit 13, in a state of displaying the phase pattern P B, the first light intensity distribution data by the image sensor 122 (hereinafter, this light intensity distribution data and D B) (First light intensity distribution acquisition step).
  • This first light intensity distribution data D B include condensed spot P corresponding to the region B1.
  • step S23 the control unit 13, it creates a special phase pattern P C for the detection of the angular deviation amount, to be displayed on the modulation surface 11a.
  • Figure 23 is a diagram conceptually showing the phase pattern P C of the modification. As shown in FIG. 23, the phase pattern P C, the second region B2 on the modulation surface 11a, and displays the first phase pattern having a linearity in at least one direction (see FIG. 18 for example). At the same time, a spatially nonlinear second phase pattern (see, for example, FIGS. 12 to 15) is displayed in a region B5 surrounding the second region B2 on the modulation surface 11a.
  • step S24 the control unit 13, in a state of displaying the phase pattern P C, the second light intensity distribution data by the image sensor 122 (hereinafter, this light intensity distribution data and D C) (Second light intensity distribution acquisition step).
  • This second light intensity distribution data D C include condensed spot P corresponding to the region B2.
  • control unit 13 identifies the two coordinates of the light intensity distribution data D B and D C to converged spot P contained respectively obtained by the steps S21 ⁇ S24 (step S14), and the relative position relationship Based on this, the amount of angular deviation between the modulation surface 11a and the wavefront sensor 12 is calculated (angle calculation step S15). Also in this embodiment, the control unit 13 adjusts the angle around the optical image La of at least one of the modulation surface 11a and the wavefront sensor 12 so that the amount of angular deviation calculated in step S15 is small. (Adjustment step S16).
  • the second light having the first light intensity distribution data D B containing condensed spot P corresponding to the first region B1, the focused spot P corresponding to the second area B2 It obtains the intensity distribution data D C sequentially, these light intensity distribution data D B, may be obtained relative positional relationship between the two focal spot P from D C. Even with such a method, the same effects as those of the first embodiment can be obtained.
  • the first phase pattern having linearity in at least one direction is displayed in the two regions B1 and B2, and based on the relative positional relationship between the focused spots P corresponding thereto.
  • the angular deviation detection method and the adaptive optics system 10 according to one aspect of the present invention can obtain the angular deviation amount even by the method described below.
  • the configuration of the adaptive optics system 10 excluding the operation of the control unit 13 is the same as that in the first embodiment.
  • FIG. 24 in this embodiment is displayed on the modulation surface 11a, a diagram conceptually showing the specific phase pattern P D for detection of the angle displacement amount.
  • the phase pattern P D was placed in a row in one direction, it includes three regions B6 ⁇ B8 adjacent to each other. Further, the phase pattern P D includes a region B9 enclosing the region B6 ⁇ B8. Note that the length of one side of each of the regions B6 to B8 is the same as the regions B1 and B2 of the first and second embodiments described above.
  • FIG. 25A is a diagram conceptually showing the relative relationship between the regions B6 to B8 and the lens array 120.
  • FIG. 25 This shows a case where there is no positional deviation between the wavefront sensor 12 and the wavefront sensor 12.
  • FIG. 25 (b) is in the case shown in FIG. 25 (a), a diagram showing a light intensity distribution data D D.
  • the arrow An indicates the row direction of the modulation surface 11a
  • the arrow Am indicates the column direction of the modulation surface 11a.
  • FIG. 26A shows a case where an angular deviation (deviation amount ⁇ ) occurs between the modulation surface 11 a and the wavefront sensor 12. Regions this case, as shown in FIG. 26 (b), in the light intensity distribution data D D, but does not change clarity focal spot P corresponding to the region B7 located at the rotation center, which is located on the upper and lower The clarity of the focused spot P corresponding to B6 and B8 decreases. Further, since light is incident on the lens 124 adjacent to the lens 124 corresponding to the regions B6 and B8 in the direction of the angular deviation, a weak condensing spot P is formed by these lenses 124.
  • the condensing spot P with slightly reduced clarity is indicated by a white circle, and the weak condensing spot P is indicated by a broken line. Therefore, based on the relative positional relationship and clarity of these focused spots P, the amount of angular deviation ⁇ between the modulation surface 11a and the wavefront sensor 12 can be detected.
  • FIG. 27A shows a case where a positional shift occurs in a plane perpendicular to the optical axis of the optical image La in addition to the angular shift (shift amount ⁇ ) between the modulation surface 11a and the wavefront sensor 12.
  • the central region B7 is also displaced from the predetermined position, so that the clarity of the focused spot P corresponding to the region B7 is also reduced.
  • a plurality of weak condensing spots P are formed by these lenses 124.
  • Such light intensity distribution data D based on D to adjust the relative position between the modulated surface 11a and the wavefront sensor 12, after which it is possible to adjust the angle between the modulation surface 11a and the wavefront sensor 12.
  • FIG. 28 is a flowchart showing the operation of the angle deviation detection method and the control unit 13 according to the present embodiment.
  • the angle deviation detection method is stored as the adaptive optics system program in the storage area 13a of the control unit 13 shown in FIG. 1, and the control unit 13 reads and executes this program.
  • step S31 an initial process of the control unit 13 is performed (step S31).
  • step S31 The details of step S31 are the same as step S11 of the first embodiment described above.
  • the control unit 13 creates a special phase pattern P D for the detection of the angular deviation amount, to be displayed on the modulation surface 11a (step S32).
  • phase patterns having linearity in at least one direction (for example, FIG. 5) in regions B6 to B8 on the modulation surface 11a respectively corresponding to the three lenses 124 arranged in a row among the plurality of lenses 124 of the lens array 120. 18), and a spatially nonlinear phase pattern (see, for example, FIGS. 12 to 15) is displayed in a region B9 surrounding the regions B6 to B8.
  • the control unit 13 in a state of displaying the phase pattern P D, the image sensor 122 to acquire the light intensity distribution data D D (step S33).
  • the control unit 13 any region B6 ⁇ B8 of the light intensity distribution data D D (e.g., the central region B7) as focused spot P corresponding to become clear, the modulation surface 11a and the wavefront sensor 12 Is adjusted (step S34).
  • This positional deviation is adjusted by adjusting the relative relationship between the mounting position of the wavefront sensor 12 and the mounting position of the spatial light modulator 11.
  • the position coordinate which is assumed on the modulation surface 11a when displaying the phase pattern P D may be performed by adjusting the relative positional relationship between the wavefront sensor 12.
  • step S35 the light intensity distribution acquiring step. Since the displacement between the modulation surface 11a and the wavefront sensor 12 has already been adjusted in step S34 described above, the light intensity distribution data D D at this time is as shown in FIG. 26 (b).
  • control unit 13 is included in the light intensity distribution data D D, and the position coordinates and clarity of the plurality of focused spots P corresponding to the region B6, the position coordinates of a plurality of light spots P corresponding to the region B8 and Based on the relative relationship with the clarity, an angle deviation amount ⁇ between the modulation surface 11a and the wavefront sensor 12 is obtained (step S36, angle calculation step).
  • control unit 13 adjusts the angle around the optical image La of at least one of the modulation surface 11a and the wavefront sensor 12 so that the angle deviation amount ⁇ obtained in step S36 becomes small (step S37, adjustment). Step).
  • the clarity of the two focused spots P corresponding to the regions B6 and B8 is increased, and the weak focused spot P adjacent to the focused spots P corresponding to the regions B6 and B8 is further reduced. Adjust these angles. This adjustment is performed, for example, by adjusting one or both of the attachment angle of the spatial light modulator 11 and the attachment angle of the wavefront sensor 12.
  • steps S33 to S37 are repeated until a predetermined end condition is satisfied (step S38).
  • steps S32 ⁇ S37 until a predetermined termination condition is satisfied (step S38).
  • the above-described angle deviation detection method of the adaptive optics system 10 according to the present embodiment and the effects obtained by the adaptive optics system 10 will be described.
  • a phase pattern having linearity in at least one direction is displayed in the regions B6 to B8 of the spatial light modulator 11, and a space B9 surrounding the regions B6 to B8 is displayed in the space B9.
  • the light intensity distribution data DD is acquired by the image sensor 122 of the wavefront sensor 12.
  • the relative positions of these focused spots P (in particular, focused spot P corresponding to the region B6, B8)
  • the relationship varies according to the amount of angular deviation between the modulation surface 11 a and the wavefront sensor 12. Accordingly, the amount of angular deviation between the modulation surface 11a and the wavefront sensor 12 can be detected based on the relative positional relationship of the focused spot P corresponding to the regions B6 to B8.
  • no special parts or structures for detecting the angle deviation amount are required, and the angle deviation amount can be easily and in a short time only by the operation of the control unit 13. Can be detected.
  • the light intensity distribution data DD is acquired in a state where the first phase pattern having linearity in at least one direction is displayed in the regions B6 to B8. Yes.
  • the first phase patterns displayed in the regions B6 to B8 are not necessarily displayed at the same time.
  • the first phase patterns are sequentially displayed in the regions B6 to B8, and the light intensity is displayed.
  • Distribution data may be acquired, and the process of step S36 may be performed based on the obtained three light intensity distribution data.
  • the first to third embodiments described above all relate to the amount of angular deviation between the modulation surface 11a and the wavefront sensor 12.
  • an imaging magnification detection method for the compensation optical system 10 and the compensation optical system 10 including methods and operations common to the first to third embodiments will be described.
  • the configuration of the adaptive optics system 10 excluding the operation of the control unit 13 is the same as that in the first embodiment.
  • FIG. 29 is a flowchart showing the operation of the imaging magnification detection method and the control unit 13 according to the present embodiment.
  • the imaging magnification detection method is stored as a compensation optical system program in the storage area 13a of the control unit 13 shown in FIG. 1, and the control unit 13 reads and executes this program.
  • step S41 an initial process of the control unit 13 is performed (step S41).
  • step S41 The details of step S41 are the same as step S11 of the first embodiment described above.
  • control unit 13 creates a special phase pattern P A (see Figure 8) for the detection of the imaging magnification, to be displayed on the modulation surface 11a (step S42).
  • the details of phase pattern P A is the same as the first embodiment.
  • control unit 13 in a state of displaying the phase pattern P A, the image sensor 122 to acquire the light intensity distribution data D A (step S43, the light intensity distribution acquiring step).
  • the control unit 13 by calculating the two centroids focused spots P contained in the light intensity distribution data D A, specifies the position coordinates of each focused spot P (xp, yp) (step S44 ).
  • the calculation method of the position coordinate (xp, yp) of the condensing spot P is the same as that of step S14 of 1st Embodiment mentioned above.
  • the position coordinates of the condensing spot P corresponding to the area B1 are (xp 1 , yp 1 )
  • the position coordinates of the condensing spot P corresponding to the area B2 are (xp 2 , yp 2 ).
  • control unit 13 sets the position coordinates (xp 1 , yp 1 ) of the focused spot P corresponding to the region B1 and the position coordinates (xp 2 , yp 2 ) of the focused spot P corresponding to the region B2. Based on the distance, the imaging magnification M between the modulation surface 11a and the wavefront sensor 12 is calculated (step S45, magnification calculation step).
  • the imaging magnification M is obtained by the ratio (H1 / H2).
  • the imaging magnification M is obtained by the following formula (8).
  • step S46 various adjustments are performed based on the imaging magnification M calculated in step S45 (step S46).
  • a light guide optical system for example, the lens shown in FIG. 1 disposed between the modulation surface 11a and the wavefront sensor 12 so that the imaging magnification M calculated in step S45 approaches a predetermined imaging magnification. 15, 16
  • Such an adjustment can be applied when the light guide optical system is configured by a zoom lens or the like whose imaging magnification M is variable.
  • the relative position in the optical axis direction between the modulation surface 11a and the wavefront sensor 12 may be deviated. For example, it is calculated in step S45.
  • the optical distance between the modulation surface 11a and the wavefront sensor 12 can be adjusted so that the image forming magnification M approaches the predetermined image forming magnification. Also, for example, the size of the area where the wavefront distortion compensation phase pattern is displayed on the modulation surface 11a can be adjusted based on the imaging magnification M calculated in step S45.
  • a phase pattern having linearity in at least one direction is displayed in the regions B1 and B2 of the spatial light modulator 11, and a space B3 surrounding the regions B1 and B2 is displayed in the space B3.
  • a nonlinear phase pattern is displayed in the space B3.
  • This light intensity distribution data D A but the focusing spot P corresponding to the region B1, B2 are formed, the distance of these focused spots P is the magnification between the modulation surface 11a and the wavefront sensor 12 It fluctuates according to M. Therefore, the imaging magnification M between the modulation surface 11a and the wavefront sensor 12 can be detected based on the distance between the focused spots P corresponding to the regions B1 and B2. In this embodiment, no special parts or structure for detecting the imaging magnification M is required, and the imaging magnification M can be detected easily and in a short time only by the operation of the control unit 13.
  • FIG. 30 is a flowchart showing the imaging magnification detection method and the operation of the control unit 13 according to the fifth embodiment.
  • steps S51 to S54 are provided instead of steps S42 and S43 shown in FIG. Since other steps are the same as those in the fourth embodiment, detailed description thereof is omitted.
  • step S51 the control unit 13 creates a special phase pattern P B (see FIG. 22) for detecting the imaging magnification and displays it on the modulation surface 11a.
  • the details of the phase pattern P B are the same as in the second embodiment.
  • step S52 the control unit 13, in a state of displaying the phase pattern P B, first to obtain the light intensity distribution data D B (first light intensity distribution acquisition step) by the image sensor 122.
  • This first light intensity distribution data D B include condensed spot P corresponding to the region B1.
  • step S53 the control unit 13 creates a special phase pattern P C (see FIG. 23) for detecting the imaging magnification and displays it on the modulation surface 11a.
  • the details of the phase pattern P C is similar to the second embodiment.
  • step S54 the control unit 13, in a state of displaying the phase pattern P C, the second to obtain the light intensity distribution data D C (second light intensity distribution acquisition step) by the image sensor 122.
  • This second light intensity distribution data D C include condensed spot P corresponding to the region B2.
  • control unit 13 identifies the two coordinates of the light intensity distribution data D B and D C to converged spot P contained respectively obtained by the steps S51 ⁇ S54 (step S44), based on their distance
  • the imaging magnification M between the modulation surface 11a and the wavefront sensor 12 is calculated (magnification calculation step S45).
  • various adjustments in step S46 are performed.
  • the intensity distribution data D C may be acquired in order, and the distance between the two focused spots P may be obtained from these light intensity distribution data D B and D C. Even with such a method, the same effect as the fourth embodiment can be obtained.
  • the first region B1 and the second region B2 are separated from each other.
  • the first region B1 and the second region B2 may be regions adjacent to each other in the row direction or the column direction.
  • the first region B1 and the second region B2 may be regions adjacent to each other in the diagonal direction. Even in the case where the regions B1 and B2 are arranged as described above, the same effects as those of the above embodiments can be obtained. However, when the regions B1 and B2 are separated from each other, there is little possibility that the corresponding focused spots P overlap each other. Accordingly, the regions B1 and B2 may be separated from each other depending on the shape of the first phase pattern having linearity.
  • the first phase pattern having linearity in at least one direction is displayed in the regions B1 and B2 (or the regions B6 to B8), and the spatially nonlinear second phase pattern is displayed in the regions B3 to B5. (Or area B9).
  • a phase pattern having linearity in at least one direction is displayed in the regions B3 to B5 (or the region B9) and a spatially nonlinear phase pattern is displayed in the regions B1 and B2 (or the regions B6 to B8). Even if it exists, the effect similar to the said embodiment can be acquired.
  • Equation (3) described above can be rewritten as follows.
  • the condensing spot P corresponding to the regions B1 and B2 becomes unclear, and the condensing spot P corresponding to the surrounding regions B3 to B5 (or region B9) is clear.
  • the relative relationship between the position coordinates of the focused spot P formed around the area B1 (or area B6) and the position coordinates of the focused spot P formed around the area B2 (or area B8) ( Alternatively, the amount of angular deviation (or imaging magnification M) between the modulation surface 11a and the wavefront sensor 12 can be calculated based on the distance.
  • the amount of angular deviation (or imaging magnification M) around the optical axis between the modulation surface 11a and the wavefront sensor 12 can be easily detected.
  • a phase pattern having linearity can be displayed in all regions other than the regions B1 and B2 (or regions B6 to B8), the phase pattern is used as a phase pattern for wavefront distortion compensation, so that adaptive optics is being executed. In parallel with this, it is possible to detect the amount of angular deviation (or imaging magnification M).
  • the constant a is used as an example of the first phase pattern having linearity in at least one direction displayed in the region B1, B2, or B6 to B8 (the region B3 to B5 or B9 in the second modification).
  • the first phase pattern may be a phase distribution inclined (linearly changed) in at least one direction.
  • the phase pattern P A comprising such a phase pattern is represented by the following equation (10).
  • n 0 and m 0 are the central pixels of the regions B1 and B2 (ROI)
  • a, b, and c are constants.
  • FIG. 34 shows a phase distribution in which the phase value is inclined in both the first direction (for example, the row direction) and the second direction (for example, the column direction). This is the phase distribution in the ROI when b ⁇ 0 and c ⁇ 0 in the above equation (10). 33 and 34 also show a graph of the phase modulation amount at one location in the row direction and the column direction.
  • the wavefront of the optical image La in the portion becomes flat, and thus a clear condensing spot P is formed by the lens 124. Therefore, as in the above embodiments and modifications, the amount of angular deviation or the imaging magnification M can be detected based on the relative positional relationship or distance of the focused spot P.
  • the position of the center of gravity of the focused spot P is shifted by the inclination of the first phase pattern. Therefore, when detecting the amount of angular deviation or the imaging magnification M, the same calculation as in each of the above embodiments can be performed in consideration of the deviation of the center of gravity.
  • the amount of deviation of the center of gravity position of the focused spot P is uniquely determined based on the configuration parameters of the wavefront sensor 12 and the coefficients b and c. Further, since the original position of the center of gravity can be obtained by subtracting the amount of deviation from the position of the center of gravity of the condensing spot P, the angle deviation amount or the imaging magnification M is detected by the same procedure as in the above embodiments. It is possible.
  • the first phase pattern displayed in the areas B1, B2, or B6 to B8 (areas B3 to B5 or B9 in the second modification) has a phase distribution in the first direction as shown in FIG. It may be a phase distribution having a function and having a substantially uniform phase value in the second direction (that is, a phase distribution having a cylindrical lens effect in the first direction).
  • the phase pattern P A comprising such a phase distribution is expressed by the following equation (11).
  • n 1 and m 1 are the central pixels of the region B1 (ROI (n 1 , m 1 ))
  • n 2 and m 2 are the central pixels of the region B2 (ROI (n 2 , m 2 )).
  • a 1 , b 1 , a 2 and b 2 are constants.
  • the wavefront sensor 12 forms a focused spot P that extends in the first direction and is focused in the second direction. Thereby, the position of the 2nd direction of the condensing spot P formed can be obtained.
  • the first direction and the mutually interchanged phase distribution of the second direction i.e., phase distribution having a cylindrical lens effect in the second direction
  • the position of the condensing spot P in the first direction is obtained. Accordingly, by using a phase pattern having linearity in at least one direction as shown in FIG.
  • the phase pattern P A comprising a phase distribution having a cylindrical lens effect may be created by the following equation (12). Equation phase pattern P A represented by (12) is different from the phase pattern represented by Equation (11), the phase distribution in the first direction in the area B1 has a quadratic function, in the region B2 second The phase distribution in the direction has a quadratic function.
  • the focusing spot P corresponding to the region B1 that is, focused spot P which is focused in a second direction extending in a first direction
  • the position in the second direction is determined.
  • the position in the first direction is obtained based on the focused spot P corresponding to the region B2, that is, the focused spot P extending in the second direction and focused in the first direction.
  • a phase distribution in which the phase distributions of the regions B1 and B2 are interchanged that is, the phase distribution in the second direction has a quadratic function in the region B1, and the phase distribution in the first direction in the region B2 is 2).
  • phase pattern P a containing phase distribution having the following functions is displayed on the modulation surface 11a
  • a first direction position based on the focused spot P extending in a second direction corresponding to the area B1 is calculated
  • the position in the second direction is obtained based on the focused spot P extending in the first direction corresponding to the region B2.
  • the amount of angular deviation and the imaging magnification can be detected in the same manner as in the above-described embodiments and modifications.
  • the first phase pattern displayed in the region B1, B2 or B6 to B8 has a phase distribution in the first direction as shown in FIG.
  • the phase distribution may be such that the phase value is substantially uniform in the second direction.
  • the wavefront sensor 12 forms a plurality of focused spots P that are separated in the first direction and focused in the second direction. Therefore, the position of the condensing spot P in the second direction is obtained.
  • the position of the focused spot P in the first direction is obtained using the phase pattern including the phase distribution obtained by rotating the direction of the diffraction grating by 90 ° in the regions B1 and B2. Then, using the positions of the focused spots P corresponding to the regions B1 and B2, the amount of angular deviation and the imaging magnification can be detected as in the above-described embodiments and modifications.
  • the first phase pattern displayed in the areas B1, B2 or B6 to B8 (area B3 to B5 or B9 in the second modification) has the phase distribution shown in the first embodiment and the third to fifth modifications. It may include a composite pattern superimposed on each other.
  • FIG. 37 is a diagram showing an example of a composite pattern obtained by such superposition.
  • the phase pattern shown in FIG. 37A is shown in FIG. 35, and the phase pattern shown in FIG. 37B is obtained by rotating the phase pattern shown in FIG. 33 by 90 °. .
  • the phase pattern shown in FIG. 37 (c) is a composite pattern obtained by superimposing these, and the phase distribution in the first direction has a quadratic function, and the phase distribution in the second direction is a linear function.
  • the wavefront sensor 12 forms a condensing spot P that extends in the first direction and is focused in the second direction. . Therefore, the position in the second direction of the focused spot P to be formed is obtained.
  • the obtained position in the second direction includes a deviation amount due to the gradient phase distribution as shown in FIG. By subtracting this deviation amount, the center of gravity position in the original second direction can be obtained. Subsequently, the center of gravity position in the first direction can be obtained by displaying the phase pattern shown in 37 (c) rotated 90 degrees. Then, using the positions of the focused spots P corresponding to the regions B1 and B2, the amount of angular deviation and the imaging magnification can be detected in the same manner as in the above-described embodiment and each modification.
  • the position of the condensing spot P in the optical axis direction deviates from the focal plane of the lens 124 (that is, the surface of the image sensor 122). . For this reason, a blurred point image is formed on the surface of the image sensor 122.
  • Phase pattern P A comprising such FZP phase pattern is represented by the following equation (13).
  • a 2 are constants
  • b 2 is sufficiently large constant.
  • (N k , m k ) is the central pixel of the regions B3 to B5. Since b 2 is sufficiently large, the condensing spot P formed by the lens 124 can be sufficiently separated from the focal plane of the lens 124 (the surface of the image sensor 122).
  • the lens array 120 of the wavefront sensor 12 is illustrated as having a plurality of lenses 124 arranged in a two-dimensional lattice as shown in FIG.
  • the lens array of the wavefront sensor 12 is not limited to such a form.
  • the lens array 120 may have a honeycomb structure in which a plurality of regular hexagonal lenses 128 are arranged without gaps.
  • the region B1, B2 or B6 to B8 may be set to a hexagon.
  • a spatial light modulator in which a plurality of regular hexagonal pixels are arranged without gaps may be used.
  • the spatial light modulator using liquid crystal has been described as an example.
  • the spatial light modulator using a material having an electro-optic effect other than liquid crystal, or the pixel is formed by a micromirror.
  • a spatial light modulator or a variable mirror that deforms a film mirror with an actuator may be used.
  • the angle shift detection method of the compensation optical system, the imaging magnification detection method of the compensation optical system, and the compensation optical system according to one aspect of the present invention are not limited to the above-described embodiments, and various other modifications are possible. It is.
  • the size of the region B1, B2, or B6 to B8 is set in advance to detect the amount of angular deviation or the like, but the size of the region B1, B2, or B6 to B8 is detected. May be variable.
  • FIG. 39 shows an example in which the sizes of the areas B1 and B2 are variable. In the example shown in FIG.
  • the sizes of the regions B1 and B2 are set to be relatively large, and an appropriate size (for example, the diameter of the lens 124 is set based on the obtained light intensity distribution data). Corresponding size).
  • the sizes of the regions B1 and B2 are set to be relatively small, and an appropriate size (for example, the lens 124) is set based on the obtained light intensity distribution data. (Size corresponding to the diameter).
  • Size corresponding to the diameter As described above, by making the sizes of the regions B1 and B2 (or the regions B6 to B8) variable, the regions B1 and B2 (or the regions B6 to B8) having appropriate sizes are set, and the angle deviation amount and the connection result are set. Image magnification can be detected with higher accuracy.
  • phase patterns displayed in the areas B1 and B2 are not necessarily the same.
  • a phase pattern having a cylindrical effect as shown in FIG. 35 may be displayed in the area B1
  • a phase pattern having a diffraction grating structure as shown in FIG. 36 may be displayed in the area B2.
  • the adaptive optics system includes one spatial light modulator.
  • the adaptive optics system includes a plurality of optically coupled spatial light modulators. May be provided.
  • the phase pattern P A (or P D ) is displayed on one spatial light modulator and, for example, a substantially uniform phase pattern is displayed on the other spatial light modulator.
  • the phase pattern P A (or P D ) is displayed on one spatial light modulator, and the other spatial light modulator has, for example, a substantially uniform phase pattern.
  • the amount of angular deviation or imaging magnification between the one spatial light modulator and the wavefront sensor can be reduced. Detection can be performed. By performing such an operation for each of the plurality of spatial light modulators, it is possible to detect the amount of angular deviation and the imaging magnification between all the spatial light modulators and the wavefront sensor.
  • the angle deviation detection method and the compensation optical system of the adaptive optical system it is possible to easily detect the angular deviation around the optical axis between the modulation surface of the spatial light modulator and the wavefront sensor. Can do.
  • the imaging magnification detection method and the compensation optical system of the adaptive optics system according to one aspect of the present invention the imaging magnification between the modulation surface of the spatial light modulator and the wavefront sensor can be easily detected. it can.
  • SYMBOLS 10 DESCRIPTION OF SYMBOLS 10 ... Compensation optical system, 11 ... Spatial light modulator, 11a ... Modulation surface, 12 ... Wavefront sensor, 13 ... Control part, 14 ... Beam splitter, 15, 16 ... Relay lens, 17 ... Control circuit part, 18 ... Light detection Elements 120, lens array 122, image sensor 122a, light receiving surface 122b, pixel, 124, lens, B1, first area, B2, second area, D1, D2, D A to D D, light Intensity distribution data, La ... optical image, P ... focused spot, P A -P D ... phase pattern.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Ophthalmology & Optometry (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Optics & Photonics (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Optical Modulation, Optical Deflection, Nonlinear Optics, Optical Demodulation, Optical Logic Elements (AREA)
  • Testing Of Optical Devices Or Fibers (AREA)

Abstract

 変調面に入射した光像の位相を空間的に変調する空間光変調器と、複数のレンズが二次元状に配列されたレンズアレイ、並びに前記レンズアレイによって形成された集光スポットを含む光強度分布を検出する光検出素子を有しており前記空間光変調器から変調後の前記光像を受ける波面センサとを備え、前記光強度分布から得られる前記光像の波面形状に基づいて前記空間光変調器に表示される位相パターンを制御することにより波面歪みを補償する補償光学システムにおいて、前記変調面と前記波面センサとの角度ずれ量を算出する。

Description

補償光学システムの角度ずれ検出方法、補償光学システムの結像倍率検出方法、及び補償光学システム
 本発明の一側面は、補償光学システムの角度ずれ検出方法、補償光学システムの結像倍率検出方法、及び補償光学システムに関するものである。
 非特許文献1及び2には、位相計測法により補償光学システムを調整する方法が記載されている。位相計測法は、既知の位相分布を空間光変調器に表示させた上で、この位相分布を波面センサによって計測し、その計測結果と既知の位相分布とを対照することにより、変調面上の座標と検出面上の座標とを相互に対応付ける方法である。
Abdul Awwal, et al., "Characterization and Operation of a Liquid Crystal Adaptive OpticsPhoropter", Proceedings of SPIE, Volume 5169, pp104-122 (2003) Jason Porter, Hope Queener, Julianna Lin, Karen Thorn, and AbdulAwwal "Adaptive Optics for Vision Science", Wiley Interscience, Charpter 18, pp496-499 (2006)
 補償光学技術は、波面センサを用いて光学的な収差(波面歪み)を計測し、その結果を基に波面変調素子(空間光変調器)を制御することで動的に収差を除去する技術である。この補償光学技術によって、結像特性や集光度、画像のSN比、計測精度を向上させることができる。従来、補償光学技術は、主として天体望遠鏡や大型レーザ装置に使われていた。近年になって、補償光学技術は、眼底カメラ、走査型レーザ検眼鏡、光干渉断層装置、レーザ顕微鏡などにも応用されつつある。このような補償光学技術を用いたイメージングは、従来にない高い分解能での観察を可能にする。例えば、眼の奥(眼底)を観察する眼底イメージング装置に補償光学技術を適用することによって、眼球による収差が除去され、例えば視細胞、神経繊維、毛細血管といった眼底の微細構造を鮮明に描出することができる。眼疾患だけでなく、循環器系疾病の早期診断にも応用することができる。
 補償光学システムでは、光の波長以下(例えばサブマイクロレベル)の精度で波面を制御する。故に、波面センサや空間光変調器の組立精度や、光学部品及びその固定部品の製造誤差などに起因して、空間光変調器の変調面と波面センサとの間で、光軸周りの角度ずれや結像倍率の変動を生じることがある。このような角度ずれや結像倍率の変動が生じると、空間光変調器における制御点の位置と、波面センサにおける計測点の位置との対応関係が不正確となり、補償光学の精度に影響を及ぼしてしまう。従って、変調面と波面センサとの相対角度および結像倍率を調整するために、変調面と波面センサとの間の角度ずれおよび結像倍率を容易に検出し得ることが望まれる。また、例えば空間光変調器の変調面と波面センサとの間の光学倍率が可変であるような場合にも、変調面と波面センサとの間の結像倍率を容易に検出し得ることが望まれる。
 本発明の一側面は、空間光変調器の変調面と波面センサとの間での光軸周りの角度ずれを容易に検出することができる補償光学システムの角度ずれ検出方法及び補償光学システムを提供することを目的とする。また、本発明の一側面は、空間光変調器の変調面と波面センサとの間の結像倍率を容易に検出することができる補償光学システムの結像倍率検出方法、及び補償光学システムを提供することを目的とする。
 本発明の一側面に係る補償光学システムの角度ずれ検出方法は、変調面に入射した光像の位相を空間的に変調する空間光変調器と、複数のレンズが二次元状に配列されたレンズアレイ、並びにレンズアレイによって形成された集光スポットを含む光強度分布を検出する光検出素子を有しており空間光変調器から変調後の光像を受ける波面センサとを備え、光強度分布から得られる光像の波面形状に基づいて空間光変調器に表示される位相パターンを制御することにより波面歪みを補償する補償光学システムにおいて、変調面と波面センサとの角度ずれ量を算出する方法である。
 そして、第1の角度ずれ検出方法は、複数のレンズのうちの一若しくは互いに隣接する二以上のレンズに各々対応する変調面上の第1及び第2の領域に、少なくとも一方向に線形性を有する位相パターン及び空間的に非線形な位相パターンのうち一方を表示させ、第1及び第2の領域を囲む領域に他方を表示させた状態で、光検出素子により光強度分布を取得する光強度分布取得ステップと、光強度分布取得ステップにおいて得られた光強度分布に含まれる、第1の領域に対応する集光スポットと第2の領域に対応する集光スポットとを結ぶ直線の傾きに基づいて、変調面と波面センサとの角度ずれ量を求める角度算出ステップとを備える。
 また、第2の角度ずれ検出方法は、複数のレンズのうちの一若しくは互いに隣接する二以上のレンズに対応する変調面上の第1の領域に、少なくとも一方向に線形性を有する位相パターン及び空間的に非線形な位相パターンのうち一方を表示させ、第1の領域を囲む領域に他方を表示させた状態で、光検出素子により第1の光強度分布を取得する第1の光強度分布取得ステップと、複数のレンズのうちの一若しくは互いに隣接する二以上のレンズに対応しており第1の領域とは別の領域である変調面上の第2の領域に、少なくとも一方向に線形性を有する位相パターン及び空間的に非線形な位相パターンのうち一方を表示させ、第2の領域を囲む領域に他方を表示させた状態で、光検出素子により第2の光強度分布を取得する第2の光強度分布取得ステップと、第1の光強度分布に含まれる第1の領域に対応する集光スポットと、第2の光強度分布に含まれる第2の領域に対応する集光スポットとを結ぶ直線の傾きに基づいて、変調面と波面センサとの角度ずれ量を求める角度算出ステップとを備える。
 上記第1及び第2の角度ずれ検出方法は、角度算出ステップにより算出された角度ずれ量が小さくなるように、変調面及び波面センサのうち少なくとも一方の光像周りの角度を調整する調整ステップを更に備えてもよい。
 また、上記第1及び第2の角度ずれ検出方法では、第1及び第2の領域が互いに隣接する領域であってもよく、或いは、第1及び第2の領域が互いに離間した領域であってもよい。
 本発明の一側面に係る補償光学システムの結像倍率検出方法は、変調面に入射した光像の位相を空間的に変調する空間光変調器と、複数のレンズが二次元状に配列されたレンズアレイ、並びにレンズアレイによって形成された集光スポットを含む光強度分布を検出する光検出素子を有しており空間光変調器から変調後の光像を受ける波面センサとを備え、光強度分布から得られる光像の波面形状に基づいて空間光変調器に表示される位相パターンを制御することにより波面歪みを補償する補償光学システムにおいて、変調面と波面センサとの間の結像倍率を算出する方法である。
 そして、第1の結像倍率検出方法は、複数のレンズのうちの一若しくは互いに隣接する二以上のレンズに各々対応する変調面上の第1及び第2の領域に、少なくとも一方向に線形性を有する位相パターン及び空間的に非線形な位相パターンのうち一方を表示させ、第1及び第2の領域を囲む領域に他方を表示させた状態で、光検出素子により光強度分布を取得する光強度分布取得ステップと、光強度分布取得ステップにおいて得られた光強度分布に含まれる、第1の領域に対応する集光スポットと第2の領域に対応する集光スポットとの距離に基づいて、変調面と波面センサとの間の結像倍率を求める倍率算出ステップとを備える。
 また、第2の結像倍率検出方法は、複数のレンズのうちの一若しくは互いに隣接する二以上のレンズに対応する変調面上の第1の領域に、少なくとも一方向に線形性を有する位相パターン及び空間的に非線形な位相パターンのうち一方を表示させ、第1の領域を囲む領域に他方を表示させた状態で、光検出素子により第1の光強度分布を取得する第1の光強度分布取得ステップと、複数のレンズのうちの一若しくは互いに隣接する二以上のレンズに対応しており第1の領域とは別の領域である変調面上の第2の領域に、少なくとも一方向に線形性を有する位相パターン及び空間的に非線形な位相パターンのうち一方を表示させ、第2の領域を囲む領域に他方を表示させた状態で、光検出素子により第2の光強度分布を取得する第2の光強度分布取得ステップと、第1の光強度分布に含まれる第1の領域に対応する集光スポットと、第2の光強度分布に含まれる第2の領域に対応する集光スポットとの距離に基づいて、変調面と波面センサとの間の結像倍率を求める倍率算出ステップとを備える。
 上記第1及び第2の結像倍率検出方法は、倍率算出ステップにより算出された結像倍率が所定の結像倍率に近づくように、変調面と波面センサとの間に配置された導光光学系の倍率を調整する調整ステップを更に備えてもよい。
 また、上記第1及び第2の結像倍率検出方法は、倍率算出ステップにより算出された結像倍率が所定の結像倍率に近づくように、変調面と波面センサとの光学距離を調整する調整ステップを更に備えてもよい。
 また、上記第1及び第2の結像倍率検出方法は、倍率算出ステップにより算出された結像倍率に基づいて、波面歪みを補償するための位相パターンが表示される変調面上の領域の大きさを調整する調整ステップを更に備えてもよい。
 また、上記第1及び第2の結像倍率検出方法では、第1及び第2の領域が互いに隣接する領域であってもよく、或いは、第1及び第2の領域が互いに離間した領域であってもよい。
 また、本発明の一側面に係る補償光学システムは、変調面に入射した光像の位相を空間的に変調する空間光変調器と、複数のレンズが二次元状に配列されたレンズアレイ、並びにレンズアレイによって形成された集光スポットを含む光強度分布を検出する光検出素子を有しており空間光変調器から変調後の光像を受ける波面センサと、光強度分布から得られる光像の波面形状に基づいて空間光変調器に表示される位相パターンを制御することにより波面歪みを補償する制御部とを備える。
 そして、第1の補償光学システムは、制御部が、複数のレンズのうちの一若しくは互いに隣接する二以上のレンズに各々対応する変調面上の第1及び第2の領域に、少なくとも一方向に線形性を有する位相パターン及び空間的に非線形な位相パターンのうち一方を表示させ、第1及び第2の領域を囲む領域に他方を表示させた状態で、光検出素子により光強度分布を取得し、該光強度分布に含まれる、第1の領域に対応する集光スポットと第2の領域に対応する集光スポットとを結ぶ直線の傾きに基づいて、変調面と波面センサとの角度ずれ量を求める。
 また、第2の補償光学システムは、制御部が、複数のレンズのうちの一若しくは互いに隣接する二以上のレンズに対応する変調面上の第1の領域に、少なくとも一方向に線形性を有する位相パターン及び空間的に非線形な位相パターンのうち一方を表示させ、第1の領域を囲む領域に他方を表示させた状態で、光検出素子により第1の光強度分布を取得し、複数のレンズのうちの一若しくは互いに隣接する二以上のレンズに対応しており第1の領域とは別の領域である変調面上の第2の領域に、少なくとも一方向に線形性を有する位相パターン及び空間的に非線形な位相パターンのうち一方を表示させ、第2の領域を囲む領域に他方を表示させた状態で、光検出素子により第2の光強度分布を取得し、第1の光強度分布に含まれる第1の領域に対応する集光スポットと、第2の光強度分布に含まれる第2の領域に対応する集光スポットとを結ぶ直線の傾きに基づいて、変調面と波面センサとの角度ずれ量を求める。
 また、第3の補償光学システムは、制御部が、複数のレンズのうちの一若しくは互いに隣接する二以上のレンズに各々対応する変調面上の第1及び第2の領域に、少なくとも一方向に線形性を有する位相パターン及び空間的に非線形な位相パターンのうち一方を表示させ、第1及び第2の領域を囲む領域に他方を表示させた状態で、光検出素子により光強度分布を取得し、該光強度分布に含まれる、第1の領域に対応する集光スポットと第2の領域に対応する集光スポットとの距離に基づいて、変調面と波面センサとの間の結像倍率を求める。
 また、第4の補償光学システムは、制御部が、複数のレンズのうちの一若しくは互いに隣接する二以上のレンズに対応する変調面上の第1の領域に、少なくとも一方向に線形性を有する位相パターン及び空間的に非線形な位相パターンのうち一方を表示させ、第1の領域を囲む領域に他方を表示させた状態で、光検出素子により第1の光強度分布を取得し、複数のレンズのうちの一若しくは互いに隣接する二以上のレンズに対応しており第1の領域とは別の領域である変調面上の第2の領域に、少なくとも一方向に線形性を有する位相パターン及び空間的に非線形な位相パターンのうち一方を表示させ、第2の領域を囲む領域に他方を表示させた状態で、光検出素子により第2の光強度分布を取得し、第1の光強度分布に含まれる第1の領域に対応する集光スポットと、第2の光強度分布に含まれる第2の領域に対応する集光スポットとの距離に基づいて、変調面と波面センサとの間の結像倍率を求める。
 本発明の一側面に係る補償光学システムの角度ずれ検出方法及び補償光学システムによれば、空間光変調器の変調面と波面センサとの間での光軸周りの角度ずれを容易に検出することができる。また、本発明の一側面に係る補償光学システムの結像倍率検出方法及び補償光学システムによれば、空間光変調器の変調面と波面センサとの間の結像倍率を容易に検出することができる。
一実施形態に係る補償光学システムの構成を概略的に示す図である。 一実施形態の波面センサの構成を概略的に示す断面図であって、光像の光軸に沿った断面を示している。 波面センサが備えるレンズアレイを光像の光軸方向から見た図である。 波面センサが備えるイメージセンサを光像の光軸方向から見た図である。 一実施形態の空間光変調器の一例として、LCOS型の空間光変調器を概略的に示す断面図であって、光像の光軸に沿った断面を示している。 空間光変調器の変調面の正面図である。 一実施形態における調整方法の原理を説明するための概念図である。 変調面に表示される特殊な位相パターンを概念的に示す図である。 波面センサのイメージセンサによって検出される光強度分布データ(シャックハルトマングラム)を概念的に示す図である。 変調面とレンズアレイとの相対関係を概念的に示す図である。 変調面と波面センサとの間の角度ずれに起因する、光強度分布データの集光スポットの位置変化の様子を表す図である。 空間的に非線形な位相パターンの例として、位相の大きさの分布が不規則であるランダム分布を示す図である。 空間的に非線形な位相パターンの例として、集光スポットを拡径するデフォーカス分布を示す図である。 空間的に非線形な位相パターンの例として、光像に大きな球面収差を生じさせる分布を示す図である。 空間的に非線形な位相パターンの例として、光像に高次収差を含む収差を生じさせる分布を示す図である。 複数の領域毎に共通の位相分布(例えばデフォーカス分布)が配置された位相パターンを例示している。 複数の領域毎に異なる位相分布(例えば高次収差を含む収差を生じさせる位相分布)が配置された位相パターンを例示している。 少なくとも一方向に線形性を有する位相パターンの例として、変調面の全面に亘って位相値が略均一な位相分布を示す図である。 制御部の内部構成の一例を示すブロック図である。 第1実施形態に係る角度ずれ検出方法および補償光学システムの動作を示すフローチャートである。 第2実施形態に係る角度ずれ検出方法および制御部の動作を示すフローチャートである。 第1変形例の位相パターンを概念的に示す図である。 第1変形例の別の位相パターンを概念的に示す図である。 第3実施形態において変調面に表示される、角度ずれ量の検出のための特殊な位相パターンを概念的に示す図である。 (a)変調面上の各領域とレンズアレイとの相対関係を概念的に示す図であって、変調面と波面センサとの間に角度ずれがない場合、且つ変調面と波面センサとの間に位置ずれがない場合を示している。(b)(a)に示された場合における、光強度分布データを示す図である。 (a)変調面上の各領域とレンズアレイとの相対関係を概念的に示す図であって、変調面と波面センサとの間に角度ずれ(ずれ量θ)が生じた場合を示している。(b)(a)に示された場合における、光強度分布データを示す図である。 (a)変調面上の各領域とレンズアレイとの相対関係を概念的に示す図であって、変調面と波面センサとの間に角度ずれ(ずれ量θ)に加えて、光像の光軸に垂直な面内で位置ずれが生じた場合を示している。(b)(a)に示された場合における、光強度分布データを示す図である。 第3実施形態による角度ずれ検出方法および制御部の動作を示すフローチャートである。 第4実施形態に係る結像倍率検出方法および制御部の動作を示すフローチャートである。 第5実施形態に係る結像倍率検出方法および制御部の動作を示すフローチャートである。 第1及び第2の領域の配置例を示す図である。 第1及び第2の領域の配置例を示す図である。 第1の方向(例えば行方向)において位相値が傾斜しており、第1の方向と交差する第2の方向(例えば列方向)において位相値が略均一である位相分布を示す図である。 第1の方向(例えば行方向)及び第2の方向(例えば列方向)の双方において位相値が傾斜している位相分布を示す図である。 少なくとも一方向に線形性を有する位相パターンの例として、第1の方向における位相分布がシリンドリカルレンズ効果を有し、第2の方向において位相値が略均一である位相分布を示す図である。 少なくとも一方向に線形性を有する位相パターンの例として、第1の方向における位相分布が回折格子を構成し、第2の方向において位相値が略均一である位相分布を示す図である。 重ね合わせによって得られる合成パターンの例を示す図である。 レンズアレイの変形例を示す図である。 第1及び第2の領域の大きさを可変とする場合の一例を示す図である。
 以下、添付図面を参照しながら本発明の一側面に係る補償光学システムの角度ずれ検出方法、補償光学システムの結像倍率検出方法、及び補償光学システムの実施の形態を詳細に説明する。なお、図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。また、以下の説明において、「位相分布」とは、二次元に分布する位相値を指し、「位相パターン」とは、位相分布(二次元の位相値)を、ある基準を基にコード化したものを指し、「位相プロファイル」とは、位相分布における或る方向(線)に沿った位相値の分布を指すものとする。
 (第1の実施の形態)
図1は、本実施形態に係る補償光学システム10の構成を概略的に示す図である。補償光学システム10は、例えば眼科検査装置、レーザ加工装置、顕微鏡装置、または補償光学装置などに組み込まれる。この補償光学システム10は、空間光変調器(Spatial Light Modulator;SLM)11、波面センサ12、制御部13、ビームスプリッタ14、リレーレンズ15及び16、並びに制御回路部17を備えている。
 空間光変調器11は、位相パターンを表示する変調面11aに光像Laを受け、光像Laの波面形状を変調して出力する。空間光変調器11に入射する光像Laは、例えばレーザ光源やスーパールミネッセントダイオード(SLD)から発する光、或いは、光が照射された観察物から発生した反射光、散乱光、蛍光等である。波面センサ12は、空間光変調器11から到達した光像Laの波面形状(典型的には光学系の収差によって現れ、波面の歪み、すなわち基準波面からの波面のずれを表す)に関する情報を含むデータS1を制御部13に提供する。制御部13は、波面センサ12から得られたデータS1に基づいて、空間光変調器11に適切な位相パターンを表示させるための制御信号S2を生成する。一例では、制御部13は、波面センサ12からデータS1を入力する入力部、データS1から収差を算出する収差算出部、空間光変調器11に表示させる位相パターンを算出する位相パターン算出部、及び算出した位相パターンに応じて制御信号S2を生成する信号生成部を含む。制御回路部17は、制御部13から制御信号S2を受けて、この制御信号S2に基づく電圧V1を空間光変調器11の複数の電極に与える。
 ビームスプリッタ14は、波面センサ12と空間光変調器11との間に配置され、光像Laを分岐する。ビームスプリッタ14は偏光方向非依存型、偏光方向依存型、或いは、波長依存型(ダイクロイックミラー)のビームスプリッタのいずれでもよい。ビームスプリッタ14によって分岐された一方の光像Laは、例えばCCDや光電子増倍管、アバランシェ・フォトダイオードといった光検出素子18に送られる。光検出素子18は、例えば走査型レーザ検眼鏡(Scanning Laser Ophthalmoscope;SLO)、光断層撮影装置(Optical Coherence Tomography;OCT)、眼底カメラ、顕微鏡、望遠鏡等に組み込まれたものである。また、ビームスプリッタ14によって分岐された他方の光像Laは、波面センサ12に入射する。
 リレーレンズ15及び16は、空間光変調器11と波面センサ12との間において光軸方向に並んで配置される。これらのリレーレンズ15,16によって、空間光変調器11と波面センサ12とが、互いに光学的な共役関係に保たれる。なお、空間光変調器11と波面センサ12との間には、光学結像レンズ及び/又は偏向ミラーなどが更に配置されてもよい。
 図2は、本実施形態の波面センサ12の構成を概略的に示す断面図であって、光像Laの光軸に沿った断面を示している。図3は、波面センサ12が備えるレンズアレイ120を光像Laの光軸方向から見た図である。図4は、波面センサ12が備えるイメージセンサ(光検出素子)122を光像Laの光軸方向から見た図である。
 波面センサ12には干渉型と非干渉型とがあるが、本実施形態では、波面センサ12として、レンズアレイ120及びイメージセンサ122を有する非干渉型のシャックハルトマン型波面センサを用いる。このような非干渉型の波面センサを用いると、干渉型の波面センサを用いる場合と比較して、耐震性が優れており、また、波面センサの構成及び計測データの演算処理を簡易にできる利点がある。
 図3に示されるように、レンズアレイ120は、N個(Nは4以上の整数)のレンズ124を有する。N個のレンズ124は、例えばNa行Nb列(Na,Nbは2以上の整数)の二次元格子状に配置されている。
 また、図2に示されるイメージセンサ122は、レンズアレイ120を構成するN個のレンズ124の後焦点面と重なる位置に受光面122aを有しており、N個のレンズ124によって形成されるN個の集光スポットPを含む光強度分布を検出する。図4に示されるように、イメージセンサ122は、Ma行Mb列(Ma,Mbは2以上の整数)の二次元格子状に配列された複数の画素122bを含んで構成されている。イメージセンサ122の画素122bの配列ピッチは、基準位置からの集光像位置のずれの大きさを高い精度で検出できるように、レンズ124の配列ピッチよりも十分に小さくなっている。
 後述する制御部13では、イメージセンサ122によって検出された光強度分布に基づいて、光像Laの波面形状(位相勾配の分布)が計測される。すなわち、レンズ124による集光スポットPの位置と基準位置とのずれの大きさは、レンズ124に入射する光像Laの局所的な波面の傾きに比例する。したがって、基準位置からの集光スポットPの位置ずれの大きさをレンズ124毎に算出し、この集光スポットPの位置ずれに基づいて、光像Laの波面形状を計測することができる。
 集光像位置のずれの大きさを計算する為に用いられる基準位置としては、複数のレンズ124それぞれの光軸と、イメージセンサ122の受光面122aとが交わる位置とすることができる。この位置は、平行平面波を各レンズ124に垂直入射させて得られる集光像を用いて、重心計算により容易に求められる。
 空間光変調器11は、光源若しくは観察対象物からの光像Laを受け、その光像Laの波面を変調して出力する素子である。具体的には、空間光変調器11は、二次元格子状に配列された複数の画素(制御点)を有しており、制御部13から提供される制御信号S2に応じて各画素の変調量(例えば位相変調量)を変化させる。空間光変調器11には、例えば、LCOS-SLM(Liquid Crystal On Silicon Spatial Light Modulator)、PPM(ProgramablePhase Modulator)、LCD(Liquid Crystal Display)、微小電気機械素子(Micro Electro Mechanical Systems;MEMS)、或いは液晶表示素子と光アドレス式液晶空間光変調器とが結合されて成る電気アドレス式の空間光変調器、といったものがある。なお、図1には反射型の空間光変調器11が示されているが、空間光変調器11は透過型であってもよい。
 図5は、本実施形態の空間光変調器11の一例として、LCOS型の空間光変調器を概略的に示す断面図であって、光像Laの光軸に沿った断面を示している。この空間光変調器11は、透明基板111、シリコン基板112、複数の画素電極113、液晶部(変調部)114、透明電極115、配向膜116a及び116b、誘電体ミラー117、並びにスペーサ118を備えている。
 透明基板111は、光像Laを透過する材料からなり、シリコン基板112の主面に沿って配置される。複数の画素電極113は、シリコン基板112の主面上において二次元格子状に配列され、空間光変調器11の各画素を構成する。透明電極115は、複数の画素電極113と対向する透明基板111の面上に配置される。液晶部114は、複数の画素電極113と透明電極115との間に配置される。配向膜116aは液晶部114と透明電極115との間に配置され、配向膜116bは液晶部114と複数の画素電極113との間に配置される。誘電体ミラー117は配向膜116bと複数の画素電極113との間に配置される。誘電体ミラー117は、透明基板111から入射して液晶部114を透過した光像Laを反射して、再び透明基板111から出射させる。
 また、空間光変調器11は、複数の画素電極113と透明電極115との間に印加される電圧を制御する画素電極回路(アクティブマトリクス駆動回路)119を更に備えている。画素電極回路119から何れかの画素電極113に電圧が印加されると、該画素電極113と透明電極115との間に生じた電界の大きさに応じて、該画素電極113上の液晶部114の屈折率が変化する。したがって、液晶部114の当該部分を透過する光像Laの光路長が変化し、ひいては、光像Laの位相が変化する。そして、複数の画素電極113に様々な大きさの電圧を印加することによって、位相変調量の空間的の分布を電気的に書き込むことができ、必要に応じて様々な波面形状を実現することができる。
 図6は、空間光変調器11の変調面11aの正面図である。図6に示されるように、変調面11aは、Pa行Pb列(Pa,Pbは2以上の整数)の二次元格子状に配列された複数の画素11bを含んで構成されている。なお、複数の画素11bそれぞれは、複数の画素電極113それぞれによって構成される。
 再び図1を参照する。この補償光学システム10では、まず、図示しない光源若しくは観察対象物からの光像Laが、ほぼ平行な光として空間光変調器11に入射する。そして、空間光変調器11によって変調された光像Laは、リレーレンズ15及び16を経てビームスプリッタ14に入射し、2つの光像に分岐される。分岐後の一方の光像Laは、波面センサ12に入射する。そして、波面センサ12において光像Laの波面形状(例えば位相分布)を含むデータS1が生成され、データS1は制御部13に提供される。制御部13は、波面センサ12からのデータS1に基づいて、必要に応じて光像Laの波面形状(位相分布)を算出し、光像Laの波面歪みを適切に補償するための位相パターンを含む制御信号S2を空間光変調器11へ出力する。その後、空間光変調器11によって補償された歪みのない光像Laは、ビームスプリッタ14により分岐され、図示しない光学系を経て光検出素子18に入射し、撮像される。
 ここで、空間光変調器11の変調面11a、および波面センサ12の検出面における座標系を次のように設定する。すなわち、空間光変調器11の変調面11aに平行であり且つ互いに直交する二方向を該変調面11aにおけるx軸方向およびy軸方向とし、波面センサ12の検出面に対して平行であり且つ互いに直交する二方向を該検出面におけるx軸方向およびy軸方向とする。但し、空間光変調器11の変調面11aにおけるx軸と、波面センサ12の検出面におけるx軸とは互いに逆向きであり、空間光変調器11の変調面11aにおけるy軸と、波面センサ12の検出面におけるy軸とは互いに逆向きである。また、空間光変調器11の変調面11aの中心を変調面11aにおける座標系の原点とし、変調面11aの中心を波面センサ12の検出面に写像して得られる点を検出面における座標系の原点とする。
 このとき、空間光変調器11の変調面11a上の位置(Xs,Ys)における波面の位相は、波面センサ12の検出面上の位置(Xc,Yc)における波面の位相に一対一で写像されることとなり、変調面11aと検出面との間に光軸周りの角度ずれがない場合、これらの関係は次式(1)で表される。
Figure JPOXMLDOC01-appb-M000001
但し、Mはリレーレンズ15,16の倍率である。なお、数式(1)に含まれる倍率Mは、既知であることが多い。
 しかしながら、運搬時や設置場所での振動、或いは、波面センサや空間光変調器を保持する部材の熱による変形などに起因して、変調面11aと波面センサ12の検出面との間で、光軸周りの角度ずれを生じることがある。本実施形態に係る補償光学システムの角度ずれ調整方法では、調整のための特殊な位相パターンを空間光変調器11に表示させ、波面センサ12においてその位相パターンにより生じる特徴を検出することで、波面センサ12と変調面11aとの間の角度ずれ量を取得する。そして、必要に応じ、その角度ずれ量に基づいて、変調面11aと波面センサ12との角度調整を行う。
 以下、変調面11aと波面センサ12との間の角度ずれ量の検出方法について詳細に説明する。なお、この検出方法は、図1に示された制御部13の記憶領域13aの内部にプログラムとして記憶され、制御部13がこのプログラムを読み出して実行することにより行われる。
 図7は、本実施形態による検出方法の原理を説明するための概念図である。図7には、空間光変調器11の変調面11a及び波面センサ12(レンズアレイ120及びイメージセンサ122)に加えて、リレーレンズ15及び16、変調面11aへ入射される光像の波面W1、変調面11aから出射される光像の波面W2、波面センサ12に入射される光像の波面W3が示されている。空間光変調器11からは、入射波面W1に、空間光変調器11に表示されている位相パターンに応じた波面が加えられた波面W2が出射される。波面センサ12には、リレーレンズ15及び16を含む共役光学系を経た波面W3が入射される。また、図7には、一つのレンズ124に対応する変調面11a上の領域から出射して、該レンズ124に達する光像Laが示されている。
 ここで、図8は、変調面11aに表示される特殊な位相パターンを概念的に示す図である。図8に示されるように、一つのレンズ124に対応する大きさを有する変調面11a上の第1の領域B1と、第1の領域B1から離間しており他の一つのレンズ124に対応する大きさを有する変調面11a上の第2の領域B2とに、少なくとも一方向に線形性を有する第1の位相パターンを表示させる。第1の位相パターンは、例えば略均一な位相分布、少なくとも一方向に傾斜した位相分布等を含むことによって実現される。または、第1の位相パターンは、或る第1の方向においてシリンドリカルレンズ効果を有し、該第1の方向と交差する第2の方向において略均一である位相分布、若しくは第1の方向において回折格子を構成し、該第1の方向と交差(例えば、直交)する第2の方向において略均一である位相分布を含むことによって実現される。
 また、これと同時に、変調面11a上の第1の領域B1および第2の領域B2を囲む領域B3に、空間的に非線形な第2の位相パターン(例えば、位相の大きさの分布が不規則であるランダム分布や、集光スポットを拡径するデフォーカス分布など)を表示させる。すると、出射波面W2のうち領域B3に相当する部分の波面が乱れる(図7の部分A1)。そして、この波面の乱れは、波面センサ12への入射波面W3のうち、領域B3に対応するレンズ124に入射する部分にも生じることとなる(図7の部分A2)。これにより、当該レンズ124によって形成されていた集光スポットPが拡散し、集光スポットPが形成されないか、或いは、スポットの最大輝度が低減したものか、スポット径が拡がったものとなる。すなわち、領域B3に対応する集光スポットは、明瞭さが低下したものしか形成できない。
 一方、波面W2,W3における第1及び第2の領域B1,B2に相当する部分(図7の部分A3,A4)では、少なくとも一方向に線形性を有する第1の位相パターンによって、該少なくとも一方向において波面が乱されることなくレンズ124に入射する。したがって、当該レンズ124によって集光スポットPが明瞭に形成される。
 図9は、波面センサ12のイメージセンサ122によって検出される光強度分布データ(シャックハルトマングラム)を概念的に示す図である。図9(a)は、領域B1,B2において少なくとも一方向に線形性を有する位相パターンが表示され、領域B3において空間的に非線形な位相パターンが表示されている場合の光強度分布データD1を示している。図9(b)は、比較のため、全ての領域において線形性を有する位相パターンが表示されている場合の光強度分布データD2を示している。
 図9(b)に示されるように、全ての領域において線形性を有する位相パターンが表示されている場合には、N個のレンズ124に対応するN個の集光スポットPが光強度分布データに含まれる。これに対し、図9(a)に示されるように、領域B1,B2において少なくとも一方向に線形性を有する位相パターンが表示され、領域B3において空間的に非線形な位相パターンが表示されている場合には、領域B1,B2に各々対応する2個の集光スポットPは光強度分布データに含まれるが、領域B3に対応する集光スポットは、形成されないか、或いは、スポットの最大輝度が低減したものか、スポット径が拡がったものとなる。すなわち、領域B3に対応する集光スポットは、明瞭さが低下したものしか形成できない。
 ここで、図10は、変調面11aとレンズアレイ120との相対関係を概念的に示す図である。図10(a)は、変調面11aと波面センサ12との間に角度ずれがない場合、すなわち変調面11aの配列方向とレンズ124(図中に破線で表示)の配列方向とが揃っている場合を示している。この場合、変調面11aにおけるN個の領域11c(図中に太線で表示)が、N個のレンズ124にそれぞれ対応する。なお、各領域11cには複数の画素11bが含まれている。
 これに対し、変調面11aと波面センサ12との間に角度ずれが生じると、図10(b)に示されるように、変調面11aのN個の領域11cと、N個のレンズ124との相対位置にずれが生じる。そして、角度ずれの中心から離れた領域11cからの光像Laは、該領域11cに対応するレンズ124とは異なる他のレンズ124に入射することとなる。
 図9(a)に示された光強度分布データD1は、このような角度ずれによって、次のように変化する。図11は、変調面11aと波面センサ12との間の角度ずれに起因する、光強度分布データD1の集光スポットPの位置変化の様子を表す図である。変調面11aと波面センサ12との間に角度ずれがない場合には、領域B1,B2にそれぞれ対応する2つの集光スポットP1が、所定の位置に形成される。しかし、変調面11aと波面センサ12との間に角度ずれが生じていると、図11に示されるように、領域B1,B2にそれぞれ対応する2つの集光スポットP2は、上記の集光スポットP1とは異なる位置に形成される。
 そして、2つの集光スポットP2の相対位置関係は、変調面11aと波面センサ12との角度ずれ量により一義的に定まる。具体的には、2つの集光スポットP1を結ぶ線分L1と、2つの集光スポットP2を結ぶ線分L2との成す角θは、変調面11aと波面センサ12との角度ずれ量と一致する。このことから、光強度分布データD1に含まれる、領域B1に対応する集光スポットPと領域B2に対応する集光スポットPとの相対位置関係を調べることにより、変調面11aと波面センサ12との角度ずれ量θを知ることができる。なお、角度ずれ量θは、次の数式(2)によって算出される。
Figure JPOXMLDOC01-appb-M000002
 ここで、図8の領域B3に表示される「空間的に非線形な第2の位相パターン」の例を示す。図12~図15は、このような位相パターンの例を示す図であって、位相の大きさが明暗によって示されており、最も暗い部分の位相は0(rad)であり、最も明るい部分の位相は2π(rad)である。
 図12は、位相の大きさの分布が不規則であるランダム分布を示している。なお、図12には、行方向および列方向のそれぞれの一箇所における位相変調量のグラフが併せて例示されている。このような位相パターンが領域B3に表示されると、当該部分の光像Laが拡散し、明瞭な集光スポットPが形成されなくなる。図13は、集光スポットPを拡径するデフォーカス分布を示している。図13にも、行方向および列方向のそれぞれの一箇所における位相変調量のグラフが併せて例示されている。このような位相パターンが領域B3に表示されると、当該部分の光像Laが集光されず逆に拡大されるので、明瞭な集光スポットPが形成されなくなる。図14は、光像Laに大きな球面収差を生じさせる分布を示している。図15は、光像Laに大きな高次収差を生じさせる分布を示している。図14や図15に示された位相パターンが領域B3に表示された場合にも、明瞭な集光スポットPが形成されなくなる。空間的に非線形な第2の位相パターンは、これらの分布のうち少なくとも一つを含んでもよく、或いは、これらの分布のうち少なくとも一つと、線形な位相パターンとを重ね合わせた合成パターンを含んでもよい。
 また、領域B3に表示される非線形な位相パターンは、領域B3を分割して成る複数の領域毎に共通の位相分布を含んでもよく、また、領域B3を分割して成る複数の領域毎に異なる位相分布を含んでもよい。図16は、領域B3を分割して成る複数の領域毎に共通の位相分布(例えばデフォーカス分布)が配置された位相パターンを例示している。また、図17は、領域B3を分割して成る複数の領域毎に異なる位相分布(例えば高次収差を含む収差を生じさせる位相分布)が配置された位相パターンを例示している。
 図8の領域B1,B2に表示される「少なくとも一方向に線形性を有する第1の位相パターン」は、例えば変調面11aの全面に亘って位相値が略均一な位相分布によって実現される。図18は、そのような位相パターンを示す図であって、図12~図17と同様に、位相の大きさが明暗によって示されている。図18に示されたような位相パターンが領域B1,B2に表示されると、当該部分の光像Laの波面は平坦となるので、レンズ124によって明瞭な集光スポットPが形成される。
 図19は、本実施形態の制御部13の内部構成の一例を示すブロック図である。制御部13は、パターン作成部13bと、計算処理部13cとを含んで構成されることができる。なお、パターン作成部13b及び計算処理部13cは、図1に示された制御部13の記憶領域13aの内部にプログラムとして記憶され、制御部13がこのプログラムを読み出して実行することにより実現される。
 パターン作成部13bは、変調面11aと波面センサ12との角度ずれ量の検出のための特殊な位相パターン、すなわち領域B1~B3を含む位相パターンを作成する。なお、この位相パターンは、パターン作成部13bから制御信号S2として制御回路部17に送られる。
 ここで、角度ずれ量の検出のための特殊な位相パターンPは例えば次の数式(3)によって表される。
Figure JPOXMLDOC01-appb-M000003
但し、aは或る定数であり、少なくとも一方向に線形性を有する第1の位相パターンの一例である。また、rand()はランダム関数であり、空間的に非線形な第2の位相パターンの一例である。(n,m)は、変調面11a上の画素単位での座標を表す。ROIは、領域B1,B2を表す記号として定義される。
 前述したように、本実施形態における領域B1,B2は、各々一つのレンズ124に対応する大きさを有する。レンズアレイ120において、複数のレンズ124が図3に示されたように二次元格子状に配列されている場合、領域B1,B2の形状は正方形となる。したがって、先の数式(3)は、次の数式(4)のように変形可能である。
Figure JPOXMLDOC01-appb-M000004
但し、(xc,yc)は領域B1の中心座標であり、(xc,yc)は領域B2の中心座標であり、wは領域B1,B2の一辺の画素数であり、a’は定数aと同一の定数か、或いは異なる定数である。なお、変調面11aにおける画素11bの配列ピッチをslmPITCHとし、レンズアレイ120におけるレンズ124の配列ピッチをmlaPITCHとし、変調面11aとレンズアレイ120のレンズ面との間の光学系の結像倍率をMとすると、領域B1,B2の一辺の画素数wは次の数式(5)によって表される。
Figure JPOXMLDOC01-appb-M000005
言い換えれば、複数のレンズ124の配列方向における領域B1,B2の幅(=w×slmPITCH)は、複数のレンズ124の配列ピッチmlaPITCHの(1/M)倍である。
 計算処理部13cは、上述した位相パターンPが変調面11aに各々表示されているときに、波面センサ12から出力される光強度分布データS1を取得する。計算処理部13cは、光強度分布データS1に含まれる各集光スポットPの重心位置を、後述するアルゴリズムに従って算出する。そして、計算処理部13cは、領域B1に対応する集光スポットPの重心位置と、領域B2に対応する集光スポットPの重心位置とに基づいて、変調面11aと波面センサ12との角度ずれ量を算出する。
 以上に説明した、変調面11aと波面センサ12との角度ずれ量の検出を含む、補償光学システム10の動作について図20を参照しつつ説明する。図20は、本実施形態の補償光学システム10の動作および角度ずれ検出方法を示すフローチャートである。なお、図1に示された制御部13の記憶領域13aの内部にこの角度ずれ検出方法が補償光学システム用プログラムとして記憶され、制御部13がこのプログラムを読み出して実行する。
 補償光学システム10では、まず、制御部13の初期処理が行われる(ステップS11)。この初期処理ステップS11では、例えば計算処理に必要なメモリ領域の確保や、パラメータの初期設定などが行われる。また、このステップS11では、角度ずれ量の検出のための特殊な位相パターンPの初期化処理として、領域B1,B2の中心を、変調面11aの任意の画素に指定してもよい。
 次に、制御部13は、角度ずれ量の検出のための特殊な位相パターンPを作成し、変調面11aに表示させる(ステップS12)。このステップS12では、レンズアレイ120の複数のレンズ124のうち2つのレンズ124にそれぞれ対応する変調面11a上の領域B1及びB2に、少なくとも一方向に線形性を有する位相パターン(例えば図18を参照)を表示させ、領域B1及びB2を囲む領域B3に、空間的に非線形な位相パターン(例えば図12~図15を参照)を表示させる。
 続いて、制御部13は、上記の位相パターンPを表示させた状態で、イメージセンサ122により光強度分布データ(以下、この光強度分布データをDとする)を取得する(ステップS13、光強度分布取得ステップ)。
 続いて、制御部13は、光強度分布データDに含まれる2つの集光スポットPの重心を計算することによって、各集光スポットPの位置座標を特定する(ステップS14)。集光スポットPの位置座標(xp,yp)は、次の数式(6)によって表される。なお、Aijは光強度分布データDの座標(i,j)における光強度であり、R0は、イメージセンサ122において集光スポットPが存在し得る計算対象領域である。
Figure JPOXMLDOC01-appb-M000006
なお、重心計算前に、光強度分布データDにおいて、閾値やノイズ低減などの処理を行ってもよい。
 続いて、制御部13は、ステップS14により算出された2つの集光スポットPの位置座標の相対関係に基づいて、図11に示された原理により、変調面11aと波面センサ12との角度ずれ量を算出する(ステップS15、角度算出ステップ)。
 その後、制御部13は、ステップS15により算出された角度ずれ量が小さくなるように、変調面11a及び波面センサ12のうち少なくとも一方の光像La周りの角度を調整してもよい(ステップS16、調整ステップ)。この調整は、例えば、空間光変調器11の取り付け角度、および波面センサ12の取り付け角度のうち一方若しくは双方を調整することにより行われる。また、通常は、この角度調整によって領域B1,B2と2つの集光スポットPとの対応関係が無くなるので、上記ステップS12~S16を繰り返し行ってもよい。ステップS15において算出される角度ずれ量がほぼゼロになれば、角度調整が完了する。
 以上に説明した、本実施形態による補償光学システム10の角度ずれ検出方法、および補償光学システム10によって得られる効果について説明する。本実施形態では、光強度分布取得ステップS13において、空間光変調器11の領域B1,B2に、少なくとも一方向に線形性を有する位相パターンを表示させ、領域B1及びB2を囲む領域B3に、空間的に非線形な位相パターンを表示させた状態で、波面センサ12のイメージセンサ122により光強度分布データDを取得する。この光強度分布データDでは、領域B1,B2に対応する集光スポットPが形成されるが、これらの集光スポットPの相対位置関係は、変調面11aと波面センサ12との角度ずれ量に応じて変動する。したがって、領域B1,B2に対応する集光スポットPの相対位置関係に基づいて、変調面11aと波面センサ12との角度ずれ量を検出することができる。
 また、本実施形態では、角度ずれ量の検出のための特別な部品や構造を必要とせず、制御部13の動作のみによって角度ずれ量を容易に且つ短時間で検出することができる。なお、前述した非特許文献2に記載された方法では、位相パターンの構造が複雑であり、その作成は容易ではない。これに対し、本実施形態では、単純な位相パターンから成る領域B1~B3を位相パターンPが含めばよく、位相パターンの構造が簡易であり、制御部13による位相パターンの作成も容易である。また、非特許文献2に記載された方法では、波面センサ12から出力された光強度分布データに基づいて、全体的な波面形状を算出する必要がある。これに対し、本実施形態では光強度分布データの一部のみに基づいて角度ずれ量の検出を行うことができるので、計算処理が容易となる。
 以上に述べたように、本実施形態の角度ずれ検出方法および補償光学システム10によれば、変調面11aと波面センサ12との間での光軸周りの角度ずれ量を容易に検出し、角度調整を行うことができる。
 なお、本実施形態では波面部分A4(図7を参照)の大きさがレンズ124の径と一致するように、領域B1,B2の大きさを設定している(数式(5)を参照)。しかしながら、領域B1,B2の大きさはこれに限られず、例えば波面部分A4の一辺の長さがレンズ124の径のn倍(nは自然数)となるように設定されてもよい。この場合、変調面11aにおける画素11bの配列ピッチをslmPITCHとし、レンズアレイ120におけるレンズ124の配列ピッチをmlaPITCHとし、変調面11aとレンズアレイ120のレンズ面との間の光学系の結像倍率をMとすると、領域B1,B2の一辺の画素数wは次の数式(7)によって表される。
Figure JPOXMLDOC01-appb-M000007
言い換えれば、複数のレンズ124の配列方向における領域B1,B2の幅(=w×slmPITCH)は、複数のレンズ124の配列ピッチmlaPITCHの(n/M)倍であることができる。
 (第2の実施形態)
上述した第1実施形態では、光強度分布取得ステップS13において、少なくとも一方向に線形性を有する第1の位相パターンを領域B1及びB2に表示させた状態で、光強度分布データDを取得している。しかしながら、領域B1及びB2に表示される第1の位相パターンは必ずしも同時に表示される必要はなく、上記実施形態は以下のような変形が可能である。
 図21は、第2実施形態に係る角度ずれ検出方法および制御部13の動作を示すフローチャートである。本実施形態と上記第1実施形態との相違点は、図20に示されたステップS12及びS13に代えて、ステップS21~24を備える点である。なお、他のステップについては上記第1実施形態と同様であるため、詳細な説明を省略する。
 ステップS21では、制御部13が、角度ずれ量の検出のための特殊な位相パターンPを作成し、変調面11aに表示させる。図22は、本変形例の位相パターンPを概念的に示す図である。図22に示されるように、位相パターンPでは、変調面11a上の第1の領域B1に、少なくとも一方向に線形性を有する第1の位相パターン(例えば図18を参照)を表示させる。また、これと同時に、変調面11a上の第1の領域B1を囲む領域B4に、空間的に非線形な第2の位相パターン(例えば図12~図15を参照)を表示させる。
 続いて、ステップS22では、制御部13が、上記の位相パターンPを表示させた状態で、イメージセンサ122により第1の光強度分布データ(以下、この光強度分布データをDとする)を取得する(第1の光強度分布取得ステップ)。この第1の光強度分布データDには、領域B1に対応する集光スポットPが含まれる。
 続いて、ステップS23では、制御部13が、角度ずれ量の検出のための特殊な位相パターンPを作成し、変調面11aに表示させる。図23は、本変形例の位相パターンPを概念的に示す図である。図23に示されるように、位相パターンPでは、変調面11a上の第2の領域B2に、少なくとも一方向に線形性を有する第1の位相パターン(例えば図18を参照)を表示させる。また、これと同時に、変調面11a上の第2の領域B2を囲む領域B5に、空間的に非線形な第2の位相パターン(例えば図12~図15を参照)を表示させる。
 続いて、ステップS24では、制御部13が、上記の位相パターンPを表示させた状態で、イメージセンサ122により第2の光強度分布データ(以下、この光強度分布データをDとする)を取得する(第2の光強度分布取得ステップ)。この第2の光強度分布データDには、領域B2に対応する集光スポットPが含まれる。
 その後、制御部13は、ステップS21~S24によって得られた2つの光強度分布データD及びDにそれぞれ含まれる集光スポットPの位置座標を特定し(ステップS14)、その相対位置関係に基づいて、変調面11aと波面センサ12との角度ずれ量を算出する(角度算出ステップS15)。なお、本実施形態においても、制御部13は、ステップS15により算出された角度ずれ量が小さくなるように、変調面11a及び波面センサ12のうち少なくとも一方の光像La周りの角度を調整してもよい(調整ステップS16)。
 本実施形態のように、第1の領域B1に対応する集光スポットPを含む第1の光強度分布データDと、第2の領域B2に対応する集光スポットPを含む第2の光強度分布データDとを順に取得し、これらの光強度分布データD,Dから2つの集光スポットPの相対位置関係を求めても良い。このような方法であっても、上記第1実施形態と同様の効果を得ることができる。
 (第3の実施の形態)
上述した第1及び第2の実施形態では、少なくとも一方向に線形性を有する第1の位相パターンを2つの領域B1及びB2に表示し、これらに対応する集光スポットPの相対位置関係に基づいて角度ずれ量を求めている。本発明の一側面に係る角度ずれ検出方法および補償光学システム10は、以下に説明する方法であっても角度ずれ量を求めることができる。なお、制御部13の動作を除く補償光学システム10の構成は、上記第1実施形態と同様である。
 図24は、本実施形態において変調面11aに表示される、角度ずれ量の検出のための特殊な位相パターンPを概念的に示す図である。図24に示されるように、この位相パターンPは、或る方向に一列に配置された、互いに隣接する3つの領域B6~B8を含んでいる。また、この位相パターンPは、領域B6~B8を囲む領域B9を含んでいる。なお、各領域B6~B8の一辺の長さは、前述した第1及び第2の実施形態の領域B1,B2と同様である。
 図25(a)は、領域B6~B8とレンズアレイ120との相対関係を概念的に示す図であって、変調面11aと波面センサ12との間に角度ずれがない場合、且つ変調面11aと波面センサ12との間に位置ずれがない場合を示している。また、図25(b)は、図25(a)に示された場合における、光強度分布データDを示す図である。なお、これらの図において、矢印Anは変調面11aの行方向を示し、矢印Amは変調面11aの列方向を示す。図25(b)に示されるように、変調面11aと波面センサ12との間に角度ずれ及び位置ずれがない場合には、光強度分布データDにおいて、各領域B6~B8に対応する集光スポットPが明瞭に現れる。なお、本実施形態の図において、明瞭な集光スポットPは黒丸で示される。
 これに対し、図26(a)は、変調面11aと波面センサ12との間に角度ずれ(ずれ量θ)が生じた場合を示している。この場合、図26(b)に示されるように、光強度分布データDでは、回転中心に位置する領域B7に対応する集光スポットPの明瞭さは変わらないが、その上下に位置する領域B6,B8に対応する集光スポットPの明瞭さが低下する。また、領域B6,B8に対応するレンズ124に対して角度ずれの方向に隣接するレンズ124にも光が入射するため、これらのレンズ124によって微弱な集光スポットPが形成される。なお、本実施形態の図において、明瞭さが若干低下した集光スポットPは白丸で示され、微弱な集光スポットPは破線で示される。従って、これらの集光スポットPの相対位置関係および明瞭さに基づいて、変調面11aと波面センサ12との間の角度ずれ量θを検出することができる。
 更に、図27(a)は、変調面11aと波面センサ12との間に角度ずれ(ずれ量θ)に加えて、光像Laの光軸に垂直な面内で位置ずれが生じた場合を示している。この場合、図27(b)に示されるように、中央の領域B7も所定の位置からずれるため、領域B7に対応する集光スポットPの明瞭さも低下する。また、領域B6~B8の位置ずれの方向に存在するレンズ124にも光が入射するため、それらのレンズ124によって複数の微弱な集光スポットPが形成される。このような光強度分布データDに基づいて変調面11aと波面センサ12との相対位置の調整を行い、その後に、変調面11aと波面センサ12との間の角度調整を行うことができる。
 図28は、本実施形態による角度ずれ検出方法および制御部13の動作を示すフローチャートである。なお、図1に示された制御部13の記憶領域13aの内部にこの角度ずれ検出方法が補償光学システム用プログラムとして記憶され、制御部13がこのプログラムを読み出して実行する。
 補償光学システム10では、まず、制御部13の初期処理が行われる(ステップS31)。なお、このステップS31の詳細は、前述した第1実施形態のステップS11と同様である。
 次に、制御部13は、角度ずれ量の検出のための特殊な位相パターンPを作成し、変調面11aに表示させる(ステップS32)。このステップS32では、レンズアレイ120の複数のレンズ124のうち一列に並ぶ3つのレンズ124にそれぞれ対応する変調面11a上の領域B6~B8に、少なくとも一方向に線形性を有する位相パターン(例えば図18を参照)を表示させ、領域B6~B8を囲む領域B9に、空間的に非線形な位相パターン(例えば図12~図15を参照)を表示させる。
 続いて、制御部13は、上記の位相パターンPを表示させた状態で、イメージセンサ122により光強度分布データDを取得する(ステップS33)。通常、このときは変調面11aと波面センサ12との間に角度ずれ及び位置ずれの双方が生じているので、光強度分布データDは図27(b)のようになる。そして、制御部13は、光強度分布データDの領域B6~B8のいずれか(例えば、中央の領域B7)に対応する集光スポットPが明瞭になるように、変調面11aと波面センサ12との位置ずれを調整する(ステップS34)。なお、この位置ずれの調整は、波面センサ12の取り付け位置と、空間光変調器11の取り付け位置との相対関係の調整により行われる。或いは、位相パターンPを表示する際に変調面11a上に想定される位置座標と、波面センサ12との相対位置関係の調整により行われてもよい。
 続いて、制御部13は、上記の位相パターンPを表示させた状態で、イメージセンサ122により光強度分布データDを取得する(ステップS35、光強度分布取得ステップ)。前述したステップS34において変調面11aと波面センサ12との位置ずれが既に調整されているので、このときの光強度分布データDは図26(b)のようになる。そして、制御部13は、光強度分布データDに含まれる、領域B6に対応する複数の集光スポットPの位置座標および明瞭さと、領域B8に対応する複数の集光スポットPの位置座標および明瞭さとの相対関係に基づいて、変調面11aと波面センサ12との角度ずれ量θを求める(ステップS36、角度算出ステップ)。
 続いて、制御部13は、ステップS36において得られた角度ずれ量θが小さくなるように、変調面11a及び波面センサ12のうち少なくとも一方の光像La周りの角度を調整する(ステップS37、調整ステップ)。言い換えれば、領域B6,B8に各々対応する2つの集光スポットPの明瞭さが増し、領域B6,B8に対応する各集光スポットPと隣合う微弱な集光スポットPが更に小さくなるように、これらの角度を調整する。この調整は、例えば、空間光変調器11の取り付け角度、および波面センサ12の取り付け角度のうち一方若しくは双方を調整することにより行われる。
 通常は、ステップS37の角度調整によって変調面11aと波面センサ12との間に位置ずれが生じる。従って、上記ステップS33~S37を所定の終了条件を満たすまで繰り返し行う(ステップS38)。或いは、位相パターンPを表示する際に変調面11a上に想定される位置座標を調整する場合は、上記ステップS32~S37を所定の終了条件を満たすまで繰り返し行う(ステップS38)。変調面11aと波面センサ12との位置ずれ及び角度ずれがほぼゼロになれば(図25(b)を参照)、調整が完了する。
 以上に説明した、本実施形態による補償光学システム10の角度ずれ検出方法、および補償光学システム10によって得られる効果について説明する。本実施形態では、光強度分布取得ステップS35において、空間光変調器11の領域B6~B8に、少なくとも一方向に線形性を有する位相パターンを表示させ、領域B6~B8を囲む領域B9に、空間的に非線形な位相パターンを表示させた状態で、波面センサ12のイメージセンサ122により光強度分布データDを取得する。この光強度分布データDでは、領域B6~B8に対応する集光スポットPが形成されるが、これらの集光スポットP(特に、領域B6,B8に対応する集光スポットP)の相対位置関係は、変調面11aと波面センサ12との角度ずれ量に応じて変動する。したがって、領域B6~B8に対応する集光スポットPの相対位置関係に基づいて、変調面11aと波面センサ12との角度ずれ量を検出することができる。また、本実施形態では、第1実施形態と同様に、角度ずれ量の検出のための特別な部品や構造を必要とせず、制御部13の動作のみによって角度ずれ量を容易に且つ短時間で検出することができる。
 なお、本実施形態では、光強度分布取得ステップS35において、少なくとも一方向に線形性を有する第1の位相パターンを領域B6~B8に表示させた状態で、光強度分布データDを取得している。しかしながら、領域B6~B8に表示される第1の位相パターンは必ずしも同時に表示される必要はなく、第2実施形態のように、領域B6~B8に第1の位相パターンを順に表示しつつ光強度分布データを取得し、得られた3つの光強度分布データに基づいてステップS36の処理を行っても良い。
 (第4の実施の形態)
前述した第1~第3の実施の形態は、いずれも変調面11aと波面センサ12との角度ずれ量に関するものである。本実施形態では、第1~第3の実施の形態と共通する方法及び動作を含む、補償光学システム10の結像倍率検出方法および補償光学システム10について説明する。なお、本実施形態において、制御部13の動作を除く補償光学システム10の構成は、上記第1実施形態と同様である。
 図29は、本実施形態に係る結像倍率検出方法および制御部13の動作を示すフローチャートである。なお、図1に示された制御部13の記憶領域13aの内部にこの結像倍率検出方法が補償光学システム用プログラムとして記憶され、制御部13がこのプログラムを読み出して実行する。
 補償光学システム10では、まず、制御部13の初期処理が行われる(ステップS41)。なお、このステップS41の詳細は、前述した第1実施形態のステップS11と同様である。
 次に、制御部13は、結像倍率の検出のための特殊な位相パターンP(図8を参照)を作成し、変調面11aに表示させる(ステップS42)。なお、位相パターンPの詳細は、第1実施形態と同様である。その後、制御部13は、上記の位相パターンPを表示させた状態で、イメージセンサ122により光強度分布データDを取得する(ステップS43、光強度分布取得ステップ)。
 続いて、制御部13は、光強度分布データDに含まれる2つの集光スポットPの重心を計算することによって、各集光スポットPの位置座標(xp,yp)を特定する(ステップS44)。なお、集光スポットPの位置座標(xp,yp)の算出方法は、前述した第1実施形態のステップS14と同様である。ここでは、領域B1に対応する集光スポットPの位置座標を(xp,yp)とし、領域B2に対応する集光スポットPの位置座標を(xp,yp)とする。
 続いて、制御部13は、領域B1に対応する集光スポットPの位置座標(xp,yp)と、領域B2に対応する集光スポットPの位置座標(xp,yp)との距離に基づいて、変調面11aと波面センサ12との間の結像倍率Mを算出する(ステップS45、倍率算出ステップ)。ここで、位置座標(xp,yp)と位置座標(xp,yp)との距離をH1とし、領域B1の中心位置(xc,yc)と領域B2の中心位置(xc,yc)との距離をH2としたとき、結像倍率Mは、比(H1/H2)によって求められる。換言すれば、結像倍率Mは、次の数式(8)によって求められる。
Figure JPOXMLDOC01-appb-M000008
 その後、ステップS45により算出された結像倍率Mに基づいて、種々の調整を行う(ステップS46)。例えば、ステップS45により算出された結像倍率Mが所定の結像倍率に近づくように、変調面11aと波面センサ12との間に配置された導光光学系(例えば図1に示されたレンズ15,16)の倍率を調整することができる。このような調整は、導光光学系が、結像倍率Mが可変であるズームレンズ等によって構成される場合に適用できる。また、結像倍率Mが所定の結像倍率からずれている場合、変調面11aと波面センサ12との光軸方向の相対位置がずれている可能性があるため、例えば、ステップS45により算出された結像倍率Mが所定の結像倍率に近づくように、変調面11aと波面センサ12との光学距離を調整することができる。また、例えば、ステップS45により算出された結像倍率Mに基づいて、変調面11aにおいて波面歪み補償用の位相パターンが表示される領域の大きさを調整することもできる。
 以上に説明した、本実施形態による補償光学システム10の結像倍率検出方法、および補償光学システム10によって得られる効果について説明する。本実施形態では、光強度分布取得ステップS43において、空間光変調器11の領域B1,B2に、少なくとも一方向に線形性を有する位相パターンを表示させ、領域B1及びB2を囲む領域B3に、空間的に非線形な位相パターンを表示させた状態で、波面センサ12のイメージセンサ122により光強度分布データDを取得する。この光強度分布データDでは、領域B1,B2に対応する集光スポットPが形成されるが、これらの集光スポットPの距離は、変調面11aと波面センサ12との間の結像倍率Mに応じて変動する。したがって、領域B1,B2に対応する集光スポットP間の距離に基づいて、変調面11aと波面センサ12との間の結像倍率Mを検出することができる。また、本実施形態では、結像倍率Mの検出のための特別な部品や構造を必要とせず、制御部13の動作のみによって結像倍率Mを容易に且つ短時間で検出することができる。
 (第5の実施形態)
上述した第4実施形態では、光強度分布取得ステップS43において、少なくとも一方向に線形性を有する第1の位相パターンを領域B1及びB2に表示させた状態で、光強度分布データDを取得している。しかしながら、結像倍率検出方法においても第2実施形態と同様に、領域B1及びB2に表示される第1の位相パターンは必ずしも同時に表示される必要はない。
 図30は、第5実施形態に係る結像倍率検出方法および制御部13の動作を示すフローチャートである。本実施形態と上記第4実施形態との相違点は、図29に示されたステップS42及びS43に代えて、ステップS51~54を備える点である。なお、他のステップについては上記第4実施形態と同様であるため、詳細な説明を省略する。
 ステップS51では、制御部13が、結像倍率の検出のための特殊な位相パターンP(図22を参照)を作成し、変調面11aに表示させる。なお、位相パターンPの詳細は、第2実施形態と同様である。その後、ステップS52では、制御部13が、位相パターンPを表示させた状態で、イメージセンサ122により第1の光強度分布データDを取得する(第1の光強度分布取得ステップ)。この第1の光強度分布データDには、領域B1に対応する集光スポットPが含まれる。
 続いて、ステップS53では、制御部13が、結像倍率の検出のための特殊な位相パターンP(図23を参照)を作成し、変調面11aに表示させる。なお、位相パターンPの詳細は、第2実施形態と同様である。その後、ステップS54では、制御部13が、位相パターンPを表示させた状態で、イメージセンサ122により第2の光強度分布データDを取得する(第2の光強度分布取得ステップ)。この第2の光強度分布データDには、領域B2に対応する集光スポットPが含まれる。
 その後、制御部13は、ステップS51~S54によって得られた2つの光強度分布データD及びDにそれぞれ含まれる集光スポットPの位置座標を特定し(ステップS44)、それらの距離に基づいて、変調面11aと波面センサ12との結像倍率Mを算出する(倍率算出ステップS45)。その後、ステップS46における種々の調整を行う。
 本実施形態のように、第1の領域B1に対応する集光スポットPを含む第1の光強度分布データDと、第2の領域B2に対応する集光スポットPを含む第2の光強度分布データDとを順に取得し、これらの光強度分布データD,Dから2つの集光スポットP間の距離を求めても良い。このような方法であっても、上記第4実施形態と同様の効果を得ることができる。
 (第1の変形例)
上述した各実施形態では、第3実施形態を除き、第1の領域B1と第2の領域B2とが互いに離間した領域である場合を示したが、例えば図31(a)及び図31(b)に示されるように、第1の領域B1と第2の領域B2とは、行方向若しくは列方向に互いに隣接する領域であってもよい。或いは、例えば図32に示されるように、第1の領域B1と第2の領域B2とは、対角方向に互いに隣接する領域であってもよい。これらのように領域B1,B2が配置された場合であっても、上記各実施形態と同様の効果を得ることができる。但し、領域B1,B2が互いに離間している場合には、各々に対応する集光スポットPが互いに重なるおそれが少ない。従って、線形性を有する第1の位相パターンの形状によっては、領域B1,B2が互いに離間していてもよい。
 (第2の変形例)
上記各実施形態では、少なくとも一方向に線形性を有する第1の位相パターンを領域B1,B2(若しくは領域B6~B8)に表示し、空間的に非線形な第2の位相パターンを領域B3~B5(若しくは領域B9)に表示している。しかしながら、少なくとも一方向に線形性を有する位相パターンを領域B3~B5(若しくは領域B9)に表示し、空間的に非線形な位相パターンを領域B1,B2(若しくは領域B6~B8)に表示した場合であっても、上記実施形態と同様の効果を得ることができる。なお、この場合、前述した数式(3)は、次のように書き換えられる。
Figure JPOXMLDOC01-appb-M000009
 本変形例では、領域B1,B2(若しくは領域B6~B8)に対応する集光スポットPが不明瞭となり、その周囲の領域B3~B5(若しくは領域B9)に対応する集光スポットPが明瞭となる。この場合、領域B1(若しくは領域B6)の周囲に形成された集光スポットPの位置座標と、領域B2(若しくは領域B8)の周囲に形成された集光スポットPの位置座標との相対関係(若しくは距離)に基づいて、変調面11aと波面センサ12との角度ずれ量(若しくは結像倍率M)を算出することができる。
 本変形例によれば、上記実施形態と同様に、変調面11aと波面センサ12との間での光軸周りの角度ずれ量(若しくは結像倍率M)を容易に検出することができる。また、線形性を有する位相パターンを領域B1,B2(若しくは領域B6~B8)以外の全領域に表示できるので、該位相パターンを波面歪み補償用の位相パターンとすることによって、補償光学の実行中に並行して角度ずれ量(若しくは結像倍率M)の検出を行うことが可能となる。
 (第3の変形例)
上記各実施形態では、領域B1,B2若しくはB6~B8(第2変形例では領域B3~B5若しくはB9)に表示される少なくとも一方向に線形性を有する第1の位相パターンの例として、定数aで表される略均一な分布を例示した。しかしながら、第1の位相パターンは、少なくとも一方向に傾斜した(線形的に変化する)位相分布であってもよい。なお、このような位相パターンを含む位相パターンPは、次の数式(10)により表される。
Figure JPOXMLDOC01-appb-M000010
但し、n及びmは領域B1,B2(ROI)の中心画素であり、a、b、及びcは定数である。
 図33は、第1の方向(例えば行方向)において位相値が傾斜しており、第1の方向と交差する第2の方向(例えば列方向)において位相値が略均一である位相分布を示している。これは、上記の数式(10)においてb≠0且つc=0とした場合のROIにおける位相分布である。また、図34は、第1の方向(例えば行方向)及び第2の方向(例えば列方向)の双方において位相値が傾斜している位相分布を示している。これは、上記の数式(10)においてb≠0且つc≠0とした場合のROIにおける位相分布である。なお、図33及び図34には、行方向および列方向のそれぞれ一箇所における位相変調量のグラフが併せて示されている。これらの位相パターンが領域B1,B2若しくはB6~B8に表示されると、当該部分の光像Laの波面は平坦となるので、レンズ124によって明瞭な集光スポットPが形成される。従って、上記各実施形態および各変形例と同様に、集光スポットPの相対位置関係若しくは距離に基づいて、角度ずれ量若しくは結像倍率Mの検出を行うことができる。
 但し、本変形例では、集光スポットPの重心位置が、第1の位相パターンの傾斜分だけずれることとなる。従って、角度ずれ量若しくは結像倍率Mの検出する際には、この重心位置のずれを加味した上で上記各実施形態と同様の演算を行うことができる。なお、集光スポットPの重心位置のずれ量は、波面センサ12の構成パラメータと、係数b及びcとに基づいて一義的に決定される。また、集光スポットPの重心位置から上記ずれ量を差し引くことにより、本来の重心位置を得ることができるので、上記各実施形態と同様の手順により角度ずれ量若しくは結像倍率Mの検出を行うことが可能である。
 (第4の変形例)
領域B1,B2若しくはB6~B8(第2変形例では領域B3~B5若しくはB9)に表示される第1の位相パターンは、図35に示されるような、第1の方向における位相分布が2次関数を有し、第2の方向において位相値が略均一であるような位相分布(すなわち、第1の方向にシリンドリカルレンズ効果を有する位相分布)であってもよい。なお、このような位相分布を含む位相パターンPは、次の数式(11)により表される。
Figure JPOXMLDOC01-appb-M000011
上記の数式(11)において、nとmは領域B1(ROI(n,m))、及びnとmは領域B2(ROI(n,m))の中心画素であり、a、b、a及びbは定数である。
 図35に示される位相パターンが変調面11aに表示されると、波面センサ12では、第1の方向に伸長し、第2の方向に集束された集光スポットPが形成される。これにより、形成される集光スポットPの第2の方向の位置を得ることができる。続いて、第1の方向と第2の方向とを相互に入れ替えた位相分布(すなわち、第2の方向にシリンドリカルレンズ効果を有する位相分布)の位相パターンPが変調面11aに表示されると、集光スポットPの第1の方向の位置が求められる。従って、図35のような少なくとも一方向に線形性を有する位相パターンを用いることにより、上記の実施例および変形例1~3と同様に、角度ずれ量や結像倍率の検出ができる。或いは、シリンドリカルレンズ効果を有する位相分布を含む位相パターンPを、次の数式(12)により作成することもできる。
Figure JPOXMLDOC01-appb-M000012
数式(12)により表される位相パターンPは、数式(11)により表される位相パターンと異なり、領域B1では第1の方向における位相分布が2次関数を有し、領域B2では第2の方向における位相分布が2次関数を有する。数式(12)により表される位相パターンPを変調面11aに表示すると、領域B1に対応する集光スポットP、すなわち第1の方向に伸長し第2の方向に集束した集光スポットPに基づいて、第2の方向の位置が求められる。また、領域B2に対応する集光スポットP、すなわち第2の方向に伸長し第1の方向に集束された集光スポットPに基づいて、第1の方向の位置が求められる。続いて、領域B1,B2の位相分布を相互に入れ替えた位相分布(すなわち、領域B1では第2の方向における位相分布が2次関数を有し、領域B2では第1の方向における位相分布が2次関数を有する位相分布)を含む位相パターンPが変調面11aに表示されると、領域B1に対応する第2の方向に伸長する集光スポットPに基づいて第1の方向の位置が求められ、領域B2に対応する第1の方向に伸長する集光スポットPに基づいて第2の方向の位置が求められる。そして、領域B1及びB2に対応する各集光スポットPの位置を用いて、上記実施形態および各変形例と同様に、角度ずれ量や結像倍率の検出ができる。
 (第5の変形例)
領域B1,B2若しくはB6~B8(第2変形例では領域B3~B5若しくはB9)に表示される第1の位相パターンは、図36に示されるような、第1の方向における位相分布が回折格子を構成し、第2の方向において位相値が略均一であるような位相分布であってもよい。図36に示される位相パターンが変調面11aに表示されると、波面センサ12では、第1の方向に分離され、第2の方向に集束された複数の集光スポットPが形成される。従って、集光スポットPの第2の方向の位置が求められる。続いて、回折格子の方向を90°回転させた位相分布を領域B1,B2に含む位相パターンを用いて、集光スポットPの第1の方向の位置が求められる。そして、領域B1とB2に対応する集光スポットPの位置を用いて、上記の実施形態及び各変形例と同様に、角度ずれ量や結像倍率の検出ができる。
 (第6の変形例)
領域B1,B2若しくはB6~B8(第2変形例では領域B3~B5若しくはB9)に表示される第1の位相パターンは、第1実施形態および第3~5変形例に示された位相分布を互いに重ね合わせた合成パターンを含んでもよい。図37は、そのような重ね合わせによって得られる合成パターンの例を示す図である。図37(a)に示される位相パターンは図35に示されたものであり、図37(b)に示される位相パターンは、図33に示された位相パターンを90°回転させたものである。そして、図37(c)に示される位相パターンは、これらを重ね合わせた合成パターンであって、第1の方向における位相分布が2次関数を有し、第2の方向における位相分布が線形関数を有する位相パターンである。図37(c)に示された合成パターンが変調面11aに表示されると、波面センサ12では、第1の方向に伸長し、第2の方向に集束された集光スポットPが形成される。従って、形成される集光スポットPの第2の方向の位置が求められる。なお、求められた第2の方向の位置には、図37(b)のような傾斜位相分布によって、ずれ量が含まれる。このずれ量を差し引くことにより、本来の第2の方向の重心位置を得ることができる。続いて、37(c)に示された位相パターンを90度回転したものを表示することにより、第1の方向の重心位置を得ることができる。そして、領域B1,B2に対応する集光スポットPの位置を用いて、上記の実施形態および各変形例と同様に、角度ずれ量や結像倍率の検出ができる。
 (第7の変形例)
上記各実施形態および各変形例では、領域B3~B5(第2変形例では領域B9)に表示される空間的に非線形な第2の位相パターンの例として、ランダム分布(図12)及びデフォーカス分布(図13)を例示した。第2の位相パターンはこれらに限られず、明瞭な集光スポットPが形成されないような位相分布を有していればよい。このような位相分布としては、例えばFresnel Zone Plate(FZP)型の位相パターンが挙げられる。FZP型位相パターンは、入射された略均一な位相値を有する光像Laを集光或いは発散させる作用を有する。従って、FZP型位相パターンにより集光或いは発散された光像Laがレンズ124に入射すると、集光スポットPの光軸方向の位置が、レンズ124の焦点面(すなわちイメージセンサ122の表面)からずれる。このため、イメージセンサ122の表面では、ぼけた点像が形成される。
 このようなFZP型位相パターンを含む位相パターンPは、次の数式(13)により表される。
Figure JPOXMLDOC01-appb-M000013
但し、aは定数であり、bは十分に大きい定数である。(n,m)は領域B3~B5の中心画素である。なお、bが十分に大きいことにより、レンズ124により形成される集光スポットPをレンズ124の焦点面(イメージセンサ122の表面)から十分に離すことができる。
 (第8の変形例)
上記各実施形態および各変形例では、波面センサ12のレンズアレイ120として、図3に示されたように、複数のレンズ124が二次元格子状に配列された形態を例示している。しかしながら、波面センサ12のレンズアレイはこのような形態に限られない。例えば、図38に示されるように、レンズアレイ120は、正六角形の複数のレンズ128が隙間無く並んだハニカム構造を有していてもよい。なお、この場合、領域B1,B2若しくはB6~B8は、六角形に設定されてもよい。
 また、空間光変調器としては、正六角形の複数の画素が隙間無く並んでいるようなものを用いても良い。また、上述した実施形態は、液晶を用いた空間光変調器を例に説明したが、液晶以外の電気光効果を有する材料を用いた空間光変調器や、画素が微小ミラーで形成されている空間光変調器、あるいは膜ミラーをアクチュエーターで変形させる可変鏡などを用いても良い。
 本発明の一側面に係る補償光学システムの角度ずれ検出方法、補償光学システムの結像倍率検出方法、及び補償光学システムは、上述した実施形態に限られるものではなく、他に様々な変形が可能である。例えば、上記実施形態および各変形例では、領域B1,B2若しくはB6~B8の大きさを予め設定して角度ずれ量等の検出を行っているが、領域B1,B2若しくはB6~B8の大きさは可変であってもよい。図39は、領域B1,B2の大きさを可変とする場合の一例を示している。図39(a)に示される例では、領域B1,B2の大きさを比較的大きく設定しておき、得られた光強度分布データに基づいて、適切な大きさ(例えば、レンズ124の径に対応する大きさ)に縮小している。また、図39(b)に示される例では、領域B1,B2の大きさを比較的小さく設定しておき、得られた光強度分布データに基づいて、適切な大きさ(例えば、レンズ124の径に対応する大きさ)に拡大している。このように、領域B1,B2(若しくは領域B6~B8)の大きさを可変とすることにより、適切な大きさの領域B1,B2(若しくは領域B6~B8)を設定し、角度ずれ量や結像倍率の検出を更に精度良く行うことができる。また、領域B1及びB2に表示される位相パターンは、必ず同一のものでなくてもよい。例えば、領域B1には、例えば図35のようなシリンドリカル効果を有する位相パターンを表示させ、領域B2には図36のような回折格子の構造を有する位相パターンを表示させてもよい。
 また、上記実施形態および各変形例では、補償光学システムが一つの空間光変調器を備えている場合について示されているが、補償光学システムは、光学的に結合された複数の空間光変調器を備えてもよい。その複数の空間光変調器が直列に結合される場合、一つの空間光変調器に位相パターンP(若しくはP)を表示し、他の空間光変調器には例えば略均一な位相パターンを表示させておくことにより、該一つの空間光変調器と波面センサとの角度ずれ量や結像倍率の検出を行うことができる。また、複数の空間光変調器が並列に結合される場合、一つの空間光変調器に位相パターンP(若しくはP)を表示させ、他の空間光変調器には例えば略均一な位相パターンを表示させておくか、或いは、他の空間光変調器に入射する前若しくは後の光像を遮蔽することにより、該一つの空間光変調器と波面センサとの角度ずれ量や結像倍率の検出を行うことができる。そして、そのような作業を複数の空間光変調器それぞれについて行うことにより、全ての空間光変調器と波面センサとの角度ずれ量や結像倍率の検出を行うことができる。
 本発明の一側面に係る補償光学システムの角度ずれ検出方法及び補償光学システムによれば、空間光変調器の変調面と波面センサとの間での光軸周りの角度ずれを容易に検出することができる。また、本発明の一側面に係る補償光学システムの結像倍率検出方法及び補償光学システムによれば、空間光変調器の変調面と波面センサとの間の結像倍率を容易に検出することができる。
 10…補償光学システム、11…空間光変調器、11a…変調面、12…波面センサ、13…制御部、14…ビームスプリッタ、15,16…リレーレンズ、17…制御回路部、18…光検出素子、120…レンズアレイ、122…イメージセンサ、122a…受光面、122b…画素、124…レンズ、B1…第1の領域、B2…第2の領域、D1,D2,D~D…光強度分布データ、La…光像、P…集光スポット、P~P…位相パターン。

Claims (16)

  1.  変調面に入射した光像の位相を空間的に変調する空間光変調器と、複数のレンズが二次元状に配列されたレンズアレイ、並びに前記レンズアレイによって形成された集光スポットを含む光強度分布を検出する光検出素子を有しており前記空間光変調器から変調後の前記光像を受ける波面センサとを備え、前記光強度分布から得られる前記光像の波面形状に基づいて前記空間光変調器に表示される位相パターンを制御することにより波面歪みを補償する補償光学システムにおいて、前記変調面と前記波面センサとの角度ずれ量を算出する方法であって、
     前記複数のレンズのうちの一若しくは互いに隣接する二以上のレンズに各々対応する前記変調面上の第1及び第2の領域に、少なくとも一方向に線形性を有する位相パターン及び空間的に非線形な位相パターンのうち一方を表示させ、前記第1及び第2の領域を囲む領域に他方を表示させた状態で、前記光検出素子により前記光強度分布を取得する光強度分布取得ステップと、
     前記光強度分布取得ステップにおいて得られた前記光強度分布に含まれる、前記第1の領域に対応する前記集光スポットと前記第2の領域に対応する前記集光スポットとの相対位置関係に基づいて、前記変調面と前記波面センサとの角度ずれ量を求める角度算出ステップと、
     を備える補償光学システムの角度ずれ検出方法。
  2.  変調面に入射した光像の位相を空間的に変調する空間光変調器と、複数のレンズが二次元状に配列されたレンズアレイ、並びに前記レンズアレイによって形成された集光スポットを含む光強度分布を検出する光検出素子を有しており前記空間光変調器から変調後の前記光像を受ける波面センサとを備え、前記光強度分布から得られる前記光像の波面形状に基づいて前記空間光変調器に表示される位相パターンを制御することにより波面歪みを補償する補償光学システムにおいて、前記変調面と前記波面センサとの角度ずれ量を算出する方法であって、
     前記複数のレンズのうちの一若しくは互いに隣接する二以上のレンズに対応する前記変調面上の第1の領域に、少なくとも一方向に線形性を有する位相パターン及び空間的に非線形な位相パターンのうち一方を表示させ、前記第1の領域を囲む領域に他方を表示させた状態で、前記光検出素子により第1の前記光強度分布を取得する第1の光強度分布取得ステップと、
     前記複数のレンズのうちの一若しくは互いに隣接する二以上のレンズに対応しており前記第1の領域とは別の領域である前記変調面上の第2の領域に、少なくとも一方向に線形性を有する位相パターン及び空間的に非線形な位相パターンのうち一方を表示させ、前記第2の領域を囲む領域に他方を表示させた状態で、前記光検出素子により第2の前記光強度分布を取得する第2の光強度分布取得ステップと、
     前記第1の光強度分布に含まれる前記第1の領域に対応する前記集光スポットと、前記第2の光強度分布に含まれる前記第2の領域に対応する前記集光スポットとの相対位置関係に基づいて、前記変調面と前記波面センサとの角度ずれ量を求める角度算出ステップと、
     を備える補償光学システムの角度ずれ検出方法。
  3.  前記角度算出ステップにより算出された前記角度ずれ量が小さくなるように、前記変調面及び前記波面センサのうち少なくとも一方の前記光像周りの角度を調整する調整ステップを更に備える請求項1または2に記載の補償光学システムの角度ずれ検出方法。
  4.  前記第1及び第2の領域が互いに隣接する領域である請求項1~3のいずれか一項に記載の補償光学システムの角度ずれ検出方法。
  5.  前記第1及び第2の領域が互いに離間した領域である請求項1~3のいずれか一項に記載の補償光学システムの角度ずれ検出方法。
  6.  変調面に入射した光像の位相を空間的に変調する空間光変調器と、複数のレンズが二次元状に配列されたレンズアレイ、並びに前記レンズアレイによって形成された集光スポットを含む光強度分布を検出する光検出素子を有しており前記空間光変調器から変調後の前記光像を受ける波面センサとを備え、前記光強度分布から得られる前記光像の波面形状に基づいて前記空間光変調器に表示される位相パターンを制御することにより波面歪みを補償する補償光学システムにおいて、前記変調面と前記波面センサとの間の結像倍率を検出する方法であって、
     前記複数のレンズのうちの一若しくは互いに隣接する二以上のレンズに各々対応する前記変調面上の第1及び第2の領域に、少なくとも一方向に線形性を有する位相パターン及び空間的に非線形な位相パターンのうち一方を表示させ、前記第1及び第2の領域を囲む領域に他方を表示させた状態で、前記光検出素子により前記光強度分布を取得する光強度分布取得ステップと、
     前記光強度分布取得ステップにおいて得られた前記光強度分布に含まれる、前記第1の領域に対応する前記集光スポットと前記第2の領域に対応する前記集光スポットとの距離に基づいて、前記変調面と前記波面センサとの間の結像倍率を求める倍率算出ステップと、
     を備える補償光学システムの結像倍率検出方法。
  7.  変調面に入射した光像の位相を空間的に変調する空間光変調器と、複数のレンズが二次元状に配列されたレンズアレイ、並びに前記レンズアレイによって形成された集光スポットを含む光強度分布を検出する光検出素子を有しており前記空間光変調器から変調後の前記光像を受ける波面センサとを備え、前記光強度分布から得られる前記光像の波面形状に基づいて前記空間光変調器に表示される位相パターンを制御することにより波面歪みを補償する補償光学システムにおいて、前記変調面と前記波面センサとの間の結像倍率を検出する方法であって、
     前記複数のレンズのうちの一若しくは互いに隣接する二以上のレンズに対応する前記変調面上の第1の領域に、少なくとも一方向に線形性を有する位相パターン及び空間的に非線形な位相パターンのうち一方を表示させ、前記第1の領域を囲む領域に他方を表示させた状態で、前記光検出素子により第1の前記光強度分布を取得する第1の光強度分布取得ステップと、
     前記複数のレンズのうちの一若しくは互いに隣接する二以上のレンズに対応しており前記第1の領域とは別の領域である前記変調面上の第2の領域に、少なくとも一方向に線形性を有する位相パターン及び空間的に非線形な位相パターンのうち一方を表示させ、前記第2の領域を囲む領域に他方を表示させた状態で、前記光検出素子により第2の前記光強度分布を取得する第2の光強度分布取得ステップと、
     前記第1の光強度分布に含まれる前記第1の領域に対応する前記集光スポットと、前記第2の光強度分布に含まれる前記第2の領域に対応する前記集光スポットとの距離に基づいて、前記変調面と前記波面センサとの間の結像倍率を求める倍率算出ステップと、
     を備える補償光学システムの結像倍率検出方法。
  8.  前記倍率算出ステップにより算出された前記結像倍率が所定の結像倍率に近づくように、前記変調面と前記波面センサとの間に配置された導光光学系の倍率を調整する調整ステップを更に備える請求項6または7に記載の補償光学システムの結像倍率検出方法。
  9.  前記倍率算出ステップにより算出された前記結像倍率が所定の結像倍率に近づくように、前記変調面と前記波面センサとの光学距離を調整する調整ステップを更に備える請求項6または7に記載の補償光学システムの結像倍率検出方法。
  10.  前記倍率算出ステップにより算出された前記結像倍率に基づいて、波面歪みを補償するための前記位相パターンが表示される前記変調面上の領域の大きさを調整する調整ステップを更に備える請求項6または7に記載の補償光学システムの結像倍率検出方法。
  11.  前記第1及び第2の領域が互いに隣接する領域である請求項6~10のいずれか一項に記載の補償光学システムの結像倍率検出方法。
  12.  前記第1及び第2の領域が互いに離間した領域である請求項6~10のいずれか一項に記載の補償光学システムの結像倍率検出方法。
  13.  変調面に入射した光像の位相を空間的に変調する空間光変調器と、
     複数のレンズが二次元状に配列されたレンズアレイ、並びに前記レンズアレイによって形成された集光スポットを含む光強度分布を検出する光検出素子を有しており前記空間光変調器から変調後の前記光像を受ける波面センサと、
     前記光強度分布から得られる前記光像の波面形状に基づいて前記空間光変調器に表示される位相パターンを制御することにより波面歪みを補償する制御部と、
     を備え、
     前記制御部が、前記複数のレンズのうちの一若しくは互いに隣接する二以上のレンズに各々対応する前記変調面上の第1及び第2の領域に、少なくとも一方向に線形性を有する位相パターン及び空間的に非線形な位相パターンのうち一方を表示させ、前記第1及び第2の領域を囲む領域に他方を表示させた状態で、前記光検出素子により前記光強度分布を取得し、該光強度分布に含まれる、前記第1の領域に対応する前記集光スポットと前記第2の領域に対応する前記集光スポットとの相対位置関係に基づいて、前記変調面と前記波面センサとの角度ずれ量を求める補償光学システム。
  14.  変調面に入射した光像の位相を空間的に変調する空間光変調器と、
     複数のレンズが二次元状に配列されたレンズアレイ、並びに前記レンズアレイによって形成された集光スポットを含む光強度分布を検出する光検出素子を有しており前記空間光変調器から変調後の前記光像を受ける波面センサと、
     前記光強度分布から得られる前記光像の波面形状に基づいて前記空間光変調器に表示される位相パターンを制御することにより波面歪みを補償する制御部と、
     を備え、
     前記制御部が、前記複数のレンズのうちの一若しくは互いに隣接する二以上のレンズに対応する前記変調面上の第1の領域に、少なくとも一方向に線形性を有する位相パターン及び空間的に非線形な位相パターンのうち一方を表示させ、前記第1の領域を囲む領域に他方を表示させた状態で、前記光検出素子により第1の前記光強度分布を取得し、前記複数のレンズのうちの一若しくは互いに隣接する二以上のレンズに対応しており前記第1の領域とは別の領域である前記変調面上の第2の領域に、少なくとも一方向に線形性を有する位相パターン及び空間的に非線形な位相パターンのうち一方を表示させ、前記第2の領域を囲む領域に他方を表示させた状態で、前記光検出素子により第2の前記光強度分布を取得し、前記第1の光強度分布に含まれる前記第1の領域に対応する前記集光スポットと、前記第2の光強度分布に含まれる前記第2の領域に対応する前記集光スポットとの相対位置関係に基づいて、前記変調面と前記波面センサとの角度ずれ量を求める補償光学システム。
  15.  変調面に入射した光像の位相を空間的に変調する空間光変調器と、
     複数のレンズが二次元状に配列されたレンズアレイ、並びに前記レンズアレイによって形成された集光スポットを含む光強度分布を検出する光検出素子を有しており前記空間光変調器から変調後の前記光像を受ける波面センサと、
     前記光強度分布から得られる前記光像の波面形状に基づいて前記空間光変調器に表示される位相パターンを制御することにより波面歪みを補償する制御部と、
     を備え、
     前記制御部が、前記複数のレンズのうちの一若しくは互いに隣接する二以上のレンズに各々対応する前記変調面上の第1及び第2の領域に、少なくとも一方向に線形性を有する位相パターン及び空間的に非線形な位相パターンのうち一方を表示させ、前記第1及び第2の領域を囲む領域に他方を表示させた状態で、前記光検出素子により前記光強度分布を取得し、該光強度分布に含まれる、前記第1の領域に対応する前記集光スポットと前記第2の領域に対応する前記集光スポットとの距離に基づいて、前記変調面と前記波面センサとの間の結像倍率を求める補償光学システム。
  16.  変調面に入射した光像の位相を空間的に変調する空間光変調器と、
     複数のレンズが二次元状に配列されたレンズアレイ、並びに前記レンズアレイによって形成された集光スポットを含む光強度分布を検出する光検出素子を有しており前記空間光変調器から変調後の前記光像を受ける波面センサと、
     前記光強度分布から得られる前記光像の波面形状に基づいて前記空間光変調器に表示される位相パターンを制御することにより波面歪みを補償する制御部と、
     を備え、
     前記制御部が、前記複数のレンズのうちの一若しくは互いに隣接する二以上のレンズに対応する前記変調面上の第1の領域に、少なくとも一方向に線形性を有する位相パターン及び空間的に非線形な位相パターンのうち一方を表示させ、前記第1の領域を囲む領域に他方を表示させた状態で、前記光検出素子により第1の前記光強度分布を取得し、前記複数のレンズのうちの一若しくは互いに隣接する二以上のレンズに対応しており前記第1の領域とは別の領域である前記変調面上の第2の領域に、少なくとも一方向に線形性を有する位相パターン及び空間的に非線形な位相パターンのうち一方を表示させ、前記第2の領域を囲む領域に他方を表示させた状態で、前記光検出素子により第2の前記光強度分布を取得し、前記第1の光強度分布に含まれる前記第1の領域に対応する前記集光スポットと、前記第2の光強度分布に含まれる前記第2の領域に対応する前記集光スポットとの距離に基づいて、前記変調面と前記波面センサとの間の結像倍率を求める補償光学システム。
PCT/JP2014/064293 2013-06-06 2014-05-29 補償光学システムの角度ずれ検出方法、補償光学システムの結像倍率検出方法、及び補償光学システム WO2014196447A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE112014002681.6T DE112014002681T5 (de) 2013-06-06 2014-05-29 Verfahren zur Erfassung eines Winkelversatzes für adaptives Optiksystem, Verfahren zur Erfassung einer Abbildungsvergrößerung für adaptives Optiksystem und adaptives Optiksystem
JP2015521416A JP6226977B2 (ja) 2013-06-06 2014-05-29 補償光学システムの角度ずれ検出方法、補償光学システムの結像倍率検出方法、及び補償光学システム
CN201480031945.8A CN105264346B (zh) 2013-06-06 2014-05-29 自适应光学系统及其角度偏离检测方法和成像倍率检测方法
US14/895,517 US9477082B2 (en) 2013-06-06 2014-05-29 Angular displacement detecting method for adaptive optics system, imaging magnification detecting method for adaptive optics system, and adaptive optics system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013119851 2013-06-06
JP2013-119851 2013-06-06

Publications (1)

Publication Number Publication Date
WO2014196447A1 true WO2014196447A1 (ja) 2014-12-11

Family

ID=52008093

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/064293 WO2014196447A1 (ja) 2013-06-06 2014-05-29 補償光学システムの角度ずれ検出方法、補償光学システムの結像倍率検出方法、及び補償光学システム

Country Status (5)

Country Link
US (1) US9477082B2 (ja)
JP (1) JP6226977B2 (ja)
CN (1) CN105264346B (ja)
DE (1) DE112014002681T5 (ja)
WO (1) WO2014196447A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105700157A (zh) * 2016-04-22 2016-06-22 四川大学 惯性约束聚变装置中基于复合型光栅的光谱色散匀滑方法
JP2018530976A (ja) * 2015-07-15 2018-10-18 ザ セクレタリー,デパートメント オブ エレクトロニクス アンド インフォメーション テクノロジー(ディーイーアイティーワイ) 自由空間光通信システム、装置、及びそれらの方法
JP2018175792A (ja) * 2017-04-21 2018-11-15 キヤノン株式会社 眼科撮影装置およびその制御方法

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105264429B (zh) * 2013-06-06 2018-06-29 浜松光子学株式会社 自适应光学系统的对应关系确定方法、波前畸变补偿方法、自适应光学系统及存储自适应光学系统用程序的记录介质
EP2908341B1 (en) * 2014-02-18 2018-07-11 ams AG Semiconductor device with surface integrated focusing element
CN106226042B (zh) * 2016-07-27 2018-06-15 中国科学院长春光学精密机械与物理研究所 空间光学遥感器碳纤维结构稳定性的自动测试系统及方法
IL251636B (en) 2017-04-06 2018-02-28 Yoav Berlatzky A system and method for a coherent camera
CN110389020B (zh) * 2018-04-16 2021-11-30 深圳光峰科技股份有限公司 空间光调制器的检测方法
CN109342324A (zh) * 2018-11-27 2019-02-15 中国航空工业集团公司沈阳飞机设计研究所 一种飞机风挡玻璃光学角偏差测试系统
CN110346340B (zh) * 2019-07-19 2020-08-14 浙江大学 基于波前传感器的机器学习快速像差测量系统与方法
CN113777777A (zh) * 2021-03-12 2021-12-10 中国人民解放军国防科技大学 一种具有激光防御功能的光电成像系统
CN114859577B (zh) * 2022-07-07 2022-10-28 浙江大学 一种基于生物组织成像的自适应光学校正系统

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013183341A1 (ja) * 2012-06-04 2013-12-12 浜松ホトニクス株式会社 補償光学システムの調整方法および補償光学システム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6911637B1 (en) * 2002-05-23 2005-06-28 The United States Of America As Represented By The Secretary Of The Army Wavefront phase sensors using optically or electrically controlled phase spatial light modulators
JP4479282B2 (ja) * 2004-03-03 2010-06-09 ソニー株式会社 記録媒体キュアー方法及びホログラム記録装置
JP4531431B2 (ja) * 2004-04-02 2010-08-25 浜松ホトニクス株式会社 波面補償装置、波面補償方法、プログラム、及び、記録媒体
JP5139832B2 (ja) * 2008-02-14 2013-02-06 浜松ホトニクス株式会社 観察装置
CN102331303B (zh) * 2011-08-05 2012-10-03 中国科学院光电技术研究所 一种基于光栅的相位差波前传感器

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013183341A1 (ja) * 2012-06-04 2013-12-12 浜松ホトニクス株式会社 補償光学システムの調整方法および補償光学システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
CHENXI HUANG: "Correlation matching method for high-precision position detection of optical vortex using Shack.Hartmann wavefront sensor", OPTICS EXPRESS, vol. 20, no. 24, November 2012 (2012-11-01), pages 26099 - 26109 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018530976A (ja) * 2015-07-15 2018-10-18 ザ セクレタリー,デパートメント オブ エレクトロニクス アンド インフォメーション テクノロジー(ディーイーアイティーワイ) 自由空間光通信システム、装置、及びそれらの方法
JP2021184640A (ja) * 2015-07-15 2021-12-02 ザ セクレタリー,デパートメント オブ エレクトロニクス アンド インフォメーション テクノロジー(ディーイーアイティーワイ) 自由空間光通信システム、装置、及びそれらの方法
JP6998868B2 (ja) 2015-07-15 2022-01-18 ザ セクレタリー,デパートメント オブ エレクトロニクス アンド インフォメーション テクノロジー(ディーイーアイティーワイ) 自由空間光通信システム、装置、及びそれらの方法
JP7263453B2 (ja) 2015-07-15 2023-04-24 ザ セクレタリー,デパートメント オブ エレクトロニクス アンド インフォメーション テクノロジー(ディーイーアイティーワイ) 自由空間光通信システム、装置、及びそれらの方法
CN105700157A (zh) * 2016-04-22 2016-06-22 四川大学 惯性约束聚变装置中基于复合型光栅的光谱色散匀滑方法
JP2018175792A (ja) * 2017-04-21 2018-11-15 キヤノン株式会社 眼科撮影装置およびその制御方法
JP7158827B2 (ja) 2017-04-21 2022-10-24 キヤノン株式会社 眼科撮影装置およびその制御方法

Also Published As

Publication number Publication date
CN105264346B (zh) 2018-04-13
DE112014002681T5 (de) 2016-03-17
JPWO2014196447A1 (ja) 2017-02-23
US9477082B2 (en) 2016-10-25
JP6226977B2 (ja) 2017-11-08
CN105264346A (zh) 2016-01-20
US20160109700A1 (en) 2016-04-21

Similar Documents

Publication Publication Date Title
JP6226977B2 (ja) 補償光学システムの角度ずれ検出方法、補償光学システムの結像倍率検出方法、及び補償光学システム
JP6259825B2 (ja) 補償光学システムの調整方法、補償光学システム、及び補償光学システム用プログラムを記憶する記録媒体
JP6040103B2 (ja) 補償光学システムの対応関係特定方法、補償光学システム、および補償光学システム用プログラム
JP6298050B2 (ja) 補償光学システムの対応関係特定方法、波面歪み補償方法、補償光学システム、および補償光学システム用プログラムを記憶する記録媒体
JP5919100B2 (ja) 補償光学システムの調整方法および補償光学システム
US8748801B2 (en) Discrete wavefront sampling using a variable transmission filter
KR101365081B1 (ko) 보상광학계를 구비한 주사용 광화상 취득장치 및 그 제어 방법
JP5139832B2 (ja) 観察装置
CN103491858B (zh) 眼底摄像设备和眼底摄像设备的控制方法
Rha et al. Implementation of an adaptive Shack-Hartmann sensor using a phase-modulated liquid crystal spatial light modulator
JP2015135441A (ja) 画像取得装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201480031945.8

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14806795

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2015521416

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14895517

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 112014002681

Country of ref document: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14806795

Country of ref document: EP

Kind code of ref document: A1