WO2019220638A1 - 波面計測装置、波面計測方法及び移動体観測装置 - Google Patents

波面計測装置、波面計測方法及び移動体観測装置 Download PDF

Info

Publication number
WO2019220638A1
WO2019220638A1 PCT/JP2018/019365 JP2018019365W WO2019220638A1 WO 2019220638 A1 WO2019220638 A1 WO 2019220638A1 JP 2018019365 W JP2018019365 W JP 2018019365W WO 2019220638 A1 WO2019220638 A1 WO 2019220638A1
Authority
WO
WIPO (PCT)
Prior art keywords
light beam
light
photodetector
wavefront
unit
Prior art date
Application number
PCT/JP2018/019365
Other languages
English (en)
French (fr)
Inventor
貴雄 遠藤
俊行 安藤
隆 高根澤
豊 江崎
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to PCT/JP2018/019365 priority Critical patent/WO2019220638A1/ja
Priority to JP2018552262A priority patent/JP6494885B1/ja
Publication of WO2019220638A1 publication Critical patent/WO2019220638A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64GCOSMONAUTICS; VEHICLES OR EQUIPMENT THEREFOR
    • B64G3/00Observing or tracking cosmonautic vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J9/00Measuring optical phase difference; Determining degree of coherence; Measuring optical wavelength

Definitions

  • the present invention relates to a wavefront measuring apparatus and a wavefront measuring method for estimating a wavefront of a light beam at an aperture of an imaging optical system, and a moving body observation apparatus for estimating a luminance distribution of a moving body.
  • a moving body observation apparatus that observes a moving body such as a celestial body or a flying body observes the moving body by receiving a light beam transmitted from the moving body on the ground.
  • the light beam transmitted from the moving body may spread because the phase of the light is disturbed due to fluctuations in the refractive index distribution in the atmosphere. Therefore, in order to increase the observation accuracy of the moving object, the moving object observation apparatus needs to acquire a wavefront that is a surface having the same phase of light.
  • Patent Document 1 below discloses a wavefront sensor that measures a wavefront.
  • the wavefront sensor disclosed in Patent Document 1 below uses a telescope to track the light flux transmitted from an object by controlling the tilt and focus of the wavefront when observing an object moving at high speed. However, I am shooting the atmospheric fault.
  • the wavefront sensor includes a control mechanism that realizes high-speed movement of each of the high-speed steering mirror, the imaging lens, and the lenslet array as a mechanism for controlling the tilt and focus of the wavefront.
  • the measurement accuracy of the wavefront by the conventional wavefront sensor depends on the control accuracy of the control mechanism that realizes the respective high-speed movements in the high-speed steering mirror, imaging lens, and lenslet array. Therefore, the conventional wavefront sensor has a problem that the measurement accuracy of the wavefront may deteriorate depending on the control accuracy of the mounted control mechanism.
  • a wavefront measuring apparatus and a wavefront measuring method capable of measuring a wavefront without mounting a control mechanism for realizing high-speed movement such as a lenslet array. And it aims at obtaining a mobile observation device.
  • the wavefront measuring apparatus includes an imaging optical system that collects a light beam reflected by a moving body or a light beam transmitted from the moving body, and a light beam collected by the imaging optical system in a plurality of spatial regions.
  • Light detection that detects a focused spot image as an image of a moving object from a space dividing unit that divides the light into light beams and collects each of the light beams in a plurality of spatial regions and each light beam collected by the space dividing unit
  • the approximate value of the wavefront of the light beam at the aperture of the imaging optical system from the position of the multiple focused spot images detected by the detector and the optical detector, and using the approximate value,
  • a point image intensity distribution is calculated, and a wavefront estimation unit for estimating a wavefront from the point image intensity distribution and a plurality of focused spot images is provided.
  • the wavefront estimation unit calculates the approximate value of the wavefront of the light flux at the aperture of the imaging optical system from the positions of the plurality of focused spot images detected by the photodetector, and uses the approximate value.
  • the wavefront measuring apparatus was configured to calculate point image intensity distributions of a plurality of focused spot images and to estimate the wavefront from the point image intensity distributions and the plurality of focused spot images. Therefore, the wavefront measuring apparatus according to the present invention can measure the wavefront without mounting a control mechanism that realizes high-speed movement such as a lenslet array.
  • FIG. 1 is a configuration diagram showing a moving object observation apparatus including a wavefront measuring apparatus 3 according to Embodiment 1.
  • FIG. 1 is a perspective view showing an appearance of a moving object observation apparatus including a wavefront measuring apparatus 3 according to Embodiment 1.
  • FIG. It is a flowchart which shows the process sequence of the mobile observation apparatus shown in FIG. It is explanatory drawing which shows the image of the moving body 1 detected by the photodetector 15.
  • FIG. It is explanatory drawing which shows the image of the moving body 1 detected by the photodetector 27.
  • FIG. 5 is a flowchart showing processing procedures of a wavefront estimation unit 28 and a moving body restoration unit 29.
  • FIG. 6 is an explanatory diagram showing the relationship between the aperture of the imaging optical system, the respective apertures in a plurality of spatial regions, and the image 106 of the moving body 1 when the moving body 1 is moving relative to the wavefront measuring apparatus 3. It is.
  • FIG. 6 is an explanatory diagram showing the relationship between the aperture of the imaging optical system, the respective apertures in a plurality of spatial regions, and the image 106 of the moving body 1 when the moving body 1 is moving relative to the wavefront measuring apparatus 3. It is.
  • FIG. 6 is an explanatory diagram illustrating an example of a light shielding unit 24 in which the apertures of a plurality of lenses included in the lens array 25 are the same as a transmission region that transmits a light beam 2.
  • FIG. 6 is an explanatory diagram illustrating an example of a light shielding unit 24 in which a transmission region that transmits a light beam 2 is smaller than openings of a plurality of lenses included in a lens array 25.
  • FIG. 6 is an explanatory diagram illustrating an example of a light shielding unit 24 in which a transmission region that transmits a light beam 2 is smaller than openings of a plurality of lenses included in a lens array 25.
  • FIG. 6 is a configuration diagram showing a moving object observation apparatus including a wavefront measuring apparatus 3 according to a second embodiment.
  • FIG. 6 is a configuration diagram showing a moving object observation apparatus including a wavefront measuring apparatus 3 according to a third embodiment.
  • FIG. 6 is a configuration diagram showing a moving object observation apparatus including a wavefront measuring apparatus 3 according to a fourth embodiment.
  • FIG. 10 is a configuration diagram showing a moving object observation apparatus including a wavefront measuring apparatus 3 according to a fifth embodiment.
  • FIG. 10 is a configuration diagram showing a moving object observation apparatus including a wavefront measuring apparatus 3 according to a sixth embodiment.
  • FIG. 10 is a configuration diagram showing a moving object observation apparatus including a wavefront measuring apparatus 3 according to a seventh embodiment. It is explanatory drawing which shows the luminance distribution estimation process of the moving body 1 by the moving body decompression
  • FIG. 10 It is explanatory drawing which shows the luminance distribution estimation process of the moving body 1 by the moving body decompression
  • FIG. 1 is a configuration diagram illustrating a mobile observation apparatus including a wavefront measuring apparatus 3 according to the first embodiment.
  • a moving body 1 is an object that exists outside or in the atmosphere.
  • the light beam reflected by the moving body 1 or transmitted from the moving body 1 is a light beam 2 that has spread due to fluctuations in the refractive index distribution in the atmosphere.
  • the light beam 2 is incident on the wavefront measuring device 3.
  • the wavefront measuring device 3 is a device that measures a wavefront from an incident light beam 2.
  • the imaging optical system 11 is an optical system that condenses the incident light beam 2.
  • the light beam splitting unit 12 is realized by, for example, a beam splitter.
  • the light beam splitting unit 12 splits the light beam 2 into two by splitting the light amount of the light beam 2 collected by the imaging optical system 11 into two.
  • the beam splitting unit 12 outputs one split beam 2 to the focus adjustment lens 13 and outputs the other split beam 2 to the relay optical system 21.
  • the focus adjustment lens 13 adjusts the optical path length of the light beam 2 output from the light beam splitting unit 12 and outputs the light beam 2 after the optical path length adjustment to the shutter 14.
  • the shutter 14 temporally limits the passage of the light beam 2 output from the focus adjustment lens 13 in order to adjust the light amount of the light beam 2 received by the photodetector 15.
  • the photodetector 15 is realized by an image sensor, for example.
  • the photodetector 15 detects an image of the moving body 1 from the light beam 2 that has passed through the shutter 14, and outputs an intensity image indicating the image of the moving body 1 to the wavefront estimation unit 28. Since the wavefront measuring apparatus 3 includes the focus adjustment lens 13, the shutter 14, and the light detector 15, an intensity image indicating an image of the moving body 1 can be obtained. However, in order for the wavefront measuring apparatus 3 to estimate the wavefront of the light beam 2 at the aperture of the imaging optical system 11, the focus adjustment lens 13, the shutter 14, and the photodetector 15 are not essential components.
  • the relay optical system 21 is an optical system that makes the lens array 25 optically equivalent to the pupil of the imaging optical system 11 so that the light beam 2 output from the light beam dividing unit 12 is in focus in the lens array 25.
  • the focus adjustment lens 22 adjusts the optical path length of the light beam 2 transmitted through the relay optical system 21 and outputs the light beam 2 after the optical path length adjustment to the space dividing unit 23.
  • the space dividing unit 23 includes a light shielding unit 24 and a lens array 25.
  • the space dividing unit 23 divides the light beam 2 output from the focus adjustment lens 22 into a plurality of light beams 2a in a plurality of spatial regions, and the light beams 2a in the plurality of spatial regions are received by a light receiving surface 27a (FIG. 7 or FIG. 8). (See).
  • the light shielding unit 24 partially shields the light beam 2 output from the focus adjustment lens 22 to divide the light beam 2 into light beams 2a in a plurality of spatial regions.
  • the lens array 25 includes a plurality of lenses 25 a (see FIGS.
  • each lens 25 a condenses the light beam 2 a in each spatial region on the light receiving surface 27 a of the photodetector 27.
  • the plurality of spatial regions are regions having uniform shapes and sizes.
  • the plurality of transmission regions where the light beam 2 is not shielded by the light shielding unit 24 and the openings of the plurality of lenses included in the lens array 25 are spatially coincident. Shall. Accordingly, the plurality of spatial regions coincide with the plurality of transmission regions formed by the light shielding unit 24 and also coincide with the openings of the plurality of lenses.
  • the shutter 26 temporally limits the passage of the light beam 2 a output from the lens array 25 in order to adjust the light amount of the light beam 2 a received by the photodetector 27.
  • the photodetector 27 is realized by an image sensor, for example.
  • the photodetector 27 has a light receiving surface 27 a that receives each of the light beams 2 a in a plurality of spatial regions that have passed through the shutter 26.
  • the photodetector 27 detects a focused spot image as an image of the moving body 1 from each light beam 2a received by the light receiving surface 27a, and outputs an intensity image indicating each focused spot image to the wavefront estimating unit 28. Output.
  • the wavefront estimation unit 28 is realized by a computer such as a personal computer or a wavefront estimation circuit.
  • the wavefront estimation unit 28 calculates an approximate value of the wavefront of the light beam 2 at the aperture of the imaging optical system 11 from the positions of the plurality of focused spot images detected by the photodetector 27.
  • the wavefront estimation unit 28 calculates the point image intensity distribution of the plurality of focused spot images using the approximate value, and uses the point image intensity distribution and the plurality of focused spot images at the aperture of the imaging optical system 11. Performs processing to estimate the wavefront.
  • the moving body restoration unit 29 is realized by a computer such as a personal computer or a moving body restoration circuit.
  • the moving body restoration unit 29 performs a process of estimating the luminance distribution of the moving body 1 from the plurality of focused spot images detected by the photodetector 27 and the point image intensity distribution calculated by the wavefront estimation unit 28.
  • the storage device 30 is realized by a storage processing circuit, for example.
  • the storage device 30 is a device that records the wavefront estimated by the wavefront estimating unit 28, the luminance distribution of the moving body 1 estimated by the moving body restoring unit 29, and the like.
  • each of the wavefront estimation circuit and the moving body restoration circuit includes, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an ASIC (Application Specific Integrated Circuit), and an FPGA (Field-Programmable Gate Array). ) Or a combination of these.
  • the memory processing circuit includes, for example, a RAM (Random Access Memory), a ROM (Read Only Memory), a flash memory, an EPROM (Erasable Programmable Read Only Memory), an EEPROM (Electrically Erasable Promable Memory), and the like.
  • a semiconductor memory a magnetic disk, a flexible disk, an optical disk, a compact disk, a mini disk, or a DVD (Digital Versatile Disc).
  • the time calibration unit 41 has a built-in clock, and calibrates the clock time using a GPS signal transmitted from a GPS (Global Positioning System) satellite or an NTP (Network Time Protocol).
  • the clock time calibrated by the time calibration unit 41 reaches a certain time, the counter 42 measures an elapsed time from the certain time.
  • the control device 43 is realized by a computer such as a personal computer.
  • the control device 43 is a device that controls each of the focus adjustment lenses 13 and 22, the shutters 14 and 26, the photodetectors 15 and 27, and the driving device 44 based on the elapsed time measured by the counter 42.
  • the drive device 44 is a device that changes the directivity direction of the imaging optical system 11 in accordance with a control signal output from the control device 43.
  • FIG. 2 is a perspective view showing an appearance of a moving object observation apparatus including the wavefront measuring apparatus 3 according to the first embodiment.
  • a housing 51 includes an imaging optical system 11, a light beam splitting unit 12, focus adjustment lenses 13 and 22, shutters 14 and 26, photodetectors 15 and 27, a relay optical system 21, and a space splitting unit 23.
  • the case 52 includes a wavefront estimation unit 28, a moving body restoration unit 29, a storage device 30, a time calibration unit 41, a counter 42, and a control device 43.
  • Optical components such as lenses and the human pupil transmit light.
  • an optical component such as a mirror reflects light.
  • the atmosphere of the earth is composed of a medium such as oxygen, nitrogen, and water vapor, and light is transmitted in the same manner as an optical component such as a lens. Since the refractive index of a medium such as oxygen fluctuates with changes in temperature and atmospheric pressure, the phase distribution of light transmitted through the earth's atmosphere changes with changes in temperature and atmospheric pressure. Since light is an electromagnetic wave, the phase distribution of light can be grasped as a wavefront.
  • the wavefront measuring apparatus 3 shown in FIG. 1 estimates the wavefront by receiving the light beam 2 reflected by the moving body 1 existing outside or in the atmosphere or the light beam 2 transmitted from the moving body.
  • the wavefront estimated by the wavefront measuring apparatus 3 changes as the refractive index of a medium such as oxygen changes. Although the change in the refractive index of the medium itself is small, the change in the refractive index becomes insignificant compared to the wavelength of the light when the optical path through which light propagates becomes long. Strongly affected by fluctuations.
  • the atmosphere on the ground is affected by the effects of radiation from the sun and heat transport, and is also affected by the rotation of the earth. Therefore, an atmosphere layer is formed between the ground and the sky. The wavefront of light passing through the atmospheric layers is complexly disturbed.
  • FIG. 3 is a flowchart showing a processing procedure of the mobile observation apparatus shown in FIG.
  • the driving device 44 is configured such that the imaging optical system 11 reflects the light beam 2 reflected by the moving body 1 or the light beam 2 transmitted from the moving body 1.
  • the time calibrating unit 41 uses a GPS signal or NTP transmitted from a GPS satellite so that the drive device 44 can control the directivity direction of the imaging optical system 11 with a second angle accuracy. Calibrate.
  • the clock time calibrated by the time calibration unit 41 reaches a certain time
  • the counter 42 measures an elapsed time from the certain time.
  • the control device 43 controls the focus adjustment lenses 13 and 22, the shutters 14 and 26, the photodetectors 15 and 27, and the drive device 44 based on the elapsed time measured by the counter 42.
  • the drive device 44 changes the directing direction of the imaging optical system 11 in accordance with a control signal output from the control device 43.
  • the imaging optical system 11 condenses the incident light beam 2 (step ST1 in FIG. 3).
  • the light beam splitting unit 12 splits the light beam 2 into two by splitting the light amount of the light beam 2 collected by the imaging optical system 11 into two.
  • the beam splitting unit 12 outputs one split beam 2 to the focus adjustment lens 13 and outputs the other split beam 2 to the relay optical system 21.
  • the focus adjustment lens 13 When the focus adjustment lens 13 receives the light beam 2 from the light beam splitter 12, the focus adjustment lens 13 adjusts the optical path length of the light beam 2 according to the control signal output from the control device 43, and outputs the light beam 2 after the optical path length adjustment to the shutter 14.
  • the optical path length of the light beam 2 output from the light beam splitting unit 12 changes with changes in temperature, for example.
  • the control device 43 controls the adjustment amount of the optical path length in the focus adjustment lens 13 so that the optical path length of the light beam 2 output from the light beam splitting unit 12 matches the optical path length at a certain reference temperature.
  • the shutter 14 temporally limits the passage of the light beam 2 output from the focus adjustment lens 13 in accordance with the control signal output from the control device 43 in order to adjust the light amount of the light beam 2 received by the photodetector 15. .
  • the coherence time is generally about 1 to 10 ms.
  • the control device 43 controls the passage time of the light beam 2 in the shutter 14 as described above, the light amount of the light beam 2 received by the photodetector 15 may be reduced.
  • the control device 43 controls the shutter 14 so that the passage and the light shielding of the light beam 2 are repeated a plurality of times, so that the photodetector 15 is moved a plurality of times. It is possible to detect the image.
  • FIG. 4 is an explanatory diagram showing an image of the moving body 1 detected by the photodetector 15.
  • FIG. 4 shows an example in which there are three atmospheric layers between the ground and the sky. 101 is a first atmospheric layer, 102 is a second atmospheric layer, and 103 is a third atmospheric layer.
  • the imaging optical system 11 is schematically represented as a single lens. In general, in order to reduce the aberration of the imaging optical system 11, the imaging optical system 11 is often constituted by a plurality of lenses. In addition, in order to reduce chromatic aberration in the imaging optical system 11, the imaging optical system 11 may be composed of a plurality of reflecting mirrors.
  • the imaging optical system 11 condenses the incident light beam 2 on the light receiving surface of the light detector 15, so that the image 104 of the moving body 1 is formed on the light receiving surface of the light detector 15. Since the wavefront is disturbed when the light beam 2 passes through the first atmospheric layer 101, the second atmospheric layer 102, and the third atmospheric layer 103, the image 104 of the moving object 1 is assumed to be Even an object that can be seen spreads. Therefore, if the spread of the image 104 caused by the aberration of the imaging optical system 11 and the spread of the image 104 caused by the resolution of the photodetector 15 are excluded, the cause of the spread of the image 104 is atmospheric fluctuation.
  • the spread of the image 104 is the spread of the object itself. It is expressed by the spread due to atmospheric fluctuation. Mathematically, if the spread of the object itself satisfies the angle range and isoplanatic angle where the wave fronts can be regarded as equal, the spread of the image 104 is expressed by convolution of the spread of the object itself and the spread due to atmospheric fluctuations.
  • the relay optical system 21 is an optical system in which the lens array 25 is optically equivalent to the pupil of the imaging optical system 11.
  • the relay optical system 21 When receiving the light beam 2 from the light beam dividing unit 12, the relay optical system 21 outputs the light beam 2 to the focus adjustment lens 22. .
  • the focus adjustment lens 22 adjusts the optical path length of the light beam 2 transmitted through the relay optical system 21 according to the control signal output from the control device 43, and the light beam 2 after the optical path length adjustment is applied to the light shielding unit 24 of the space dividing unit 23. Output.
  • the optical path length of the light beam 2 transmitted through the relay optical system 21 changes with a change in temperature.
  • the control device 43 controls the adjustment amount of the optical path length in the focus adjustment lens 22 so that the optical path length of the light beam 2 transmitted through the relay optical system 21 coincides with the optical path length at a certain reference temperature.
  • the space division unit 23 Upon receiving the light beam 2 from the focus adjustment lens 22, the space division unit 23 divides the light beam 2 into a plurality of light beams 2a in a plurality of spatial regions and outputs the light beams 2a in the plurality of space regions to the shutter 26 (step ST2 in FIG. 3). ). That is, when the light shielding unit 24 receives the light beam 2 from the focus adjustment lens 22, the light shielding unit 24 partially shields the light beam 2 to divide the light beam 2 into light beams 2 a in a plurality of spatial regions. The light shielding unit 24 outputs the light beams 2 a in a plurality of spatial regions to the lens array 25.
  • each lens 25 a included in the lens array 25 receives the light beam 2 a in each spatial region from the light shielding unit 24, the lens 25 a condenses the light beam 2 a in each spatial region on the light receiving surface 27 a of the photodetector 27.
  • the shutter 26 temporally limits the passage of the light beam 2 a output from the lens array 25 in accordance with a control signal output from the control device 43 in order to adjust the light amount of the light beam 2 a received by the photodetector 27.
  • a control signal output from the control device 43 in order to adjust the light amount of the light beam 2 a received by the photodetector 27.
  • the control device 43 controls the passage time of the light beam 2a in the shutter 26, the light amount of the light beam 2a received by the photodetector 27 may be reduced.
  • the control device 43 controls the shutter 26 so that the light beam 2a passes and is shielded a plurality of times, so that the photodetector 27 is moved a plurality of times. It is possible to detect the image.
  • the photodetector 27 detects a condensed spot image as an image of the moving body 1 from each light beam 2 a that has passed through the shutter 26, and outputs an intensity image indicating the plurality of condensed spot images to the wavefront estimating unit 28. (Step ST3 in FIG. 3).
  • FIG. 5 is an explanatory diagram showing an image of the moving body 1 detected by the photodetector 27. 5, the same reference numerals as those in FIG. 4 denote the same or corresponding parts. In FIG. 5, the change of the light flux by the imaging optical system 11 and the relay optical system 21 is omitted.
  • Each lens 25a included in the lens array 25 condenses the light flux 2a in each spatial region on the light receiving surface 27a of the photodetector 27, so that the light receiving surface 27a of the photodetector 27 has a spatial region.
  • the image 105 of the moving body 1 is formed by the number of.
  • the plurality of images 105 formed on the light receiving surface 27a of the photodetector 27 has a spread caused by atmospheric fluctuations, and can be used for wavefront estimation.
  • FIG. 6 is an explanatory diagram showing an image of the moving body 1 detected by the photodetector 27 when the wavefront varies depending on the propagation path. 6, the same reference numerals as those in FIGS. 4 and 5 denote the same or corresponding parts.
  • Each of the light beam 4, the light beam 5, and the light beam 6 is a light beam reflected by the moving body 1 or a light beam transmitted from the moving body 1.
  • the luminous flux 4, the luminous flux 5 and the luminous flux 6 are different from each other in the contribution of fluctuations in the atmospheric layer, and the propagation path of the luminous flux 4, the propagation path of the luminous flux 5, and the propagation path of the luminous flux 6 are different from each other.
  • the light beams 2a in the plurality of spatial regions collected by the lens array 25 on the light receiving surface 27a of the photodetector 27 are the light beam 4, the light beam 5, and the light beam 6, respectively, 4, the light beam 5 and the light beam 6 form an image 106 of the moving body 1.
  • the plurality of images 106 formed on the light receiving surface 27a of the photodetector 27 have a spread due to atmospheric fluctuations, and can be used for wavefront estimation.
  • FIG. 7 and 8 are explanatory diagrams showing the relationship between the image of the moving body 1 detected by the photodetector 27 and the wavefront.
  • FIG. 7 shows an example in which the light beam 2 is propagated without spreading in the traveling direction
  • FIG. 8 shows an example in which the light beam 2 is propagated while spreading in the traveling direction.
  • 106a is an image of the moving body 1 when the light beam 2 is propagated without spreading in the traveling direction
  • 106b is propagated while the light beam 2 spreads in the traveling direction. It is an image of the moving body 1 when When the light beam 2 is propagated without spreading in the traveling direction, as shown in FIG. 7, the position of the image 106a of the moving body 1 collected by each lens 25a of the lens array 25 is the light shielding portion 24.
  • the position of the image 106b of the moving body 1 collected by each lens 25a of the lens array 25 is set by the light shielding unit 24 as shown in FIG.
  • the position of each of the divided space areas is shifted.
  • the wavefront 107a is obtained from the positions of the plurality of images 106a of the moving body 1
  • the wavefront 107b is obtained from the positions of the plurality of images 106b of the moving body 1.
  • 7 and 8 show an example in which a plurality of spatial regions divided by the light shielding unit 24 are arranged in a lattice pattern.
  • the arrangement is not limited to this.
  • the arrangement of the plurality of space regions may be a honeycomb arrangement.
  • 7 and 8 show an example in which the light shielding region where the light beam 2 is shielded, that is, the region other than the transmission region that transmits the light beam 2 is painted black.
  • the light shielding region is not required to transmit unnecessary light, and may be painted in a color other than black.
  • the light shielding region may be colored or processed to absorb unnecessary light, or may be colored or processed to scatter unnecessary light.
  • FIG. 9 is a flowchart showing the processing procedure of the wavefront estimation unit 28 and the moving body restoration unit 29.
  • the processing content of the wavefront estimation unit 28 will be described in detail with reference to FIG.
  • the wavefront estimation unit 28 receives an intensity image indicating a plurality of focused spot images from the light detector 27, the light flux at the aperture of the imaging optical system 11 is determined from the positions of the plurality of focused spot images indicated by the intensity image. 2 is calculated (step ST11 in FIG. 9). Since the processing itself for calculating the approximate value of the wavefront from the positions of the plurality of focused spot images is a known technique, detailed description thereof is omitted.
  • a method for estimating a wavefront from the positions of a plurality of focused spot images is disclosed in Non-Patent Document 1 below, for example. [Non-patent document 1] National Astronomical Observatory of Japan vol.2 No.2
  • the control device 43 controls the shutter 26 so that the passage of the light beam 2 a and the light shielding are repeated a plurality of times, so that N intensity images are output from the photodetector 27 to the wavefront estimation unit 28.
  • a mode of obtaining the position of the center of gravity of the point image as the position of the focused spot image can be considered.
  • the wavefront can be obtained from the interval between the plurality of focused spot images or the relative position of the plurality of focused spot images. Therefore, as the position of the focused spot image, an aspect in which the cross-correlation of the plurality of focused spot images or the interval between the characteristic positions of the focused spot images is considered.
  • Wavefront estimation unit 28 the n-th multiple of the wave front of the phase which is estimated values calculated from the position of the focused spot images shown intensity image of the [Phi 0, n.
  • the wavefront estimation unit 28 uses the phase ⁇ 0, n as the initial value of the phase ⁇ n (u, v) of the wavefront of the light beam 2 at the aperture of the imaging optical system 11 as shown in the following equation (1).
  • (U, v) are the coordinates of the pupil space.
  • FIG. 10 illustrates the case where the moving body 1 moves relative to the wavefront measuring device 3 and includes the aperture of the imaging optical system 11, each aperture in a plurality of spatial regions, and the image 106 of the moving body 1.
  • M 0 (u, v) is the aperture of the imaging optical system 11.
  • M 1 (u, v), M 2 (u, v),..., M M (u, v) is an opening in each of a plurality of spatial regions.
  • the pupil function G m, n (u, v) represented by the wavefront aberration and the amplitude distribution on the pupil is an imaging optical system corresponding to the nth intensity image, as shown in the following equation (2).
  • 11 is represented by the phase ⁇ n (u, v) of the wavefront of the light beam 2 at the aperture of 11 and the aperture M m (u, v). Since the aperture M m (u, v) is known, and the initial value of the phase ⁇ n (u, v) is the approximate wavefront phase ⁇ 0, n , the pupil function G m, n (u , V) is calculated from the phase ⁇ n (u, v) and the aperture M m (u, v).
  • the amplitude spread function a m, n (u, v) is obtained by inverse Fourier transforming the pupil function G m, n (u, v) as shown in the following equation (4).
  • F ⁇ 1 is a symbol representing the inverse Fourier transform.
  • Point spread function k m point spread shows a, n (x, y), as shown in the following equation (5), the amplitude spread function a m, and n (u, v), the amplitude spread function a m , N (u, v) and the complex conjugate.
  • (X, y) are real space coordinates.
  • the luminance distribution of the moving body 1 is represented by o (p, q) and the noise generated by the photodetector 27 is represented by em , n (x, y), the aperture Mm (u, u, m ) in the mth spatial region.
  • An image im , n (x, y) of the moving body 1 corresponding to v) is expressed by the following equation (6).
  • (P, q) are real space coordinates indicating the position where the moving body 1 exists.
  • the luminance distribution o (p, q) of the moving body 1 is the intensity of the light beam 2 reflected by the moving body 1 or the intensity of the light beam 2 transmitted from the moving body 1.
  • Expression (6) is expressed by Expression (7) below.
  • the image i m of the moving body 1 n (x, y) is the point spread function k m, and n (x, y), the convolution of the intensity distribution of the moving body 1 o (p, q)
  • noise em , n (x, y) generated in the photodetector 27 is added to the equations (6) and (7).
  • the following equation (8) is an image of the moving body 1 obtained from the luminance distribution o (p, q) of the moving body 1 and the point spread function km , n (x, y) indicating the point image intensity distribution.
  • the point spread function km , n (x, y) is obtained from Expression (2), Expression (4), and Expression (5). Therefore, in Equation (8), the only unknown value is the luminance distribution o (p, q) of the moving body 1.
  • the luminance distribution o (p, q) of the moving body 1 is obtained by searching for o (p, q) that minimizes the sum of squared differences e.
  • the moving body 1 moves relative to the wavefront measuring device 3, and even if the driving device 44 changes the directivity direction of the imaging optical system 11, the relative movement between the moving body 1 and the wavefront measuring device 3 is It cannot be completely canceled. Therefore, the relative position of the moving body 1 changes as the time t changes.
  • the luminance distribution o (p, q) of the moving body 1 does not depend on the frame and does not change. However, it is assumed that the wavefront changes from frame to frame.
  • equation (8) is Fourier transformed, and the square sum e of the difference shown in equation (8) is the square sum E of the difference in the phase space.
  • I m, n (u, v) is a spectrum of im , n (x, y) and is expressed as the following Expression (10).
  • F is a symbol representing Fourier transform.
  • is a coefficient introduced for stabilizing the solution.
  • K m, n (u, v) is an autocorrelation of the pupil function G m, n (u, v) and is expressed by the following equation (12).
  • K m, n (u, v) is not normalized but is an optical transfer function.
  • Equation (13) The sum of squares E of the difference shown in the equation (13) is the aperture M m (p, q), the phase ⁇ n (p, q), and the spectrum I of the image im , n (x, y) of the moving body 1. It is represented by m, n (u, v) and does not depend on the spectrum O (u, v) of the luminance distribution o (p, q) of the moving body 1 that is unknown.
  • the wavefront W n (u, v) can be estimated by the equation (2) if the phase ⁇ n (u, v) at which the square sum Err of the difference shown in the following equation (14) is minimized.
  • the luminance distribution o (p, q) of the moving body 1 is obtained even by estimating the wavefront W n (u, v) by obtaining the phase ⁇ n (u, v) that minimizes the square sum Err of the difference.
  • the equation (14) does not depend on the luminance distribution o (p, q) of the moving body 1. Therefore, a strong calculational constraint that the luminance distribution o (p, q) of the moving body 1 is a real number larger than 0 in real space is not given.
  • the main noise is shot noise and readout noise.
  • the readout noise follows a normal distribution and has a median value of 0 and a standard deviation of ⁇ . Shot noise is proportional to the luminance distribution of the acquired frame. Therefore, when Expression (15) is normalized with noise, Expression (16) is obtained. If the ratio of the difference r m, n (x, y) in the real space to noise is larger than 1, the deviation is large. If it is 1, there is no deviation, and if it is smaller than 1, the deviation is small. To do.
  • a likelihood function shown in the following equation (17) is introduced.
  • d m (x, y) is a weight given to the difference r m, n (x, y). For example, a frame with a large deviation is given a low weight because the reliability is low. .
  • the calculation amount can be reduced by setting the weight of the area to be calculated to 1 and the weight of the area to omit the calculation to 0. The above is the principle of the wavefront estimation process and the principle of the luminance distribution estimation process of the moving body 1.
  • Wavefront estimation unit 28 when the wavefront phase approximations and [Phi 0, n, the [Phi 0, n, is set to an initial value of the formula [Phi n (u, v) shown in (2).
  • the wavefront estimation unit 28 calculates the point spread function km , n (x, y) indicating the point image intensity distribution by calculating Expression (2), Expression (4), and Expression (5) (FIG. 9). Step ST12).
  • Wavefront estimation unit 28 the point spread function k m, n (x, y ) and the image i m of the moving body 1, n (x, y) respectively by Fourier transform, the optical transfer function K m, n ( u, v) and a spectrum I m, n (u, v) of the image im , n (x, y) of the moving body 1 are obtained (step ST13 in FIG. 9).
  • the wavefront estimation unit 28 substitutes the optical transfer function K m, n (u, v) and the spectrum I m, n (u, v) into the equation (14), and calculates the square sum Err of the difference (in FIG. 9). Step ST14).
  • the wavefront estimating unit 28 determines whether or not the phase search process has converged (step ST15 in FIG. 9). As a convergence determination in the phase search process, for example, there is a method of determining that the convergence is achieved if the calculated square sum Err of the difference is equal to or less than a first allowable error set in advance.
  • the square sum Err of the difference calculated when it is determined that the convergence has occurred is the minimum square sum Err.
  • the first allowable error is assumed to be stored in, for example, the internal memory of the wavefront estimation unit 28 or the storage device 30. Further, as the convergence determination of the phase search process, for example, while changing the phase ⁇ n (u, v), the square sum Err of the difference is calculated a preset number of times, and the calculated sum of squares Err is If the minimum square sum Err is specified, there is a method for determining that the sum has converged.
  • the wavefront estimation unit 28 changes the phase ⁇ n (u, v) shown in Expression (2) (step in FIG. 9). ST16), the changed phase ⁇ n (u, v) is set in the equation (2). The wavefront estimation unit 28 performs the processes of steps ST12 to ST15 again.
  • the phase ⁇ n (u, v) after the change may be any phase as long as it has not yet been set in the equation (2), but should be a phase that makes the square sum Err of the difference small. Is desirable. If the phase search process has converged (in the case of step ST15 in FIG. 9: YES), the wavefront estimation unit 28 ends the phase search process.
  • the wavefront estimation unit 28 substitutes the phase ⁇ n (u, v) for which the minimum square sum Err is calculated into the expression (3), so that the wavefront estimation unit 28 at the aperture of the imaging optical system 11
  • the wave front W n (u, v) of the light beam 2 is estimated (step ST17 in FIG. 9).
  • the estimated wavefront W n (u, v) is a wavefront with higher accuracy than the wavefront as the approximate value calculated in step ST11.
  • the wavefront estimation unit 28 outputs the wavefront W n (u, v) to the storage device 30. Further, the wavefront estimation unit 28 outputs a point spread function km , n (x, y) corresponding to the phase ⁇ n (u, v) for which the minimum square sum Err is calculated to the moving body restoration unit 29.
  • the moving object restoration unit 29 includes the point spread function km , n (x, y) output from the wavefront estimation unit 28 and the image im , n of the moving object 1 indicated by the intensity image output from the photodetector 27. From (x, y), the luminance distribution o (p, q) of the moving body 1 is estimated (step ST5 in FIG. 3). Hereinafter, the luminance distribution estimation process of the moving body 1 by the moving body restoring unit 29 will be described in detail.
  • the moving body restoration unit 29 includes the point spread function km , n (x, y) output from the wavefront estimation unit 28 and the image im of the moving body 1 indicated by the intensity image output from the photodetector 27 . Substituting n (x, y) into equation (16), the difference rm , n (x, y) is calculated. Further, the moving body restoration unit 29 substitutes the difference r m, n (x, y) into the equation (17) to calculate the square sum e of the difference (step ST18 in FIG. 9). Here, it is assumed that the weight d m (x, y) shown in Expression (17) is fixed to a preset value, but is changed by the moving body restoration unit 29. Also good.
  • the moving body restoration unit 29 determines whether or not the luminance distribution estimation process of the moving body 1 has converged (step ST19 in FIG. 9).
  • a convergence determination of the luminance distribution estimation process of the mobile body for example, there is a method of determining that the convergence is achieved if the calculated square sum e of differences is equal to or less than a second allowable error set in advance.
  • the sum of squares e of the difference calculated when it is determined that it has converged is the minimum square sum e. It is assumed that the second allowable error is stored in, for example, the internal memory of the moving body restoration unit 29 or the storage device 30.
  • the square sum e of the difference is calculated a predetermined number of times while changing the luminance distribution o (p, q) of the mobile object 1, There is a method of determining that convergence is achieved when the minimum square sum e is specified among the calculated sums of squares e.
  • the moving body restoring unit 29 determines the luminance distribution o (p, q of the moving body 1 shown in Expression (16). ) Is changed (step ST20 in FIG. 9), and the processes of steps ST18 to ST19 are performed again.
  • the luminance distribution o (p, q) after the change may be any luminance distribution as long as it is not yet set in the equation (16), but the luminance distribution is such that the square sum e of the differences becomes small. It is desirable that If the luminance distribution estimation process of the moving object 1 has converged (in the case of step ST19 in FIG.
  • the moving object restoration unit 29 obtains the minimum square sum e as the luminance distribution estimation process result of the moving object 1.
  • the calculated luminance distribution o (p, q) of the moving body 1 is output to the storage device 30 (step ST21 in FIG. 9).
  • the wavefront estimation unit 28 calculates the approximate value of the wavefront of the light flux at the aperture of the imaging optical system 11 from the positions of the plurality of focused spot images detected by the photodetector 27.
  • the wavefront measuring device 3 is configured to calculate the point image intensity distribution of the plurality of focused spot images using the approximate value and to estimate the wavefront from the point image intensity distribution and the plurality of focused spot images. Therefore, the wavefront measuring apparatus 3 can measure the wavefront without mounting a control mechanism that realizes high-speed movement such as a lenslet array.
  • the moving body restoration unit 29 uses the light spot distribution detected by the photodetector 27 and the point image intensity distribution calculated by the wavefront estimation unit 28 to obtain the luminance distribution of the moving body 1.
  • the mobile object observation device was configured to estimate Therefore, the mobile object observation apparatus can estimate the luminance distribution of the mobile object 1.
  • the wavefront estimation unit 28 uses the point image intensity distribution and the plurality of focused spot images detected by the photodetector 27 to detect the light flux 2 at the aperture of the imaging optical system 11.
  • the wave front W n (u, v) is estimated.
  • the wavefront estimation unit 28 calculates the point image intensity distribution using the equations (2), (4), and (5), and then detects the point image intensity distribution and the photodetector 15.
  • the wave front W n (u, v) may be estimated from the focused spot image.
  • FIG. 11 is an explanatory diagram illustrating an example of the light shielding unit 24 in which the apertures of a plurality of lenses included in the lens array 25 and the transmission region that transmits the light beam 2 are the same.
  • the plurality of transmission regions of the light shielding unit 24 may be smaller than the openings of the plurality of lenses included in the lens array 25. That is, a part of the opening (partial opening) may be a transmission region.
  • the plurality of transmission areas are smaller than the openings of the plurality of lenses, the plurality of spatial areas coincide with the plurality of transmission areas, but do not coincide with the openings of the plurality of lenses.
  • 12 and 13 are explanatory diagrams illustrating an example of the light shielding unit 24 in which the transmission region that transmits the light beam 2 is smaller than the openings of the plurality of lenses included in the lens array 25. 12 and 13 do not illustrate the openings of the plurality of lenses included in the lens array 25, but the plurality of transmission regions illustrated in FIGS. 12 and 13 are formed from the openings of the plurality of lenses. Is also small.
  • region where the light beam 2 is light-shielded may be contained in several transmissive area
  • the shape of the plurality of spatial regions is a ring shape.
  • FIG. 14 is an explanatory diagram illustrating an example of the light shielding unit 24 in which a region where the light flux 2 is shielded is included in a plurality of transmission regions.
  • transmissive regions having different shapes or sizes may be mixed.
  • 15 and 16 are explanatory diagrams illustrating an example of the light shielding unit 24 in which transmission regions having different shapes or sizes are mixed.
  • the spatial region coincides with the transmissive region but does not coincide with the lens opening.
  • Embodiment 2 FIG.
  • the space dividing unit 23 includes one light shielding unit 24.
  • the space dividing unit 61 includes a first light shielding unit 24a and a second light shielding unit 24b as two light shielding units.
  • FIG. 17 is a configuration diagram illustrating a moving object observation apparatus including the wavefront measurement apparatus 3 according to the second embodiment.
  • the space dividing unit 61 includes an optical switch 62, a first light shielding unit 24 a, a second light shielding unit 24 b, and the lens array 25.
  • the space dividing unit 61 divides the light beam 2 output from the focus adjustment lens 22 into a plurality of light beams 2 a in a plurality of spatial regions, and the light beams 2 a in the plurality of space regions are shutter 26. Output to.
  • the optical switch 62 has an input side connected to the output side of the focus adjustment lens 22, a first output side connected to the input side of the first light shielding portion 24a, and a second output side connected to the input side of the second light shielding portion 24b. Connected with.
  • the optical switch 62 switches the output destination of the light beam 2 output from the focus adjustment lens 22 by the control device 63, and outputs the light beam 2 to the first light shielding unit 24a or the second light shielding unit 24b.
  • the first light shielding unit 24a partially shields the light beam 2 output from the optical switch 62, thereby dividing the light beam 2 into a plurality of light beams 2a in the first spatial region.
  • the second light shield 24b partially shields the light beam 2 output from the optical switch 62, thereby dividing the light beam 2 into a plurality of light beams 2a in the second spatial region.
  • the shape or size of the plurality of transmission regions where the light beam 2 is not shielded by the first light shielding unit 24a is different from the shape or size of the plurality of transmission regions where the light beam 2 is not shielded by the second light shielding unit 24b. For example, a mode in which the first light shielding part 24a is the light shielding part shown in FIG.
  • first light-shielding part 24a and the second light-shielding part 24b have different shapes or sizes in the plurality of transmission regions, the shapes or sizes in the plurality of first space regions and the plurality of second space regions It is different from shape or size.
  • the control device 63 is realized by a computer such as a personal computer.
  • the control device 63 is similar to the control device 43 shown in FIG. It is a device that controls. Further, the control device 63 controls the output destination of the light beam 2 in the optical switch 62.
  • the size of the spatial region through which the light beam 2 is transmitted is small, the amount of light of the transmitted light beam 2 is reduced as compared with the case where the light beam 2 is large.
  • the correlation between the plurality of focused spot images and the wavefront increases. Therefore, the wavefront estimation process performed by the wavefront estimation unit 28 ends earlier when the size of the spatial region is small than when the size of the spatial region is large.
  • the size of the first spatial region corresponding to the transmission region of the first light shielding unit 24a is larger than the size of the second spatial region corresponding to the transmission region of the second light shielding unit 24b. It shall be small.
  • the control device 63 gives priority to shortening the processing time of the wavefront estimation process
  • the light beam 2 is output from the optical switch 62 to the first light shielding unit 24a in the first stage of the estimation process.
  • the output destination of the light beam 2 in the switch 62 is controlled.
  • the control device 63 controls the output destination of the light beam 2 in the optical switch 62 so that the light beam 2 is output from the optical switch 62 to the second light-shielding portion 24b when the wavefront estimation process proceeds and approaches the convergence. To do.
  • the control device 63 By controlling the output destination of the light beam 2 by the control device 63, the light beam 2 a output from the second light shielding unit 24 b is given to the lens array 25. For example, if the square sum Err of the difference shown in Expression (14) is smaller than the threshold value, the control device 63 can determine that the convergence is approaching.
  • the threshold value is stored in the internal memory of the control device 63 or the storage device 30. Threshold> first tolerance.
  • the control device 63 performs control so that the light beam 2 is output from the optical switch 62 to the first light shielding unit 24a. Shows an example in which control is performed so as to be output to the second light shielding portion 24b. However, this is only an example.
  • the control device 63 performs control so that the light flux 2 is output from the optical switch 62 to the first light shielding unit 24a in the odd-numbered frame among the plurality of frames, and the light flux 2 is output from the optical switch 62 in the even-numbered frame. You may control so that it may output to the 2nd light-shielding part 24b.
  • the wavefront measuring device 3 is configured such that the space dividing unit 61 includes the optical switch 62, the first light shielding unit 24a, the second light shielding unit 24b, and the lens array 25. Therefore, for example, the wavefront measuring apparatus 3 of the second embodiment can shorten the time until the estimation result of the wavefront is obtained, compared to the wavefront measuring apparatus 3 of the first embodiment.
  • the space dividing unit 61 includes a first light shielding unit 24a and a second light shielding unit 24b as two light shielding units.
  • the space dividing unit 61 may include three or more light shielding units.
  • the control device 63 controls the output destination of the light beam 2 in the optical switch 62 so that the output destination of the light beam 2 output from the focus adjustment lens 22 is one of three or more light shielding units.
  • FIG. 18 is a configuration diagram illustrating a moving object observation apparatus including the wavefront measurement apparatus 3 according to the third embodiment.
  • the space division unit 64 includes a light shielding unit 24, shutters 65 a, 65 b, 65 c, and a lens array 25.
  • shutters 65 a, 65 b, 65 c, and a lens array 25 are arranged in FIG.
  • the space dividing unit 64 divides the light beam 2 output from the focus adjustment lens 22 into a plurality of light beams 2 a in a plurality of spatial regions, and the light beams 2 a in the plurality of space regions are shutter 26. Output to.
  • the light shielding unit 24 included in the space dividing unit 64 includes a mixture of transmission regions having different shapes or sizes. If the light shielding part 24 is, for example, the light shielding part shown in FIG. 16, three types of transmission regions are mixed. In the third embodiment, for convenience of explanation, it is assumed that the light shielding unit 24 is the light shielding unit shown in FIG.
  • the shutter 65 a is installed so as to face the first transmission region group in the light shielding unit 24.
  • the shutter 65 a adjusts the light amount of the light beam 2 a transmitted through the plurality of transmission regions included in the first transmission region group, and outputs the light beam 2 a after the light amount adjustment to the lens array 25.
  • the shutter 65 b is installed so as to face the second transmission region group in the light shielding unit 24.
  • the shutter 65b adjusts the light amount of the light beam 2a that has passed through the plurality of transmission regions included in the second transmission region group, and outputs the light beam 2a after the light amount adjustment to the lens array 25.
  • the shutter 65 c is installed so as to face the third transmission region group in the light shielding unit 24.
  • the shutter 65 b adjusts the light amount of the light beam 2 a that has been transmitted through the plurality of transmission regions included in the third transmission region group, and outputs the light beam 2 a after the light amount adjustment to the lens array 25.
  • the space dividing unit 64 includes three shutters 65a, 65b, and 65c. However, this is only an example, and for example, if the light shielding unit 24 includes four transmission region groups, the space division unit 64 includes four shutters.
  • the control device 66 is realized by a computer such as a personal computer. As with the control device 43 shown in FIG. 1, the control device 66 is based on the elapsed time measured by the counter 42, the focus adjustment lenses 13 and 22, the shutters 14 and 26, the photodetectors 15 and 27, and the drive device 44. It is a device that controls. Further, the control device 66 controls the adjustment of the light amount in the shutters 65a, 65b, 65c.
  • the weight of the second transmission region group is the weight of the first and third transmission region groups.
  • the adjustment of the amount of light in the shutters 65a, 65b, 65c is controlled so as to be larger. Specifically, the control device 66 controls the adjustment of the light amount in the shutters 65a, 65b, and 65c so that the light amount that passes through the shutter 65b is larger than the light amount that passes through the shutters 65a and 65c.
  • the control device 66 causes the shutter 65a so that the weight of the second transmission region group is the same as the weight of the first and third transmission region groups.
  • control device 66 controls the adjustment of the light amount in the shutters 65a, 65b, and 65c so that the light amount that passes through the shutter 65b becomes the same as the light amount that passes through the shutters 65a and 65c.
  • the control device 66 causes the shutters 65a, 65b, and 65c so that the weights of the second transmissive region group are larger than the weights of the first and third transmissive region groups. Controls the adjustment of the amount of light.
  • the control device 66 causes the light amounts in the shutters 65a, 65b, and 65c so that the weights of the second transmission region group and the first and third transmission region groups become the same. Control of the adjustment.
  • the control device 66 controls the shutters 65a, 65b, and 65c so that the weights of the second transmissive region group are larger than the weights of the first and third transmissive region groups in the odd frames of the plurality of frames.
  • control device 66 adjusts the light amount in the shutters 65a, 65b, and 65c so that the weights of the first and third transmission region groups are larger than the weights of the second transmission region group in the even-numbered frame. It may be controlled.
  • the wavefront measuring device 3 is configured such that the space dividing unit 64 includes the light shielding unit 24, the shutters 65a, 65b, and 65c, and the lens array 25. Therefore, for example, the wavefront measuring apparatus 3 according to the third embodiment can shorten the time until the wavefront estimation result is obtained, compared with the wavefront measuring apparatus 3 according to the first embodiment.
  • FIG. 19 is a configuration diagram illustrating a moving body observation apparatus including the wavefront measurement apparatus 3 according to the fourth embodiment.
  • the same reference numerals as those in FIG. 19 are identical reference numerals as those in FIG.
  • the light beam splitting unit 70 is realized by, for example, a beam splitter.
  • the light beam splitting unit 70 splits the light beam 2 into three by dividing the light amount of the light beam 2 collected by the imaging optical system 11 into three.
  • the beam splitting unit 70 outputs each split beam 2 to the focus adjustment lens 13, the relay optical system 21, and the relay optical system 71.
  • the relay optical system 71 is an optical system that makes the lens array 75 optically equivalent to the pupil of the imaging optical system 11 so that the light beam 2 output from the light beam splitting unit 70 is in focus in the lens array 75.
  • the focus adjustment lens 72 adjusts the optical path length of the light beam 2 transmitted through the relay optical system 71, and outputs the light beam 2 after the optical path length adjustment to the space dividing unit 73.
  • the space division unit 73 includes a light shielding unit 74 and a lens array 75.
  • the space dividing unit 73 divides the light beam 2 output from the focus adjustment lens 72 into a plurality of light beams 2 a in a plurality of spatial regions, and outputs the light beams 2 a in the plurality of space regions to the shutter 76.
  • the space dividing unit 23 is a first space dividing unit
  • the space dividing unit 73 is a second space dividing unit.
  • the light blocking unit 74 partially blocks the light beam 2 output from the focus adjustment lens 72, thereby dividing the light beam 2 into light beams 2a in a plurality of spatial regions.
  • the lens array 75 includes a plurality of lenses and condenses the light beams 2 a in a plurality of spatial regions on the light receiving surface of the photodetector 77.
  • the shape or size of the plurality of transmission regions where the light beam 2 is not shielded by the light shielding unit 24 is different from the shape or size of the plurality of transmission regions where the light beam 2 is not shielded by the light shielding unit 74.
  • the shape or size of the plurality of space regions into which the light beam is divided by the space dividing unit 23 is different from the shape or size of the plurality of space regions into which the light beam is divided by the space dividing unit 73.
  • the size of the spatial region corresponding to the transmission region of the light shielding unit 74 is smaller than the size of the spatial region corresponding to the transmission region of the light shielding unit 24.
  • the shutter 76 temporally limits the passage of the light beam 2 a output from the lens array 75 in order to adjust the light amount of the light beam 2 a received by the photodetector 77.
  • the photodetector 77 is realized by an image sensor, for example.
  • the photodetector 77 has a light receiving surface that receives each of the light beams 2 a in the plurality of spatial regions that have passed through the shutter 76.
  • the light detector 77 detects a focused spot image as an image of the moving body 1 from each light beam 2 a received by the light receiving surface, and outputs an intensity image indicating each focused spot image to the wavefront estimating unit 78. To do.
  • the photodetector 27 is a first photodetector
  • the photodetector 77 is a second photodetector.
  • the wavefront estimation unit 78 is realized by a computer such as a personal computer or a wavefront estimation circuit.
  • the wavefront estimator 78 determines the light flux at the aperture of the imaging optical system 11 from the positions of the plurality of focused spot images detected by the photodetector 27 or the positions of the plurality of focused spot images detected by the photodetector 77.
  • the process which calculates the rough value of 2 wavefronts is implemented.
  • the wavefront estimation unit 78 calculates a plurality of focused spot images detected by the photodetector 27 using the approximate value of the wavefront, or points of the plurality of focused spot images detected by the photodetector 77. Processing for calculating the image intensity distribution is performed.
  • the wavefront estimation unit 78 uses the calculated point image intensity distribution and the focused spot image detected by the photodetector 27 or the focused spot image detected by the photodetector 77 at the aperture of the imaging optical system 11. Processing for estimating the wavefront of the light beam 2 is performed.
  • the moving body restoration unit 79 is realized by a computer such as a personal computer or a moving body restoration circuit.
  • the moving body restoring unit 79 includes a plurality of focused spot images detected by the photodetector 27 or a plurality of focused spot images detected by the photodetector 77 and a point image intensity distribution estimated by the wavefront estimating unit 78. Then, the process of estimating the luminance distribution of the moving body 1 is performed.
  • the control device 80 is realized by a computer such as a personal computer.
  • the control device 80 is a device that controls the focus adjustment lenses 13, 22, 72, the shutters 14, 26, 76, the photodetectors 15, 27, 77 and the driving device 44 based on the elapsed time measured by the counter 42. is there.
  • the light beam splitting unit 70 splits the light beam 2 into three by dividing the light amount of the light beam 2 collected by the imaging optical system 11 into three.
  • the beam splitting unit 70 outputs each split beam 2 to the focus adjustment lens 13, the relay optical system 21, and the relay optical system 71.
  • the relay optical system 71 When the relay optical system 71 receives the light beam 2 from the light beam splitter 70, the relay optical system 71 outputs the light beam 2 to the focus adjustment lens 72.
  • the focus adjustment lens 72 adjusts the optical path length of the light beam 2 transmitted through the relay optical system 71 according to the control signal output from the control device 80, and the light beam 2 after the optical path length adjustment is supplied to the light shielding unit 74 of the space dividing unit 73. Output.
  • the optical path length of the light beam 2 transmitted through the relay optical system 71 changes with a change in temperature.
  • the control device 80 controls the adjustment amount of the optical path length in the focus adjustment lens 72 so that the optical path length of the light beam 2 transmitted through the relay optical system 71 matches the optical path length at a certain reference temperature.
  • the light blocking unit 74 When receiving the light beam 2 from the focus adjustment lens 72, the light blocking unit 74 partially blocks the light beam 2 to divide the light beam 2 into light beams 2a in a plurality of spatial regions.
  • the light shielding unit 74 outputs the light beams 2 a in a plurality of spatial regions to the lens array 75.
  • the lens array 75 receives the light fluxes 2a in the plurality of spatial regions from the light shielding portion 74, the light fluxes 2a in the plurality of spatial regions are condensed so that the light fluxes 2a in the plurality of spatial regions are collected on the light receiving surface of the photodetector 77. Is output to the shutter 76.
  • the shutter 76 temporally limits the passage of the light beam 2a output from the lens array 75 in accordance with a control signal output from the control device 80 in order to adjust the light amount of the light beam 2a received by the photodetector 77.
  • a control signal output from the control device 80 in order to adjust the light amount of the light beam 2a received by the photodetector 77.
  • the control device 80 controls the passage time of the light beam 2a in the shutter 76 as described above, the light amount of the light beam 2a received by the photodetector 77 may be reduced.
  • the control device 80 controls the shutter 76 so that the light beam 2a is passed and shielded a plurality of times, so that the photodetector 77 is moved a plurality of times. It is possible to detect the image.
  • the photodetector 77 detects a condensed spot image as an image of the moving body 1 from each light beam 2 that has passed through the shutter 76, and outputs an intensity image indicating each condensed spot image to the wavefront estimating unit 78. To do.
  • the wavefront estimation unit 78 estimates the wavefront of the light beam 2 at the aperture of the imaging optical system 11 by performing a wavefront estimation process similar to that of the wavefront estimation unit 28 shown in FIG. However, the wavefront estimation unit 78 uses a plurality of condensing spot images detected by the photodetector 27 or a plurality of condensing spot images detected by the photodetector 77 as the condensing spot images used to perform the wavefront estimation processing. 1 is different from the wavefront estimation unit 28 shown in FIG.
  • the controller 80 collects the light beam 2 output from the space dividing unit 73 on the light receiving surface of the photodetector 77 and outputs the light beam output from the space dividing unit 23.
  • the shutters 26 and 76 are controlled so that 2 is not condensed on the light receiving surface 27 a of the photodetector 27.
  • the control unit 80 controls the shutters 26 and 76 so that the light beam 2 output from the space dividing unit 73 is condensed on the light receiving surface of the photodetector 77, and is detected by the photodetector 77.
  • An intensity image showing a plurality of focused spot images is given to the wavefront estimation unit 78.
  • the controller 80 When the controller 80 approaches the convergence, the light beam 2 output from the space dividing unit 23 is condensed on the light receiving surface 27a of the photodetector 27, and the light beam 2 output from the space dividing unit 73 is detected by the photodetector.
  • the shutters 26 and 76 are controlled so as not to be condensed on the light receiving surface 77.
  • the control unit 80 controls the shutters 26 and 76 so that the light beam 2 output from the space dividing unit 23 is condensed on the light receiving surface 27a of the photodetector 27, so that it is detected by the photodetector 27.
  • An intensity image showing a plurality of focused spot images is given to the wavefront estimation unit 78.
  • the moving body restoration unit 79 performs the luminance distribution estimation process of the moving body 1 similar to the moving body restoration unit 29 illustrated in FIG. However, the moving body restoration unit 79 uses a plurality of condensing spot images detected by the photodetector 27 or a plurality of condensing spots detected by the photodetector 77 as a condensing spot image used for performing the luminance distribution estimation process.
  • the moving object restoration unit 29 shown in FIG. 1 is different in that a spot image is used.
  • the wavefront estimation unit 78 is coupled from the positions of the plurality of focused spot images detected by the photodetector 27 or the positions of the plurality of focused spot images detected by the photodetector 77. An approximate value of the wavefront of the light beam 2 at the aperture of the image optical system 11 is calculated. In addition, the wavefront estimation unit 78 uses the approximate value of the wavefront to detect a plurality of focused spot images detected by the photodetector 27 or a point image intensity distribution of a plurality of focused spot images detected by the photodetector 77. Is calculated.
  • the wavefront estimation unit 78 generates an imaging optical system from the point image intensity distribution and the plurality of focused spot images detected by the photodetector 27 or the plurality of focused spot images detected by the photodetector 77.
  • the wavefront measuring apparatus 3 was configured to estimate the wavefront of the light beam 2 at the 11 apertures. Therefore, the wavefront measuring apparatus 3 according to the fourth embodiment can shorten the time until the wavefront estimation result is obtained, for example, compared with the wavefront measuring apparatus 3 according to the first embodiment.
  • Embodiment 5 FIG.
  • the light beam dividing unit 70 divides the light amount of the light beam 2 collected by the imaging optical system 11 into three.
  • a wavefront measuring device 3 in which the light beam splitting unit 81 splits the light beam 2 collected by the imaging optical system 11 for each wavelength will be described.
  • FIG. 20 is a configuration diagram illustrating a moving object observation apparatus including the wavefront measurement apparatus 3 according to the fifth embodiment.
  • the light beam splitting unit 81 is realized by, for example, a beam splitter.
  • the light beam splitting unit 81 splits the light beam 2 collected by the imaging optical system 11 into three for each wavelength.
  • the beam splitting unit 81 outputs each split beam 2 to the focus adjustment lens 13, the relay optical system 21, and the relay optical system 71.
  • the light beam 2 output from the light beam splitting unit 81 to the relay optical system 21 is the light beam having the first wavelength
  • the light beam 2 output from the light beam splitting unit 81 to the relay optical system 71 is the second light beam.
  • the space dividing unit 23 that is the first space dividing unit divides the light beam having the first wavelength into the light beams 2a of the plurality of spatial regions
  • the space dividing unit 73 that is the second space dividing unit is the second space dividing unit 73. Is split into a plurality of spatial light beams 2a.
  • the wavefront estimation unit 82 is realized by a computer such as a personal computer or a wavefront estimation circuit.
  • the wavefront estimation unit 82 calculates the luminous flux at the aperture of the imaging optical system 11 from the positions of the plurality of focused spot images detected by the photodetector 27 and the positions of the plurality of focused spot images detected by the photodetector 77.
  • the process which calculates the rough value of 2 wavefronts is implemented.
  • the wavefront estimation unit 82 uses a rough value of the wavefront to generate point image intensity distributions of a plurality of focused spot images detected by the photodetector 27 and a plurality of focused spot images detected by the photodetector 77.
  • the process of calculating is performed.
  • the wavefront estimation unit 82 uses the point image intensity distribution, the plurality of condensing spot images detected by the photodetector 27 and the plurality of condensing spot images detected by the light detector 77, of the imaging optical system 11. Processing for estimating the wavefront of the light beam 2 at the aperture is performed.
  • the moving body restoration unit 83 is realized by a computer such as a personal computer or a moving body restoration circuit.
  • the moving body restoration unit 83 includes a plurality of focused spot images detected by the photodetector 27, a plurality of focused spot images detected by the photodetector 77, and a point image intensity distribution estimated by the wavefront estimating unit 82. Then, the process of estimating the luminance distribution of the moving body 1 is performed.
  • the moving body restoration unit 83 estimates the luminance distribution of the moving body 1, a plurality of focused spot images detected by the photodetector 27 and a plurality of focused spots detected by the photodetector 77. An image is used. However, this is only an example, and the moving body restoring unit 83 uses a plurality of focused spot images detected by the photodetector 27 or a plurality of focused spot images detected by the photodetector 77. Also good.
  • the light beam splitting unit 81 splits the light beam 2 collected by the imaging optical system 11 into three for each wavelength.
  • the beam splitting unit 81 outputs each split beam 2 to the focus adjustment lens 13, the relay optical system 21, and the relay optical system 71.
  • the light beam 2 having the first wavelength is output to the relay optical system 21 by the light beam splitting unit 81, and the light beam 2 having the second wavelength is relayed by the light beam splitting unit 81. It is output to the system 71.
  • the space dividing unit 23 that is the first space dividing unit divides the light beam having the first wavelength into the light beams 2a of the plurality of spatial regions
  • the space dividing unit 73 that is the second space dividing unit is the second space dividing unit 73. Is split into a plurality of spatial light beams 2a.
  • the light beam 2a having the first wavelength output from the space dividing unit 23 is collected on the light receiving surface 27a of the light detector 27 that is the first light detector, and the light detector that is the second light detector.
  • the light beam 2 a having the second wavelength output from the space dividing unit 73 is collected on the light receiving surface 77.
  • the photodetector 27 detects the focused spot image as the image of the moving body 1 from each light beam 2a of the first wavelength, and outputs the intensity image indicating each focused spot image to the wavefront estimating unit 82. Output.
  • the photodetector 77 detects a condensed spot image as an image of the moving body 1 from each light beam 2a of the second wavelength, and outputs an intensity image indicating each condensed spot image to the wavefront estimating unit 82. .
  • the wavefront estimation unit 82 estimates the wavefront of the light beam 2 at the aperture of the imaging optical system 11 by performing a wavefront estimation process similar to that of the wavefront estimation unit 28 shown in FIG. However, the wavefront estimation unit 82 uses a plurality of condensing spot images detected from the light beam 2a having the first wavelength and a plurality of light spots 2a detected from the light beam 2a having the second wavelength. 1 is different from the wavefront estimation unit 28 shown in FIG.
  • the wavefront measuring device 3 estimates the wavefront based on the light flux 2 from the moving body 1 and the light flux 2 spreads due to fluctuations in the refractive index distribution in the atmosphere.
  • the scattering of the light beam 2 by the atmosphere depends on the wavelength. For example, blue light is easily scattered, and red light having a wavelength longer than that of blue light is not easily scattered. Note that the resolution of the image is higher for blue light than for red light. Therefore, the blue light beam 2 out of the light beam 2 from the moving body 1 is larger than the red light beam 2.
  • Equation (3) When the light detector 27 detects a condensed spot image from each light beam 2a having the first wavelength, and the light detector 77 detects a condensed spot image from each light beam 2a having the second wavelength, the expression (3) is expressed as the following equation (18).
  • Equation (18) shows the relationship between the phase ⁇ n (u, v) and the wavefront W n (u, v), as in Equation (3).
  • the point image intensity distribution of the focused spot image detected by the photodetector 27 from the respective light beams 2 a having the first wavelength is collected by the photodetector 77 detected from the respective light beams 2 a having the second wavelength. Different from the point image intensity distribution of the light spot image.
  • the wavefront estimation unit 82 has a plurality of focused spot images detected from the light beam 2a having the first wavelength and a plurality of light spots detected from the light beam 2a having the second wavelength. Wavefront estimation processing is performed using all the condensed spot images together with the light spot image. In other words, the wavefront estimation unit 82 collects all the condensed light spots of the plurality of condensed spot images detected from the light beam 2a having the first wavelength and the plurality of condensed spot images detected from the light beam 2a having the second wavelength. A point spread function km , n (x, y) indicating the point image intensity distribution of the spot image is calculated.
  • the point spread function km , n (x, y) calculated by the wavefront estimation unit 82 is calculated in consideration of not only the correlation of the positions of a plurality of focused spot images but also the correlation of wavelengths.
  • the wave front W n (u, v) is estimated from the plurality of focused spot images detected by the photodetector 77.
  • the moving body restoring unit 83 performs the luminance distribution estimation process of the moving body 1 similar to the moving body restoring unit 29 shown in FIG. However, the moving body restoring unit 83 uses a plurality of focused spot images detected by the photodetector 27 and a plurality of detected spot images detected by the photodetector 77 as focused spot images used for the luminance distribution estimation process of the moving body 1. 1 is different from the moving body restoration unit 29 shown in FIG.
  • the wavefront estimation unit 82 uses the positions of the plurality of focused spot images detected from the first wavelength beam 2a and the plurality of focused spots detected from the second wavelength beam 2a. An approximate wavefront value is calculated from the position of the image. In addition, the wavefront estimation unit 82 uses the approximate value of the wavefront to generate a plurality of condensing spot images detected from the light flux 2a having the first wavelength and a plurality of condensing spots detected from the light flux 2a having the second wavelength. A point image intensity distribution with the spot image is calculated.
  • the wavefront estimation unit 82 includes a point image intensity distribution, a plurality of focused spot images detected from the light beam 2a having the first wavelength, and a plurality of focused spot images detected from the light beam 2a having the second wavelength. From this, the wavefront measuring device 3 was configured to estimate the wavefront. Therefore, the wavefront measuring apparatus 3 can measure the wavefront without mounting a control mechanism that realizes high-speed movement such as a lenslet array. In addition, since the wavefront measuring apparatus 3 of the fifth embodiment also uses wavelength information as information used for wavefront estimation, the accuracy of wavefront estimation in the wavefront measuring apparatus 3 of the first embodiment is improved.
  • Embodiment 6 FIG.
  • the focus adjustment lens 22 that adjusts the optical path length of the light beam 2 output from the relay optical system 21 and the focus adjustment lens 72 that adjusts the optical path length of the light beam 2 output from the relay optical system 71 are provided.
  • the wavefront measuring apparatus 3 provided will be described.
  • FIG. 21 is a configuration diagram illustrating a moving object observation apparatus including the wavefront measurement apparatus 3 according to the sixth embodiment.
  • the focus adjustment lens 22 is a first focus adjustment lens
  • the focus adjustment lens 72 is a second focus adjustment lens.
  • the wavefront estimation unit 84 is realized by a computer such as a personal computer or a wavefront estimation circuit.
  • the wavefront estimation unit 84 performs processing for calculating an approximate value of the wavefront from the positions of the plurality of focused spot images detected by the photodetector 27 and the positions of the plurality of focused spot images detected by the photodetector 77. carry out.
  • the wavefront estimation unit 84 uses the approximate value of the wavefront to distribute the point image intensity between the plurality of focused spot images detected by the photodetector 27 and the plurality of focused spot images detected by the photodetector 77.
  • the process of calculating is performed.
  • the wavefront estimation unit 84 performs a process of estimating the wavefront from the point image intensity distribution, the plurality of focused spot images detected by the photodetector 27 and the plurality of focused spot images detected by the photodetector 77. carry out.
  • the control device 80 sets each of the focus adjustment lens 22 and the focus adjustment lens 72 so that the optical path length of the light beam 2 output from the relay optical system 21 and the optical path length of the light beam 2 output from the relay optical system 71 are different.
  • the control device 80 controls the focus adjustment lens 22 so that the light beam 2a is focused on the light receiving surface 27a of the photodetector 27.
  • the focused light beam 2a is referred to as “focused light beam 2a”.
  • the control device 80 controls the focus adjustment lens 72 so that the light beam 2 a is out of focus on the light receiving surface of the photodetector 77.
  • the light beam 2a that is out of focus is referred to as a “defocused light beam 2a”.
  • the wavefront estimated by the wavefront estimation unit 84 based on a plurality of condensing spot images detected by the photodetector 77 corresponds to the defocus of the light beam 2a in addition to the fluctuation of the phase of the light beam 2 due to the atmosphere. Aberration is added. Even if the fluctuation of the phase of the light beam 2 due to the atmosphere is added to the wavefront estimated by the wavefront estimation unit 84 based on the plurality of focused spot images detected by the photodetector 27, the defocus of the light beam 2a is shifted. The aberration corresponding to is not added. Therefore, the point image intensity distribution of the plurality of focused spot images detected by the photodetector 27 is different from the point image intensity distribution of the plurality of focused spot images detected by the photodetector 77.
  • the wavefront estimation unit 84 has a plurality of focused spot images detected from the focused light beam 2a and a plurality of focused spot images detected from the defocused light beam 2a.
  • the wavefront estimation process is performed using That is, the wavefront estimation unit 84 indicates a point image intensity distribution between a plurality of focused spot images detected from the focused light beam 2a and a plurality of focused spot images detected from the defocused light beam 2a.
  • the spread function km , n (x, y) is calculated.
  • the point spread function km , n (x, y) calculated by the wavefront estimation unit 84 is calculated in consideration of not only the correlation of the positions of the plurality of focused spot images but also the aberration corresponding to the defocus. Yes.
  • the wavefront estimation unit 84 has a point spread function km , n (x, y), a plurality of focused spot images detected from the focused light beam 2a, and a plurality of condensed light beams detected from the defocused light beam 2a.
  • the wave front W n (u, v) is estimated from the spot image.
  • the wavefront estimation unit 84 determines the position of the plurality of focused spot images detected from the focused light beam 2a and the position of the focused spot image detected from the defocused light beam 2a. Calculate the approximate value of the wavefront. Further, the wavefront estimation unit 84 uses the approximate value of the wavefront to detect a plurality of focused spot images detected from the focused light beam 2a and a plurality of focused spot images detected from the defocused light beam 2a. The point image intensity distribution is calculated. Then, the wavefront estimation unit 84 calculates the wavefront from the point image intensity distribution and the plurality of focused spot images detected from the focused light beam 2a and the plurality of focused spot images detected from the defocused light beam 2a. The wavefront measuring apparatus 3 is configured so as to estimate.
  • the wavefront measuring apparatus 3 can measure the wavefront without mounting a control mechanism that realizes high-speed movement such as a lenslet array. Further, since the wavefront measuring apparatus 3 according to the sixth embodiment also uses aberration information as information used for wavefront estimation, the accuracy of wavefront estimation in the wavefront measuring apparatus 3 according to the first embodiment is improved.
  • Embodiment 7 FIG.
  • the moving body restoring unit 83 includes a plurality of focused spot images detected by the photodetector 27, a plurality of focused spot images detected by the photodetector 77, and a wavefront.
  • the brightness distribution of the moving body 1 is estimated from the point image intensity distribution estimated by the estimation unit 82.
  • FIG. 22 is a configuration diagram illustrating a moving object observation apparatus including the wavefront measurement apparatus 3 according to the seventh embodiment.
  • the moving body restoration unit 86 is realized by a computer such as a personal computer or a wavefront estimation circuit.
  • the moving body restoration unit 86 detects a region where the moving body exists from the plurality of focused spot images detected by the photodetector 27.
  • the moving body restoration unit 86 is based on the focused spot image and the point image intensity distribution in the region where the moving body 1 is present among the plurality of focused spot images detected by the photodetector 77.
  • the photodetector 27 detects a plurality of focused spot images from the light flux 2a having the first wavelength
  • the photodetector 77 detects a plurality of focused spot images from the light flux 2a having the second wavelength.
  • the light beam 2a having the first wavelength is a light beam having a smaller spread than the light beam 2a having the second wavelength, and is assumed to be, for example, a red light beam. It is assumed that the light beam 2a having the second wavelength is a light beam of blue or green. First wavelength> second wavelength.
  • the red luminous flux is less susceptible to scattering than the blue or green luminous flux, but the resolution of the intensity image is low.
  • the moving body restoration unit 86 is included in the region where the moving body 1 exists among the plurality of focused spot images detected by the photodetector 27 and the plurality of focused spot images detected by the photodetector 77.
  • the luminance distribution of the moving body 1 is estimated from the focused spot image and the point image intensity distribution.
  • FIG. 23 is an explanatory diagram showing the luminance distribution estimation processing of the moving object 1 by the moving object restoring unit 86.
  • an intensity image 111 is an intensity image showing a plurality of focused spot images detected from the light beam 2a having the first wavelength by the photodetector 27.
  • the intensity image 112 is an intensity image showing a plurality of focused spot images detected from the light beam 2 a having the second wavelength by the photodetector 77. Since the intensity image 112 is easily affected by scattering, the image of the moving body 1 shown in the intensity image 112 is wider than the image of the moving body 1 shown in the intensity image 111. However, the intensity image 112 is an image having a higher resolution than the intensity image 111.
  • the moving body restoration unit 86 performs a contour extraction process for extracting the contour of the moving body 1 from the intensity image 111 indicated by the plurality of focused spot images detected by the photodetector 27. Since the contour extraction process itself is a known technique, a detailed description thereof will be omitted.
  • the moving body restoration unit 86 sets the area inside the extracted contour as the area where the moving body 1 exists, and sets the area outside the outline as the area where the moving body 1 does not exist.
  • the moving body restoration unit 86 indicates that only the area including the area where the moving body 1 exists is the processing target area used for the luminance distribution estimation process of the moving body 1.
  • a mask image 113 is generated.
  • the processing target area is an area including the area where the moving body 1 exists, and the processing target area may be an area that matches the area where the moving body 1 exists.
  • the existing area may be a large area.
  • an area larger than the contour of the extracted moving object 1 by a margin corresponding to the shadow of the moving object 1 can be considered.
  • As the margin for example, a size of about 10% of the area where the moving body 1 exists can be considered.
  • the moving body restoration unit 86 extracts an image im , n (x, y) of the moving body 1 in the processing target area in the mask image 113 from the intensity image 112.
  • the intensity image 114 shown in FIG. 23 is an intensity image showing the image im , n (x, y) of the moving body 1 in the processing target area extracted from the intensity image 112.
  • the moving body restoration unit 86 includes an image im , n (x, y) of the selected moving body 1 and a point spread function km, corresponding to the selected image im , n (x, y) of the moving body 1 . Substituting n (x, y) into equation (16), the difference rm , n (x, y) is calculated. The moving object restoration unit 86 selects all the images im , n (x, y) of one or more moving objects 1 included in the processing target region, and calculates the difference rm , n (x, y). The above process is repeated until the process ends.
  • the moving body restoration unit 86 substitutes all the calculated differences r m, n (x, y) into the equation (17) to calculate the square sum e of the differences (step ST18 in FIG. 9).
  • the weight d m (x, y) corresponding to) is set to 0.
  • the moving object restoration unit 86 calculates the square sum e of the differences, the luminance distribution estimation process is repeatedly performed until the luminance distribution estimation process of the moving object 1 converges, similarly to the moving object restoration unit 29 illustrated in FIG. .
  • the moving object restoration unit 86 outputs the luminance distribution o (p, q) of the moving object 1 for which the minimum square sum e is calculated to the storage device 30.
  • the moving body restoration unit 86 detects the region where the moving body exists from the focused spot image detected by the photodetector 27. Then, the moving body restoration unit 86 calculates the moving body 1 from the condensed spot image and the point image intensity distribution in the region where the moving body 1 exists among the condensed spot images detected by the photodetector 77.
  • the moving body observation device was configured to estimate the luminance distribution of the. Therefore, when the mobile object observation apparatus estimates the luminance distribution of the mobile object 1, the mobile object observation device can exclude the focused spot image in the region where the mobile object does not exist from the processing target. The load of the luminance distribution estimation process of the moving body 1 can be reduced as compared with the body observation apparatus.
  • the present invention is suitable for a wavefront measuring apparatus and a wavefront measuring method for estimating the wavefront of a light beam at the aperture of an imaging optical system.
  • the present invention is also suitable for a mobile object observation apparatus that estimates the luminance distribution of a mobile object.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Astronomy & Astrophysics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Testing Of Optical Devices Or Fibers (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

波面推定部(28)が、光検出器(27)により検出された複数の集光スポット像の位置から、結像光学系(11)の開口における光束の波面の概算値を算出し、概算値を用いて、複数の集光スポット像の点像強度分布を算出し、点像強度分布と複数の集光スポット像とから波面を推定するように、波面計測装置(3)を構成した。

Description

波面計測装置、波面計測方法及び移動体観測装置
 この発明は、結像光学系の開口における光束の波面を推定する波面計測装置及び波面計測方法と、移動体の輝度分布を推定する移動体観測装置とに関するものである。
 天体又は飛翔体などの移動体を観測する移動体観測装置は、移動体から送信された光束を地上で受信することで、移動体を観測する。
 移動体から送信される光束は、大気の屈折率分布のゆらぎが原因で、光の位相が乱されてしまうために、広がってしまうことがある。
 したがって、移動体観測装置は、移動体の観測精度を高めるには、光の位相の等しい面である波面を取得する必要がある。
 以下の特許文献1には、波面を計測する波面センサが開示されている。
 以下の特許文献1に開示されている波面センサは、望遠鏡を用いて、高速に移動する物体を観察する際、波面のチルト及び焦点のそれぞれを制御することで、物体から送信された光束を追いかけながら、大気断層を撮影するようにしている。
 波面センサは、波面のチルト及び焦点のそれぞれを制御するための機構として、高速ステアリングミラー、結像レンズ及びレンズレットアレイにおけるそれぞれの高速移動を実現する制御機構を備えている。
特開2016-118547号公報
 従来の波面センサによる波面の計測精度は、高速ステアリングミラー、結像レンズ及びレンズレットアレイにおけるそれぞれの高速移動を実現する制御機構の制御精度に依存している。
 したがって、従来の波面センサは、実装している制御機構の制御精度によっては、波面の計測精度が劣化してしまうことがあるという課題があった。
 この発明は上記のような課題を解決するためになされたもので、レンズレットアレイなどの高速移動を実現する制御機構を実装することなく、波面を計測することができる波面計測装置、波面計測方法及び移動体観測装置を得ることを目的とする。
 この発明に係る波面計測装置は、移動体に反射された光束又は移動体から送信された光束を集光する結像光学系と、結像光学系により集光された光束を複数の空間領域の光束に分割し、複数の空間領域の光束のそれぞれを集光する空間分割部と、空間分割部により集光されたそれぞれの光束から、移動体の像として、集光スポット像を検出する光検出器と、光検出器により検出された複数の集光スポット像の位置から、結像光学系の開口における光束の波面の概算値を算出し、概算値を用いて、複数の集光スポット像の点像強度分布を算出し、点像強度分布と複数の集光スポット像とから、波面を推定する波面推定部とを備えるようにしたものである。
 この発明によれば、波面推定部が、光検出器により検出された複数の集光スポット像の位置から、結像光学系の開口における光束の波面の概算値を算出し、概算値を用いて、複数の集光スポット像の点像強度分布を算出し、点像強度分布と複数の集光スポット像とから、波面を推定するように、波面計測装置を構成した。したがって、この発明に係る波面計測装置は、レンズレットアレイなどの高速移動を実現する制御機構を実装することなく、波面を計測することができる。
実施の形態1による波面計測装置3を含む移動体観測装置を示す構成図である。 実施の形態1による波面計測装置3を含む移動体観測装置の外観を示す斜視図である。 図1に示す移動体観測装置の処理手順を示すフローチャートである。 光検出器15により検出される移動体1の像を示す説明図である。 光検出器27により検出される移動体1の像を示す説明図である。 波面が伝搬経路によって異なる場合の光検出器27により検出される移動体1の像を示す説明図である。 光検出器27により検出される移動体1の像と波面の関係を示す説明図である。 光検出器27により検出される移動体1の像と波面の関係を示す説明図である。 波面推定部28及び移動体復元部29の処理手順を示すフローチャートである。 移動体1が波面計測装置3と相対的に移動している場合において、結像光学系の開口と、複数の空間領域におけるそれぞれの開口と、移動体1の像106との関係を示す説明図である。 レンズアレイ25に含まれている複数のレンズの開口と、光束2を透過する透過領域が等しい遮光部24の一例を示す説明図である。 レンズアレイ25に含まれている複数のレンズの開口よりも、光束2を透過する透過領域が小さい遮光部24の一例を示す説明図である。 レンズアレイ25に含まれている複数のレンズの開口よりも、光束2を透過する透過領域が小さい遮光部24の一例を示す説明図である。 複数の透過領域の中に、光束2が遮光される領域が含まれている遮光部24の一例を示す説明図である。 形状又は大きさが異なる透過領域が混在している遮光部24の一例を示す説明図である。 形状又は大きさが異なる透過領域が混在している遮光部24の一例を示す説明図である。 実施の形態2による波面計測装置3を含む移動体観測装置を示す構成図である。 実施の形態3による波面計測装置3を含む移動体観測装置を示す構成図である。 実施の形態4による波面計測装置3を含む移動体観測装置を示す構成図である。 実施の形態5による波面計測装置3を含む移動体観測装置を示す構成図である。 実施の形態6による波面計測装置3を含む移動体観測装置を示す構成図である。 実施の形態7による波面計測装置3を含む移動体観測装置を示す構成図である。 移動体復元部86による移動体1の輝度分布推定処理を示す説明図である。
 以下、この発明をより詳細に説明するために、この発明を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
 図1は、実施の形態1による波面計測装置3を含む移動体観測装置を示す構成図である。
 図1において、移動体1は、大気の外、あるいは、大気中に存在している物体である。
 移動体1に反射された光束又は移動体1から送信された光束は、大気の屈折率分布のゆらぎが原因で、広がってしまった光束2であり、光束2は、波面計測装置3に入射される。
 波面計測装置3は、入射された光束2から、波面を計測する装置である。
 結像光学系11は、入射された光束2を集光する光学系である。
 光束分割部12は、例えば、ビームスプリッタによって実現される。
 光束分割部12は、結像光学系11により集光された光束2の光量を2つに分割することで、光束2を2つに分割する。
 光束分割部12は、分割後の一方の光束2をフォーカス調整レンズ13に出力し、分割後の他方の光束2をリレー光学系21に出力する。
 フォーカス調整レンズ13は、光束分割部12から出力された光束2の光路長を調整して、光路長調整後の光束2をシャッタ14に出力する。
 シャッタ14は、光検出器15により受光される光束2の光量を調整するために、フォーカス調整レンズ13から出力された光束2の通過を時間的に制限する。
 光検出器15は、例えば、イメージセンサによって実現される。
 光検出器15は、シャッタ14を通過してきた光束2から、移動体1の像を検出し、移動体1の像を示す強度画像を波面推定部28に出力する。
 波面計測装置3は、フォーカス調整レンズ13、シャッタ14及び光検出器15を備えるため、移動体1の像を示す強度画像を得ることができる。しかし、波面計測装置3が、結像光学系11の開口における光束2の波面を推定する上では、フォーカス調整レンズ13、シャッタ14及び光検出器15は、必須の構成要素ではない。
 リレー光学系21は、レンズアレイ25において、光束分割部12から出力された光束2のピントが合うように、レンズアレイ25を結像光学系11の瞳と光学的に等価とする光学系である。
 フォーカス調整レンズ22は、リレー光学系21を透過してきた光束2の光路長を調整して、光路長調整後の光束2を空間分割部23に出力する。
 空間分割部23は、遮光部24及びレンズアレイ25を備えている。
 空間分割部23は、フォーカス調整レンズ22から出力された光束2を複数の空間領域の光束2aに分割し、複数の空間領域の光束2aを光検出器27の受光面27a(図7又は図8を参照)に集光する。
 遮光部24は、フォーカス調整レンズ22から出力された光束2を部分的に遮光することで、光束2を複数の空間領域の光束2aに分割する。
 レンズアレイ25は、複数のレンズ25a(図5から図8を参照)を含んでおり、それぞれのレンズ25aがそれぞれの空間領域の光束2aを光検出器27の受光面27aに集光する。
 実施の形態1の波面計測装置3では、複数の空間領域は、形状及び大きさのそれぞれが均一の領域であるものとする。
 また、実施の形態1の波面計測装置3では、遮光部24により光束2が遮光されない複数の透過領域と、レンズアレイ25に含まれている複数のレンズの開口とが空間的に一致しているものとする。したがって、複数の空間領域は、遮光部24による複数の透過領域と一致し、かつ、複数のレンズの開口と一致している。
 シャッタ26は、光検出器27により受光される光束2aの光量を調整するために、レンズアレイ25から出力された光束2aの通過を時間的に制限する。
 光検出器27は、例えば、イメージセンサによって実現される。
 光検出器27は、シャッタ26を通過してきた複数の空間領域の光束2aのそれぞれを受光する受光面27aを有している。
 光検出器27は、受光面27aで受光されるそれぞれの光束2aから、移動体1の像として、集光スポット像を検出し、それぞれの集光スポット像を示す強度画像を波面推定部28に出力する。
 波面推定部28は、パーソナルコンピュータなどの計算機、あるいは、波面推定回路などによって実現される。
 波面推定部28は、光検出器27により検出された複数の集光スポット像の位置から、結像光学系11の開口における光束2の波面の概算値を算出する。
 また、波面推定部28は、概算値を用いて、複数の集光スポット像の点像強度分布を算出し、点像強度分布と複数の集光スポット像から、結像光学系11の開口における波面を推定する処理を実施する。
 移動体復元部29は、パーソナルコンピュータなどの計算機、あるいは、移動体復元回路などによって実現される。
 移動体復元部29は、光検出器27により検出された複数の集光スポット像と、波面推定部28により算出された点像強度分布とから、移動体1の輝度分布を推定する処理を実施する。
 保存装置30は、例えば、記憶処理回路によって実現される。
 保存装置30は、波面推定部28により推定された波面及び移動体復元部29により推定された移動体1の輝度分布などを記録する装置である。
 ここで、波面推定回路及び移動体復元回路のそれぞれは、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、又は、これらを組み合わせたものが該当する。
 また、記憶処理回路は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)などの不揮発性又は揮発性の半導体メモリ、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、あるいは、DVD(Digital Versatile Disc)が該当する。
 時刻校正部41は、クロックを内蔵しており、GPS(Global Positioning System)衛星から発信されるGPS信号又はNTP(Network Time Protocol)を用いて、クロックの時刻を校正する。
 カウンタ42は、時刻校正部41により校正されたクロックの時刻が或る時刻になると、或る時刻からの経過時間を計測する。
 制御装置43は、パーソナルコンピュータなどの計算機によって実現される。
 制御装置43は、カウンタ42により計測された経過時間に基づいて、フォーカス調整レンズ13,22、シャッタ14,26、光検出器15,27及び駆動装置44のそれぞれを制御する装置である。
 駆動装置44は、制御装置43から出力される制御信号に従って結像光学系11の指向方向を変更する装置である。
 図2は、実施の形態1による波面計測装置3を含む移動体観測装置の外観を示す斜視図である。
 図2において、筐体51は、結像光学系11、光束分割部12、フォーカス調整レンズ13,22、シャッタ14,26、光検出器15,27、リレー光学系21及び空間分割部23を実装している。
 筐体52は、波面推定部28、移動体復元部29、保存装置30、時刻校正部41、カウンタ42及び制御装置43を実装している。
 レンズなどの光学部品及び人間の瞳などは、光が透過する。また、鏡などの光学部品は、光を反射させる。光が光学部品等を透過することで、光の位相分布が変化し、光が光学部品に反射されることで、光の位相分布が変化する。
 地球の大気は、酸素、窒素及び水蒸気などの媒質によって構成されており、レンズなどの光学部品と同様に、光が透過する。
 酸素等の媒質は、温度の変化及び気圧の変化に伴って屈折率が変動するため、地球の大気を透過する光の位相分布は、温度の変化及び気圧の変化に伴って変化する。光は、電磁波であるため、光の位相分布は、波面として捉えることが可能である。
 図1に示す波面計測装置3は、大気の外、あるいは、大気中に存在している移動体1に反射された光束2又は移動体から送信された光束2を受信することで、波面を推定する装置であり、波面計測装置3により推定される波面は、酸素等の媒質の屈折率が変化することで変化する。
 媒質の屈折率の変化自体は小さいが、光が伝搬される光路が長くなると、屈折率の変化は、光の波長と比較して、無視できない大きさとなるため、波面の推定においては、大気のゆらぎの影響を強く受ける。
 また、地上の大気は、太陽からの輻射の影響及び熱輸送の影響を受けるとともに、地球の自転の影響を受けるため、地上と上空の間には、大気の層が形成される。大気の層を透過してくる光の波面は、複雑に乱れる。
 次に、図1に示す移動体観測装置について説明する。
 図3は、図1に示す移動体観測装置の処理手順を示すフローチャートである。
 駆動装置44は、移動体1が波面計測装置3と相対的に移動している場合でも、結像光学系11が、移動体1に反射された光束2又は移動体1から送信された光束2を集光することができるようにするため、結像光学系11の指向方向を変更する。
 例えば、移動体1が恒星である場合、移動体1は、日周運動によって、1秒間に15秒角(=15/3600度)ほど、移動する。したがって、移動体1の追尾を可能にするには、駆動装置44が、結像光学系11の指向方向を秒角精度で制御できる必要がある。
 時刻校正部41は、駆動装置44が、結像光学系11の指向方向を秒角精度で制御できるようにするため、GPS衛星から発信されるGPS信号又はNTPを用いて、内蔵のクロックの時刻を校正する。
 カウンタ42は、時刻校正部41により校正されたクロックの時刻が或る時刻になると、或る時刻からの経過時間を計測する。
 制御装置43は、カウンタ42により計測された経過時間に基づいて、フォーカス調整レンズ13,22、シャッタ14,26、光検出器15,27及び駆動装置44を制御する。
 駆動装置44は、制御装置43から出力される制御信号に従って結像光学系11の指向方向を変更する。
 結像光学系11は、移動体1に反射された光束2又は移動体1から送信された光束2が入射されると、入射された光束2を集光する(図3のステップST1)。
 光束分割部12は、結像光学系11により集光された光束2の光量を2つに分割することで、光束2を2つに分割する。
 光束分割部12は、分割後の一方の光束2をフォーカス調整レンズ13に出力し、分割後の他方の光束2をリレー光学系21に出力する。
 フォーカス調整レンズ13は、光束分割部12から光束2を受けると、制御装置43から出力される制御信号に従って光束2の光路長を調整し、光路長調整後の光束2をシャッタ14に出力する。
 光束分割部12から出力される光束2の光路長は、例えば、温度の変化に伴って変化する。制御装置43は、光束分割部12から出力される光束2の光路長が、或る基準温度での光路長と一致するように、フォーカス調整レンズ13における光路長の調整量を制御する。
 シャッタ14は、光検出器15により受光される光束2の光量を調整するために、制御装置43から出力される制御信号に従ってフォーカス調整レンズ13から出力された光束2の通過を時間的に制限する。
 光検出器15での光束2の露光時間がコヒーレンス時間よりも長くなると、大気の状態が変わるため、光検出器15により検出される移動体1の像の広がりが大きくなる。コヒーレンス時間は一般に1~10ms程度である。
 移動体1が高速で移動している場合、制御装置43は、光検出器15での光束2の露光時間がコヒーレンス時間よりも短くなるように、シャッタ14における光束2の通過時間を制御する。
 制御装置43が、上記のように、シャッタ14における光束2の通過時間を制御する場合、光検出器15により受光される光束2の光量が少なくなってしまうことがある。光束2の光量が少なくなってしまう場合、制御装置43が、シャッタ14において、光束2の通過と遮光が複数回繰り返されるように制御することで、光検出器15が、複数回、移動体1の像を検出できるようにする。
 光検出器15は、シャッタ14を通過してきた光束2から、移動体1の像として、集光スポット像を検出し、集光スポット像を示す強度画像を波面推定部28に出力する。
 ここで、図4は、光検出器15により検出される移動体1の像を示す説明図である。
 図4は、地上と上空の間に3つの大気層がある例を示しており、101は第1の大気層、102は第2の大気層、103は第3の大気層である。
 図4では、結像光学系11が、模式的に1枚のレンズとして表記されている。一般的には、結像光学系11の収差を減らすために、結像光学系11が、複数枚のレンズによって構成されることが多い。また、結像光学系11における色収差を低減するために、結像光学系11が、複数枚の反射鏡によって構成されることもある。
 結像光学系11が、入射された光束2を光検出器15の受光面に集光することで、光検出器15の受光面には、移動体1の像104が形成される。
 光束2が第1の大気層101、第2の大気層102及び第3の大気層103を透過する際に波面が乱されるため、移動体1の像104は、仮に移動体1が点とみなせる物体であっても、広がってしまう。
 したがって、結像光学系11の収差を要因とする像104の広がり及び光検出器15の分解能を要因とする像104の広がりを除外すれば、像104の広がりの要因は、大気ゆらぎである。
 なお、移動体1が、広がりを有する物体である場合、結像光学系11の収差及び光検出器15の分解能を要因とする広がりを除外すれば、像104の広がりは、物体自体の広がりと、大気ゆらぎによる広がりで表される。数学的には物体自体の広がりが、波面が等しいとみなせる角度範囲及びアイソプラナテック角を満たす場合、像104の広がりは物体自体の広がりと大気揺らぎによる広がりの畳み込みで表される。
 リレー光学系21は、レンズアレイ25を結像光学系11の瞳と光学的に等価とする光学系であり、光束分割部12から光束2を受けると、光束2をフォーカス調整レンズ22に出力する。
 フォーカス調整レンズ22は、制御装置43から出力される制御信号に従ってリレー光学系21を透過してきた光束2の光路長を調整し、光路長調整後の光束2を空間分割部23の遮光部24に出力する。
 リレー光学系21を透過してくる光束2の光路長は、例えば、温度の変化に伴って変化する。制御装置43は、リレー光学系21を透過してくる光束2の光路長が、或る基準温度での光路長と一致するように、フォーカス調整レンズ22における光路長の調整量を制御する。
 空間分割部23は、フォーカス調整レンズ22から光束2を受けると、光束2を複数の空間領域の光束2aに分割し、複数の空間領域の光束2aをシャッタ26に出力する(図3のステップST2)。
 即ち、遮光部24は、フォーカス調整レンズ22から光束2を受けると、光束2を部分的に遮光することで、光束2を複数の空間領域の光束2aに分割する。
 遮光部24は、複数の空間領域の光束2aをレンズアレイ25に出力する。
 レンズアレイ25に含まれているそれぞれのレンズ25aは、遮光部24からそれぞれの空間領域の光束2aを受けると、それぞれの空間領域の光束2aを光検出器27の受光面27aに集光する。
 シャッタ26は、光検出器27により受光される光束2aの光量を調整するために、制御装置43から出力される制御信号に従ってレンズアレイ25から出力された光束2aの通過を時間的に制限する。
 移動体1が高速で移動している場合、光検出器27での光束2aの露光時間がコヒーレンス時間よりも長くなると、光検出器27により検出される移動体1の像の広がりが大きくなる。
 移動体1が高速で移動している場合、制御装置43は、光検出器27での光束2aの露光時間がコヒーレンス時間よりも短くなるように、シャッタ26における光束2aの通過時間を制御する。
 制御装置43が、上記のように、シャッタ26における光束2aの通過時間を制御する場合、光検出器27により受光される光束2aの光量が少なくなってしまうことがある。光束2aの光量が少なくなってしまう場合、制御装置43が、シャッタ26において、光束2aの通過と遮光が複数回繰り返されるように制御することで、光検出器27が、複数回、移動体1の像を検出できるようにする。
 光検出器27は、シャッタ26を通過してきたそれぞれの光束2aから、移動体1の像として、集光スポット像を検出し、複数の集光スポット像を示す強度画像を波面推定部28に出力する(図3のステップST3)。
 ここで、図5は、光検出器27により検出される移動体1の像を示す説明図である。図5において、図4と同一符号は同一又は相当部分を示している。
 図5では、結像光学系11及びリレー光学系21による光束の変化を省略している。
 レンズアレイ25に含まれているそれぞれのレンズ25aが、それぞれの空間領域の光束2aを光検出器27の受光面27aに集光することで、光検出器27の受光面27aには、空間領域の個数分だけ、移動体1の像105が形成される。
 光検出器27の受光面27aに形成される複数の像105は、大気のゆらぎを要因とする広がりを持っており、波面の推定に用いることができる。
 移動体1が波面計測装置3と相対的に移動している場合、地上から移動体1を見る方向が異なると、光束2の伝搬経路が等しくなくなり、波面が、伝搬経路によって異なるようになる。
 図6は、波面が伝搬経路によって異なる場合の光検出器27により検出される移動体1の像を示す説明図である。図6において、図4及び図5と同一符号は同一又は相当部分を示している。
 光束4、光束5及び光束6のそれぞれは、移動体1に反射された光束又は移動体1から送信された光束である。光束4、光束5及び光束6は、途中の大気層の揺らぎの寄与が互いに異なっており、光束4の伝搬経路、光束5の伝搬経路及び光束6の伝搬経路は、互いに異なっている。
 レンズアレイ25によって、光検出器27の受光面27aに集光される複数の空間領域の光束2aが、光束4、光束5及び光束6のそれぞれであるとみなすと、受光面27aには、光束4、光束5及び光束6のそれぞれによって移動体1の像106が形成される。
 光検出器27の受光面27aに形成される複数の像106は、大気のゆらぎを要因とする広がりを持っており、波面の推定に用いることができる。
 図7及び図8は、光検出器27により検出される移動体1の像と波面の関係を示す説明図である。
 図7は、光束2が進行方向に対して広がらずに伝搬されている例を示し、図8は、光束2が進行方向に対して広がりながら伝搬されている例を示している。
 図7及び図8において、106aは、光束2が進行方向に対して広がらずに伝搬されている場合の移動体1の像であり、106bは、光束2が進行方向に対して広がりながら伝搬されている場合の移動体1の像である。
 光束2が進行方向に対して広がらずに伝搬されている場合、図7に示すように、レンズアレイ25のそれぞれのレンズ25aにより集光される移動体1の像106aの位置は、遮光部24により分割された複数の空間領域のそれぞれの位置と一致している。
 光束2が進行方向に対して広がりながら伝搬されている場合、図8に示すように、レンズアレイ25のそれぞれのレンズ25aにより集光される移動体1の像106bの位置は、遮光部24により分割された複数の空間領域のそれぞれの位置とずれている。
 波面107aは、移動体1の複数の像106aの位置から求められ、波面107bは、移動体1の複数の像106bの位置から求められる。
 図7及び図8では、遮光部24により分割された複数の空間領域が格子状に配置されている例を示している。しかし、これに限るものではなく、例えば、複数の空間領域の配置がハニカム配置であってもよい。
 図7及び図8では、遮光部24において、光束2が遮光される遮光領域、即ち、光束2を透過する透過領域以外の領域が、黒く塗られている例を示している。しかし、遮光部24において、遮光領域は、不要な光を透過させなければよく、黒以外の色が塗られていてもよい。
 また、遮光部24において、遮光領域は、不要な光を吸収する着色又は加工が施されていてもよいし、不要な光を散乱する着色又は加工が施されていてもよい。
 波面推定部28は、光検出器27から複数の集光スポット像を示す強度画像を受けると、強度画像が示す複数の集光スポット像の位置から、結像光学系11の開口における光束2の波面を推定する(図3のステップST4)。
 図9は、波面推定部28及び移動体復元部29の処理手順を示すフローチャートである。
 以下、図9を参照しながら、波面推定部28の処理内容を具体的に説明する。
 まず、波面推定部28は、光検出器27から複数の集光スポット像を示す強度画像を受けると、強度画像が示す複数の集光スポット像の位置から、結像光学系11の開口における光束2の波面の概算値を算出する(図9のステップST11)。
 複数の集光スポット像の位置から、波面の概算値を算出する処理自体は、公知の技術であるため詳細な説明を省略する。
 複数の集光スポット像の位置から波面を推定する方法は、例えば、以下の非特許文献1に開示されている。
[非特許文献1]国立天文台報 vol.2 No.2
 ここでは、制御装置43が、シャッタ26において、光束2aの通過と遮光が複数回繰り返されるように制御することで、光検出器27からN枚の強度画像が波面推定部28に出力されているものとする。
 そして、波面推定部28は、N枚の強度画像のうち、n(n=1,2,・・・,N)枚目の強度画像が示す複数の集光スポット像の位置から、波面の概算値を算出しているものとする。
 なお、移動体1が点像である場合、あるいは、移動体1が点像と近似できる場合、集光スポット像の位置として、点像の重心の位置を求める態様が考えられる。
 また、移動体1が広がりのある物体である場合、波面は、複数の集光スポット像の間隔又は複数の集光スポット像の相対位置から求めることができる。したがって、集光スポット像の位置として、複数の集光スポット像の相互相関又は複数の集光スポット像の特徴的な位置の間隔を求める態様が考えられる。
 波面推定部28は、n枚目の強度画像が示す複数の集光スポット像の位置から算出した概算値である波面の位相をΦ0,nとする。
 波面推定部28は、以下の式(1)に示すように、結像光学系11の開口における光束2の波面の位相Φ(u,v)の初期値として、位相Φ0,nを用いることで、概算値よりも高精度な波面を推定する。(u,v)は、瞳空間の座標である。
Figure JPOXMLDOC01-appb-I000001
 以下、高精度な波面の推定処理を説明する前に、高精度な波面の推定処理の原理及び移動体1の輝度分布推定処理の原理を説明する。
 図10は、移動体1が波面計測装置3と相対的に移動している場合において、結像光学系11の開口と、複数の空間領域におけるそれぞれの開口と、移動体1の像106との関係を示す説明図である。
 M(u,v)は、結像光学系11の開口である。
 M(u,v)、M(u,v)、・・・、M(u,v)のそれぞれは、複数の空間領域におけるそれぞれの開口である。M(u,v)における添え字のMは、2以上の整数であり、例えば、m=1,2,・・・,Mである。
 波面収差と瞳上の振幅分布で表される瞳関数Gm,n(u,v)は、以下の式(2)に示すように、n枚目の強度画像に対応する、結像光学系11の開口における光束2の波面の位相Φ(u,v)と、開口M(u,v)とで表される。
Figure JPOXMLDOC01-appb-I000002
 開口M(u,v)は、既知であり、位相Φ(u,v)の初期値は、概算値である波面の位相Φ0,nであるため、瞳関数Gm,n(u,v)は、位相Φ(u,v)と開口M(u,v)から算出される。
 また、位相Φ(u,v)と、波面W(u,v)との関係は、以下の式(3)で表される。
Figure JPOXMLDOC01-appb-I000003
 式(3)において、λは、波長である。
 振幅広がり関数am,n(u,v)は、以下の式(4)に示すように、瞳関数Gm,n(u,v)が逆フーリエ変換されることで得られる。
Figure JPOXMLDOC01-appb-I000004
 式(4)において、F-1は、逆フーリエ変換を表す記号である。
 点像強度分布を示す点広がり関数km,n(x,y)は、以下の式(5)に示すように、振幅広がり関数am,n(u,v)と、振幅広がり関数am,n(u,v)の複素共役との積で表される。(x,y)は、実空間の座標である。
Figure JPOXMLDOC01-appb-I000005
 移動体1の輝度分布がo(p,q)、光検出器27で生じるノイズがem,n(x,y)で表されるとすると、m番目の空間領域の開口M(u,v)に対応する移動体1の像im,n(x,y)は、以下の式(6)で表される。(p,q)は、移動体1が存在している位置を示す実空間の座標である。
 移動体1の輝度分布o(p,q)は、移動体1に反射される光束2の強度又は移動体1から送信される光束2の強度である。
Figure JPOXMLDOC01-appb-I000006
 式(6)における畳み込み積分を“*”の記号で表記すると、式(6)は、以下の式(7)で表される。
Figure JPOXMLDOC01-appb-I000007
 一般的には、移動体1の像im,n(x,y)は、点広がり関数km,n(x,y)と、移動体1の輝度分布o(p,q)との畳み込み積分で得られるが、式(6)及び式(7)には、光検出器27で生じるノイズem,n(x,y)が付加されている。
 以下の式(8)は、移動体1の輝度分布o(p,q)と点像強度分布を示す点広がり関数km,n(x,y)とから得られる移動体1の像であるo(p,q)*km,n(x,y)と、移動体1の実測の像であるim,n(x,y)との差分の二乗和eを示している。
Figure JPOXMLDOC01-appb-I000008
 式(8)において、点広がり関数km,n(x,y)は、式(2)、式(4)及び式(5)から得られる。したがって、式(8)において、未知の値は、移動体1の輝度分布o(p,q)のみである。
 移動体1の輝度分布o(p,q)は、差分の二乗和eが最小になるo(p,q)を探索することで求まる。
 移動体1は、波面計測装置3に対して相対的に運動しており、駆動装置44が結像光学系11の指向方向を変更しても、移動体1と波面計測装置3の相対運動は、完全にはキャンセルできないものとする。
 したがって、時刻tが変わることで、移動体1の相対位置が変わる。
 時刻tが変わる回数と、波面推定部28が得る強度画像の枚数であるフレーム数とは、同じである必要はないが、フレーム数が例えば10であれば、10点の時刻の強度画像が得られることになるため、フレームの番号は、時刻の番号と対応する。
 ここでは、移動体1の輝度分布o(p,q)は、フレームに依存しておらず、変化していないものとする。ただし、波面は、フレーム毎に、変化しているものとする。
 移動体1の輝度分布o(p,q)を探索する際、差分の二乗和は、位相空間で考えることができる。
 以下の式(9)は、式(8)がフーリエ変換されたものであり、式(8)に示す差分の二乗和eが、位相空間での差分の二乗和Eになっている。
Figure JPOXMLDOC01-appb-I000009
 式(9)において、Im,n(u,v)は、im,n(x,y)のスペクトルであり、以下の式(10)のように表される。
Figure JPOXMLDOC01-appb-I000010
 式(10)において、Fは、フーリエ変換を表す記号である。
 式(9)において、O(u,v)は、o(p,q)のスペクトルであり、以下の式(11)のように表される。
Figure JPOXMLDOC01-appb-I000011
 光検出器27で生じるノイズem,n(x,y)があるために、O(u,v)=im,n(u,v)/Km,n(u,v)のように表現することができないので、式(11)のように、表されている。
 式(11)において、γは、解の安定化のために導入している係数である。
 Km,n(u,v)は、瞳関数Gm,n(u,v)の自己相関であり、以下の式(12)で表される。Km,n(u,v)は、規格化されていないが、光学伝達関数である。
Figure JPOXMLDOC01-appb-I000012
 式(11)を式(9)に代入すると、以下の式(13)が得られる。
Figure JPOXMLDOC01-appb-I000013
 式(13)に示す差分の二乗和Eは、開口M(p,q)と、位相Φ(p,q)と、移動体1の像im,n(x,y)のスペクトルIm,n(u,v)とで表されており、未知である移動体1の輝度分布o(p,q)のスペクトルO(u,v)に依存していない。
 波面W(u,v)は、以下の式(14)に示す差分の二乗和Errが最小になる位相Φ(u,v)を求めれば、式(2)よって推定することができる。
Figure JPOXMLDOC01-appb-I000014
 差分の二乗和Errが最小になる位相Φ(u,v)を求めることで、波面W(u,v)を推定する場合でも、移動体1の輝度分布o(p,q)を求めることが可能であるが、式(14)は、移動体1の輝度分布o(p,q)に依存していない。したがって、移動体1の輝度分布o(p,q)が実空間で0よりも大きい実数であるという、計算上の強い制約を与えられない。
 移動体1の輝度分布o(p,q)が実空間で0よりも大きい実数であるという制約を与えるには、実空間における差分の二乗和eを示す式(8)に対して、さらに制約を与えればよい。
 以下の式(15)は、実空間における差分rm,n(x,y)を示している。
Figure JPOXMLDOC01-appb-I000015
 光検出器27が、CCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)などのイメージセンサである場合、主なノイズは、ショットノイズと読み出しノイズである。
 読み出しノイズは、正規分布に従い、中央値が0で、標準偏差がσであるとする。ショットノイズは、取得したフレームの輝度分布に比例する。
 したがって、式(15)をノイズで規格化すると、式(16)のようになる。
Figure JPOXMLDOC01-appb-I000016
 ノイズに対する実空間における差分rm,n(x,y)の比が、1よりも大きければ、ずれが大きく、1であれば、ずれがなく、1よりも小さければ、ずれが小さいことを意味する。
 式(8)の代わりに、以下の式(17)に示す尤度関数を導入する。
Figure JPOXMLDOC01-appb-I000017
 式(17)において、d(x,y)は、差分rm,n(x,y)に与える重みであり、例えば、ずれが大きいフレームは、信頼度が低いので、小さい重みが与えられる。
 また、実空間上において、計算する領域の重みを1、計算を省略する領域の重みを0として、計算量を減らすことが可能である。
 以上が、波面の推定処理の原理及び移動体1の輝度分布推定処理の原理である。
 波面推定部28は、概算値である波面の位相をΦ0,nとすると、Φ0,nを、式(2)に示すΦ(u,v)の初期値に設定する。
 波面推定部28は、式(2)、式(4)及び式(5)を算出することで、点像強度分布を示す点広がり関数km,n(x,y)を算出する(図9のステップST12)。
 波面推定部28は、点広がり関数km,n(x,y)及び移動体1の像im,n(x,y)のそれぞれをフーリエ変換することで、光学伝達関数Km,n(u,v)及び移動体1の像im,n(x,y)のスペクトルIm,n(u,v)を得る(図9のステップST13)。
 波面推定部28は、光学伝達関数Km,n(u,v)及びスペクトルIm,n(u,v)を式(14)に代入し、差分の二乗和Errを算出する(図9のステップST14)。
 波面推定部28は、差分の二乗和Errを算出すると、位相の探索処理が収束しているか否かを判定する(図9のステップST15)。
 位相の探索処理の収束判定として、例えば、算出した差分の二乗和Errが事前に設定されている第1の許容誤差以下であれば、収束していると判定する方法がある。収束していると判定したときの算出した差分の二乗和Errは、最小の二乗和Errである。第1の許容誤差は、例えば、波面推定部28の内部メモリ又は保存装置30に格納されているものとする。
 また、位相の探索処理の収束判定として、例えば、位相Φ(u,v)を変更しながら、事前に設定された回数だけ差分の二乗和Errを算出し、算出した二乗和Errの中で、最小の二乗和Errを特定したら、収束していると判定する方法がある。
 波面推定部28は、位相の探索処理が収束していなければ(図9のステップST15:NOの場合)、式(2)に示す位相Φ(u,v)を変更し(図9のステップST16)、変更後の位相Φ(u,v)を式(2)に設定する。
 波面推定部28は、ステップST12~ST15の処理を再度実施する。
 変更後の位相Φ(u,v)は、未だ式(2)に設定していない位相であれば、どのような位相でもよいが、差分の二乗和Errが小さくなるような位相であることが望ましい。
 波面推定部28は、位相の探索処理が収束していれば(図9のステップST15:YESの場合)、位相の探索処理を終了する。
 波面推定部28は、位相の探索処理が終了すると、最小の二乗和Errが算出された位相Φ(u,v)を式(3)に代入することで、結像光学系11の開口における光束2の波面W(u,v)を推定する(図9のステップST17)。
 推定された波面W(u,v)は、ステップST11で算出された概算値としての波面よりも高精度な波面である。
 波面推定部28は、波面W(u,v)を保存装置30に出力する。
 また、波面推定部28は、最小の二乗和Errが算出された位相Φ(u,v)に対応する点広がり関数km,n(x,y)を移動体復元部29に出力する。
 移動体復元部29は、波面推定部28から出力された点広がり関数km,n(x,y)と、光検出器27から出力された強度画像が示す移動体1の像im,n(x,y)とから、移動体1の輝度分布o(p,q)を推定する(図3のステップST5)。
 以下、移動体復元部29による移動体1の輝度分布推定処理を具体的に説明する。
 まず、移動体復元部29は、波面推定部28から出力された点広がり関数km,n(x,y)と光検出器27から出力された強度画像が示す移動体1の像im,n(x,y)とを式(16)に代入して、差分rm,n(x,y)を算出する。
 また、移動体復元部29は、差分rm,n(x,y)を式(17)に代入して、差分の二乗和eを算出する(図9のステップST18)。
 ここでは、式(17)に示す重みd(x,y)は、事前に設定された値に固定されていることを想定しているが、移動体復元部29によって変更されるようにしてもよい。
 移動体復元部29は、差分の二乗和eを算出すると、移動体1の輝度分布推定処理が収束しているか否かを判定する(図9のステップST19)。
 移動体1の輝度分布推定処理の収束判定として、例えば、算出した差分の二乗和eが事前に設定されている第2の許容誤差以下であれば、収束していると判定する方法がある。収束していると判定したときの算出した差分の二乗和eは、最小の二乗和eである。第2の許容誤差は、例えば、移動体復元部29の内部メモリ又は保存装置30に格納されているものとする。
 また、移動体1の輝度分布推定処理の収束判定として、例えば、移動体1の輝度分布o(p,q)を変更しながら、事前に設定された回数だけ差分の二乗和eを算出し、算出した二乗和eの中で、最小の二乗和eを特定したら、収束していると判定する方法がある。
 移動体復元部29は、移動体1の輝度分布推定処理が収束していなければ(図9のステップST19:NOの場合)、式(16)に示す移動体1の輝度分布o(p,q)を変更し(図9のステップST20)、ステップST18~ST19の処理を再度実施する。
 変更後の輝度分布o(p,q)は、未だ式(16)に設定していない輝度分布であれば、どのような輝度分布でもよいが、差分の二乗和eが小さくなるような輝度分布であることが望ましい。
 移動体復元部29は、移動体1の輝度分布推定処理が収束していれば(図9のステップST19:YESの場合)、移動体1の輝度分布推定処理結果として、最小の二乗和eが算出された移動体1の輝度分布o(p,q)を保存装置30に出力する(図9のステップST21)。
 以上の実施の形態1は、波面推定部28が、光検出器27により検出された複数の集光スポット像の位置から、結像光学系11の開口における光束の波面の概算値を算出し、概算値を用いて、複数の集光スポット像の点像強度分布を算出し、点像強度分布と複数の集光スポット像とから波面を推定するように、波面計測装置3を構成した。したがって、波面計測装置3は、レンズレットアレイなどの高速移動を実現する制御機構を実装することなく、波面を計測することができる。
 以上の実施の形態1は、移動体復元部29が、光検出器27により検出された集光スポット像と、波面推定部28により算出された点像強度分布とから、移動体1の輝度分布を推定するように、移動体観測装置を構成した。したがって、移動体観測装置は、移動体1の輝度分布を推定することができる。
 実施の形態1の波面計測装置3では、波面推定部28が、点像強度分布と光検出器27により検出された複数の集光スポット像とから、結像光学系11の開口における光束2の波面W(u,v)を推定している。
 しかし、これは一例に過ぎず、波面推定部28は、式(2)、式(4)及び式(5)によって点像強度分布を算出した後、点像強度分布と光検出器15により検出された集光スポット像とから、波面W(u,v)を推定するようにしてもよい。
 実施の形態1の波面計測装置3では、遮光部24により光束2が遮光されない複数の透過領域と、レンズアレイ25に含まれている複数のレンズの開口とが空間的に一致している。
 図11は、レンズアレイ25に含まれている複数のレンズの開口と、光束2を透過する透過領域が等しい遮光部24の一例を示す説明図である。
 また、遮光部24の複数の透過領域が、レンズアレイ25に含まれている複数のレンズの開口よりも小さくてもよい。即ち、開口の一部(部分開口)が透過領域であってもよい。
 複数の透過領域が、複数のレンズの開口よりも小さい場合、複数の空間領域は、複数の透過領域と一致するが、複数のレンズの開口とは一致しない。
 図12及び図13は、レンズアレイ25に含まれている複数のレンズの開口よりも、光束2を透過する透過領域が小さい遮光部24の一例を示す説明図である。
 図12及び図13には、レンズアレイ25に含まれている複数のレンズの開口が図示されていないが、図12及び図13に図示されている複数の透過領域は、複数のレンズの開口よりも小さい。
 また、図14に示すように、複数の透過領域の中に、光束2が遮光される領域が含まれていてもよい。
 複数の透過領域の中に、光束2が遮光される領域が含まれている場合、複数の空間領域の形状は、リング形状となる。
 図14は、複数の透過領域の中に、光束2が遮光される領域が含まれている遮光部24の一例を示す説明図である。
 また、図15及び図16に示すように、形状又は大きさが異なる透過領域が混在していてもよい。
 図15及び図16は、形状又は大きさが異なる透過領域が混在している遮光部24の一例を示す説明図である。
 形状又は大きさが異なる透過領域が混在している場合、レンズの開口よりも小さい部分開口の透過領域においては、空間領域が、当該透過領域と一致するが、レンズの開口とは一致しない。
実施の形態2.
 実施の形態1の波面計測装置3は、空間分割部23が1つの遮光部24を備えている。
 実施の形態2では、空間分割部61が、2つの遮光部として、第1の遮光部24a及び第2の遮光部24bを備えている波面計測装置3について説明する。
 図17は、実施の形態2による波面計測装置3を含む移動体観測装置を示す構成図である。図17において、図1と同一符号は同一又は相当部分を示すので説明を省略する。
 空間分割部61は、光スイッチ62、第1の遮光部24a、第2の遮光部24b及びレンズアレイ25を備えている。
 空間分割部61は、図1に示す空間分割部23と同様に、フォーカス調整レンズ22から出力された光束2を複数の空間領域の光束2aに分割し、複数の空間領域の光束2aをシャッタ26に出力する。
 光スイッチ62は、入力側がフォーカス調整レンズ22の出力側と接続され、第1の出力側が第1の遮光部24aの入力側と接続され、第2の出力側が第2の遮光部24bの入力側と接続されている。
 光スイッチ62は、制御装置63によって、フォーカス調整レンズ22から出力された光束2の出力先が切り替えられ、光束2を第1の遮光部24a又は第2の遮光部24bに出力する。
 第1の遮光部24aは、光スイッチ62から出力された光束2を部分的に遮光することで、光束2を複数の第1の空間領域の光束2aに分割する。
 第2の遮光部24bは、光スイッチ62から出力された光束2を部分的に遮光することで、光束2を複数の第2の空間領域の光束2aに分割する。
 第1の遮光部24aにより光束2が遮光されない複数の透過領域における形状又は大きさと、第2の遮光部24bにより光束2が遮光されない複数の透過領域における形状又は大きさとは、異なっている。
 例えば、第1の遮光部24aが図12に示す遮光部であり、第2の遮光部24bが図13に示す遮光部である態様が考えられる。
 第1の遮光部24aと第2の遮光部24bとにおいて、複数の透過領域における形状又は大きさが異なる場合、複数の第1の空間領域における形状又は大きさと、複数の第2の空間領域における形状又は大きさとは、異なる。
 制御装置63は、パーソナルコンピュータなどの計算機によって実現される。
 制御装置63は、図1に示す制御装置43と同様に、カウンタ42により計測された経過時間に基づいて、フォーカス調整レンズ13,22、シャッタ14,26、光検出器15,27及び駆動装置44を制御する装置である。
 また、制御装置63は、光スイッチ62における光束2の出力先を制御する。
 次に、図17に示す移動体観測装置の動作について説明する。
 ただし、空間分割部61及び制御装置63以外は、実施の形態1の移動体観測装置と同様であるため、空間分割部61及び制御装置63の動作のみを説明する。
 光束2が透過する空間領域は、大きさが小さい場合、大きい場合と比べて、透過する光束2の光量が少なくなってしまうが、透過する光束2が細くなるため、光検出器27により検出される複数の集光スポット像と波面の相関が大きくなる。
 したがって、波面推定部28で実施される波面の推定処理は、空間領域の大きさが小さい場合、空間領域の大きさが大きい場合よりも、早く終了する。
 ここでは、説明の便宜上、第1の遮光部24aの透過領域に対応する第1の空間領域の大きさが、第2の遮光部24bの透過領域に対応する第2の空間領域の大きさよりも小さいものとする。
 制御装置63は、波面の推定処理の処理時間を短縮することを優先する場合、推定処理の最初の段階では、光スイッチ62から光束2が第1の遮光部24aに出力されるように、光スイッチ62における光束2の出力先を制御する。制御装置63によって、光束2の出力先が制御されることで、第1の遮光部24aから出力された光束2aが、レンズアレイ25に与えられる。
 制御装置63は、波面の推定処理が進んで、収束に近づいてきたら、光スイッチ62から光束2が第2の遮光部24bに出力されるように、光スイッチ62における光束2の出力先を制御する。制御装置63によって、光束2の出力先が制御されることで、第2の遮光部24bから出力された光束2aが、レンズアレイ25に与えられる。
 例えば、式(14)に示す差分の二乗和Errが、閾値よりも小さければ、制御装置63は、収束に近づいてきていると判断することができる。閾値は、例えば、制御装置63の内部メモリ又は保存装置30に格納されているものとする。閾値>第1の許容誤差である。
 ここでは、制御装置63が、推定処理の最初の段階では、光スイッチ62から光束2が第1の遮光部24aに出力されるように制御し、収束に近づいてきたら、光スイッチ62から光束2が第2の遮光部24bに出力されるように制御する例を示している。しかし、これは一例に過ぎない。
 制御装置63は、例えば、複数のフレームのうち、奇数フレームでは、光スイッチ62から光束2が第1の遮光部24aに出力されるように制御し、偶数フレームでは、光スイッチ62から光束2が第2の遮光部24bに出力されるように制御してもよい。
 以上の実施の形態2は、空間分割部61が、光スイッチ62、第1の遮光部24a、第2の遮光部24b及びレンズアレイ25を備えるように、波面計測装置3を構成した。したがって、実施の形態2の波面計測装置3は、実施の形態1の波面計測装置3よりも、例えば、波面の推定結果が得られるまでの時間を短くすることが可能となる。
 図17に示す波面計測装置3では、空間分割部61が、2つの遮光部として、第1の遮光部24a及び第2の遮光部24bを備えている。しかし、これは一例に過ぎず、空間分割部61が、3つ以上の遮光部を備えるようにしてもよい。空間分割部61が、3つ以上の遮光部を備える場合、3つ以上の遮光部の透過領域に対応する空間領域の大きさは、互いに異なっている。
 制御装置63は、フォーカス調整レンズ22から出力された光束2の出力先が、3つ以上の遮光部のいずれかとなるように、光スイッチ62における光束2の出力先を制御する。
実施の形態3.
 実施の形態3では、空間分割部64が、シャッタ65a,65b,65cを備えている波面計測装置3について説明する。
 図18は、実施の形態3による波面計測装置3を含む移動体観測装置を示す構成図である。図18において、図1と同一符号は同一又は相当部分を示すので説明を省略する。
 空間分割部64は、遮光部24、シャッタ65a,65b,65c及びレンズアレイ25を備えている。
 空間分割部64は、図1に示す空間分割部23と同様に、フォーカス調整レンズ22から出力された光束2を複数の空間領域の光束2aに分割し、複数の空間領域の光束2aをシャッタ26に出力する。
 空間分割部64が備える遮光部24は、形状又は大きさが異なる透過領域が混在している。
 遮光部24が、例えば、図16に示す遮光部であれば、3種類の透過領域が混在している。
 実施の形態3では、説明の便宜上、遮光部24が、図16に示す遮光部であるものとする。
 シャッタ65aは、遮光部24における第1の透過領域群と対向するように設置されている。
 シャッタ65aは、第1の透過領域群に含まれている複数の透過領域を透過してきた光束2aの光量を調整し、光量調整後の光束2aをレンズアレイ25に出力する。
 シャッタ65bは、遮光部24における第2の透過領域群と対向するように設置されている。
 シャッタ65bは、第2の透過領域群に含まれている複数の透過領域を透過してきた光束2aの光量を調整し、光量調整後の光束2aをレンズアレイ25に出力する。
 シャッタ65cは、遮光部24における第3の透過領域群と対向するように設置されている。
 シャッタ65bは、第3の透過領域群に含まれている複数の透過領域を透過してきた光束2aの光量を調整し、光量調整後の光束2aをレンズアレイ25に出力する。
 空間分割部64は、3つのシャッタ65a,65b,65cを備えている。しかし、これは一例に過ぎず、遮光部24が、例えば、4つの透過領域群を備えていれば、空間分割部64が、4つのシャッタを備えている。
 制御装置66は、パーソナルコンピュータなどの計算機によって実現される。
 制御装置66は、図1に示す制御装置43と同様に、カウンタ42により計測された経過時間に基づいて、フォーカス調整レンズ13,22、シャッタ14,26、光検出器15,27及び駆動装置44を制御する装置である。
 また、制御装置66は、シャッタ65a,65b,65cにおける光量の調整を制御する。
 次に、図18に示す移動体観測装置の動作について説明する。
 ただし、空間分割部64及び制御装置66以外は、実施の形態1の移動体観測装置と同様であるため、空間分割部64及び制御装置66の動作のみを説明する。
 制御装置66は、波面の推定処理の処理時間を短縮することを優先する場合、推定処理の最初の段階では、第2の透過領域群の重みが、第1及び第3の透過領域群の重みよりも大きくなるように、シャッタ65a,65b,65cにおける光量の調整を制御する。
 具体的には、制御装置66は、シャッタ65bを通過する光量が、シャッタ65a,65cを通過する光量よりも多くなるように、シャッタ65a,65b,65cにおける光量の調整を制御する。
 制御装置66は、波面の推定処理が進んで、収束に近づいてきたら、第2の透過領域群の重みと、第1及び第3の透過領域群の重みとが同じになるように、シャッタ65a,65b,65cにおける光量の調整を制御する。
 具体的には、制御装置66は、シャッタ65bを通過する光量が、シャッタ65a,65cを通過する光量と同じになるように、シャッタ65a,65b,65cにおける光量の調整を制御する。
 ここでは、制御装置66が、推定処理の最初の段階では、第2の透過領域群の重みが、第1及び第3の透過領域群の重みよりも大きくなるように、シャッタ65a,65b,65cにおける光量の調整を制御する。そして、収束に近づいてきたら、制御装置66が、第2の透過領域群の重みと、第1及び第3の透過領域群の重みとが同じになるように、シャッタ65a,65b,65cにおける光量の調整を制御している。
 しかし、これは一例に過ぎない。
 制御装置66は、複数のフレームのうち、奇数フレームでは、第2の透過領域群の重みが、第1及び第3の透過領域群の重みよりも大きくなるように、シャッタ65a,65b,65cにおける光量の調整を制御する。
 一方、制御装置66は、偶数フレームでは、第1及び第3の透過領域群の重みが、第2の透過領域群の重みよりも大きくなるように、シャッタ65a,65b,65cにおける光量の調整を制御するものであってもよい。
 以上の実施の形態3は、空間分割部64が、遮光部24、シャッタ65a,65b,65c及びレンズアレイ25を備えるように、波面計測装置3を構成した。したがって、実施の形態3の波面計測装置3は、実施の形態1の波面計測装置3よりも、例えば、波面の推定結果が得られるまでの時間を短くすることが可能となる。
実施の形態4.
 実施の形態4では、光検出器15,27の他に、光検出器77を備える波面計測装置3について説明する。
 図19は、実施の形態4による波面計測装置3を含む移動体観測装置を示す構成図である。図19において、図1と同一符号は同一又は相当部分を示すので説明を省略する。
 光束分割部70は、例えば、ビームスプリッタによって実現される。
 光束分割部70は、結像光学系11により集光された光束2の光量を3つに分割することで、光束2を3つに分割する。
 光束分割部70は、分割後のそれぞれの光束2をフォーカス調整レンズ13、リレー光学系21及びリレー光学系71に出力する。
 リレー光学系71は、レンズアレイ75において、光束分割部70から出力された光束2のピントが合うように、レンズアレイ75を結像光学系11の瞳と光学的に等価とする光学系である。
 フォーカス調整レンズ72は、リレー光学系71を透過してきた光束2の光路長を調整して、光路長調整後の光束2を空間分割部73に出力する。
 空間分割部73は、遮光部74及びレンズアレイ75を備えている。
 空間分割部73は、フォーカス調整レンズ72から出力された光束2を複数の空間領域の光束2aに分割し、複数の空間領域の光束2aをシャッタ76に出力する。
 実施の形態4の波面計測装置3では、空間分割部23が第1の空間分割部であり、空間分割部73が第2の空間分割部である。
 遮光部74は、フォーカス調整レンズ72から出力された光束2を部分的に遮光することで、光束2を複数の空間領域の光束2aに分割する。
 レンズアレイ75は、複数のレンズを含んでおり、複数の空間領域の光束2aを光検出器77の受光面に集光する。
 遮光部24により光束2が遮光されない複数の透過領域における形状又は大きさと、遮光部74により光束2が遮光されない複数の透過領域における形状又は大きさとは、異なっている。
 したがって、空間分割部23により光束が分割される複数の空間領域の形状又は大きさと、空間分割部73により光束が分割される複数の空間領域の形状又は大きさとが異なっている。
 実施の形態4では、説明の便宜上、遮光部74の透過領域に対応する空間領域の大きさが、遮光部24の透過領域に対応する空間領域の大きさよりも小さいものとする。
 シャッタ76は、光検出器77により受光される光束2aの光量を調整するために、レンズアレイ75から出力された光束2aの通過を時間的に制限する。
 光検出器77は、例えば、イメージセンサによって実現される。
 光検出器77は、シャッタ76を通過してきた複数の空間領域の光束2aのそれぞれを受光する受光面を有している。
 光検出器77は、受光面で受光されるそれぞれの光束2aから、移動体1の像として、集光スポット像を検出し、それぞれの集光スポット像を示す強度画像を波面推定部78に出力する。
 実施の形態4の波面計測装置3では、光検出器27が第1の光検出器であり、光検出器77が第2の光検出器である。
 波面推定部78は、パーソナルコンピュータなどの計算機、あるいは、波面推定回路などによって実現される。
 波面推定部78は、光検出器27により検出された複数の集光スポット像の位置又は光検出器77により検出された複数の集光スポット像の位置から、結像光学系11の開口における光束2の波面の概算値を算出する処理を実施する。
 波面推定部78は、波面の概算値を用いて、光検出器27により検出された複数の集光スポット像を算出し、又は、光検出器77により検出された複数の集光スポット像の点像強度分布を算出する処理を実施する。
 波面推定部78は、算出した点像強度分布と、光検出器27により検出された集光スポット像又は光検出器77により検出された集光スポット像とから、結像光学系11の開口における光束2の波面を推定する処理を実施する。
 移動体復元部79は、パーソナルコンピュータなどの計算機、あるいは、移動体復元回路などによって実現される。
 移動体復元部79は、光検出器27により検出された複数の集光スポット像又は光検出器77により検出された複数の集光スポット像と、波面推定部78により推定された点像強度分布とから、移動体1の輝度分布を推定する処理を実施する。
 制御装置80は、パーソナルコンピュータなどの計算機によって実現される。
 制御装置80は、カウンタ42により計測された経過時間に基づいて、フォーカス調整レンズ13,22,72、シャッタ14,26,76、光検出器15,27,77及び駆動装置44を制御する装置である。
 次に、図19に示す移動体観測装置について説明する。ただし、ここでは、図1に示す移動体観測装置と相違する部分だけを説明する。
 光束分割部70は、結像光学系11により集光された光束2の光量を3つに分割することで、光束2を3つに分割する。
 光束分割部70は、分割後のそれぞれの光束2をフォーカス調整レンズ13、リレー光学系21及びリレー光学系71に出力する。
 リレー光学系71は、光束分割部70から光束2を受けると、光束2をフォーカス調整レンズ72に出力する。
 フォーカス調整レンズ72は、制御装置80から出力される制御信号に従ってリレー光学系71を透過してきた光束2の光路長を調整し、光路長調整後の光束2を空間分割部73の遮光部74に出力する。
 リレー光学系71を透過してくる光束2の光路長は、例えば、温度の変化に伴って変化する。制御装置80は、リレー光学系71を透過してくる光束2の光路長が、或る基準温度での光路長と一致するように、フォーカス調整レンズ72における光路長の調整量を制御する。
 遮光部74は、フォーカス調整レンズ72から光束2を受けると、光束2を部分的に遮光することで、光束2を複数の空間領域の光束2aに分割する。
 遮光部74は、複数の空間領域の光束2aをレンズアレイ75に出力する。
 レンズアレイ75は、遮光部74から複数の空間領域の光束2aを受けると、複数の空間領域の光束2aが光検出器77の受光面に集光されるように、複数の空間領域の光束2aをシャッタ76に出力する。
 シャッタ76は、光検出器77により受光される光束2aの光量を調整するために、制御装置80から出力される制御信号に従ってレンズアレイ75から出力された光束2aの通過を時間的に制限する。
 移動体1が高速で移動している場合、光検出器77での光束2aの露光時間がコヒーレンス時間よりも長くなると、光検出器77により検出される移動体1の像の広がりが大きくなる。
 移動体1が高速で移動している場合、制御装置80は、光検出器77での光束2aの露光時間がコヒーレンス時間よりも短くなるように、シャッタ76における光束2aの通過時間を制御する。
 制御装置80が、上記のように、シャッタ76における光束2aの通過時間を制御する場合、光検出器77により受光される光束2aの光量が少なくなってしまうことがある。光束2aの光量が少なくなってしまう場合、制御装置80が、シャッタ76において、光束2aの通過と遮光が複数回繰り返されるように制御することで、光検出器77が、複数回、移動体1の像を検出できるようにする。
 光検出器77は、シャッタ76を通過してきたそれぞれの光束2から、移動体1の像として、集光スポット像を検出し、それぞれの集光スポット像を示す強度画像を波面推定部78に出力する。
 波面推定部78は、図1に示す波面推定部28と同様の波面推定処理を実施することで、結像光学系11の開口における光束2の波面を推定する。
 ただし、波面推定部78は、波面推定処理の実施に用いる集光スポット像が、光検出器27により検出された複数の集光スポット像又は光検出器77により検出された複数の集光スポット像に切り替わる点で、図1に示す波面推定部28と相違している。
 制御装置80は、例えば、波面の推定処理の最初の段階では、空間分割部73から出力された光束2が光検出器77の受光面に集光されて、空間分割部23から出力された光束2が光検出器27の受光面27aに集光されないようにシャッタ26,76を制御する。
 制御装置80によって、空間分割部73から出力された光束2が光検出器77の受光面に集光されるように、シャッタ26,76が制御されることで、光検出器77により検出された複数の集光スポット像を示す強度画像が、波面推定部78に与えられる。
 制御装置80は、収束に近づいてきたら、空間分割部23から出力された光束2が光検出器27の受光面27aに集光されて、空間分割部73から出力された光束2が光検出器77の受光面に集光されないように、シャッタ26,76を制御する。
 制御装置80によって、空間分割部23から出力された光束2が光検出器27の受光面27aに集光されるように、シャッタ26,76が制御されることで、光検出器27により検出された複数の集光スポット像を示す強度画像が、波面推定部78に与えられる。
 移動体復元部79は、図1に示す移動体復元部29と同様の移動体1の輝度分布推定処理を実施する。
 ただし、移動体復元部79は、輝度分布推定処理の実施に用いる集光スポット像として、光検出器27により検出された複数の集光スポット像又は光検出器77により検出された複数の集光スポット像を用いる点で、図1に示す移動体復元部29と相違している。
 以上の実施の形態4は、波面推定部78が、光検出器27により検出された複数の集光スポット像の位置又は光検出器77により検出された複数の集光スポット像の位置から、結像光学系11の開口における光束2の波面の概算値を算出する。また、波面推定部78が、波面の概算値を用いて、光検出器27により検出された複数の集光スポット像又は光検出器77により検出された複数の集光スポット像の点像強度分布を算出する。さらに、波面推定部78が、点像強度分布と、光検出器27により検出された複数の集光スポット像又は光検出器77により検出された複数の集光スポット像とから、結像光学系11の開口における光束2の波面を推定するように、波面計測装置3を構成した。したがって、実施の形態4の波面計測装置3は、実施の形態1の波面計測装置3よりも、例えば、波面の推定結果が得られるまでの時間を短くすることが可能となる。
実施の形態5.
 実施の形態4の波面計測装置3では、光束分割部70が、結像光学系11により集光された光束2の光量を3つに分割している。
 実施の形態5では、光束分割部81が、結像光学系11により集光された光束2を波長別に分割している波面計測装置3について説明する。
 図20は、実施の形態5による波面計測装置3を含む移動体観測装置を示す構成図である。図20において、図1及び図19と同一符号は同一又は相当部分を示すので説明を省略する。
 光束分割部81は、例えば、ビームスプリッタによって実現される。
 光束分割部81は、結像光学系11により集光された光束2を波長別に3つに分割する。
 光束分割部81は、分割後のそれぞれの光束2をフォーカス調整レンズ13、リレー光学系21及びリレー光学系71に出力する。
 実施の形態5では、光束分割部81からリレー光学系21に出力される光束2が第1の波長の光束であり、光束分割部81からリレー光学系71に出力される光束2が第2の波長の光束であるとする。
 したがって、第1の空間分割部である空間分割部23は、第1の波長の光束を複数の空間領域の光束2aに分割し、第2の空間分割部である空間分割部73は、第2の波長の光束を複数の空間領域の光束2aに分割する。
 波面推定部82は、パーソナルコンピュータなどの計算機、あるいは、波面推定回路などによって実現される。
 波面推定部82は、光検出器27により検出された複数の集光スポット像の位置及び光検出器77により検出された複数の集光スポット像の位置から、結像光学系11の開口における光束2の波面の概算値を算出する処理を実施する。
 波面推定部82は、波面の概算値を用いて、光検出器27により検出された複数の集光スポット像と、光検出器77により検出された複数の集光スポット像との点像強度分布を算出する処理を実施する。
 波面推定部82は、点像強度分布と、光検出器27により検出された複数の集光スポット像及び光検出器77により検出された複数の集光スポット像とから、結像光学系11の開口における光束2の波面を推定する処理を実施する。
 移動体復元部83は、パーソナルコンピュータなどの計算機、あるいは、移動体復元回路などによって実現される。
 移動体復元部83は、光検出器27により検出された複数の集光スポット像及び光検出器77により検出された複数の集光スポット像と、波面推定部82により推定された点像強度分布とから、移動体1の輝度分布を推定する処理を実施する。
 ここでは、移動体復元部83が、移動体1の輝度分布を推定する際、光検出器27により検出された複数の集光スポット像と、光検出器77により検出された複数の集光スポット像とを用いるものとする。しかし、これは一例に過ぎず、移動体復元部83は、光検出器27により検出された複数の集光スポット像又は光検出器77により検出された複数の集光スポット像を用いるようにしてもよい。
 次に、図20に示す移動体観測装置について説明する。ただし、ここでは、図1及び図19に示す移動体観測装置と相違する部分だけを説明する。
 光束分割部81は、結像光学系11により集光された光束2を波長別に3つに分割する。
 光束分割部81は、分割後のそれぞれの光束2をフォーカス調整レンズ13、リレー光学系21及びリレー光学系71に出力する。
 分割後のそれぞれの光束2のうち、第1の波長の光束2は、光束分割部81によって、リレー光学系21に出力され、第2の波長の光束2は、光束分割部81によって、リレー光学系71に出力される。
 したがって、第1の空間分割部である空間分割部23は、第1の波長の光束を複数の空間領域の光束2aに分割し、第2の空間分割部である空間分割部73は、第2の波長の光束を複数の空間領域の光束2aに分割する。
 第1の光検出器である光検出器27の受光面27aには、空間分割部23から出力された第1の波長の光束2aが集光され、第2の光検出器である光検出器77の受光面には、空間分割部73から出力された第2の波長の光束2aが集光される。
 したがって、光検出器27は、第1の波長のそれぞれの光束2aから、移動体1の像として、集光スポット像を検出し、それぞれの集光スポット像を示す強度画像を波面推定部82に出力する。
 光検出器77は、第2の波長のそれぞれの光束2aから、移動体1の像として、集光スポット像を検出し、それぞれの集光スポット像を示す強度画像を波面推定部82に出力する。
 波面推定部82は、図1に示す波面推定部28と同様の波面推定処理を実施することで、結像光学系11の開口における光束2の波面を推定する。
 ただし、波面推定部82は、波面推定処理に用いる集光スポット像が、第1の波長の光束2aから検出された複数の集光スポット像と、第2の波長の光束2aから検出された複数の集光スポット像との双方である点で、図1に示す波面推定部28と相違している。
 波面計測装置3は、移動体1からの光束2に基づいて、波面を推定するものであり、光束2は、大気の屈折率分布のゆらぎが原因で広がる。
 大気による光束2の散乱は、波長に依存する。例えば、青い光は、散乱しやすく、青い光よりも波長が長い赤い光は、散乱され難いという特徴がある。なお、画像の分解能は、赤い光よりも青い光の方が高い。
 したがって、移動体1からの光束2のうち、青色の光束2は、赤色の光束2よりも、広がりが大きくなる。
 光検出器27が、第1の波長のそれぞれの光束2aから集光スポット像を検出し、光検出器77が、第2の波長のそれぞれの光束2aから集光スポット像を検出する場合、式(3)は、以下の式(18)のように表される。
Figure JPOXMLDOC01-appb-I000018
 式(18)において、λの添え字jは、波長を識別する記号である。j=1の場合のλは、第1の波長であり、j=2の場合のλは、第2の波長である。
 式(18)は、式(3)と同様に、位相Φ(u,v)と、波面W(u,v)との関係を示している。
 したがって、光検出器27によって第1の波長のそれぞれの光束2aから検出された集光スポット像の点像強度分布は、光検出器77によって第2の波長のそれぞれの光束2aから検出された集光スポット像の点像強度分布と異なる。
 波面推定部82は、図1に示す波面推定部28と異なり、第1の波長の光束2aから検出された複数の集光スポット像と、第2の波長の光束2aから検出された複数の集光スポット像との全ての集光スポット像を用いて、波面の推定処理を実施する。
 即ち、波面推定部82は、第1の波長の光束2aから検出された複数の集光スポット像と、第2の波長の光束2aから検出された複数の集光スポット像との全ての集光スポット像の点像強度分布を示す点広がり関数km,n(x,y)を算出する。
 波面推定部82により算出される点広がり関数km,n(x,y)は、複数の集光スポット像の位置の相関だけでなく、波長の相関も考慮されて算出されている。
 波面推定部82は、点広がり関数km,n(x,y)を算出すると、点広がり関数km,n(x,y)と、光検出器27により検出された複数の集光スポット像及び光検出器77により検出された複数の集光スポット像とから、波面W(u,v)を推定する。
 移動体復元部83は、図1に示す移動体復元部29と同様の移動体1の輝度分布推定処理を実施する。
 ただし、移動体復元部83は、移動体1の輝度分布推定処理に用いる集光スポット像として、光検出器27により検出された複数の集光スポット像と、光検出器77により検出された複数の集光スポット像とを用いる点で、図1に示す移動体復元部29と相違している。
 以上の実施の形態5は、波面推定部82が、第1の波長の光束2aから検出された複数の集光スポット像の位置及び第2の波長の光束2aから検出された複数の集光スポット像の位置から、波面の概算値を算出する。また、波面推定部82が、波面の概算値を用いて、第1の波長の光束2aから検出された複数の集光スポット像と、第2の波長の光束2aから検出された複数の集光スポット像との点像強度分布を算出する。そして、波面推定部82が、点像強度分布と、第1の波長の光束2aから検出された複数の集光スポット像及び第2の波長の光束2aから検出された複数の集光スポット像とから、波面を推定するように、波面計測装置3を構成した。したがって、波面計測装置3は、レンズレットアレイなどの高速移動を実現する制御機構を実装することなく、波面を計測することができる。
 また、実施の形態5の波面計測装置3は、波面の推定に用いる情報として、波長の情報も利用するため、実施の形態1の波面計測装置3での波面の推定精度よりも向上する。
実施の形態6.
 実施の形態6では、リレー光学系21から出力された光束2の光路長を調整するフォーカス調整レンズ22と、リレー光学系71から出力された光束2の光路長を調整するフォーカス調整レンズ72とを備えている波面計測装置3について説明する。
 図21は、実施の形態6による波面計測装置3を含む移動体観測装置を示す構成図である。図21において、図1及び図19と同一符号は同一又は相当部分を示すので説明を省略する。
 実施の形態6の波面計測装置3では、フォーカス調整レンズ22が第1のフォーカス調整レンズであり、フォーカス調整レンズ72が第2のフォーカス調整レンズである。
 波面推定部84は、パーソナルコンピュータなどの計算機、あるいは、波面推定回路などによって実現される。
 波面推定部84は、光検出器27により検出された複数の集光スポット像の位置及び光検出器77により検出された複数の集光スポット像の位置から、波面の概算値を算出する処理を実施する。
 波面推定部84は、波面の概算値を用いて、光検出器27により検出された複数の集光スポット像と、光検出器77により検出された複数の集光スポット像との点像強度分布を算出する処理を実施する。
 波面推定部84は、点像強度分布と、光検出器27により検出された複数の集光スポット像及び光検出器77により検出された複数の集光スポット像とから、波面を推定する処理を実施する。
 次に、図21に示す移動体観測装置の動作について説明する。
 制御装置80は、リレー光学系21から出力された光束2の光路長と、リレー光学系71から出力された光束2の光路長とが異なるように、フォーカス調整レンズ22及びフォーカス調整レンズ72のそれぞれを制御する。
 具体的には、制御装置80は、光検出器27の受光面27aにおいて、光束2aの焦点が合うように、フォーカス調整レンズ22を制御する。以下、焦点が合っている光束2aを「フォーカス状態の光束2a」と称する。
 また、制御装置80は、光検出器77の受光面において、光束2aの焦点がずれるように、フォーカス調整レンズ72を制御する。以下、焦点がずれている光束2aを「デフォーカス状態の光束2a」と称する。
 光検出器77により検出された複数の集光スポット像に基づいて、波面推定部84により推定された波面には、大気による光束2の位相の揺らぎのほかに、光束2aの焦点のずれに対応する収差が付加される。
 光検出器27により検出された複数の集光スポット像に基づいて、波面推定部84により推定された波面には、大気による光束2の位相の揺らぎが付加されても、光束2aの焦点のずれに対応する収差は付加されない。
 したがって、光検出器27によって検出された複数の集光スポット像の点像強度分布は、光検出器77によって検出された複数の集光スポット像の点像強度分布と異なる。
 波面推定部84は、図1に示す波面推定部28と異なり、フォーカス状態の光束2aから検出された複数の集光スポット像と、デフォーカス状態の光束2aから検出された複数の集光スポット像とを用いて、波面の推定処理を実施する。
 即ち、波面推定部84は、フォーカス状態の光束2aから検出された複数の集光スポット像と、デフォーカス状態の光束2aから検出された複数の集光スポット像との点像強度分布を示す点広がり関数km,n(x,y)を算出する。
 波面推定部84により算出される点広がり関数km,n(x,y)は、複数の集光スポット像の位置の相関だけでなく、焦点のずれに対応する収差も考慮されて算出されている。
 波面推定部84は、点広がり関数km,n(x,y)と、フォーカス状態の光束2aから検出された複数の集光スポット像及びデフォーカス状態の光束2aから検出された複数の集光スポット像とから、波面W(u,v)を推定する。
 以上の実施の形態6は、波面推定部84が、フォーカス状態の光束2aから検出された複数の集光スポット像の位置及びデフォーカス状態の光束2aから検出された集光スポット像の位置から、波面の概算値を算出する。また、波面推定部84が、波面の概算値を用いて、フォーカス状態の光束2aから検出された複数の集光スポット像と、デフォーカス状態の光束2aから検出された複数の集光スポット像との点像強度分布を算出する。そして、波面推定部84が、点像強度分布と、フォーカス状態の光束2aから検出された複数の集光スポット像及びデフォーカス状態の光束2aから検出された複数の集光スポット像とから、波面を推定するように、波面計測装置3を構成した。したがって、波面計測装置3は、レンズレットアレイなどの高速移動を実現する制御機構を実装することなく、波面を計測することができる。
 また、実施の形態6の波面計測装置3は、波面の推定に用いる情報として、収差の情報も利用するため、実施の形態1の波面計測装置3での波面の推定精度よりも向上する。
実施の形態7.
 実施の形態5の移動体観測装置では、移動体復元部83が、光検出器27により検出された複数の集光スポット像及び光検出器77により検出された複数の集光スポット像と、波面推定部82により推定された点像強度分布とから、移動体1の輝度分布を推定している。
 実施の形態7では、移動体復元部86が、移動体1が存在している領域内の集光スポット像と点像強度分布とから、移動体1の輝度分布を推定する移動体観測装置について説明する。
 図22は、実施の形態7による波面計測装置3を含む移動体観測装置を示す構成図である。図22において、図1及び図20と同一符号は同一又は相当部分を示すので説明を省略する。
 移動体復元部86は、パーソナルコンピュータなどの計算機、あるいは、波面推定回路などによって実現される。
 移動体復元部86は、光検出器27により検出された複数の集光スポット像から、移動体が存在している領域を検出する。
 移動体復元部86は、光検出器77により検出された複数の集光スポット像のうち、移動体1が存在している領域内の集光スポット像と点像強度分布とから、移動体1の輝度分布を推定する処理を実施する。
 次に、図22に示す移動体観測装置について説明する。ただし、ここでは、図1及び図20に示す移動体観測装置と相違する部分だけを説明する。
 光検出器27は、第1の波長の光束2aから複数の集光スポット像を検出しており、光検出器77は、第2の波長の光束2aから複数の集光スポット像を検出している。
 第1の波長の光束2aは、第2の波長の光束2aよりも広がりが小さい光束であり、例えば、赤色の光束であるとする。第2の波長の光束2aは、青色又は緑色などの光束であるとする。第1の波長>第2の波長である。
 赤色の光束は、青色又は緑色などの光束よりも、散乱の影響を受け難いが、強度画像の分解能が低い。
 移動体復元部86は、光検出器27により検出された複数の集光スポット像及び光検出器77により検出された複数の集光スポット像のうち、移動体1が存在している領域内の集光スポット像と点像強度分布とから、移動体1の輝度分布を推定する。
 以下、移動体復元部86による移動体1の輝度分布推定処理を具体的に説明する。
 図23は、移動体復元部86による移動体1の輝度分布推定処理を示す説明図である。
 図23において、強度画像111は、光検出器27によって第1の波長の光束2aから検出された複数の集光スポット像を示す強度画像である。
 強度画像112は、光検出器77によって第2の波長の光束2aから検出された複数の集光スポット像を示す強度画像である。
 強度画像112は、散乱の影響を受け易いため、強度画像112に映っている移動体1の像は、強度画像111に映っている移動体1の像よりも広がりが大きくなっている。ただし、強度画像112は、強度画像111よりも分解能が高い画像である。
 まず、移動体復元部86は、光検出器27により検出された複数の集光スポット像が示す強度画像111から、移動体1の輪郭を抽出する輪郭抽出処理を実施する。輪郭抽出処理自体は、公知の技術であるため詳細な説明を省略する。
 移動体復元部86は、抽出した輪郭の内側の領域を移動体1が存在している領域とし、輪郭の外側の領域を移動体1が存在していない領域とする。
 次に、移動体復元部86は、図23に示すように、移動体1が存在している領域を包含する領域のみが、移動体1の輝度分布推定処理に用いる処理対象領域である旨を示すマスク画像113を生成する。
 処理対象領域は、移動体1が存在している領域を包含する領域であり、処理対象領域は、移動体1が存在している領域と一致する領域であってもよいし、移動体1が存在している領域も大きい領域であってもよい。移動体1が存在している領域も大きい領域としては、移動体1の影に対応するマージンだけ、抽出した移動体1の輪郭よりも大きい領域などが考えられる。マージンとしては、例えば、移動体1が存在している領域の約10%の大きさが考えられる。
 移動体復元部86は、強度画像112から、マスク画像113における処理対象領域内の移動体1の像im,n(x,y)を抽出する。図23に示す強度画像114は、強度画像112から抽出された処理対象領域内の移動体1の像im,n(x,y)を示す強度画像である。
 移動体復元部86は、処理対象領域に含まれている1つ以上の移動体1の像im,n(x,y)の中から、1つの移動体1の像im,n(x,y)を選択する。
 移動体復元部86は、選択した移動体1の像im,n(x,y)と、選択した移動体1の像im,n(x,y)に対応する点広がり関数km,n(x,y)とを式(16)に代入して、差分rm,n(x,y)を算出する。
 移動体復元部86は、処理対象領域に含まれている1以上の移動体1の像im,n(x,y)をすべて選択して、差分rm,n(x,y)の算出が終了するまで、上記の処理を繰り返し実施する。
 移動体復元部86は、算出した全ての差分rm,n(x,y)を式(17)に代入して、差分の二乗和eを算出する(図9のステップST18)。
 式(17)において、処理対象領域内の差分rm,n(x,y)に対応する重みd(x,y)を1とし、処理対象領域外の差分rm,n(x,y)に対応する重みd(x,y)を0とする。
 移動体復元部86は、差分の二乗和eを算出すると、図1に示す移動体復元部29と同様に、移動体1の輝度分布推定処理が収束するまで、輝度分布推定処理を繰り返し実施する。
 移動体復元部86は、移動体1の輝度分布推定処理が収束すると、最小の二乗和eが算出された移動体1の輝度分布o(p,q)を保存装置30に出力する。
 以上の実施の形態7は、移動体復元部86が、光検出器27により検出された集光スポット像から、移動体が存在している領域を検出する。そして、移動体復元部86が、光検出器77により検出された集光スポット像のうち、移動体1が存在している領域内の集光スポット像と点像強度分布とから、移動体1の輝度分布を推定するように、移動体観測装置を構成した。したがって、移動体観測装置は、移動体1の輝度分布を推定する際に、移動体が存在していない領域内の集光スポット像を処理対象から除外することができるため、図20に示す移動体観測装置よりも、移動体1の輝度分布推定処理の負荷を軽減することができる。
 なお、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。
 この発明は、結像光学系の開口における光束の波面を推定する波面計測装置及び波面計測方法に適している。
 また、この発明は、移動体の輝度分布を推定する移動体観測装置に適している。
 1 移動体、2,2a 光束、3 波面計測装置、4,5,6 光束、11 結像光学系、12 光束分割部、13 フォーカス調整レンズ、14 シャッタ、15 光検出器、21 リレー光学系、22 フォーカス調整レンズ、23 空間分割部(第1の空間分割部)、24 遮光部(第1の光検出器)、24a,24b 遮光部、25 レンズアレイ、25a レンズ、26 シャッタ、27 光検出器、27a 光検出器の受光面、28 波面推定部、29 移動体復元部、30 保存装置、41 時刻校正部、42 カウンタ、43,63,66 制御装置、44 駆動装置、51,52 筐体、61,64 空間分割部、62 光スイッチ、65a,65b,65c シャッタ、70,81 光束分割部、71 リレー光学系、72 フォーカス調整レンズ、73 空間分割部(第2の空間分割部)、74 遮光部、75 レンズアレイ、76 シャッタ、77 光検出器(第2の光検出器)、78,82,84 波面推定部、79,83,85,86 移動体復元部、80 制御装置、101 第1の大気層、102 第2の大気層、103 第3の大気層、104,105,106,106a,106b 移動体1の像、107a,107b 波面、111,112,114 強度画像、113 マスク画像。

Claims (12)

  1.  移動体に反射された光束又は前記移動体から送信された光束を集光する結像光学系と、
     前記結像光学系により集光された光束を複数の空間領域の光束に分割し、前記複数の空間領域の光束のそれぞれを集光する空間分割部と、
     前記空間分割部により集光されたそれぞれの光束から、前記移動体の像として、集光スポット像を検出する光検出器と、
     前記光検出器により検出された複数の集光スポット像の位置から、前記結像光学系の開口における光束の波面の概算値を算出し、前記概算値を用いて、前記複数の集光スポット像の点像強度分布を算出し、前記点像強度分布と前記複数の集光スポット像とから、前記波面を推定する波面推定部と
     を備えた波面計測装置。
  2.  前記空間分割部は、
     前記結像光学系により集光された光束を部分的に遮光することで、前記結像光学系により集光された光束を複数の空間領域の光束に分割する遮光部と、
     前記遮光部により分割された複数の空間領域の光束のそれぞれを前記光検出器の受光面に集光するレンズアレイとを備えていることを特徴とする請求項1記載の波面計測装置。
  3.  前記複数の空間領域は、形状及び大きさのそれぞれが均一の領域であることを特徴とする請求項2記載の波面計測装置。
  4.  前記複数の空間領域には、形状又は大きさが異なる領域が混在していることを特徴とする請求項2記載の波面計測装置。
  5.  前記空間分割部は、
     前記結像光学系により集光された光束の出力先を切り替える光スイッチと、
     前記光スイッチから出力された光束を部分的に遮光することで、前記光スイッチから出力された光束を複数の第1の空間領域の光束に分割する第1の遮光部と、
     前記光スイッチから出力された光束を部分的に遮光することで、前記光スイッチから出力された光束を前記複数の第1の空間領域と形状又は大きさが異なる複数の第2の空間領域の光束に分割する第2の遮光部と、
     前記第1の遮光部により分割された複数の第1の空間領域の光束又は前記第2の遮光部により分割された複数の第2の空間領域の光束のそれぞれを前記光検出器の受光面に集光するレンズアレイとを備えており、
     前記光スイッチにおける光束の出力先を制御して、前記結像光学系により集光された光束を前記第1の遮光部又は前記第2の遮光部に出力させる制御装置を備えたことを特徴とする請求項1記載の波面計測装置。
  6.  前記空間分割部は、
     前記遮光部により分割された複数の空間領域の光束のそれぞれの光量を調整する複数のシャッタを備えており、
     前記複数のシャッタにおける光量の調整を制御する制御装置を備えたことを特徴とする請求項4記載の波面計測装置。
  7.  前記結像光学系により集光された光束を複数の光束に分割し、前記複数の光束を出力する光束分割部を備え、
     前記空間分割部として、
     前記光束分割部から出力された複数の光束のうち、いずれか1つの光束を複数の空間領域の光束に分割し、前記複数の空間領域の光束のそれぞれを集光する第1の空間分割部と、
     前記光束分割部から出力された複数の光束のうち、前記いずれか1つの光束と異なるいずれか1つの光束を複数の空間領域の光束に分割し、前記複数の空間領域の光束のそれぞれを集光する第2の空間分割部とを備えており、
     前記光検出器として、
     前記第1の空間分割部により集光されたそれぞれの光束から、前記移動体の像として、集光スポット像を検出する第1の光検出器と、
     前記第2の空間分割部により集光されたそれぞれの光束から、前記移動体の像として、集光スポット像を検出する第2の光検出器とを備えており、
     前記第1の空間分割部により光束が分割される複数の空間領域の形状又は大きさと、前記第2の空間分割部により光束が分割される複数の空間領域の形状又は大きさとが異なり、
     前記波面推定部は、
     前記第1の光検出器により検出された複数の集光スポット像の位置又は前記第2の光検出器により検出された複数の集光スポット像の位置から、前記結像光学系の開口における光束の波面の概算値を算出し、前記概算値を用いて、前記第1の光検出器により検出された複数の集光スポット像の点像強度分布又は前記第2の光検出器により検出された複数の集光スポット像の点像強度分布を算出し、
     算出した点像強度分布と前記第1の光検出器により検出された複数の集光スポット像又は前記第2の光検出器により検出された複数の集光スポット像とから、前記波面を推定することを特徴とする請求項1記載の波面計測装置。
  8.  前記結像光学系により集光された光束を第1の波長の光束と第2の波長の光束とに分割する光束分割部を備え、
     前記空間分割部として、
     前記光束分割部により分割された第1の波長の光束を複数の空間領域の光束に分割し、前記複数の空間領域の光束のそれぞれを集光する第1の空間分割部と、
     前記光束分割部により分割された第2の波長の光束を複数の空間領域の光束に分割し、前記複数の空間領域の光束のそれぞれを集光する第2の空間分割部とを備えており、
     前記光検出器として、
     前記第1の空間分割部により集光されたそれぞれの光束から、前記移動体の像として、集光スポット像を検出する第1の光検出器と、
     前記第2の空間分割部により集光されたそれぞれの光束から、前記移動体の像として、集光スポット像を検出する第2の光検出器とを備えており、
     前記波面推定部は、
     前記第1の光検出器により検出された複数の集光スポット像の位置及び前記第2の光検出器により検出された複数の集光スポット像の位置から、前記結像光学系の開口における光束の波面の概算値を算出し、前記概算値を用いて、前記第1の光検出器により検出された複数の集光スポット像と前記第2の光検出器により検出された複数の集光スポット像との点像強度分布を算出し、
     前記点像強度分布と前記第1の光検出器により検出された複数の集光スポット像及び前記第2の光検出器により検出された複数の集光スポット像とから、前記波面を推定することを特徴とする請求項1記載の波面計測装置。
  9.  前記結像光学系により集光された光束を複数の光束に分割し、前記複数の光束を出力する光束分割部を備え、
     前記光束分割部から出力された複数の光束のうち、いずれか1つの光束の光路長を調整する第1のフォーカス調整レンズと、
     前記光束分割部から出力された複数の光束のうち、前記いずれか1つの光束と異なるいずれか1つの光束の光路長を調整する第2のフォーカス調整レンズと備え、
     前記空間分割部として、
     前記第1のフォーカス調整レンズにより光路長が調整された光束を複数の空間領域の光束に分割し、前記複数の空間領域の光束のそれぞれを集光する第1の空間分割部と、
     前記第2のフォーカス調整レンズにより光路長が調整された光束を複数の空間領域の光束に分割し、前記複数の空間領域の光束のそれぞれを集光する第2の空間分割部とを備えており、
     前記光検出器として、
     前記第1の空間分割部により集光されたそれぞれの光束から、前記移動体の像として、集光スポット像を検出する第1の光検出器と、
     前記第2の空間分割部により集光されたそれぞれの光束から、前記移動体の像として、集光スポット像を検出する第2の光検出器とを備えており、
     前記波面推定部は、
     前記第1の光検出器により検出された複数の集光スポット像の位置及び前記第2の光検出器により検出された複数の集光スポット像の位置から、前記結像光学系の開口における光束の波面の概算値を算出し、前記概算値を用いて、前記第1の光検出器により検出された複数の集光スポット像と前記第2の光検出器により検出された複数の集光スポット像との点像強度分布を算出し、
     前記点像強度分布と前記第1の光検出器により検出された複数の集光スポット像及び前記第2の光検出器により検出された複数の集光スポット像とから、前記波面を推定することを特徴とする請求項1記載の波面計測装置。
  10.  結像光学系が、移動体に反射された光束又は前記移動体から送信された光束を集光し、 空間分割部が、前記結像光学系により集光された光束を複数の空間領域の光束に分割し、前記複数の空間領域の光束のそれぞれを集光し、
     光検出器が、前記空間分割部により集光されたそれぞれの光束から、前記移動体の像として、集光スポット像を検出し、
     波面推定部が、前記光検出器により検出された複数の集光スポット像の位置から、前記結像光学系の開口における光束の波面の概算値を算出し、前記概算値を用いて、前記複数の集光スポット像の点像強度分布を算出し、前記点像強度分布と前記複数の集光スポット像とから、前記波面を推定する
     波面計測方法。
  11.  移動体に反射された光束又は前記移動体から送信された光束を集光する結像光学系と、
     前記結像光学系により集光された光束を複数の空間領域の光束に分割し、前記複数の空間領域の光束のそれぞれを集光する空間分割部と、
     前記空間分割部により集光されたそれぞれの光束から、前記移動体の像として、集光スポット像を検出する光検出器と、
     前記光検出器により検出された複数の集光スポット像の位置から、前記結像光学系の開口における光束の波面の概算値を算出し、前記概算値を用いて、前記複数の集光スポット像の点像強度分布を算出し、前記点像強度分布と前記複数の集光スポット像とから、前記波面を推定する波面推定部と、
     前記光検出器により検出された集光スポット像と、前記波面推定部により算出された点像強度分布とから、前記移動体の輝度分布を推定する移動体復元部と
     を備えた移動体観測装置。
  12.  前記結像光学系により集光された光束を第1の波長の光束と第2の波長の光束とに分割する光束分割部を備え、
     前記空間分割部として、
     前記光束分割部により分割された第1の波長の光束を複数の空間領域の光束に分割し、前記複数の空間領域の光束のそれぞれを集光する第1の空間分割部と、
     前記光束分割部により分割された第2の波長の光束を複数の空間領域の光束に分割し、前記複数の空間領域の光束のそれぞれを集光する第2の空間分割部とを備えており、
     前記光検出器として、
     前記第1の空間分割部により集光されたそれぞれの光束から、前記移動体の像として、集光スポット像を検出する第1の光検出器と、
     前記第2の空間分割部により集光されたそれぞれの光束から、前記移動体の像として、集光スポット像を検出する第2の光検出器とを備えており、
     前記移動体復元部は、
     前記第1の光検出器により検出された複数の集光スポット像から、前記移動体が存在している領域を検出し、前記第2の光検出器により検出された複数の集光スポット像のうち、前記移動体が存在している領域内の集光スポット像と、前記波面推定部により算出された点像強度分布とから、前記移動体の輝度分布を推定することを特徴とする請求項11記載の移動体観測装置。
PCT/JP2018/019365 2018-05-18 2018-05-18 波面計測装置、波面計測方法及び移動体観測装置 WO2019220638A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2018/019365 WO2019220638A1 (ja) 2018-05-18 2018-05-18 波面計測装置、波面計測方法及び移動体観測装置
JP2018552262A JP6494885B1 (ja) 2018-05-18 2018-05-18 波面計測装置、波面計測方法及び移動体観測装置、移動体観測方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/019365 WO2019220638A1 (ja) 2018-05-18 2018-05-18 波面計測装置、波面計測方法及び移動体観測装置

Publications (1)

Publication Number Publication Date
WO2019220638A1 true WO2019220638A1 (ja) 2019-11-21

Family

ID=65999225

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/019365 WO2019220638A1 (ja) 2018-05-18 2018-05-18 波面計測装置、波面計測方法及び移動体観測装置

Country Status (2)

Country Link
JP (1) JP6494885B1 (ja)
WO (1) WO2019220638A1 (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0915057A (ja) * 1995-06-26 1997-01-17 Mitsubishi Electric Corp 波面センサ並びに波面計測方法
JP2004081725A (ja) * 2002-08-29 2004-03-18 Topcon Corp 眼特性測定装置
US20070216867A1 (en) * 2006-03-14 2007-09-20 Visx, Incorporated Shack-Hartmann based integrated autorefraction and wavefront measurements of the eye
JP2011247687A (ja) * 2010-05-25 2011-12-08 Canon Inc 屈折率分布計測方法および屈折率分布計測装置
JP2015055544A (ja) * 2013-09-11 2015-03-23 キヤノン株式会社 波面計測装置、波面計測方法、光学素子の製造方法、および、光学システムの組み立て調整装置
JP2015523105A (ja) * 2012-04-30 2015-08-13 クラリティ メディカル システムズ インコーポレイテッド 並行サンプリングおよびロックイン検出モードで作動する眼科用波面センサ
JP2016118547A (ja) * 2014-12-17 2016-06-30 ザ・ボーイング・カンパニーThe Boeing Company 大口径望遠鏡における、非同一平面上の(anisoplanatic)画像形成のためのレンズレット、ビームウォーク(beamwalk)、及びチルトの多様化
JP2017146189A (ja) * 2016-02-17 2017-08-24 日本電気株式会社 透過波面測定方法、装置およびシステム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0915057A (ja) * 1995-06-26 1997-01-17 Mitsubishi Electric Corp 波面センサ並びに波面計測方法
JP2004081725A (ja) * 2002-08-29 2004-03-18 Topcon Corp 眼特性測定装置
US20070216867A1 (en) * 2006-03-14 2007-09-20 Visx, Incorporated Shack-Hartmann based integrated autorefraction and wavefront measurements of the eye
JP2011247687A (ja) * 2010-05-25 2011-12-08 Canon Inc 屈折率分布計測方法および屈折率分布計測装置
JP2015523105A (ja) * 2012-04-30 2015-08-13 クラリティ メディカル システムズ インコーポレイテッド 並行サンプリングおよびロックイン検出モードで作動する眼科用波面センサ
JP2015055544A (ja) * 2013-09-11 2015-03-23 キヤノン株式会社 波面計測装置、波面計測方法、光学素子の製造方法、および、光学システムの組み立て調整装置
JP2016118547A (ja) * 2014-12-17 2016-06-30 ザ・ボーイング・カンパニーThe Boeing Company 大口径望遠鏡における、非同一平面上の(anisoplanatic)画像形成のためのレンズレット、ビームウォーク(beamwalk)、及びチルトの多様化
JP2017146189A (ja) * 2016-02-17 2017-08-24 日本電気株式会社 透過波面測定方法、装置およびシステム

Also Published As

Publication number Publication date
JPWO2019220638A1 (ja) 2020-06-11
JP6494885B1 (ja) 2019-04-03

Similar Documents

Publication Publication Date Title
US7515767B2 (en) Image correction across multiple spectral regimes
US9541635B2 (en) Laser phase diversity for beam control in phased laser arrays
US10502951B2 (en) High-performance beam director for high-power laser systems or other systems
Ten Brummelaar et al. The CLASSIC/CLIMB beam combiner at the CHARA array
CA2890559C (en) Dual-band divided aperture infra-red spectral imaging system
US20070077071A1 (en) System for measuring atmospheric turbulence
US20110103410A1 (en) Laser beam control system and method
JP6570991B2 (ja) 大口径望遠鏡における、非同一平面上の(anisoplanatic)画像形成のためのレンズレット、ビームウォーク(beamwalk)、及びチルトの多様化
JP6509456B1 (ja) 波面計測装置、波面計測方法及び移動体観測装置、移動体観測方法
EP0518107B1 (en) Piston error estimation method for segmented aperture optical systems while observing arbitrary unknown extended scenes
JP6494885B1 (ja) 波面計測装置、波面計測方法及び移動体観測装置、移動体観測方法
US9482575B1 (en) System and method for low signal knife edge wavefront sensing in an adaptive optical system
US20230055616A1 (en) Rayleigh-raman polychromatic laser guide star
JP6771697B2 (ja) 移動体観測装置及び移動体観測方法
Lukin et al. Development of adaptive optics elements for solar telescope
Fraedrich Methods in calibration and error analysis for infrared imaging radiometers
Koresko et al. Measuring extended structure in stars using the Keck Interferometer nuller
ES2822583T3 (es) Analizador del frente de onda óptico
Johnson et al. Status of the DKIST Solar Adaptive Optics System
US7372569B2 (en) Method of correcting alignment errors in a segmented reflective surface
O'Neill et al. Portable COTS RGB Wavefront System for Real-time Turbulence Mitigation
Roberts et al. Aperture sharing between low-background infrared sensors and ladar sensors
Kellner et al. PIGS: first results on sky
Lukin et al. VE Zuev Institute of Atmospheric Optics SB RAS, Tomsk, Russia Institute of solar-terrestrial physics SB RAS, Irkutsk, Russia
Gladysz et al. The E-ELT Design Reference Mission: Direct imaging of terrestrial and giant exoplanets

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2018552262

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18918494

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18918494

Country of ref document: EP

Kind code of ref document: A1