WO2019220640A1 - 波面計測装置、波面計測方法及び移動体観測装置 - Google Patents

波面計測装置、波面計測方法及び移動体観測装置 Download PDF

Info

Publication number
WO2019220640A1
WO2019220640A1 PCT/JP2018/019367 JP2018019367W WO2019220640A1 WO 2019220640 A1 WO2019220640 A1 WO 2019220640A1 JP 2018019367 W JP2018019367 W JP 2018019367W WO 2019220640 A1 WO2019220640 A1 WO 2019220640A1
Authority
WO
WIPO (PCT)
Prior art keywords
wavefront
light beam
moving body
light
imaging optical
Prior art date
Application number
PCT/JP2018/019367
Other languages
English (en)
French (fr)
Inventor
貴雄 遠藤
俊行 安藤
隆 高根澤
豊 江崎
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to PCT/JP2018/019367 priority Critical patent/WO2019220640A1/ja
Priority to JP2018552263A priority patent/JP6509456B1/ja
Publication of WO2019220640A1 publication Critical patent/WO2019220640A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64GCOSMONAUTICS; VEHICLES OR EQUIPMENT THEREFOR
    • B64G3/00Observing or tracking cosmonautic vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J9/00Measuring optical phase difference; Determining degree of coherence; Measuring optical wavelength

Definitions

  • the present invention relates to a wavefront measuring device and a wavefront measuring method for estimating a wavefront of a light beam in an entire aperture including all of the apertures of a plurality of imaging optical systems, and a moving body observation device for estimating a luminance distribution of a moving body. is there.
  • a moving body observation apparatus that observes a moving body such as a celestial body or a flying body observes the moving body by receiving a light beam transmitted from the moving body on the ground.
  • the light beam transmitted from the moving body may spread because the phase of the light is disturbed due to fluctuations in the refractive index distribution in the atmosphere. Therefore, in order to increase the observation accuracy of the moving object, the moving object observation apparatus needs to acquire a wavefront that is a surface having the same phase of light.
  • Patent Document 1 below discloses a wavefront sensor that measures a wavefront.
  • the wavefront sensor disclosed in Patent Document 1 below uses a telescope to track the light flux transmitted from an object by controlling the tilt and focus of the wavefront when observing an object moving at high speed. However, I am shooting the atmospheric fault.
  • the wavefront sensor includes a control mechanism that realizes high-speed movement of each of the high-speed steering mirror, the imaging lens, and the lenslet array as a mechanism for controlling the tilt and focus of the wavefront.
  • the measurement accuracy of the wavefront by the conventional wavefront sensor depends on the control accuracy of the control mechanism that realizes the respective high-speed movements in the high-speed steering mirror, imaging lens, and lenslet array. Therefore, the conventional wavefront sensor has a problem that the measurement accuracy of the wavefront may deteriorate depending on the control accuracy of the mounted control mechanism.
  • a wavefront measuring apparatus and a wavefront measuring method capable of measuring a wavefront without mounting a control mechanism for realizing high-speed movement such as a lenslet array. And it aims at obtaining a mobile observation device.
  • the wavefront measuring apparatus is arranged at different positions, and includes a plurality of imaging optical systems that collect a light beam reflected by the moving body or a light beam transmitted from the moving body, and a plurality of imaging optics From each light beam collected by the system, as a moving body image, a plurality of photodetectors for detecting a condensed spot image, and from the positions of the condensed spot images detected by the plurality of photodetectors, a plurality of Calculate the approximate value of the wavefront of the light beam in the entire aperture including all the apertures of the imaging optical system, and use the approximate value to calculate the point image intensity distribution of the focused spot image detected by multiple photodetectors.
  • a wavefront estimation unit for estimating the wavefront of the light flux in the entire aperture from the point image intensity distribution and the focused spot image is provided.
  • the wavefront estimation unit calculates the approximate value of the wavefront of the light flux in the entire aperture including all of the apertures of the plurality of imaging optical systems from the positions of the focused spot images detected by the plurality of photodetectors. Calculate the point image intensity distribution of the focused spot image detected by a plurality of photodetectors using the approximate value, and calculate the wavefront of the light flux at the entire aperture from the point image intensity distribution and the focused spot image.
  • a wavefront measuring device was configured to estimate. Therefore, the wavefront measuring apparatus according to the present invention can measure the wavefront without mounting a control mechanism that realizes high-speed movement such as a lenslet array.
  • FIG. 1 is a configuration diagram showing a moving object observation apparatus including a wavefront measuring apparatus 3 according to Embodiment 1.
  • FIG. 1 is a perspective view showing an appearance of a moving object observation apparatus including a wavefront measuring apparatus 3 according to Embodiment 1.
  • FIG. It is a flowchart which shows the process sequence of the mobile observation apparatus shown in FIG. It is explanatory drawing which shows the image of the moving body 1 detected by a some photodetector. It is explanatory drawing which shows the image of the moving body 1 detected by the some photodetector when a wave front changes with propagation paths. It is explanatory drawing which shows the relationship between the image of the moving body 1 detected by a some photodetector, and a wave front.
  • FIG. 5 is an explanatory diagram showing a relationship between an entire aperture, each aperture in a plurality of imaging optical systems, and an image 105 of the moving body 1 when the moving body 1 is moving relative to the wavefront measuring apparatus 3. .
  • FIG. 6 is a configuration diagram showing a moving object observation apparatus including a wavefront measuring apparatus 3 according to a third embodiment.
  • FIG. 6 is a configuration diagram showing a moving object observation apparatus including a wavefront measuring apparatus 3 according to a fourth embodiment.
  • FIG. 10 is a configuration diagram showing a moving object observation apparatus including a wavefront measuring apparatus 3 according to a fifth embodiment. It is explanatory drawing which shows the luminance distribution estimation process of the moving body 1 by the moving body decompression
  • FIG. 1 is a configuration diagram illustrating a mobile observation apparatus including a wavefront measuring apparatus 3 according to the first embodiment.
  • a moving body 1 is an object that exists outside or in the atmosphere.
  • the light beam reflected by the moving body 1 or transmitted from the moving body 1 is a light beam 2 that has spread due to fluctuations in the refractive index distribution in the atmosphere.
  • the light beam 2 is incident on the wavefront measuring device 3.
  • the wavefront measuring device 3 is a device that measures a wavefront from an incident light beam 2.
  • the wavefront measuring apparatus 3 includes a wavefront sensor 10-1, a wavefront sensor 10-2, and a wavefront sensor 10-3.
  • the wavefront measuring apparatus 3 includes three wavefront sensors. However, the wavefront measuring apparatus 3 may include at least two wavefront sensors.
  • the wavefront sensor 10-1 includes a first light shielding unit 11, a first imaging optical system 12, a first focus adjustment lens 14, a first shutter 15, and a first photodetector 16.
  • the wavefront sensor 10-2 includes a second light shielding unit 21, a second imaging optical system 22, a second focus adjustment lens 24, a second shutter 25, and a second photodetector 26.
  • the wavefront sensor 10-3 includes a third light shielding unit 31, a third imaging optical system 32, a third focus adjustment lens 34, a third shutter 35, and a third photodetector 36.
  • the wavefront sensor 10-1, the wavefront sensor 10-2, and the wavefront sensor 10-3 are arranged at different positions.
  • the first light shielding unit 11 spatially limits the transmission region of the light beam 2 by shielding a part of the incident light beam 2.
  • the first light shielding unit 11 is disposed on the input side of the first imaging optical system 12.
  • the first light shielding unit 11 may be disposed on the output side of the first imaging optical system 12. That is, the first light shielding unit 11 may be disposed at an optically conjugate pupil position in the first imaging optical system 12, and thus the first imaging optical system 12 and the first photodetector 16. Between them.
  • the second light shielding unit 21 and the third light shielding unit 31 spatially limit the transmission region of the light beam 2.
  • the first imaging optical system 12 is an optical system that condenses the light beam 2 transmitted through the first light shielding unit 11. Similar to the first imaging optical system 12, the second imaging optical system 22 and the third imaging optical system 32 are optical systems that collect the light flux 2.
  • the first focus adjustment lens 14 adjusts the optical path length of the light beam 2 transmitted through the first imaging optical system 12, and outputs the light beam 2 after the optical path length adjustment to the first shutter 15.
  • the second focus adjustment lens 24 adjusts the optical path length of the light beam 2 transmitted through the second imaging optical system 22, and outputs the light beam 2 after the optical path length adjustment to the second shutter 25.
  • the third focus adjustment lens 34 adjusts the optical path length of the light beam 2 transmitted through the third imaging optical system 32, and outputs the light beam 2 after the optical path length adjustment to the third shutter 35.
  • the first shutter 15 temporally limits the passage of the light beam 2 output from the first focus adjustment lens 14 in order to adjust the light amount of the light beam 2 received by the first photodetector 16.
  • the second shutter 25 temporally limits the passage of the light beam 2 output from the second focus adjustment lens 24 in order to adjust the light amount of the light beam 2 received by the second photodetector 26.
  • the third shutter 35 temporally limits the passage of the light beam 2 output from the third focus adjustment lens 34 in order to adjust the light amount of the light beam 2 received by the third photodetector 36.
  • the first photodetector 16, the second photodetector 26, and the third photodetector 36 are realized by, for example, an image sensor.
  • the first photodetector 16 detects a focused spot image as an image of the moving body 1 from the light beam 2 that has passed through the first shutter 15, and the intensity image indicating the focused spot image is used as the wavefront estimating unit 41.
  • the second photodetector 26 detects a condensed spot image as an image of the moving body 1 from the light beam 2 that has passed through the second shutter 25, and uses the wavefront estimating unit 41 to display an intensity image that indicates the condensed spot image.
  • the third light detector 36 detects a focused spot image as an image of the moving body 1 from the light beam 2 that has passed through the third shutter 35, and outputs an intensity image indicating the focused spot image to the wavefront estimating unit 41. Output to.
  • the wavefront estimation unit 41 is realized by a computer such as a personal computer or a wavefront estimation circuit.
  • the wavefront estimation unit 41 calculates the wavefront sensor 10-1, wavefront from the positions of the focused spot images detected by the first photodetector 16, the second photodetector 26, and the third photodetector 36, respectively.
  • An approximate value of the wavefront of the light beam in the entire aperture including all the apertures of the sensor 10-2 and the wavefront sensor 10-3 is calculated.
  • the wavefront estimation unit 41 uses the approximate value to generate point images of the condensed spot images detected by the first photodetector 16, the second photodetector 26, and the third photodetector 36, respectively.
  • the intensity distribution is calculated, and the wavefront of the light flux at the entire aperture is estimated from the point image intensity distribution and the focused spot image.
  • the moving body restoration unit 42 is realized by a computer such as a personal computer or a moving body restoration circuit.
  • the moving body restoration unit 42 is estimated by the focused spot images detected by the first photodetector 16, the second photodetector 26, and the third photodetector 36, and the wavefront estimation unit 41.
  • a process of estimating the luminance distribution of the moving body 1 from the point image intensity distribution is performed.
  • the storage device 43 is realized by a storage processing circuit, for example.
  • the storage device 43 is a device that records the wavefront of the entire aperture estimated by the wavefront estimation unit 41 and the luminance distribution of the moving body 1 estimated by the moving body restoration unit 42.
  • each of the wavefront estimation circuit and the moving body restoration circuit includes, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an ASIC (Application Specific Integrated Circuit), and an FPGA (Field-Programmable Gate Array). ) Or a combination of these.
  • the memory processing circuit includes, for example, a RAM (Random Access Memory), a ROM (Read Only Memory), a flash memory, an EPROM (Erasable Programmable Read Only Memory), an EEPROM (Electrically Erasable Promable Memory), and the like.
  • a semiconductor memory a magnetic disk, a flexible disk, an optical disk, a compact disk, a mini disk, or a DVD (Digital Versatile Disc).
  • the time calibration unit 51 has a built-in clock and calibrates the time of the clock using a GPS signal transmitted from a GPS (Global Positioning System) satellite or an NTP (Network Time Protocol).
  • GPS Global Positioning System
  • NTP Network Time Protocol
  • the control device 53 is realized by a computer such as a personal computer.
  • the control device 53 controls each of the first focus adjustment lens 14, the second focus adjustment lens 24, and the third focus adjustment lens 34 based on the elapsed time measured by the counter 52.
  • the control device 53 controls each of the first shutter 15, the second shutter 25, and the third shutter 35 based on the elapsed time measured by the counter 52.
  • the control device 53 controls each of the first photodetector 16, the second photodetector 26, and the third photodetector 36 based on the elapsed time measured by the counter 52.
  • the driving device 54 is a device that changes the directivity directions in the first imaging optical system 12, the second imaging optical system 22, and the third imaging optical system 32 in accordance with a control signal output from the control device 53. It is.
  • FIG. 2 is a perspective view showing an appearance of a moving object observation apparatus including the wavefront measuring apparatus 3 according to the first embodiment.
  • a case 61 is mounted with a wavefront sensor 10-1, a wavefront sensor 10-2, and a wavefront sensor 10-3.
  • the housing 62 includes a wavefront estimation unit 41, a moving body restoration unit 42, a storage device 43, a time calibration unit 51, a counter 52, and a control device 53.
  • the wavefront measuring apparatus 3 includes three wavefront sensors, but in FIG. 2, the wavefront measuring apparatus 3 includes seven wavefront sensors.
  • the transmission region of the light beam 2 in the first light shielding unit 11, the transmission region of the light beam 2 in the second light shielding unit 21, and the transmission region of the light beam 2 in the third light shielding unit 31 have the same shape and size. .
  • the transmission region of the light beam 2 is a region through which the light beam 2 is transmitted.
  • the light shielding region of the light beam 2 in the first light shielding unit 11, the light shielding region of the light beam 2 in the second light shielding unit 21, and the light shielding region of the light beam 2 in the third light shielding unit 31 are the first imaging optical system 12, It is slightly smaller than the respective apertures in the second imaging optical system 22 and the third imaging optical system 32.
  • the light shielding area is an area where the light beam 2 is shielded.
  • Optical components such as lenses and the human pupil transmit light.
  • an optical component such as a mirror reflects light.
  • the atmosphere of the earth is composed of a medium such as oxygen, nitrogen, and water vapor, and light is transmitted in the same manner as an optical component such as a lens. Since the refractive index of a medium such as oxygen fluctuates with changes in temperature and atmospheric pressure, the phase distribution of light transmitted through the earth's atmosphere changes with changes in temperature and atmospheric pressure. Since light is an electromagnetic wave, the phase distribution of light can be grasped as a wavefront.
  • the wavefront measuring apparatus 3 shown in FIG. 1 estimates the wavefront by receiving the light beam 2 reflected by the moving body 1 existing outside or in the atmosphere or the light beam 2 transmitted from the moving body.
  • the wavefront estimated by the wavefront measuring apparatus 3 changes as the refractive index of a medium such as oxygen changes. Although the change in the refractive index of the medium itself is small, the change in the refractive index becomes insignificant compared to the wavelength of the light when the optical path through which light propagates becomes long. Strongly affected by fluctuations.
  • the atmosphere on the ground is affected by the effects of radiation from the sun and heat transport, and is also affected by the rotation of the earth. Therefore, an atmosphere layer is formed between the ground and the sky. The wavefront of light passing through the atmospheric layers is complexly disturbed.
  • FIG. 3 is a flowchart showing a processing procedure of the mobile observation apparatus shown in FIG.
  • the driving device 54 is configured so that the first imaging optical system 12 can collect the light beam 2 even when the moving body 1 moves relative to the wavefront measuring device 3.
  • the direction of the imaging optical system 12 is changed.
  • the driving device 54 changes the directivity direction of the second imaging optical system 22 and the directivity direction of the third imaging optical system 32.
  • the driving device 54 has the respective directivity directions in the first imaging optical system 12, the second imaging optical system 22, and the third imaging optical system 32.
  • the driving device 54 has the respective directivity directions in the first imaging optical system 12, the second imaging optical system 22, and the third imaging optical system 32.
  • the time calibrating unit 51 calibrates the time of a built-in clock using a GPS signal or NTP transmitted from a GPS satellite so that the driving device 54 can control the pointing direction with a second angle accuracy.
  • the counter 52 measures an elapsed time from the certain time.
  • the control device 53 controls each of the first focus adjustment lens 14, the second focus adjustment lens 24, and the third focus adjustment lens 34 based on the elapsed time measured by the counter 52.
  • the control device 53 controls each of the first shutter 15, the second shutter 25, and the third shutter 35 based on the elapsed time measured by the counter 52.
  • control device 53 controls each of the first photodetector 16, the second photodetector 26, and the third photodetector 36 based on the elapsed time measured by the counter 52.
  • the driving device 54 changes the directivity directions in the first imaging optical system 12, the second imaging optical system 22, and the third imaging optical system 32 in accordance with a control signal output from the control device 53.
  • the first light shielding unit 11 shields a part of the light beam 2 so that the transmission region of the light beam 2 is reduced. Limit spatially.
  • the first imaging optical system 12 condenses the light beam 2 transmitted through the first light shielding unit 11 (step ST1 in FIG. 3).
  • the second light-shielding unit 21 and the third light-shielding unit 31 are configured to shield a part of the light beam 2 when the light beam 2 is incident thereon, thereby transmitting the light flux 2. Is spatially limited.
  • the second imaging optical system 22 and the third imaging optical system 32 transmit through the second light shielding unit 21 and the third light shielding unit 31, respectively.
  • the collected light beam 2 is condensed (step ST1 in FIG. 3).
  • the first focus adjustment lens 14 adjusts the optical path length of the light beam 2 transmitted through the first imaging optical system 12 and outputs the light beam 2 after the optical path length adjustment to the first shutter 15.
  • the second focus adjustment lens 24 adjusts the optical path length of the light beam 2 transmitted through the second imaging optical system 22 and outputs the light beam 2 after the optical path length adjustment to the second shutter 25.
  • the third focus adjustment lens 34 adjusts the optical path length of the light beam 2 transmitted through the third imaging optical system 32 and outputs the light beam 2 after the optical path length adjustment to the third shutter 35.
  • the adjustment amount of each optical path length in the first focus adjustment lens 14, the second focus adjustment lens 24, and the third focus adjustment lens 34 is controlled by the control device 53.
  • the control device 53 When the adjustment amount of the optical path length is controlled by the control device 53, the light receiving surfaces 16a, 26a, and 36a in the first photodetector 16, the second photodetector 26, and the third photodetector 36 are respectively controlled. , The luminous flux 2 is in focus.
  • the first shutter 15 is a light beam output from the first focus adjustment lens 14 in accordance with a control signal output from the control device 53 in order to adjust the light amount of the light beam 2 received by the first photodetector 16.
  • Limit passage of 2 in time When the exposure time of the light beam 2 at the first photodetector 16 becomes longer than the coherence time, the state of the atmosphere changes, so that the spread of the image of the moving body 1 detected by the first photodetector 16 increases. .
  • the coherence time is generally about 1 to 10 ms.
  • the control device 53 causes the light beam 2 in the first shutter 15 to be exposed so that the exposure time of the light beam 2 in the first photodetector 16 is shorter than the coherence time.
  • control the transit time Similarly to the first shutter 15, the second shutter 25 and the third shutter 35 pass through the respective light beams 2 output from the second focus adjustment lens 24 and the third focus adjustment lens 34 over time. Limit. Similar to the first shutter 15, the control device 53 controls the passage time of each light beam 2 in the second shutter 25 and the third shutter 35.
  • the control device 53 controls the passage time of the light beam 2 as described above, the respective light beams received by the first light detector 16, the second light detector 26, and the third light detector 36.
  • the light quantity of 2 may be reduced.
  • the control device 53 controls the first shutter 15, the second shutter 25, and the third shutter 35 so that the passage of the light beam 2 and the light shielding are repeated a plurality of times. .
  • each of the first photodetector 16, the second photodetector 26, and the third photodetector 36 captures the image of the moving body 1 a plurality of times. Can be detected.
  • the first photodetector 16 detects a focused spot image as an image of the moving body 1 from the light beam 2 that has passed through the first shutter 15, and the intensity image indicating the focused spot image is used as the wavefront estimating unit 41.
  • the second photodetector 26 detects a condensed spot image as an image of the moving body 1 from the light beam 2 that has passed through the second shutter 25, and uses the wavefront estimating unit 41 to display an intensity image that indicates the condensed spot image. (Step ST2 in FIG. 3).
  • the third light detector 36 detects a focused spot image as an image of the moving body 1 from the light beam 2 that has passed through the third shutter 35, and outputs an intensity image indicating the focused spot image to the wavefront estimating unit 41. (Step ST2 in FIG. 3).
  • FIG. 4 is an explanatory view showing an image of the moving body 1 detected by a plurality of photodetectors.
  • FIG. 4 not only the first imaging optical system 12, the second imaging optical system 22, and the third imaging optical system 32, but a total of 10 imaging optical systems are mounted on the wavefront measuring device 3.
  • An example is shown. Therefore, not only the first photodetector 16, the second photodetector 26 and the third photodetector 36, but also a total of ten photodetectors are mounted on the wavefront measuring apparatus 3.
  • FIG. 4 shows an example in which there are three atmospheric layers between the ground and the sky. 101 is a first atmospheric layer, 102 is a second atmospheric layer, and 103 is a third atmospheric layer.
  • each of the first imaging optical system 12, the second imaging optical system 22, and the third imaging optical system 32 is schematically represented as one lens.
  • each of the first imaging optical system 12, the second imaging optical system 22, and the third imaging optical system 32 includes a plurality of sheets. Often composed of lenses.
  • each of the first imaging optical system 12, the second imaging optical system 22, and the third imaging optical system 32 is formed by a plurality of reflecting mirrors. Sometimes configured.
  • Each of the first imaging optical system 12, the second imaging optical system 22, and the third imaging optical system 32 converts the light beam 2 into the first photodetector 16, the second photodetector 26, and the second.
  • an image 104 of the moving body 1 is formed on the light receiving surfaces 16a, 26a, and 36a. Since the wavefront is disturbed when the light beam 2 passes through the first atmospheric layer 101, the second atmospheric layer 102, and the third atmospheric layer 103, the image 104 of the moving object 1 is assumed to be Even an object that can be seen spreads.
  • the cause of the spread of the image 104 is atmospheric fluctuation.
  • the moving body 1 is an object having a spread
  • the spread due to the aberration of the imaging optical system and the resolution of the photodetector is excluded, the spread of the image 104 is the spread of the object itself and the atmosphere. Expressed by the spread of fluctuations.
  • the spread of the image 104 is expressed by convolution of the spread of the object itself and the spread due to atmospheric fluctuations.
  • FIG. 5 is an explanatory diagram showing an image of the moving body 1 detected by a plurality of photodetectors when the wavefront differs depending on the propagation path. 5, the same reference numerals as those in FIG. 4 denote the same or corresponding parts.
  • Each of the light beam 4, the light beam 5, and the light beam 6 is the light beam 2 reflected by the moving body 1 or the light beam 2 transmitted from the moving body 1.
  • the luminous flux 4, the luminous flux 5 and the luminous flux 6 are different from each other in the contribution of fluctuations in the atmospheric layer, and the propagation path of the luminous flux 4, the propagation path of the luminous flux 5, and the propagation path of the luminous flux 6 are different from each other.
  • the light beams 2 collected on the light receiving surfaces of the respective photodetectors by the respective imaging optical systems are the light beams 4, 5 and 6, respectively.
  • the image 105 of the moving body 1 is formed by each of the light beam 5 and the light beam 6.
  • the plurality of images 105 formed on the light receiving surfaces of the respective photodetectors have a spread caused by atmospheric fluctuations, and can be used for wavefront estimation.
  • FIG. 6 and 7 are explanatory views showing the relationship between the image of the moving body 1 detected by a plurality of photodetectors and the wavefront.
  • FIG. 6 shows an example in which the light beam 2 is propagated without spreading in the traveling direction
  • FIG. 7 shows an example in which the light beam 2 is propagated while spreading in the traveling direction.
  • An example in which the optical system is mounted on the wavefront measuring apparatus 3 is shown.
  • 6 and 7 not only the first photodetector 16, the second photodetector 26, and the third photodetector 36 but also a total of 64 photodetectors are included in the wavefront measuring apparatus 3.
  • An example of implementation is shown.
  • 105a is an image of the moving body 1 when the light beam 2 is propagated without spreading in the traveling direction, and 105b is propagated while the light beam 2 spreads in the traveling direction. It is the image of the moving body 1 in the case of being.
  • the positions of the images 105a of the respective moving bodies 1 collected by the 64 imaging optical systems are 64. Are coincident with the respective positions of the imaging optical system.
  • the positions of the images 105b of the respective moving bodies 1 collected by the 64 imaging optical systems are 64 pieces. It is shifted from each position of the imaging optical system.
  • the wavefront 106a is obtained from the positions of the 64 images 105a of the moving body 1, and the wavefront 106b is obtained from the positions of the 64 images 105b of the moving body 1.
  • the arrangement of the 64 imaging optical systems may be a honeycomb arrangement.
  • the light shielding parts including the first light shielding part 11, the second light shielding part 21, and the third light shielding part 31 are painted black.
  • the light shielding region does not have to transmit unnecessary light, and may be painted in a color other than black.
  • the light shielding region may be colored or processed to absorb unnecessary light, or may be colored or processed to scatter unnecessary light.
  • the wavefront estimation unit 41 acquires an intensity image indicating a focused spot image from each of the first photodetector 16, the second photodetector 26, and the third photodetector 36.
  • the wavefront estimation unit 41 determines the wavefront of the light beam 2 in the entire aperture including all the apertures of the wavefront sensor 10-1, the wavefront sensor 10-2, and the wavefront sensor 10-3 from the position of the focused spot image indicated by each intensity image. Is estimated (step ST3 in FIG. 3).
  • FIG. 8 is a flowchart showing a processing procedure of the wavefront estimation unit 41 and the moving body restoration unit 42.
  • the processing content of the wavefront estimation unit 41 will be specifically described with reference to FIG.
  • control device 53 controls the first shutter 15, the second shutter 25, and the third shutter 35 so that the passage of the light beam 2 and the light shielding are repeated a plurality of times.
  • N intensity images are output to the wavefront estimation unit 41 from each of the first photodetector 16, the second photodetector 26, and the third photodetector 36.
  • the moving body 1 when the moving body 1 is a point image, or when the moving body 1 can be approximated to a point image, a mode of obtaining the position of the center of gravity of the point image as the position of the focused spot image can be considered.
  • the wavefront can be obtained from the interval between the plurality of focused spot images or the relative position of the plurality of focused spot images. Therefore, as the position of the focused spot image, an aspect in which the cross-correlation of the plurality of focused spot images or the interval between the characteristic positions of the focused spot images is considered.
  • the wavefront estimation unit 41 sets the phase of the wavefront, which is an approximate value calculated from the position of the focused spot image indicated by each n-th intensity image, to ⁇ 0, n .
  • the wavefront estimation unit 41 uses the phase ⁇ 0, n as an initial value of the phase ⁇ n (u, v) of the wavefront of the light beam 2 in the entire aperture, thereby obtaining an approximate value More accurate wavefront is estimated.
  • (U, v) are the coordinates of the pupil space.
  • FIG. 9 shows the relationship between the entire aperture, the respective apertures in the plurality of imaging optical systems, and the image 105 of the moving body 1 when the moving body 1 is moving relative to the wavefront measuring device 3. It is explanatory drawing.
  • FIG. 9 shows an example in which M imaging optical systems are mounted on the wavefront measuring apparatus 3.
  • M 0 (u, v) is the entire aperture.
  • M 1 (u, v), M 2 (u, v),..., M M (u, v) are respective apertures in the M imaging optical systems.
  • the pupil function G m, n (u, v) represented by the wavefront aberration and the amplitude distribution on the pupil is an entire aperture corresponding to each nth intensity image, as shown in the following equation (2).
  • the amplitude spread function a m, n (u, v) is obtained by inverse Fourier transforming the pupil function G m, n (u, v) as shown in the following equation (4).
  • F ⁇ 1 is a symbol representing the inverse Fourier transform.
  • Point spread function k m point spread shows a, n (x, y), as shown in the following equation (5), the amplitude spread function a m, and n (u, v), the amplitude spread function a m , N (u, v) and the complex conjugate.
  • (X, y) are real space coordinates.
  • the image i m of the moving body 1, n (x, y) is the point spread function k m, and n (x, y), the convolution of the intensity distribution of the moving body 1 o (p, q)
  • noises em , n (x, y) generated in the respective photodetectors are added to the equations (6) and (7).
  • the following equation (8) is an image of the moving body 1 obtained from the luminance distribution o (p, q) of the moving body 1 and the point spread function km , n (x, y) indicating the point image intensity distribution.
  • the point spread function km , n (x, y) is obtained from Expression (2), Expression (4), and Expression (5). Therefore, in Equation (8), the only unknown value is the luminance distribution o (p, q) of the moving body 1.
  • the luminance distribution o (p, q) of the moving body 1 is obtained by searching for o (p, q) that minimizes the sum of squared differences e.
  • the moving body 1 moves relative to the wavefront measuring device 3. Even if the driving device 54 changes the directivity directions in the first imaging optical system 12, the second imaging optical system 22, and the third imaging optical system 32, the moving body 1 and the wavefront measuring device 3 Relative motion cannot be completely canceled. Therefore, the relative position of the moving body 1 changes as the time t changes.
  • the luminance distribution o (p, q) of the moving body 1 does not depend on the frame and does not change. However, it is assumed that the wavefront changes from frame to frame.
  • equation (8) is Fourier transformed, and the square sum e of the difference shown in equation (8) is the square sum E of the difference in the phase space.
  • I m, n (u, v) is a spectrum of im , n (x, y) and is expressed as the following Expression (10).
  • F is a symbol representing Fourier transform.
  • is a coefficient introduced for stabilizing the solution.
  • K m, n (u, v) is an autocorrelation of the pupil function G m, n (u, v) and is represented by the following equation (12).
  • K m, n (u, v) is not normalized but is an optical transfer function.
  • Equation (13) The sum of squares E of the difference shown in the equation (13) is the aperture M m (p, q), the phase ⁇ n (p, q), and the spectrum I of the image im , n (x, y) of the moving body 1. It is represented by m, n (u, v) and does not depend on the spectrum O (u, v) of the luminance distribution o (p, q) of the moving body 1 that is unknown.
  • the wavefront W n (u, v) can be estimated by the equation (2) if the phase ⁇ n (u, v) at which the square sum Err of the difference shown in the following equation (14) is minimized.
  • the luminance distribution o (p, q) of the moving body 1 is obtained even by estimating the wavefront W n (u, v) by obtaining the phase ⁇ n (u, v) that minimizes the square sum Err of the difference.
  • the equation (14) does not depend on the luminance distribution o (p, q) of the moving body 1. Therefore, a strong calculational constraint that the luminance distribution o (p, q) of the moving body 1 is a real number larger than 0 in real space is not given.
  • each of the first photodetector 16, the second photodetector 26, and the third photodetector 36 is an image sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor), Noise is shot noise and readout noise.
  • the readout noise follows a normal distribution and has a median value of 0 and a standard deviation of ⁇ . Shot noise is proportional to the luminance distribution of the acquired frame. Therefore, when Expression (15) is normalized with noise, Expression (16) is obtained. If the ratio of the difference r m, n (x, y) in the real space to noise is larger than 1, the deviation is large. If it is 1, there is no deviation, and if it is smaller than 1, the deviation is small. To do.
  • a likelihood function shown in the following equation (17) is introduced.
  • d m (x, y) is a weight given to the difference r m, n (x, y). For example, a frame with a large deviation is given a low weight because the reliability is low. .
  • the calculation amount can be reduced by setting the weight of the area to be calculated to 1 and the weight of the area to omit the calculation to 0. The above is the principle of the wavefront estimation process and the principle of the luminance distribution estimation process of the moving body 1.
  • Wavefront estimation unit 41 when the wavefront phase approximations and [Phi 0, n, the [Phi 0, n, is set to an initial value of the formula [Phi n (u, v) shown in (2).
  • the wavefront estimation unit 41 calculates the point spread function km , n (x, y) indicating the point image intensity distribution by calculating Expression (2), Expression (4), and Expression (5) (FIG. 8). Step ST12).
  • Wavefront estimation unit 41 the point spread function k m, n (x, y ) and the image i m of the moving body 1, n (x, y) respectively by Fourier transform, the optical transfer function K m, n ( u, v) and a spectrum I m, n (u, v) of the image im , n (x, y) of the moving body 1 are obtained (step ST13 in FIG. 8).
  • the wavefront estimation unit 41 substitutes the optical transfer function K m, n (u, v) and the spectrum I m, n (u, v) into the equation (14), and calculates the square sum Err of the difference (FIG. 8). Step ST14).
  • the wavefront estimation unit 41 determines whether or not the phase search process has converged (step ST15 in FIG. 8). As a convergence determination in the phase search process, for example, there is a method of determining that the convergence is achieved if the calculated square sum Err of the difference is equal to or less than a first allowable error set in advance. The sum of squares Err of the difference calculated when it is determined that it has converged is the minimum square sum Err.
  • the first allowable error is assumed to be stored in the internal memory of the wavefront estimation unit 41 or the storage device 43, for example. Further, as the convergence determination of the phase search process, for example, while changing the phase ⁇ n (u, v), the square sum Err of the difference is calculated a predetermined number of times, and the calculated sum of squares Err is If the minimum square sum Err is specified, there is a method for determining that the sum has converged.
  • the wavefront estimation unit 41 changes the phase ⁇ n (u, v) shown in equation (2) (step in FIG. 8). ST16), the changed phase ⁇ n (u, v) is set in the equation (2).
  • the wavefront estimation unit 26 performs the processes of steps ST12 to ST15 again.
  • the phase ⁇ n (u, v) after the change may be any phase as long as it has not yet been set in the expression (2), but should be a phase that makes the square sum Err of the difference small. Is desirable. If the phase search process has converged (in the case of step ST15 in FIG. 8: YES), the wavefront estimation unit 41 ends the phase search process.
  • the wavefront estimation unit 41 substitutes the phase ⁇ n (u, v) for which the minimum square sum Err is calculated into the equation (3), so that the wavefront W of the light flux 2 in the entire aperture is obtained.
  • n (u, v) is estimated (step ST17 in FIG. 8).
  • the estimated wavefront W n (u, v) is a wavefront with higher accuracy than the wavefront as the approximate value calculated in step ST11.
  • the wavefront estimation unit 41 outputs the wavefront W n (u, v) to the storage device 43. Further, the wavefront estimation unit 41 outputs a point spread function km , n (x, y) corresponding to the phase ⁇ n (u, v) for which the minimum square sum Err has been calculated to the moving body restoration unit 42.
  • the moving body restoration unit 42 the point spread function km , n (x, y) output from the wavefront estimation unit 41, the first photodetector 16, the second photodetector 26, and the third photodetector.
  • the luminance distribution o (p, q) of the moving body 1 is estimated from the images im , n (x, y) of the moving body 1 indicated by the intensity images output from the unit 36 (step ST4 in FIG. 3). .
  • the luminance distribution estimation process of the moving body 1 by the moving body restoring unit 42 will be described in detail.
  • mobile recovery unit 42 the point spread output from wavefront estimation section 41 function k m, n (x, y ) and the image i m of the moving body 1 indicated by respective intensity image, n (x, y ) Is substituted into the equation (16) to calculate the difference r m, n (x, y). Further, the moving body restoring unit 42 substitutes the difference r m, n (x, y) into the equation (17) to calculate the square sum e of the difference (step ST18 in FIG. 8).
  • the weight d m (x, y) shown in Expression (17) is fixed to a preset value, but is changed by the moving body restoration unit 42. Also good.
  • the moving body restoration unit 42 determines whether or not the luminance distribution estimation process of the moving body 1 has converged (step ST19 in FIG. 8).
  • a convergence determination of the luminance distribution estimation process of the mobile body for example, there is a method of determining that the convergence is achieved if the calculated square sum e of differences is equal to or less than a second allowable error set in advance.
  • the sum of squares e of the difference calculated when it is determined that it has converged is the minimum square sum e.
  • the second allowable error is assumed to be stored in, for example, the internal memory of the moving body restoration unit 42 or the storage device 43.
  • the square sum e of the difference is calculated a predetermined number of times while changing the luminance distribution o (p, q) of the mobile object 1, There is a method of determining that convergence is achieved when the minimum square sum e is specified among the calculated sums of squares e.
  • the moving object restoring unit 42 determines the luminance distribution o (p, q of the moving object 1 shown in Expression (16). ) Is changed (step ST20 in FIG. 8), and the processes of steps ST18 to ST19 are performed again.
  • the luminance distribution o (p, q) after the change may be any luminance distribution as long as it is not yet set in the equation (16), but the luminance distribution is such that the square sum e of the differences becomes small. It is desirable that If the luminance distribution estimation process of the moving object 1 has converged (in the case of step ST19: YES in FIG. 8), the moving object restoration unit 42 obtains the minimum square sum e as the luminance distribution estimation process result of the moving object 1.
  • the calculated luminance distribution o (p, q) of the moving body 1 is output to the storage device 43 (step ST21 in FIG. 8).
  • the wavefront estimation unit 41 determines from the positions of the respective focused spot images detected by the first photodetector 16, the second photodetector 26, and the third photodetector 36. Then, an approximate value of the wavefront of the light flux at the entire aperture is calculated, and the light collected by the first photodetector 16, the second photodetector 26, and the third photodetector 36 using the approximate value.
  • the wavefront measuring device 3 is configured to calculate the point image intensity distribution of the spot image and to estimate the wavefront of the light flux in the entire aperture from the point image intensity distribution and the focused spot image. Therefore, the wavefront measuring apparatus 3 can measure the wavefront without mounting a control mechanism that realizes high-speed movement such as a lenslet array.
  • the moving body restoration unit 42 has the wavefront and the focused spot image detected by the first photodetector 16, the second photodetector 26, and the third photodetector 36, respectively.
  • the mobile object observation apparatus was configured to estimate the luminance distribution of the mobile object 1 from the point image intensity distribution calculated by the estimation unit 41. Therefore, the mobile object observation apparatus can estimate the luminance distribution of the mobile object 1.
  • FIG. 10 is an explanatory diagram illustrating an example of a light shielding unit in which the transmission region of the light beam 2 is smaller than the aperture of the imaging optical system.
  • a part of the opening may include a light shielding region where the light beam 2 is shielded.
  • FIG. 11 is an explanatory diagram illustrating an example of a light shielding portion in which a light shielding region where the light beam 2 is shielded is included in a part of the opening.
  • light shielding portions having different shapes or sizes of transmissive regions may be mixed.
  • FIGS. 12, 13 and 14 are explanatory diagrams illustrating an example in which light shielding portions having different shapes or sizes of light transmission regions are mixed as a plurality of light shielding portions.
  • the wavefront estimation processing performed by the wavefront estimation unit 41 ends earlier when the size of the transmission region is small than when the size of the transmission region is large.
  • the wavefront estimation unit 41 detects the collected spot image as the light detector connected to the light-shielding unit having a smaller transmission area among the plurality of photodetectors. Increase the weight.
  • the spectrum I m, n (u, v) used when the wavefront estimation unit 41 calculates the square sum of the differences Err also increases as the weight of the corresponding focused spot image increases.
  • the wavefront estimation unit 41 makes the weights of the focused spot images detected by all the photodetectors uniform, for example. For example, if the square sum Err of the difference shown in Expression (14) is smaller than the threshold value, the wavefront estimation unit 41 can determine that the convergence is approaching.
  • the threshold value is assumed to be stored in the internal memory of the wavefront estimation unit 41 or the storage device 43, for example. Threshold> first tolerance.
  • the wavefront estimation unit 41 detects the light condensing that is detected as the photodetector connected to the light-shielding unit having a smaller size of the transmission region among the plurality of photodetectors.
  • the weight of the spot image is increased.
  • the wavefront estimation unit 41 makes the weights of the focused spot images detected by all the photodetectors uniform.
  • the wavefront estimation unit 41 increases the weight of the detected focused spot image as the photodetector connected to the light-shielding unit having the smaller transmission region size in the odd-numbered frames among the plurality of frames. Further, the wavefront estimation unit 41 may make the weights of the focused spot images detected by all the photodetectors uniform in even frames.
  • FIG. 15 is a configuration diagram illustrating a moving object observation apparatus including the wavefront measurement apparatus 3 according to the third embodiment.
  • the first light beam selection unit 13 extracts the light beam 2 a having the first wavelength from the light beam 2 collected by the first imaging optical system 12 and outputs the light beam 2 a to the first focus adjustment lens 14.
  • the second light beam selection unit 23 extracts the light beam 2 b having the second wavelength from the light beam 2 collected by the second imaging optical system 22 and outputs the light beam 2 b to the second focus adjustment lens 24.
  • the third light beam selection unit 33 extracts the light beam 2 c having the third wavelength from the light beam 2 collected by the third imaging optical system 32 and outputs the light beam 2 c to the third focus adjustment lens 34. .
  • the first wavelength, the second wavelength, and the third wavelength are different from each other.
  • the moving body observation apparatus shown in FIG. 15 will be described. However, only the parts different from the mobile observation apparatus shown in FIG. 1 will be described here.
  • the first light beam selection unit 13 Upon receiving the light beam 2 transmitted through the first imaging optical system 12, the first light beam selection unit 13 extracts the light beam 2a having the first wavelength from the light beam 2, and performs the first focus adjustment on the light beam 2a. Output to the lens 14. Since the wavefront measuring device 3 includes the first light beam selection unit 13, the light beam 2 a having the first wavelength is collected on the light receiving surface 16 a of the first photodetector 16.
  • the second light beam selection unit 23 Upon receiving the light beam 2 transmitted through the second imaging optical system 22, the second light beam selection unit 23 extracts the light beam 2b having the second wavelength from the light beam 2, and adjusts the light beam 2b to the second focus adjustment. Output to the lens 24. Since the wavefront measuring apparatus 3 includes the second light beam selection unit 23, the light beam 2 b having the second wavelength is collected on the light receiving surface 26 a of the second photodetector 26.
  • the third light beam selection unit 33 extracts the light beam 2c having the third wavelength from the light beam 2, and adjusts the light beam 2c to the third focus adjustment. Output to the lens 34. Since the wavefront measuring apparatus 3 includes the third light beam selection unit 33, the light beam 2c having the third wavelength is collected on the light receiving surface 36a of the third photodetector 36.
  • the wavefront measuring device 3 estimates the wavefront based on the light flux 2 from the moving body 1 and the light flux 2 spreads due to fluctuations in the refractive index distribution in the atmosphere.
  • the scattering of the light beam 2 by the atmosphere depends on the wavelength. For example, blue light is easily scattered, and red light having a wavelength longer than that of blue light is not easily scattered. Note that the resolution of the image is higher for blue light than for red light. Therefore, the blue light beam 2 out of the light beam 2 from the moving body 1 is larger than the red light beam 2.
  • the first photodetector 16 detects the condensed spot image from the light beam 2a having the first wavelength
  • the second photodetector 26 detects the condensed spot image from the light beam 2b having the second wavelength
  • Expression (3) is expressed as Expression (18) below.
  • the wavefront estimation unit 41 is detected from the focused spot image detected from the first wavelength beam 2a, the focused spot image detected from the second wavelength beam 2b, and the third wavelength beam 2c.
  • a point spread function km , n (x, y) indicating a point image intensity distribution with the focused spot image is calculated.
  • the point spread function km , n (x, y) calculated by the wavefront estimation unit 41 takes into account not only the correlation of the positions of the plurality of focused spot images but also the correlation of the wavelengths of the light beams 2a, 2b, 2c. It has been calculated.
  • the wavefront estimation unit 41 estimates the wavefront W n (u, v) of the light beam 2 in the entire aperture using the point spread function km , n (x, y), as in the first embodiment.
  • the wavefront measuring device 3 is configured to include the first light beam selection unit 13, the second light beam selection unit 23, and the third light beam selection unit 33. Therefore, since the wavefront measuring apparatus 3 according to the third embodiment also uses wavelength information as information used for wavefront estimation, the accuracy of wavefront estimation in the wavefront measuring apparatus 3 according to the first embodiment is improved.
  • Embodiment 4 FIG.
  • the control device 53 controls the adjustment amount of each optical path length in the first focus adjustment lens 14, the second focus adjustment lens 24, and the third focus adjustment lens 34. ing. Specifically, the control device 53 focuses the light beam 2 on each of the light receiving surfaces 16a, 26a, and 36a of the first photodetector 16, the second photodetector 26, and the third photodetector 36. The adjustment amount of the optical path length is controlled so as to match.
  • FIG. 16 is a configuration diagram illustrating a moving object observation apparatus including the wavefront measurement apparatus 3 according to the fourth embodiment.
  • the same reference numerals as those in FIGS. 1 and 15 denote the same or corresponding parts, and the description thereof will be omitted.
  • the control device 70 is realized by a computer such as a personal computer.
  • the control device 70 controls each of the first focus adjustment lens 14, the second focus adjustment lens 24, and the third focus adjustment lens 34 based on the elapsed time measured by the counter 52.
  • the control device 70 controls the first focus adjustment lens 14 so that the light beam 2a is focused on the light receiving surface 16a of the first photodetector 16.
  • the focused light beam 2a is referred to as “focused light beam 2a”.
  • the control device 70 controls the second focus adjustment lens 24 so that the light beam 2b is out of focus on the light receiving surface 26a of the second photodetector 26.
  • the light beam 2b out of focus is referred to as a “defocused light beam 2b”.
  • control device 70 controls the third focus adjustment lens 34 so that the light beam 2c is out of focus on the light receiving surface 36a of the third photodetector 36.
  • the light beam 2c out of focus is referred to as a “defocused light beam 2c”. It is assumed that the defocus of the light beam 2c is larger than the defocus of the light beam 2b.
  • the control device 70 controls each of the first shutter 15, the second shutter 25, and the third shutter 35 based on the elapsed time measured by the counter 52, similarly to the control device 53 shown in FIG. 1. . Further, similarly to the control device 53 shown in FIG. 1, the control device 70 is based on the elapsed time measured by the counter 52, and the first light detector 16, the second light detector 26, and the third light. Each of the detectors 36 is controlled. In FIG. 16, the control device 70 is applied to the moving body observation apparatus illustrated in FIG. 15, but may be applied to the moving body observation apparatus illustrated in FIG. 1.
  • the control device 70 controls the first focus adjustment lens 14 so that the light beam 2a is focused on the light receiving surface 16a of the first photodetector 16. In addition, the control device 70 performs the second focus adjustment so that the light beams 2b and 2c are out of focus on the light receiving surface 26a of the second photodetector 26 and the light receiving surface 36a of the third photodetector 36, respectively.
  • Each of the lens 24 and the third focus adjustment lens 34 is controlled.
  • the first photodetector 16 detects the focused spot image from the focused light beam 2a
  • the second photodetector 26 detects the focused spot image from the defocused light beam 2b. Is detected.
  • the third photodetector 36 detects a focused spot image from the defocused light beam 2c.
  • the wavefront estimating unit 41 is a point spread function indicating a point image intensity distribution between the focused spot image detected from the focused light beam 2a and the focused light spot images detected from the defocused light beams 2b and 2c. k m, n (x, y) is calculated.
  • the point spread function km , n (x, y) calculated by the wavefront estimation unit 41 is calculated in consideration of not only the correlation of the positions of the plurality of focused spot images but also the aberration corresponding to the focus shift. Yes.
  • the wavefront estimation unit 41 estimates the wavefront W n (u, v) of the light beam 2 in the entire aperture using the point spread function km , n (x, y), as in the first embodiment.
  • the wavefront measuring apparatus 3 according to the fourth embodiment also uses aberration information as information used for wavefront estimation, the accuracy of wavefront estimation in the wavefront measuring apparatus 3 according to the first embodiment is improved.
  • FIG. 17 is a configuration diagram illustrating a moving object observation apparatus including the wavefront measurement apparatus 3 according to the fifth embodiment.
  • the moving body restoration unit 80 is realized by a computer such as a personal computer or a wavefront estimation circuit.
  • the moving body restoration unit 80 is connected to a light beam selection unit that extracts a light beam having a wavelength longer than the reference wavelength among the first light detector 16, the second light detector 26, and the third light detector 36.
  • the moving body restoration unit 80 performs processing for estimating the luminance distribution of the moving body 1 from the focused spot image and the point image intensity distribution in the region where the moving body 1 exists.
  • the reference wavelength is, for example, an orange wavelength, and the information on the reference wavelength is stored in the moving body restoration unit 80 or in the storage device 43.
  • the moving body restoration unit 80 is applied to the moving body observation apparatus illustrated in FIG. 16, but may be applied to the moving body observation apparatus illustrated in FIG. 15.
  • the first photodetector 16 detects the condensed spot image from the light beam 2a having the first wavelength
  • the second photodetector 26 detects the condensed spot image from the light beam 2b having the second wavelength. doing.
  • the third photodetector 36 detects a focused spot image from the light beam 2c having the third wavelength.
  • the light beam 2a having the first wavelength is a light beam having a smaller spread than the light beam 2b having the second wavelength, and is assumed to be, for example, a red light beam.
  • the light beam 2b having the second wavelength is a light beam having a smaller spread than the light beam 2c having the third wavelength, and is, for example, a yellow light beam.
  • the light beam 2c having the third wavelength is assumed to be a blue light beam, for example.
  • the red luminous flux is less susceptible to scattering than the yellow or blue luminous flux, but the resolution of the intensity image is low.
  • the moving body observation apparatus shown in FIG. 17 includes three wavefront sensors. In the fifth embodiment, it is assumed that the moving body observation apparatus includes not only the wavefront sensor 10-1, the wavefront sensor 10-2, and the wavefront sensor 10-3 but also several hundred wavefront sensors, for example.
  • the moving body restoration unit 80 is a condensing spot image and a point image in an area where the moving body 1 exists among the condensed spot images detected by the photodetectors included in several hundred wavefront sensors.
  • the luminance distribution of the moving body 1 is estimated from the intensity distribution.
  • FIG. 18 is an explanatory diagram showing luminance distribution estimation processing of the moving object 1 by the moving object restoring unit 80.
  • an intensity image 111 is an intensity image showing a plurality of focused spot images detected by a photodetector to which a light beam selection unit that extracts a light beam having a wavelength longer than the reference wavelength is connected.
  • the intensity image 112 is an intensity image indicating a plurality of focused spot images detected by a photodetector to which a light beam selection unit that extracts a light beam having a wavelength equal to or less than the reference wavelength is connected. Since the intensity image 112 is easily affected by scattering, the image of the moving body 1 shown in the intensity image 112 is wider than the image of the moving body 1 shown in the intensity image 111. However, the intensity image 112 is an image having a higher resolution than the intensity image 111.
  • the moving body restoration unit 80 is connected to a light beam selection unit that extracts a light beam having a wavelength longer than the reference wavelength from the condensed spot images detected by the photodetectors included in several hundred wavefront sensors. A plurality of focused spot images detected by the detected photodetector are selected.
  • the moving body restoration unit 80 performs a contour extraction process for extracting the contour of the moving body 1 from the intensity image 111 indicated by the selected plurality of focused spot images. Since the contour extraction process itself is a known technique, a detailed description thereof will be omitted.
  • the moving body restoration unit 80 sets the area inside the extracted contour as the area where the moving body 1 exists, and sets the area outside the outline as the area where the moving body 1 does not exist.
  • the moving body restoration unit 80 indicates that only the area including the area where the moving body 1 exists is the processing target area used for the luminance distribution estimation process of the moving body 1.
  • a mask image 113 shown is generated.
  • the processing target area is an area including the area where the moving body 1 exists, and the processing target area may be an area that matches the area where the moving body 1 exists.
  • the existing area may be a large area.
  • As a region where the moving object 1 is also large an area larger than the contour of the extracted moving object 1 by a margin corresponding to the shadow of the moving object 1 can be considered.
  • As the margin for example, a size of about 10% of the area where the moving body 1 exists can be considered.
  • the moving body restoration unit 80 extracts the image im , n (x, y) of the moving body 1 in the processing target area in the mask image 113 from the intensity image 112.
  • An intensity image 114 shown in FIG. 18 is an intensity image showing the image im , n (x, y) of the moving body 1 in the processing target area extracted from the intensity image 112.
  • Mobile restoration unit 80 an image i m of one or more mobile 1 contained in the processing target area, n (x, y) from the one image i m of the moving body 1, n (x , Y).
  • Mobile restoration unit 80 an image i m of the moving body 1 selected, n (x, y) and the image i m of the moving body 1 selected, n (x, y) point spread corresponding to the function k m, Substituting n (x, y) into equation (16), the difference rm , n (x, y) is calculated.
  • the moving body restoration unit 80 selects all the images im , n (x, y) of one or more moving bodies 1 included in the processing target region, and calculates the difference rm , n (x, y). The above process is repeated until the process ends.
  • the moving body restoration unit 80 substitutes all the calculated differences r m, n (x, y) into the equation (17) to calculate the square sum e of the differences (step ST18 in FIG. 8).
  • the weight d m (x, y) corresponding to) is set to 0.
  • the moving body restoration unit 80 After calculating the sum of squares e of the difference, the moving body restoration unit 80 repeatedly performs the luminance distribution estimation process until the luminance distribution estimation process of the moving body 1 converges, similarly to the moving body restoration unit 42 illustrated in FIG. . When the luminance distribution estimation process of the moving body 1 converges, the moving body restoration unit 80 outputs the luminance distribution o (p, q) of the moving body 1 for which the minimum square sum e is calculated to the storage device 30.
  • the moving body restoration unit 80 detects the region where the moving body is present from the focused spot images detected by the plurality of photodetectors. Then, the moving body restoring unit 80 calculates the moving body from the focused spot image and the point image intensity distribution in the region where the moving body 1 exists among the focused spot images detected by the plurality of photodetectors.
  • the moving body observation apparatus was configured to estimate the luminance distribution of 1. Therefore, when the mobile object observation apparatus estimates the luminance distribution of the mobile object 1, it can exclude the focused spot image of the area where the mobile object does not exist from the processing target. The load of the luminance distribution estimation process of the moving body 1 can be reduced as compared with the moving body observation apparatus shown.
  • the present invention is suitable for a wavefront measuring apparatus and a wavefront measuring method for estimating the wavefront of a light beam in the entire aperture including all the apertures of a plurality of imaging optical systems.
  • the present invention is also suitable for a mobile object observation apparatus that estimates the luminance distribution of a mobile object.
  • 1 moving body 2, 2a, 2b, 2c luminous flux, 3 wavefront measuring device, 4, 5, 6 luminous flux, 10-1, wavefront sensor, 10-2 wavefront sensor, 10-3 wavefront sensor, 11 first light shielding part, 12 1st imaging optical system, 13 1st light beam selection part, 14 1st focus adjustment lens, 15 1st shutter, 16 1st photodetector, 16a Photosensitive surface of 1st photodetector, 21 2nd light shielding part, 22 2nd imaging optical system, 23 2nd light beam selection part, 24 2nd focus adjustment lens, 25 2nd shutter, 26 2nd photodetector, 26a 2nd Photodetection surface of light detector, 31 3rd light shielding part, 32 3rd imaging optical system, 33 3rd light beam selection part, 34 3rd focus adjustment lens, 35 3rd shutter, 36 3rd light Detector, 36a third light detection Light receiving surface, 41 wavefront estimation unit, 42 moving body restoration unit, 43 storage device, 51 time calibration unit, 52 counter, 53 control device

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Astronomy & Astrophysics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Testing Of Optical Devices Or Fibers (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

波面推定部(41)が、第1の光検出器(16)、第2の光検出器(26)及び第3の光検出器(36)により検出されたそれぞれの集光スポット像の位置から、全体開口における光束の波面の概算値を算出し、概算値を用いて、第1の光検出器(16)、第2の光検出器(26)及び第3の光検出器(36)によりそれぞれ検出された集光スポット像の点像強度分布を算出し、点像強度分布と集光スポット像とから、全体開口における光束の波面を推定するように、波面計測装置(3)を構成した。

Description

波面計測装置、波面計測方法及び移動体観測装置
 この発明は、複数の結像光学系の開口の全てを含む全体開口における光束の波面を推定する波面計測装置及び波面計測方法と、移動体の輝度分布を推定する移動体観測装置とに関するものである。
 天体又は飛翔体などの移動体を観測する移動体観測装置は、移動体から送信された光束を地上で受信することで、移動体を観測する。
 移動体から送信される光束は、大気の屈折率分布のゆらぎが原因で、光の位相が乱されてしまうために、広がってしまうことがある。
 したがって、移動体観測装置は、移動体の観測精度を高めるには、光の位相の等しい面である波面を取得する必要がある。
 以下の特許文献1には、波面を計測する波面センサが開示されている。
 以下の特許文献1に開示されている波面センサは、望遠鏡を用いて、高速に移動する物体を観察する際、波面のチルト及び焦点のそれぞれを制御することで、物体から送信された光束を追いかけながら、大気断層を撮影するようにしている。
 波面センサは、波面のチルト及び焦点のそれぞれを制御するための機構として、高速ステアリングミラー、結像レンズ及びレンズレットアレイにおけるそれぞれの高速移動を実現する制御機構を備えている。
特開2016-118547号公報
 従来の波面センサによる波面の計測精度は、高速ステアリングミラー、結像レンズ及びレンズレットアレイにおけるそれぞれの高速移動を実現する制御機構の制御精度に依存している。
 したがって、従来の波面センサは、実装している制御機構の制御精度によっては、波面の計測精度が劣化してしまうことがあるという課題があった。
 この発明は上記のような課題を解決するためになされたもので、レンズレットアレイなどの高速移動を実現する制御機構を実装することなく、波面を計測することができる波面計測装置、波面計測方法及び移動体観測装置を得ることを目的とする。
 この発明に係る波面計測装置は、互いに異なる位置に配置されており、移動体に反射された光束又は移動体から送信された光束を集光する複数の結像光学系と、複数の結像光学系により集光されたそれぞれの光束から、移動体の像として、集光スポット像を検出する複数の光検出器と、複数の光検出器により検出された集光スポット像の位置から、複数の結像光学系の開口の全てを含む全体開口における光束の波面の概算値を算出し、概算値を用いて、複数の光検出器により検出された集光スポット像の点像強度分布を算出し、点像強度分布と集光スポット像とから、全体開口における光束の波面を推定する波面推定部とを備えるようにしたものである。
 この発明によれば、波面推定部が、複数の光検出器により検出された集光スポット像の位置から、複数の結像光学系の開口の全てを含む全体開口における光束の波面の概算値を算出し、概算値を用いて、複数の光検出器により検出された集光スポット像の点像強度分布を算出し、点像強度分布と集光スポット像とから、全体開口における光束の波面を推定するように、波面計測装置を構成した。したがって、この発明に係る波面計測装置は、レンズレットアレイなどの高速移動を実現する制御機構を実装することなく、波面を計測することができる。
実施の形態1による波面計測装置3を含む移動体観測装置を示す構成図である。 実施の形態1による波面計測装置3を含む移動体観測装置の外観を示す斜視図である。 図1に示す移動体観測装置の処理手順を示すフローチャートである。 複数の光検出器により検出される移動体1の像を示す説明図である。 波面が伝搬経路によって異なる場合の複数の光検出器により検出される移動体1の像を示す説明図である。 複数の光検出器により検出される移動体1の像と波面の関係を示す説明図である。 複数の光検出器により検出される移動体1の像と波面の関係を示す説明図である。 波面推定部41及び移動体復元部42の処理手順を示すフローチャートである。 移動体1が波面計測装置3と相対的に移動している場合において、全体開口と、複数の結像光学系におけるそれぞれの開口と、移動体1の像105との関係を示す説明図である。 結像光学系の開口よりも、光束2の透過領域が小さい遮光部の一例を示す説明図である。 開口の一部に、光束2が遮光される遮光領域が含まれている遮光部の一例を示す説明図である。 複数の遮光部として、光束の透過領域の形状又は大きさが異なる遮光部が混在している例を示す説明図である。 複数の遮光部として、光束の透過領域の形状又は大きさが異なる遮光部が混在している例を示す説明図である。 複数の遮光部として、光束の透過領域の形状又は大きさが異なる遮光部が混在している例を示す説明図である。 実施の形態3による波面計測装置3を含む移動体観測装置を示す構成図である。 実施の形態4による波面計測装置3を含む移動体観測装置を示す構成図である。 実施の形態5による波面計測装置3を含む移動体観測装置を示す構成図である。 移動体復元部80による移動体1の輝度分布推定処理を示す説明図である。
 以下、この発明をより詳細に説明するために、この発明を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
 図1は、実施の形態1による波面計測装置3を含む移動体観測装置を示す構成図である。
 図1において、移動体1は、大気の外、あるいは、大気中に存在している物体である。
 移動体1に反射された光束又は移動体1から送信された光束は、大気の屈折率分布のゆらぎが原因で、広がってしまった光束2であり、光束2は、波面計測装置3に入射される。
 波面計測装置3は、入射された光束2から、波面を計測する装置である。
 波面計測装置3は、波面センサ10-1、波面センサ10-2及び波面センサ10-3を備えている。
 図1では、波面計測装置3が、3つの波面センサを備えているが、少なくとも2つ以上の波面センサを備えていればよい。
 波面センサ10-1は、第1の遮光部11、第1の結像光学系12、第1のフォーカス調整レンズ14、第1のシャッタ15及び第1の光検出器16を備えている。
 波面センサ10-2は、第2の遮光部21、第2の結像光学系22、第2のフォーカス調整レンズ24、第2のシャッタ25及び第2の光検出器26を備えている。
 波面センサ10-3は、第3の遮光部31、第3の結像光学系32、第3のフォーカス調整レンズ34、第3のシャッタ35及び第3の光検出器36を備えている。
 波面センサ10-1、波面センサ10-2及び波面センサ10-3は、互いに異なる位置に配置されている。
 第1の遮光部11は、入射された光束2の一部を遮光することで、光束2の透過領域を空間的に制限する。
 図1に示す波面計測装置3では、第1の遮光部11が第1の結像光学系12の入力側に配置されている。しかし、これは一例に過ぎず、第1の遮光部11は、第1の結像光学系12の出力側に配置されていてもよい。即ち、第1の遮光部11は、第1の結像光学系12における光学的に共役な瞳位置に配置されてもよいため、第1の結像光学系12と第1の光検出器16との間に配置されていてもよい。
 第2の遮光部21及び第3の遮光部31は、第1の遮光部11と同様に、光束2の透過領域を空間的に制限する。
 第1の結像光学系12は、第1の遮光部11を透過してきた光束2を集光する光学系である。
 第2の結像光学系22及び第3の結像光学系32は、第1の結像光学系12と同様に、光束2を集光する光学系である。
 第1のフォーカス調整レンズ14は、第1の結像光学系12を透過してきた光束2の光路長を調整して、光路長調整後の光束2を第1のシャッタ15に出力する。
 第2のフォーカス調整レンズ24は、第2の結像光学系22を透過してきた光束2の光路長を調整して、光路長調整後の光束2を第2のシャッタ25に出力する。
 第3のフォーカス調整レンズ34は、第3の結像光学系32を透過してきた光束2の光路長を調整して、光路長調整後の光束2を第3のシャッタ35に出力する。
 第1のシャッタ15は、第1の光検出器16により受光される光束2の光量を調整するために、第1のフォーカス調整レンズ14から出力された光束2の通過を時間的に制限する。
 第2のシャッタ25は、第2の光検出器26により受光される光束2の光量を調整するために、第2のフォーカス調整レンズ24から出力された光束2の通過を時間的に制限する。
 第3のシャッタ35は、第3の光検出器36により受光される光束2の光量を調整するために、第3のフォーカス調整レンズ34から出力された光束2の通過を時間的に制限する。
 第1の光検出器16、第2の光検出器26及び第3の光検出器36は、例えば、イメージセンサによって実現される。
 第1の光検出器16は、第1のシャッタ15を通過してきた光束2から、移動体1の像として、集光スポット像を検出し、集光スポット像を示す強度画像を波面推定部41に出力する。
 第2の光検出器26は、第2のシャッタ25を通過してきた光束2から、移動体1の像として、集光スポット像を検出し、集光スポット像を示す強度画像を波面推定部41に出力する。
 第3の光検出器36は、第3のシャッタ35を通過してきた光束2から、移動体1の像として、集光スポット像を検出し、集光スポット像を示す強度画像を波面推定部41に出力する。
 波面推定部41は、パーソナルコンピュータなどの計算機、あるいは、波面推定回路などによって実現される。
 波面推定部41は、第1の光検出器16、第2の光検出器26及び第3の光検出器36のそれぞれに検出された集光スポット像の位置から、波面センサ10-1、波面センサ10-2及び波面センサ10-3の開口の全てを含む全体開口における光束の波面の概算値を算出する。
 また、波面推定部41は、概算値を用いて、第1の光検出器16、第2の光検出器26及び第3の光検出器36のそれぞれに検出された集光スポット像の点像強度分布を算出し、点像強度分布と集光スポット像から、全体開口における光束の波面を推定する。
 移動体復元部42は、パーソナルコンピュータなどの計算機、あるいは、移動体復元回路などによって実現される。
 移動体復元部42は、第1の光検出器16、第2の光検出器26及び第3の光検出器36のそれぞれに検出された集光スポット像と、波面推定部41により推定された点像強度分布とから、移動体1の輝度分布を推定する処理を実施する。
 保存装置43は、例えば、記憶処理回路によって実現される。
 保存装置43は、波面推定部41により推定された全体開口の波面及び移動体復元部42により推定された移動体1の輝度分布などを記録する装置である。
 ここで、波面推定回路及び移動体復元回路のそれぞれは、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、又は、これらを組み合わせたものが該当する。
 また、記憶処理回路は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)などの不揮発性又は揮発性の半導体メモリ、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、あるいは、DVD(Digital Versatile Disc)が該当する。
 時刻校正部51は、クロックを内蔵しており、GPS(Global Positioning System)衛星から発信されるGPS信号又はNTP(Network Time Protocol)を用いて、クロックの時刻を校正する。
 カウンタ52は、時刻校正部51により校正されたクロックの時刻が或る時刻になると、或る時刻からの経過時間を計測する。
 制御装置53は、パーソナルコンピュータなどの計算機によって実現される。
 制御装置53は、カウンタ52により計測された経過時間に基づいて、第1のフォーカス調整レンズ14、第2のフォーカス調整レンズ24及び第3のフォーカス調整レンズ34のそれぞれを制御する。
 また、制御装置53は、カウンタ52により計測された経過時間に基づいて、第1のシャッタ15、第2のシャッタ25及び第3のシャッタ35のそれぞれを制御する。
 また、制御装置53は、カウンタ52により計測された経過時間に基づいて、第1の光検出器16、第2の光検出器26及び第3の光検出器36のそれぞれを制御する。
 駆動装置54は、制御装置53から出力される制御信号に従って第1の結像光学系12、第2の結像光学系22及び第3の結像光学系32におけるそれぞれの指向方向を変更する装置である。
 図2は、実施の形態1による波面計測装置3を含む移動体観測装置の外観を示す斜視図である。
 図2において、筐体61は、波面センサ10-1、波面センサ10-2及び波面センサ10-3を実装している。
 筐体62は、波面推定部41、移動体復元部42、保存装置43、時刻校正部51、カウンタ52及び制御装置53を実装している。
 図1では、波面計測装置3が、3つの波面センサを備えているが、図2では、波面計測装置3が、7つの波面センサを備えている。
 第1の遮光部11における光束2の透過領域、第2の遮光部21における光束2の透過領域及び第3の遮光部31における光束2の透過領域は、形状及び大きさのそれぞれが同じである。光束2の透過領域は、光束2が透過する領域である。
 第1の遮光部11における光束2の遮光領域、第2の遮光部21における光束2の遮光領域及び第3の遮光部31における光束2の遮光領域は、第1の結像光学系12、第2の結像光学系22及び第3の結像光学系32におけるそれぞれの開口よりも僅かに小さい。遮光領域は、光束2が遮光される領域である。
 レンズなどの光学部品及び人間の瞳などは、光が透過する。また、鏡などの光学部品は、光を反射させる。光が光学部品等を透過することで、光の位相分布が変化し、光が光学部品に反射されることで、光の位相分布が変化する。
 地球の大気は、酸素、窒素及び水蒸気などの媒質によって構成されており、レンズなどの光学部品と同様に、光が透過する。
 酸素等の媒質は、温度の変化及び気圧の変化に伴って屈折率が変動するため、地球の大気を透過する光の位相分布は、温度の変化及び気圧の変化に伴って変化する。光は、電磁波であるため、光の位相分布は、波面として捉えることが可能である。
 図1に示す波面計測装置3は、大気の外、あるいは、大気中に存在している移動体1に反射された光束2又は移動体から送信された光束2を受信することで、波面を推定する装置であり、波面計測装置3により推定される波面は、酸素等の媒質の屈折率が変化することで変化する。
 媒質の屈折率の変化自体は小さいが、光が伝搬される光路が長くなると、屈折率の変化は、光の波長と比較して、無視できない大きさとなるため、波面の推定においては、大気のゆらぎの影響を強く受ける。
 また、地上の大気は、太陽からの輻射の影響及び熱輸送の影響を受けるとともに、地球の自転の影響を受けるため、地上と上空の間には、大気の層が形成される。大気の層を透過してくる光の波面は、複雑に乱れる。
 次に、図1に示す移動体観測装置について説明する。
 図3は、図1に示す移動体観測装置の処理手順を示すフローチャートである。
 駆動装置54は、移動体1が波面計測装置3と相対的に移動している場合でも、第1の結像光学系12が、光束2を集光することができるようにするため、第1の結像光学系12の指向方向を変更する。
 駆動装置54は、第1の結像光学系12と同様に、第2の結像光学系22の指向方向及び第3の結像光学系32の指向方向のそれぞれを変更する。
 例えば、移動体1が恒星である場合、移動体1は、日周運動によって、1秒間に15秒角(=15/3600度)ほど、移動する。したがって、移動体1の追尾を可能にするには、駆動装置54が、第1の結像光学系12、第2の結像光学系22及び第3の結像光学系32におけるそれぞれの指向方向を秒角精度で制御できる必要がある。
 時刻校正部51は、駆動装置54が、指向方向を秒角精度で制御できるようにするため、GPS衛星から発信されるGPS信号又はNTPを用いて、内蔵のクロックの時刻を校正する。
 カウンタ52は、時刻校正部51により校正されたクロックの時刻が或る時刻になると、或る時刻からの経過時間を計測する。
 制御装置53は、カウンタ52により計測された経過時間に基づいて、第1のフォーカス調整レンズ14、第2のフォーカス調整レンズ24及び第3のフォーカス調整レンズ34のそれぞれを制御する。
 また、制御装置53は、カウンタ52により計測された経過時間に基づいて、第1のシャッタ15、第2のシャッタ25及び第3のシャッタ35のそれぞれを制御する。
 さらに、制御装置53は、カウンタ52により計測された経過時間に基づいて、第1の光検出器16、第2の光検出器26及び第3の光検出器36のそれぞれを制御する。
 駆動装置54は、制御装置53から出力される制御信号に従って第1の結像光学系12、第2の結像光学系22及び第3の結像光学系32におけるそれぞれの指向方向を変更する。
 第1の遮光部11は、移動体1に反射された光束2又は移動体1から送信された光束2が入射されると、光束2の一部を遮光することで、光束2の透過領域を空間的に制限する。
 第1の結像光学系12は、第1の遮光部11を透過してきた光束2を集光する(図3のステップST1)。
 第2の遮光部21及び第3の遮光部31についても、第1の遮光部11と同様に、光束2が入射されると、光束2の一部を遮光することで、光束2の透過領域を空間的に制限する。
 第2の結像光学系22及び第3の結像光学系32についても、第1の結像光学系12と同様に、第2の遮光部21及び第3の遮光部31のそれぞれを透過してきた光束2を集光する(図3のステップST1)。
 第1のフォーカス調整レンズ14は、第1の結像光学系12を透過してきた光束2の光路長を調整し、光路長調整後の光束2を第1のシャッタ15に出力する。
 第2のフォーカス調整レンズ24は、第2の結像光学系22を透過してきた光束2の光路長を調整し、光路長調整後の光束2を第2のシャッタ25に出力する。
 第3のフォーカス調整レンズ34は、第3の結像光学系32を透過してきた光束2の光路長を調整し、光路長調整後の光束2を第3のシャッタ35に出力する。
 第1のフォーカス調整レンズ14、第2のフォーカス調整レンズ24及び第3のフォーカス調整レンズ34におけるそれぞれの光路長の調整量は、制御装置53によって制御されている。
 光路長の調整量が制御装置53によって制御されることで、第1の光検出器16、第2の光検出器26及び第3の光検出器36におけるそれぞれの受光面16a,26a,36aにおいて、光束2の焦点が合う。
 第1のシャッタ15は、第1の光検出器16により受光される光束2の光量を調整するために、制御装置53から出力される制御信号に従って第1のフォーカス調整レンズ14から出力された光束2の通過を時間的に制限する。
 第1の光検出器16での光束2の露光時間がコヒーレンス時間よりも長くなると、大気の状態が変わるため、第1の光検出器16により検出される移動体1の像の広がりが大きくなる。コヒーレンス時間は一般に1~10ms程度である。
 移動体1が高速で移動している場合、制御装置53は、第1の光検出器16での光束2の露光時間がコヒーレンス時間よりも短くなるように、第1のシャッタ15における光束2の通過時間を制御する。
 第2のシャッタ25及び第3のシャッタ35についても、第1のシャッタ15と同様に、第2のフォーカス調整レンズ24及び第3のフォーカス調整レンズ34から出力されたそれぞれの光束2の通過を時間的に制限する。
 制御装置53は、第1のシャッタ15と同様に、第2のシャッタ25及び第3のシャッタ35におけるそれぞれの光束2の通過時間を制御する。
 制御装置53が、上記のように、光束2の通過時間を制御する場合、第1の光検出器16、第2の光検出器26及び第3の光検出器36により受光されるそれぞれの光束2の光量が少なくなってしまうことがある。
 光束2の光量が少なくなってしまう場合、制御装置53が、第1のシャッタ15、第2のシャッタ25及び第3のシャッタ35において、光束2の通過と遮光が複数回繰り返されるように制御する。光束2の通過と遮光が複数回繰り返されることで、第1の光検出器16、第2の光検出器26及び第3の光検出器36のそれぞれが、複数回、移動体1の像を検出できるようになる。
 第1の光検出器16は、第1のシャッタ15を通過してきた光束2から、移動体1の像として、集光スポット像を検出し、集光スポット像を示す強度画像を波面推定部41に出力する(図3のステップST2)。
 第2の光検出器26は、第2のシャッタ25を通過してきた光束2から、移動体1の像として、集光スポット像を検出し、集光スポット像を示す強度画像を波面推定部41に出力する(図3のステップST2)。
 第3の光検出器36は、第3のシャッタ35を通過してきた光束2から、移動体1の像として、集光スポット像を検出し、集光スポット像を示す強度画像を波面推定部41に出力する(図3のステップST2)。
 ここで、図4は、複数の光検出器により検出される移動体1の像を示す説明図である。
 図4では、第1の結像光学系12、第2の結像光学系22及び第3の結像光学系32だけでなく、全部で10個の結像光学系が波面計測装置3に実装されている例を示している。
 したがって、第1の光検出器16、第2の光検出器26及び第3の光検出器36だけでなく、全部で10個の光検出器が波面計測装置3に実装されている。
 図4は、地上と上空の間に3つの大気層がある例を示しており、101は第1の大気層、102は第2の大気層、103は第3の大気層である。
 図4では、第1の結像光学系12、第2の結像光学系22及び第3の結像光学系32のそれぞれが、模式的に1枚のレンズとして表記されている。一般的には、結像光学系での収差を減らすために、第1の結像光学系12、第2の結像光学系22及び第3の結像光学系32のそれぞれは、複数枚のレンズによって構成されることが多い。また、結像光学系における色収差を低減するために、第1の結像光学系12、第2の結像光学系22及び第3の結像光学系32のそれぞれは、複数枚の反射鏡によって構成されることもある。
 第1の結像光学系12、第2の結像光学系22及び第3の結像光学系32のそれぞれが、光束2を第1の光検出器16、第2の光検出器26及び第3の光検出器36におけるそれぞれの受光面16a,26a,36aに集光することで、受光面16a,26a,36aには、移動体1の像104が形成される。
 光束2が第1の大気層101、第2の大気層102及び第3の大気層103を透過する際に波面が乱されるため、移動体1の像104は、仮に移動体1が点とみなせる物体であっても、広がってしまう。
 したがって、結像光学系の収差を要因とする像104の広がり及び光検出器の分解能を要因とする像104の広がりを除外すれば、像104の広がりの要因は、大気ゆらぎである。
 なお、移動体1が、広がりを有する物体である場合、結像光学系の収差及び光検出器の分解能を要因とする広がりを除外すれば、像104の広がりは、物体自体の広がりと、大気ゆらぎによる広がりで表される。数学的には物体自体の広がりが、波面が等しいとみなせる角度範囲及びアイソプラナテック角を満たす場合、像104の広がりは物体自体の広がりと大気揺らぎによる広がりの畳み込みで表される。
 移動体1が波面計測装置3と相対的に移動している場合、地上から移動体1を見る方向が異なると、光束2の伝搬経路が等しくなくなり、波面が、伝搬経路によって異なるようになる。
 図5は、波面が伝搬経路によって異なる場合の複数の光検出器により検出される移動体1の像を示す説明図である。図5において、図4と同一符号は同一又は相当部分を示している。
 光束4、光束5及び光束6のそれぞれは、移動体1に反射された光束2又は移動体1から送信された光束2である。光束4、光束5及び光束6は、途中の大気層の揺らぎの寄与が互いに異なっており、光束4の伝搬経路、光束5の伝搬経路及び光束6の伝搬経路は、互いに異なっている。
 それぞれの結像光学系によって、それぞれの光検出器の受光面に集光される光束2が、光束4、光束5及び光束6のそれぞれであるとみなすと、それぞれの受光面には、光束4、光束5及び光束6のそれぞれによって移動体1の像105が形成される。
 それぞれの光検出器の受光面に形成される複数の像105は、大気のゆらぎを要因とする広がりを持っており、波面の推定に用いることができる。
 図6及び図7は、複数の光検出器により検出される移動体1の像と波面の関係を示す説明図である。
 図6は、光束2が進行方向に対して広がらずに伝搬されている例を示し、図7は、光束2が進行方向に対して広がりながら伝搬されている例を示している。
 図6及び図7では、第1の結像光学系12、第2の結像光学系22及び第3の結像光学系32だけでなく、全部で64(=8×8)個の結像光学系が波面計測装置3に実装されている例を示している。
 また、図6及び図7では、第1の光検出器16、第2の光検出器26及び第3の光検出器36だけでなく、全部で64個の光検出器が波面計測装置3に実装されている例を示している。
 図6及び図7において、105aは、光束2が進行方向に対して広がらずに伝搬されている場合の移動体1の像であり、105bは、光束2が進行方向に対して広がりながら伝搬されている場合の移動体1の像である。
 光束2が進行方向に対して広がらずに伝搬されている場合、図6に示すように、64個の結像光学系により集光されるそれぞれの移動体1の像105aの位置は、64個の結像光学系のそれぞれの位置と一致している。
 光束2が進行方向に対して広がりながら伝搬されている場合、図7に示すように、64個の結像光学系により集光されるそれぞれの移動体1の像105bの位置は、64個の結像光学系のそれぞれの位置とずれている。
 波面106aは、移動体1の64個の像105aの位置から求められ、波面106bは、移動体1の64個の像105bの位置から求められる。
 図6及び図7では、64個の結像光学系が格子状に配置されている例を示している。しかし、これに限るものではなく、例えば、64個の結像光学系の配置がハニカム配置であってもよい。
 図6及び図7では、第1の遮光部11、第2の遮光部21及び第3の遮光部31を含む64個の遮光部において、光束2が遮光される遮光領域が、黒く塗られている例を示している。しかし、遮光部において、遮光領域は、不要な光を透過させなければよく、黒以外の色が塗られていてもよい。
 また、遮光部において、遮光領域は、不要な光を吸収する着色又は加工が施されていてもよいし、不要な光を散乱する着色又は加工が施されていてもよい。
 波面推定部41は、第1の光検出器16、第2の光検出器26及び第3の光検出器36のそれぞれから集光スポット像を示す強度画像を取得する。
 波面推定部41は、それぞれの強度画像が示す集光スポット像の位置から、波面センサ10-1、波面センサ10-2及び波面センサ10-3の開口の全てを含む全体開口における光束2の波面を推定する(図3のステップST3)。
 図8は、波面推定部41及び移動体復元部42の処理手順を示すフローチャートである。
 以下、図8を参照しながら、波面推定部41の処理内容を具体的に説明する。
 まず、波面推定部41は、第1の光検出器16、第2の光検出器26及び第3の光検出器36のそれぞれから強度画像を受けると、複数の強度画像が示す集光スポット像の位置から、全体開口における光束2の波面の概算値を算出する(図8のステップST11)。
 複数の集光スポット像の位置から、波面の概算値を算出する処理自体は、公知の技術であるため詳細な説明を省略する。
 複数の集光スポット像の位置から波面を推定する方法は、例えば、以下の非特許文献1に開示されている。
[非特許文献1]国立天文台報 vol.2 No.2
 ここでは、制御装置53が、第1のシャッタ15、第2のシャッタ25及び第3のシャッタ35において、光束2の通過と遮光が複数回繰り返されるように制御する。
 制御装置53の制御によって、第1の光検出器16、第2の光検出器26及び第3の光検出器36のそれぞれからN枚の強度画像が波面推定部41に出力されているものとする。
 そして、波面推定部41は、それぞれのN枚の強度画像のうち、それぞれのn(n=1,2,・・・,N)枚目の強度画像が示す集光スポット像の位置から、波面の概算値を算出しているものとする。
 なお、移動体1が点像である場合、あるいは、移動体1が点像と近似できる場合、集光スポット像の位置として、点像の重心の位置を求める態様が考えられる。
 また、移動体1が広がりのある物体である場合、波面は、複数の集光スポット像の間隔又は複数の集光スポット像の相対位置から求めることができる。したがって、集光スポット像の位置として、複数の集光スポット像の相互相関又は複数の集光スポット像の特徴的な位置の間隔を求める態様が考えられる。
 波面推定部41は、それぞれのn枚目の強度画像が示す集光スポット像の位置から算出した概算値である波面の位相をΦ0,nとする。
 波面推定部41は、以下の式(1)に示すように、全体開口における光束2の波面の位相Φ(u,v)の初期値として、位相Φ0,nを用いることで、概算値よりも高精度な波面を推定する。(u,v)は、瞳空間の座標である。
Figure JPOXMLDOC01-appb-I000001
 以下、高精度な波面の推定処理を説明する前に、高精度な波面の推定処理の原理及び移動体1の輝度分布推定処理の原理を説明する。
 図9は、移動体1が波面計測装置3と相対的に移動している場合において、全体開口と、複数の結像光学系におけるそれぞれの開口と、移動体1の像105との関係を示す説明図である。
 図9では、M個の結像光学系が波面計測装置3に実装されている例を示している。
 M(u,v)は、全体開口である。
 M(u,v)、M(u,v)、・・・、M(u,v)のそれぞれは、M個の結像光学系におけるそれぞれの開口である。M(u,v)における添え字のMは、2以上の整数であり、例えば、m=1,2,・・・,Mである。
 波面収差と瞳上の振幅分布で表される瞳関数Gm,n(u,v)は、以下の式(2)に示すように、それぞれのn枚目の強度画像に対応する、全体開口における光束2の波面の位相Φ(u,v)と、開口M(u,v)とで表される。
Figure JPOXMLDOC01-appb-I000002
 開口M(u,v)は、既知であり、位相Φ(u,v)の初期値は、概算値である波面の位相Φ0,nであるため、瞳関数Gm,n(u,v)は、位相Φ(u,v)と開口M(u,v)から算出される。
 また、位相Φ(u,v)と、波面W(u,v)との関係は、以下の式(3)で表される。
Figure JPOXMLDOC01-appb-I000003
 式(3)において、λは、波長である。
 振幅広がり関数am,n(u,v)は、以下の式(4)に示すように、瞳関数Gm,n(u,v)が逆フーリエ変換されることで得られる。
Figure JPOXMLDOC01-appb-I000004
 式(4)において、F-1は、逆フーリエ変換を表す記号である。
 点像強度分布を示す点広がり関数km,n(x,y)は、以下の式(5)に示すように、振幅広がり関数am,n(u,v)と、振幅広がり関数am,n(u,v)の複素共役との積で表される。(x,y)は、実空間の座標である。
Figure JPOXMLDOC01-appb-I000005
 移動体1の輝度分布がo(p,q)、それぞれの光検出器で生じるノイズがem,n(x,y)で表されるとすると、m番目の開口M(u,v)に対応する移動体1の像im,n(x,y)は、以下の式(6)で表される。(p,q)は、移動体1が存在している位置を示す実空間の座標である。
 移動体1の輝度分布o(p,q)は、移動体1に反射される光束2の強度又は移動体1から送信される光束2の強度である。
Figure JPOXMLDOC01-appb-I000006
 式(6)における畳み込み積分を“*”の記号で表記すると、式(6)は、以下の式(7)で表される。
Figure JPOXMLDOC01-appb-I000007
 一般的には、移動体1の像im,n(x,y)は、点広がり関数km,n(x,y)と、移動体1の輝度分布o(p,q)との畳み込み積分で得られるが、式(6)及び式(7)には、それぞれの光検出器で生じるノイズem,n(x,y)が付加されている。
 以下の式(8)は、移動体1の輝度分布o(p,q)と点像強度分布を示す点広がり関数km,n(x,y)とから得られる移動体1の像であるo(p,q)*km,n(x,y)と、移動体1の実測の像であるim,n(x,y)との差分の二乗和eを示している。
Figure JPOXMLDOC01-appb-I000008
 式(8)において、点広がり関数km,n(x,y)は、式(2)、式(4)及び式(5)から得られる。したがって、式(8)において、未知の値は、移動体1の輝度分布o(p,q)のみである。
 移動体1の輝度分布o(p,q)は、差分の二乗和eが最小になるo(p,q)を探索することで求まる。
 移動体1は、波面計測装置3に対して相対的に運動している。駆動装置54が第1の結像光学系12、第2の結像光学系22及び第3の結像光学系32におけるそれぞれの指向方向を変更しても、移動体1と波面計測装置3の相対運動は、完全にはキャンセルできないものとする。
 したがって、時刻tが変わることで、移動体1の相対位置が変わる。
 時刻tが変わる回数と、波面推定部41が得る強度画像の枚数であるフレーム数とは、同じである必要はないが、フレーム数が例えば10であれば、10点の時刻の強度画像が得られることになるため、フレームの番号は、時刻の番号と対応する。
 ここでは、移動体1の輝度分布o(p,q)は、フレームに依存しておらず、変化していないものとする。ただし、波面は、フレーム毎に、変化しているものとする。
 移動体1の輝度分布o(p,q)を探索する際、差分の二乗和は、位相空間で考えることができる。
 以下の式(9)は、式(8)がフーリエ変換されたものであり、式(8)に示す差分の二乗和eが、位相空間での差分の二乗和Eになっている。
Figure JPOXMLDOC01-appb-I000009
 式(9)において、Im,n(u,v)は、im,n(x,y)のスペクトルであり、以下の式(10)のように表される。
Figure JPOXMLDOC01-appb-I000010
 式(10)において、Fは、フーリエ変換を表す記号である。
 式(9)において、O(u,v)は、o(p,q)のスペクトルであり、以下の式(11)のように表される。
Figure JPOXMLDOC01-appb-I000011
 それぞれの光検出器で生じるノイズem,n(x,y)があるために、O(u,v)=im,n(u,v)/Km,n(u,v)のように表現することができないので、式(11)のように、表されている。
 式(11)において、γは、解の安定化のために導入している係数である。
 Km,n(u,v)は、瞳関数Gm,n(u,v)の自己相関であり、以下の式(12)で表される。Km,n(u,v)は、規格化されていないが、光学伝達関数である。
Figure JPOXMLDOC01-appb-I000012
 式(11)を式(9)に代入すると、以下の式(13)が得られる。
Figure JPOXMLDOC01-appb-I000013
 式(13)に示す差分の二乗和Eは、開口M(p,q)と、位相Φ(p,q)と、移動体1の像im,n(x,y)のスペクトルIm,n(u,v)とで表されており、未知である移動体1の輝度分布o(p,q)のスペクトルO(u,v)に依存していない。
 波面W(u,v)は、以下の式(14)に示す差分の二乗和Errが最小になる位相Φ(u,v)を求めれば、式(2)よって推定することができる。
Figure JPOXMLDOC01-appb-I000014
 差分の二乗和Errが最小になる位相Φ(u,v)を求めることで、波面W(u,v)を推定する場合でも、移動体1の輝度分布o(p,q)を求めることが可能であるが、式(14)は、移動体1の輝度分布o(p,q)に依存していない。したがって、移動体1の輝度分布o(p,q)が実空間で0よりも大きい実数であるという、計算上の強い制約を与えられない。
 移動体1の輝度分布o(p,q)が実空間で0よりも大きい実数であるという制約を与えるには、実空間における差分の二乗和eを示す式(8)に対して、さらに制約を与えればよい。
 以下の式(15)は、実空間における差分rm,n(x,y)を示している。
Figure JPOXMLDOC01-appb-I000015
 第1の光検出器16、第2の光検出器26及び第3の光検出器36のそれぞれが、CCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)などのイメージセンサである場合、主なノイズは、ショットノイズと読み出しノイズである。
 読み出しノイズは、正規分布に従い、中央値が0で、標準偏差がσであるとする。ショットノイズは、取得したフレームの輝度分布に比例する。
 したがって、式(15)をノイズで規格化すると、式(16)のようになる。
Figure JPOXMLDOC01-appb-I000016
 ノイズに対する実空間における差分rm,n(x,y)の比が、1よりも大きければ、ずれが大きく、1であれば、ずれがなく、1よりも小さければ、ずれが小さいことを意味する。
 式(8)の代わりに、以下の式(17)に示す尤度関数を導入する。
Figure JPOXMLDOC01-appb-I000017
 式(17)において、d(x,y)は、差分rm,n(x,y)に与える重みであり、例えば、ずれが大きいフレームは、信頼度が低いので、小さい重みが与えられる。
 また、実空間上において、計算する領域の重みを1、計算を省略する領域の重みを0として、計算量を減らすことが可能である。
 以上が、波面の推定処理の原理及び移動体1の輝度分布推定処理の原理である。
 波面推定部41は、概算値である波面の位相をΦ0,nとすると、Φ0,nを、式(2)に示すΦ(u,v)の初期値に設定する。
 波面推定部41は、式(2)、式(4)及び式(5)を算出することで、点像強度分布を示す点広がり関数km,n(x,y)を算出する(図8のステップST12)。
 波面推定部41は、点広がり関数km,n(x,y)及び移動体1の像im,n(x,y)のそれぞれをフーリエ変換することで、光学伝達関数Km,n(u,v)及び移動体1の像im,n(x,y)のスペクトルIm,n(u,v)を得る(図8のステップST13)。
 波面推定部41は、光学伝達関数Km,n(u,v)及びスペクトルIm,n(u,v)を式(14)に代入し、差分の二乗和Errを算出する(図8のステップST14)。
 波面推定部41は、差分の二乗和Errを算出すると、位相の探索処理が収束しているか否かを判定する(図8のステップST15)。
 位相の探索処理の収束判定として、例えば、算出した差分の二乗和Errが事前に設定されている第1の許容誤差以下であれば、収束していると判定する方法がある。収束していると判定したときの算出した差分の二乗和Errは、最小の二乗和Errである。第1の許容誤差は、例えば、波面推定部41の内部メモリ又は保存装置43に格納されているものとする。
 また、位相の探索処理の収束判定として、例えば、位相Φ(u,v)を変更しながら、事前に設定された回数だけ差分の二乗和Errを算出し、算出した二乗和Errの中で、最小の二乗和Errを特定したら、収束していると判定する方法がある。
 波面推定部41は、位相の探索処理が収束していなければ(図8のステップST15:NOの場合)、式(2)に示す位相Φ(u,v)を変更し(図8のステップST16)、変更後の位相Φ(u,v)を式(2)に設定する。
 波面推定部26は、ステップST12~ST15の処理を再度実施する。
 変更後の位相Φ(u,v)は、未だ式(2)に設定していない位相であれば、どのような位相でもよいが、差分の二乗和Errが小さくなるような位相であることが望ましい。
 波面推定部41は、位相の探索処理が収束していれば(図8のステップST15:YESの場合)、位相の探索処理を終了する。
 波面推定部41は、位相の探索処理が終了すると、最小の二乗和Errが算出された位相Φ(u,v)を式(3)に代入することで、全体開口における光束2の波面W(u,v)を推定する(図8のステップST17)。
 推定された波面W(u,v)は、ステップST11で算出された概算値としての波面よりも高精度な波面である。
 波面推定部41は、波面W(u,v)を保存装置43に出力する。
 また、波面推定部41は、最小の二乗和Errが算出された位相Φ(u,v)に対応する点広がり関数km,n(x,y)を移動体復元部42に出力する。
 移動体復元部42は、波面推定部41から出力された点広がり関数km,n(x,y)と、第1の光検出器16、第2の光検出器26及び第3の光検出器36から出力されたそれぞれ強度画像が示す移動体1の像im,n(x,y)とから、移動体1の輝度分布o(p,q)を推定する(図3のステップST4)。
 以下、移動体復元部42による移動体1の輝度分布推定処理を具体的に説明する。
 まず、移動体復元部42は、波面推定部41から出力された点広がり関数km,n(x,y)と、それぞれの強度画像が示す移動体1の像im,n(x,y)とを式(16)に代入して、差分rm,n(x,y)を算出する。
 また、移動体復元部42は、差分rm,n(x,y)を式(17)に代入して、差分の二乗和eを算出する(図8のステップST18)。
 ここでは、式(17)に示す重みd(x,y)は、事前に設定された値に固定されていることを想定しているが、移動体復元部42によって変更されるようにしてもよい。
 移動体復元部42は、差分の二乗和eを算出すると、移動体1の輝度分布推定処理が収束しているか否かを判定する(図8のステップST19)。
 移動体1の輝度分布推定処理の収束判定として、例えば、算出した差分の二乗和eが事前に設定されている第2の許容誤差以下であれば、収束していると判定する方法がある。収束していると判定したときの算出した差分の二乗和eは、最小の二乗和eである。第2の許容誤差は、例えば、移動体復元部42の内部メモリ又は保存装置43に格納されているものとする。
 また、移動体1の輝度分布推定処理の収束判定として、例えば、移動体1の輝度分布o(p,q)を変更しながら、事前に設定された回数だけ差分の二乗和eを算出し、算出した二乗和eの中で、最小の二乗和eを特定したら、収束していると判定する方法がある。
 移動体復元部42は、移動体1の輝度分布推定処理が収束していなければ(図8のステップST19:NOの場合)、式(16)に示す移動体1の輝度分布o(p,q)を変更し(図8のステップST20)、ステップST18~ST19の処理を再度実施する。
 変更後の輝度分布o(p,q)は、未だ式(16)に設定していない輝度分布であれば、どのような輝度分布でもよいが、差分の二乗和eが小さくなるような輝度分布であることが望ましい。
 移動体復元部42は、移動体1の輝度分布推定処理が収束していれば(図8のステップST19:YESの場合)、移動体1の輝度分布推定処理結果として、最小の二乗和eが算出された移動体1の輝度分布o(p,q)を保存装置43に出力する(図8のステップST21)。
 以上の実施の形態1は、波面推定部41が、第1の光検出器16、第2の光検出器26及び第3の光検出器36により検出されたそれぞれの集光スポット像の位置から、全体開口における光束の波面の概算値を算出し、概算値を用いて、第1の光検出器16、第2の光検出器26及び第3の光検出器36によりそれぞれ検出された集光スポット像の点像強度分布を算出し、点像強度分布と集光スポット像とから、全体開口における光束の波面を推定するように、波面計測装置3を構成した。したがって、波面計測装置3は、レンズレットアレイなどの高速移動を実現する制御機構を実装することなく、波面を計測することができる。
 以上の実施の形態1は、移動体復元部42が、第1の光検出器16、第2の光検出器26及び第3の光検出器36によりそれぞれ検出された集光スポット像と、波面推定部41により算出された点像強度分布とから、移動体1の輝度分布を推定するように、移動体観測装置を構成した。したがって、移動体観測装置は、移動体1の輝度分布を推定することができる。
実施の形態2.
 実施の形態1の波面計測装置3では、第1の遮光部11、第2の遮光部21及び第3の遮光部31におけるそれぞれの透過領域が、第1の結像光学系12、第2の結像光学系22及び第3の結像光学系32におけるそれぞれの開口よりも僅かに小さい。
 しかし、これは一例に過ぎず、例えば、図10に示すように、透過領域が、図2に示す透過領域よりも狭くてもよい。即ち、開口の一部(部分開口)が透過領域であってもよい。
 図10は、結像光学系の開口よりも、光束2の透過領域が小さい遮光部の一例を示す説明図である。
 また、図11に示すように、開口の一部に、光束2が遮光される遮光領域が含まれていてもよい。
 図11は、開口の一部に、光束2が遮光される遮光領域が含まれている遮光部の一例を示す説明図である。
 また、図12、図13及び図14に示すように、透過領域の形状又は大きさが異なる遮光部が混在していてもよい。
 図12、図13及び図14は、複数の遮光部として、光束の透過領域の形状又は大きさが異なる遮光部が混在している例を示す説明図である。
 透過領域は、大きさが小さい場合、大きい場合と比べて、透過する光束2の光量が少なくなってしまうが、透過する光束2が細くなるため、光検出器により検出される集光スポット像と波面の相関が大きくなる。
 したがって、波面推定部41で実施される波面の推定処理は、透過領域の大きさが小さい場合、透過領域の大きさが大きい場合よりも、早く終了する。
 以下、波面の推定処理の処理時間を短縮することを優先する場合の処理内容を説明する。
 ここでは、透過領域の形状又は大きさが異なる遮光部が混在しているものとする。
 波面推定部41は、推定処理の最初の段階では、複数の光検出器の中で、透過領域の大きさが小さい遮光部と接続されている光検出器ほど、検出された集光スポット像の重みを大きくする。
 波面推定部41が差分の二乗和Errを算出する際に用いるスペクトルIm,n(u,v)についても、対応する集光スポット像の重みが大きくなれば、大きくなる。
 波面推定部41は、波面の推定処理が進んで、収束に近づいてきたら、例えば、全ての光検出器により検出された集光スポット像の重みを均一にする。
 例えば、式(14)に示す差分の二乗和Errが、閾値よりも小さければ、波面推定部41は、収束に近づいてきていると判断することができる。閾値は、例えば、波面推定部41の内部メモリ又は保存装置43に格納されているものとする。閾値>第1の許容誤差である。
 ここでは、波面推定部41が、推定処理の最初の段階では、複数の光検出器の中で、透過領域の大きさが小さい遮光部と接続されている光検出器ほど、検出された集光スポット像の重みを大きくしている。そして、波面の推定処理が進んで、収束に近づいてきたら、波面推定部41が、全ての光検出器により検出された集光スポット像の重みを均一にしている。
 しかし、これは一例に過ぎない。
 波面推定部41は、複数のフレームのうち、奇数フレームでは、透過領域の大きさが小さい遮光部と接続されている光検出器ほど、検出された集光スポット像の重みを大きくする。また、波面推定部41は、偶数フレームでは、全ての光検出器により検出された集光スポット像の重みを均一にするようにしてもよい。
実施の形態3.
 実施の形態3では、第1の光束選択部13、第2の光束選択部23及び第3の光束選択部33を備えている移動体観測装置について説明する。
 図15は、実施の形態3による波面計測装置3を含む移動体観測装置を示す構成図である。図15において、図1と同一符号は同一又は相当部分を示すので説明を省略する。
 第1の光束選択部13は、第1の結像光学系12により集光された光束2から、第1の波長の光束2aを抽出し、光束2aを第1のフォーカス調整レンズ14に出力する。
 第2の光束選択部23は、第2の結像光学系22により集光された光束2から、第2の波長の光束2bを抽出し、光束2bを第2のフォーカス調整レンズ24に出力する。
 第3の光束選択部33は、第3の結像光学系32により集光された光束2から、第3の波長の光束2cを抽出し、光束2cを第3のフォーカス調整レンズ34に出力する。
 第1の波長と第2の波長と第3の波長とは、互いに異なる波長である。
 次に、図15に示す移動体観測装置について説明する。ただし、ここでは、図1に示す移動体観測装置と相違する部分だけを説明する。
 第1の光束選択部13は、第1の結像光学系12を透過してきた光束2を受けると、光束2から、第1の波長の光束2aを抽出し、光束2aを第1のフォーカス調整レンズ14に出力する。
 波面計測装置3が第1の光束選択部13を備えることで、第1の光検出器16の受光面16aには、第1の波長の光束2aが集光される。
 第2の光束選択部23は、第2の結像光学系22を透過してきた光束2を受けると、光束2から、第2の波長の光束2bを抽出し、光束2bを第2のフォーカス調整レンズ24に出力する。
 波面計測装置3が第2の光束選択部23を備えることで、第2の光検出器26の受光面26aには、第2の波長の光束2bが集光される。
 第3の光束選択部33は、第3の結像光学系32を透過してきた光束2を受けると、光束2から、第3の波長の光束2cを抽出し、光束2cを第3のフォーカス調整レンズ34に出力する。
 波面計測装置3が第3の光束選択部33を備えることで、第3の光検出器36の受光面36aには、第3の波長の光束2cが集光される。
 波面計測装置3は、移動体1からの光束2に基づいて、波面を推定するものであり、光束2は、大気の屈折率分布のゆらぎが原因で広がる。
 大気による光束2の散乱は、波長に依存する。例えば、青い光は、散乱しやすく、青い光よりも波長が長い赤い光は、散乱され難いという特徴がある。なお、画像の分解能は、赤い光よりも青い光の方が高い。
 したがって、移動体1からの光束2のうち、青色の光束2は、赤色の光束2よりも、広がりが大きくなる。
 第1の光検出器16が、第1の波長の光束2aから集光スポット像を検出し、第2の光検出器26が、第2の波長の光束2bから集光スポット像を検出し、第3の光検出器36が、第3の波長の光束2cから集光スポット像を検出する場合、式(3)は、以下の式(18)のように表される。
Figure JPOXMLDOC01-appb-I000018
 式(18)において、λの添え字jは、波長を識別する記号である。j=1の場合のλは、第1の波長であり、j=2の場合のλは、第2の波長、j=3の場合のλは、第3の波長である。
 式(18)は、式(3)と同様に、位相Φ(u,v)と、波面W(u,v)との関係を示している。
 波面推定部41は、第1の波長の光束2aから検出された集光スポット像と、第2の波長の光束2bから検出された集光スポット像と、第3の波長の光束2cから検出された集光スポット像との点像強度分布を示す点広がり関数km,n(x,y)を算出する。
 波面推定部41により算出される点広がり関数km,n(x,y)は、複数の集光スポット像の位置の相関だけでなく、光束2a,2b,2cの波長の相関も考慮されて算出されている。
 以下、波面推定部41は、実施の形態1と同様に、点広がり関数km,n(x,y)を用いて、全体開口における光束2の波面W(u,v)を推定する。
 以上の実施の形態3は、第1の光束選択部13、第2の光束選択部23及び第3の光束選択部33を備えるように、波面計測装置3を構成した。したがって、実施の形態3の波面計測装置3は、波面の推定に用いる情報として、波長の情報も利用するため、実施の形態1の波面計測装置3での波面の推定精度よりも向上する。
実施の形態4.
 実施の形態1の波面計測装置3では、制御装置53が、第1のフォーカス調整レンズ14、第2のフォーカス調整レンズ24及び第3のフォーカス調整レンズ34におけるそれぞれの光路長の調整量を制御している。
 具体的には、制御装置53は、第1の光検出器16、第2の光検出器26及び第3の光検出器36におけるそれぞれの受光面16a,26a,36aにおいて、光束2の焦点が合うように、光路長の調整量を制御している。
 実施の形態4では、第1のフォーカス調整レンズ14、第2のフォーカス調整レンズ24及び第3のフォーカス調整レンズ34に対する制御が、図1に示す制御装置53と異なる制御装置70を備える波面計測装置3について説明する。
 図16は、実施の形態4による波面計測装置3を含む移動体観測装置を示す構成図である。図16において、図1及び図15と同一符号は同一又は相当部分を示すので説明を省略する。
 制御装置70は、パーソナルコンピュータなどの計算機によって実現される。
 制御装置70は、カウンタ52により計測された経過時間に基づいて、第1のフォーカス調整レンズ14、第2のフォーカス調整レンズ24及び第3のフォーカス調整レンズ34のそれぞれを制御する。
 このとき、制御装置70は、第1の光検出器16の受光面16aにおいて、光束2aの焦点が合うように、第1のフォーカス調整レンズ14を制御する。以下、焦点が合っている光束2aを「フォーカス状態の光束2a」と称する。
 また、制御装置70は、第2の光検出器26の受光面26aにおいて、光束2bの焦点がずれるように、第2のフォーカス調整レンズ24を制御する。以下、焦点がずれている光束2bを「デフォーカス状態の光束2b」と称する。
 また、制御装置70は、第3の光検出器36の受光面36aにおいて、光束2cの焦点がずれるように、第3のフォーカス調整レンズ34を制御する。以下、焦点がずれている光束2cを「デフォーカス状態の光束2c」と称する。なお、光束2cの焦点ずれは、光束2bの焦点ずれよりも大きいものとする。
 制御装置70は、図1に示す制御装置53と同様に、カウンタ52により計測された経過時間に基づいて、第1のシャッタ15、第2のシャッタ25及び第3のシャッタ35のそれぞれを制御する。
 また、制御装置70は、図1に示す制御装置53と同様に、カウンタ52により計測された経過時間に基づいて、第1の光検出器16、第2の光検出器26及び第3の光検出器36のそれぞれを制御する。
 図16は、制御装置70が図15に示す移動体観測装置に適用されているが、図1に示す移動体観測装置に適用されているものであってもよい。
 次に、図16に示す移動体観測装置について説明する。ただし、ここでは、図1及び図15に示す移動体観測装置と相違する部分だけを説明する。
 制御装置70は、第1の光検出器16の受光面16aにおいて、光束2aの焦点が合うように、第1のフォーカス調整レンズ14を制御する。
 また、制御装置70は、第2の光検出器26の受光面26a及び第3の光検出器36の受光面36aのそれぞれにおいて、光束2b,2cの焦点がずれるように、第2のフォーカス調整レンズ24及び第3のフォーカス調整レンズ34のそれぞれを制御する。
 制御装置70の制御によって、第1の光検出器16は、フォーカス状態の光束2aから集光スポット像を検出し、第2の光検出器26は、デフォーカス状態の光束2bから集光スポット像を検出する。
 また、第3の光検出器36は、デフォーカス状態の光束2cから集光スポット像を検出する。
 波面推定部41は、フォーカス状態の光束2aから検出された集光スポット像と、デフォーカス状態の光束2b,2cから検出されたそれぞれの集光スポット像との点像強度分布を示す点広がり関数km,n(x,y)を算出する。
 波面推定部41により算出される点広がり関数km,n(x,y)は、複数の集光スポット像の位置の相関だけでなく、焦点のずれに対応する収差も考慮されて算出されている。
 以下、波面推定部41は、実施の形態1と同様に、点広がり関数km,n(x,y)を用いて、全体開口における光束2の波面W(u,v)を推定する。
 実施の形態4の波面計測装置3は、波面の推定に用いる情報として、収差の情報も利用するため、実施の形態1の波面計測装置3での波面の推定精度よりも向上する。
実施の形態5.
 実施の形態5では、移動体復元部80が、移動体1が存在している領域内の集光スポット像と点像強度分布とから、移動体1の輝度分布を推定する移動体観測装置について説明する。
 図17は、実施の形態5による波面計測装置3を含む移動体観測装置を示す構成図である。図17において、図1、図15及び図16と同一符号は同一又は相当部分を示すので説明を省略する。
 移動体復元部80は、パーソナルコンピュータなどの計算機、あるいは、波面推定回路などによって実現される。
 移動体復元部80は、第1の光検出器16、第2の光検出器26及び第3の光検出器36のうち、基準波長より長い波長の光束を抽出する光束選択部が接続されている光検出器により検出された複数の集光スポット像から、移動体が存在している領域を検出する。
 移動体復元部80は、移動体1が存在している領域内の集光スポット像と点像強度分布とから、移動体1の輝度分布を推定する処理を実施する。
 基準波長は、例えば、橙色の波長であり、基準波長の情報は、移動体復元部80の内部又は保存装置43に格納されている。
 図17は、移動体復元部80が図16に示す移動体観測装置に適用されているが、図15に示す移動体観測装置に適用されているものであってもよい。
 次に、図17に示す移動体観測装置について説明する。ただし、ここでは、図15及び図16に示す移動体観測装置と相違する部分だけを説明する。
 第1の光検出器16は、第1の波長の光束2aから集光スポット像を検出しており、第2の光検出器26は、第2の波長の光束2bから集光スポット像を検出している。また、第3の光検出器36は、第3の波長の光束2cから集光スポット像を検出している。
 第1の波長の光束2aは、第2の波長の光束2bよりも広がりが小さい光束であり、例えば、赤色の光束であるとする。
 第2の波長の光束2bは、第3の波長の光束2cよりも広がりが小さい光束であり、例えば、黄色の光束であるとする。
 第3の波長の光束2cは、例えば、青色の光束であるとする。第1の波長>第2の波長>第3の波長である。
 赤色の光束は、黄色又は青色などの光束よりも、散乱の影響を受け難いが、強度画像の分解能が低い。
 図17に示す移動体観測装置は、3つの波面センサを備えている。実施の形態5では、移動体観測装置が、波面センサ10-1、波面センサ10-2及び波面センサ10-3だけでなく、例えば、数百個の波面センサを備えているものとして説明する。
 移動体復元部80は、数百個の波面センサに含まれている光検出器により検出された集光スポット像のうち、移動体1が存在している領域内の集光スポット像と点像強度分布とから、移動体1の輝度分布を推定する。
 以下、移動体復元部80による移動体1の輝度分布推定処理を具体的に説明する。
 図18は、移動体復元部80による移動体1の輝度分布推定処理を示す説明図である。
 図18において、強度画像111は、基準波長より長い波長の光束を抽出する光束選択部が接続されている光検出器により検出された複数の集光スポット像を示す強度画像である。
 強度画像112は、基準波長以下の波長の光束を抽出する光束選択部が接続されている光検出器により検出された複数の集光スポット像を示す強度画像である。
 強度画像112は、散乱の影響を受け易いため、強度画像112に映っている移動体1の像は、強度画像111に映っている移動体1の像よりも広がりが大きくなっている。ただし、強度画像112は、強度画像111よりも分解能が高い画像である。
 まず、移動体復元部80は、数百個の波面センサに含まれている光検出器により検出された集光スポット像の中から、基準波長より長い波長の光束を抽出する光束選択部が接続されている光検出器により検出された複数の集光スポット像を選択する。
 移動体復元部80は、選択した複数の集光スポット像が示す強度画像111から、移動体1の輪郭を抽出する輪郭抽出処理を実施する。輪郭抽出処理自体は、公知の技術であるため詳細な説明を省略する。
 移動体復元部80は、抽出した輪郭の内側の領域を移動体1が存在している領域とし、輪郭の外側の領域を移動体1が存在していない領域とする。
 次に、移動体復元部80は、図18に示すように、移動体1が存在している領域を包含する領域のみが、移動体1の輝度分布推定処理に用いる処理対象領域である旨を示すマスク画像113を生成する。
 処理対象領域は、移動体1が存在している領域を包含する領域であり、処理対象領域は、移動体1が存在している領域と一致する領域であってもよいし、移動体1が存在している領域も大きい領域であってもよい。移動体1が存在している領域も大きい領域としては、移動体1の影に対応するマージンだけ、抽出した移動体1の輪郭よりも大きい領域などが考えられる。マージンとしては、例えば、移動体1が存在している領域の約10%の大きさが考えられる。
 移動体復元部80は、強度画像112から、マスク画像113における処理対象領域内の移動体1の像im,n(x,y)を抽出する。図18に示す強度画像114は、強度画像112から抽出された処理対象領域内の移動体1の像im,n(x,y)を示す強度画像である。
 移動体復元部80は、処理対象領域に含まれている1つ以上の移動体1の像im,n(x,y)の中から、1つの移動体1の像im,n(x,y)を選択する。
 移動体復元部80は、選択した移動体1の像im,n(x,y)と、選択した移動体1の像im,n(x,y)に対応する点広がり関数km,n(x,y)とを式(16)に代入して、差分rm,n(x,y)を算出する。
 移動体復元部80は、処理対象領域に含まれている1以上の移動体1の像im,n(x,y)をすべて選択して、差分rm,n(x,y)の算出が終了するまで、上記の処理を繰り返し実施する。
 移動体復元部80は、算出した全ての差分rm,n(x,y)を式(17)に代入して、差分の二乗和eを算出する(図8のステップST18)。
 式(17)において、処理対象領域内の差分rm,n(x,y)に対応する重みd(x,y)を1とし、処理対象領域外の差分rm,n(x,y)に対応する重みd(x,y)を0とする。
 移動体復元部80は、差分の二乗和eを算出すると、図1に示す移動体復元部42と同様に、移動体1の輝度分布推定処理が収束するまで、輝度分布推定処理を繰り返し実施する。
 移動体復元部80は、移動体1の輝度分布推定処理が収束すると、最小の二乗和eが算出された移動体1の輝度分布o(p,q)を保存装置30に出力する。
 以上の実施の形態5は、移動体復元部80が、複数の光検出器により検出された集光スポット像から、移動体が存在している領域を検出する。そして、移動体復元部80が、複数の光検出器により検出された集光スポット像のうち、移動体1が存在している領域内の集光スポット像と点像強度分布とから、移動体1の輝度分布を推定するように、移動体観測装置を構成した。したがって、移動体観測装置は、移動体1の輝度分布を推定する際に、移動体が存在していない領域の集光スポット像を処理対象から除外することができるため、図15及び図16に示す移動体観測装置よりも、移動体1の輝度分布推定処理の負荷を軽減することができる。
 なお、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。
 この発明は、複数の結像光学系の開口の全てを含む全体開口における光束の波面を推定する波面計測装置及び波面計測方法に適している。
 また、この発明は、移動体の輝度分布を推定する移動体観測装置に適している。
 1 移動体、2,2a,2b,2c 光束、3 波面計測装置、4,5,6 光束、10-1 波面センサ、10-2 波面センサ、10-3 波面センサ、11 第1の遮光部、12 第1の結像光学系、13 第1の光束選択部、14 第1のフォーカス調整レンズ、15 第1のシャッタ、16 第1の光検出器、16a 第1の光検出器の受光面、21 第2の遮光部、22 第2の結像光学系、23 第2の光束選択部、24 第2のフォーカス調整レンズ、25 第2のシャッタ、26 第2の光検出器、26a 第2の光検出器の受光面、31 第3の遮光部、32 第3の結像光学系、33 第3の光束選択部、34 第3のフォーカス調整レンズ、35 第3のシャッタ、36 第3の光検出器、36a 第3の光検出器の受光面、41 波面推定部、42 移動体復元部、43 保存装置、51 時刻校正部、52 カウンタ、53 制御装置、54 駆動装置、61,62 筐体、70 制御装置、80 移動体復元部、101 第1の大気層、102 第2の大気層、103 第3の大気層、104,105,105a,105b 移動体1の像、106a,106b 波面、111,112,114 強度画像、113 マスク画像。

Claims (9)

  1.  互いに異なる位置に配置されており、移動体に反射された光束又は前記移動体から送信された光束を集光する複数の結像光学系と、
     前記複数の結像光学系により集光されたそれぞれの光束から、前記移動体の像として、集光スポット像を検出する複数の光検出器と、
     前記複数の光検出器により検出された集光スポット像の位置から、前記複数の結像光学系の開口の全てを含む全体開口における光束の波面の概算値を算出し、前記概算値を用いて、前記複数の光検出器により検出された集光スポット像の点像強度分布を算出し、前記点像強度分布と前記集光スポット像とから、前記全体開口における光束の波面を推定する波面推定部と
     を備えた波面計測装置。
  2.  前記移動体に反射された光束又は前記移動体から送信された光束の一部を遮光する複数の遮光部を備え、
     前記複数の遮光部のそれぞれは、それぞれの結像光学系の入力側又は出力側に配置されていることを特徴とする請求項1記載の波面計測装置。
  3.  前記複数の遮光部おける光束の透過領域は、形状及び大きさのそれぞれが同じであることを特徴とする請求項2記載の波面計測装置。
  4.  前記複数の遮光部として、光束の透過領域の形状又は大きさが異なる遮光部が混在していることを特徴とする請求項2記載の波面計測装置。
  5.  前記複数の結像光学系により集光されたそれぞれの光束から、互いに異なる波長の光束を抽出し、互いに異なる波長のそれぞれの光束をそれぞれの光検出器に出力する複数の光束選択部を備えたことを特徴とする請求項1記載の波面計測装置。
  6.  前記複数の結像光学系により集光されたそれぞれの光束の光路長を、互いに異なる光路長に調整し、光路長調整後のそれぞれの光束をそれぞれの光検出器に出力する複数のフォーカス調整レンズを備えたことを特徴とする請求項1記載の波面計測装置。
  7.  互いに異なる位置に配置されている複数の結像光学系が、移動体に反射された光束又は前記移動体から送信された光束を集光し、
     複数の光検出器が、前記複数の結像光学系により集光されたそれぞれの光束から、前記移動体の像として、集光スポット像を検出し、
     波面推定部が、前記複数の光検出器により検出された集光スポット像の位置から、前記複数の結像光学系の開口の全てを含む全体開口における光束の波面の概算値を算出し、前記概算値を用いて、前記複数の光検出器により検出された集光スポット像の点像強度分布を算出し、前記点像強度分布と前記集光スポット像とから、前記全体開口における光束の波面を推定する
     波面計測方法。
  8.  互いに異なる位置に配置されており、移動体に反射された光束又は前記移動体から送信された光束を集光する複数の結像光学系と、
     前記複数の結像光学系により集光されたそれぞれの光束から、前記移動体の像として、集光スポット像を検出する複数の光検出器と、
     前記複数の光検出器により検出された集光スポット像の位置から、前記複数の結像光学系の開口の全てを含む全体開口における光束の波面の概算値を算出し、前記概算値を用いて、前記複数の光検出器により検出された集光スポット像の点像強度分布を算出し、前記点像強度分布と前記集光スポット像とから、前記全体開口における光束の波面を推定する波面推定部と、
     前記複数の光検出器により検出された集光スポット像と、前記波面推定部により推定された点像強度分布とから、前記移動体の輝度分布を推定する移動体復元部と
     を備えた移動体観測装置。
  9.  前記複数の結像光学系により集光されたそれぞれの光束から、互いに異なる波長の光束を抽出し、互いに異なる波長のそれぞれの光束をそれぞれの光検出器に出力する複数の光束選択部を備え、
     前記移動体復元部は、
     前記複数の光検出器により検出された集光スポット像から、前記移動体が存在している領域を検出し、前記複数の光検出器により検出された集光スポット像のうち、前記移動体が存在している領域内の集光スポット像と、前記波面推定部により算出された点像強度分布とから、前記移動体の輝度分布を推定することを特徴とする請求項8記載の移動体観測装置。
PCT/JP2018/019367 2018-05-18 2018-05-18 波面計測装置、波面計測方法及び移動体観測装置 WO2019220640A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2018/019367 WO2019220640A1 (ja) 2018-05-18 2018-05-18 波面計測装置、波面計測方法及び移動体観測装置
JP2018552263A JP6509456B1 (ja) 2018-05-18 2018-05-18 波面計測装置、波面計測方法及び移動体観測装置、移動体観測方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/019367 WO2019220640A1 (ja) 2018-05-18 2018-05-18 波面計測装置、波面計測方法及び移動体観測装置

Publications (1)

Publication Number Publication Date
WO2019220640A1 true WO2019220640A1 (ja) 2019-11-21

Family

ID=66429957

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/019367 WO2019220640A1 (ja) 2018-05-18 2018-05-18 波面計測装置、波面計測方法及び移動体観測装置

Country Status (2)

Country Link
JP (1) JP6509456B1 (ja)
WO (1) WO2019220640A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022038459A (ja) * 2020-08-26 2022-03-10 三菱電機株式会社 宇宙状況監視事業装置、宇宙状況監視システム、監視装置、および、地上設備

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6833104B1 (ja) * 2019-09-13 2021-02-24 三菱電機株式会社 波面計測装置及び波面計測方法
WO2021049007A1 (ja) * 2019-09-13 2021-03-18 三菱電機株式会社 波面計測装置及び波面計測方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0915057A (ja) * 1995-06-26 1997-01-17 Mitsubishi Electric Corp 波面センサ並びに波面計測方法
JP2005331440A (ja) * 2004-05-21 2005-12-02 Rikogaku Shinkokai 光位相分布測定方法及び測定システム
US20070216867A1 (en) * 2006-03-14 2007-09-20 Visx, Incorporated Shack-Hartmann based integrated autorefraction and wavefront measurements of the eye
JP2011247687A (ja) * 2010-05-25 2011-12-08 Canon Inc 屈折率分布計測方法および屈折率分布計測装置
JP2015055544A (ja) * 2013-09-11 2015-03-23 キヤノン株式会社 波面計測装置、波面計測方法、光学素子の製造方法、および、光学システムの組み立て調整装置
JP2015523105A (ja) * 2012-04-30 2015-08-13 クラリティ メディカル システムズ インコーポレイテッド 並行サンプリングおよびロックイン検出モードで作動する眼科用波面センサ

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0915057A (ja) * 1995-06-26 1997-01-17 Mitsubishi Electric Corp 波面センサ並びに波面計測方法
JP2005331440A (ja) * 2004-05-21 2005-12-02 Rikogaku Shinkokai 光位相分布測定方法及び測定システム
US20070216867A1 (en) * 2006-03-14 2007-09-20 Visx, Incorporated Shack-Hartmann based integrated autorefraction and wavefront measurements of the eye
JP2011247687A (ja) * 2010-05-25 2011-12-08 Canon Inc 屈折率分布計測方法および屈折率分布計測装置
JP2015523105A (ja) * 2012-04-30 2015-08-13 クラリティ メディカル システムズ インコーポレイテッド 並行サンプリングおよびロックイン検出モードで作動する眼科用波面センサ
JP2015055544A (ja) * 2013-09-11 2015-03-23 キヤノン株式会社 波面計測装置、波面計測方法、光学素子の製造方法、および、光学システムの組み立て調整装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022038459A (ja) * 2020-08-26 2022-03-10 三菱電機株式会社 宇宙状況監視事業装置、宇宙状況監視システム、監視装置、および、地上設備
JP7394724B2 (ja) 2020-08-26 2023-12-08 三菱電機株式会社 宇宙状況監視事業装置、宇宙状況監視システム、監視装置、および、地上設備

Also Published As

Publication number Publication date
JP6509456B1 (ja) 2019-05-08
JPWO2019220640A1 (ja) 2020-05-28

Similar Documents

Publication Publication Date Title
US7957608B2 (en) Image correction across multiple spectral regimes
US8355536B2 (en) Passive electro-optical tracker
US20070077071A1 (en) System for measuring atmospheric turbulence
US10502951B2 (en) High-performance beam director for high-power laser systems or other systems
WO2019220640A1 (ja) 波面計測装置、波面計測方法及び移動体観測装置
US20110261193A1 (en) Passive electro-optical tracker
US5350911A (en) Wavefront error estimation derived from observation of arbitrary unknown extended scenes
US20190003828A1 (en) Sensor imager and laser alignment system
US6396588B1 (en) Hybrid curvature-tilt wave front sensor
Belen'kii Tilt angular correlation and tilt sensing techniques with a laser guide star
US9195071B2 (en) Speckle jitter sensor
JP6494885B1 (ja) 波面計測装置、波面計測方法及び移動体観測装置、移動体観測方法
US20230055616A1 (en) Rayleigh-raman polychromatic laser guide star
JP6771697B2 (ja) 移動体観測装置及び移動体観測方法
RU2442109C1 (ru) Углоизмерительный звездный прибор
Mudge et al. Near-infrared simultaneous Stokes imaging polarimeter: integration, field acquisitions, and instrument error estimation
O'Neill et al. RGB wavefront sensor for turbulence mitigation
Hickson et al. Single-image wavefront curvature sensing
O’Neill et al. Portable COTS RGB wavefront sensor
CA2826294C (en) Optic instrument with wavefront analyser
JP2010243158A (ja) 波面計測装置
RU2312372C2 (ru) Устройство для обнаружения и диагностирования источников оптического излучения
O'Neill et al. Portable COTS RGB Wavefront System for Real-time Turbulence Mitigation
Roberts et al. Aperture sharing between low-background infrared sensors and ladar sensors
Tokovinin DIMM 2-pager

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2018552263

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18918495

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18918495

Country of ref document: EP

Kind code of ref document: A1