WO2018147473A1 - 3次元物体情報計測装置 - Google Patents

3次元物体情報計測装置 Download PDF

Info

Publication number
WO2018147473A1
WO2018147473A1 PCT/JP2018/005604 JP2018005604W WO2018147473A1 WO 2018147473 A1 WO2018147473 A1 WO 2018147473A1 JP 2018005604 W JP2018005604 W JP 2018005604W WO 2018147473 A1 WO2018147473 A1 WO 2018147473A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
phase
interference
image
unit
Prior art date
Application number
PCT/JP2018/005604
Other languages
English (en)
French (fr)
Inventor
安浩 粟辻
将人 篠村
Original Assignee
国立大学法人京都工芸繊維大学
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 国立大学法人京都工芸繊維大学 filed Critical 国立大学法人京都工芸繊維大学
Priority to JP2018567549A priority Critical patent/JP6995376B2/ja
Publication of WO2018147473A1 publication Critical patent/WO2018147473A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B9/00Measuring instruments characterised by the use of optical techniques
    • G01B9/02Interferometers
    • G01B9/021Interferometers using holographic techniques
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/30Polarising elements
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H1/00Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
    • G03H1/04Processes or apparatus for producing holograms
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H1/00Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
    • G03H1/22Processes or apparatus for obtaining an optical image from holograms

Definitions

  • the present invention relates to a measuring apparatus that measures complex amplitude information or phase information of light, which is three-dimensional structure information of an object, and in particular shearing that divides object light arriving from an object into two lights that are out of wavefront and interfere with each other.
  • the present invention relates to a three-dimensional object information measuring apparatus using an interferometer.
  • the complex amplitude information and phase information of the light of the object is very useful for knowing phenomena such as the structure and deformation of the object as important three-dimensional information.
  • complex amplitude measurement of fluorescent objects or objects illuminated with natural light or heat from a light source is important for applications such as precise shape measurement of products, observation of biological dynamics, and imaging of internal structures of living organisms.
  • it is also important to obtain 3D shape information of the object structure such as thickness distribution and refractive index of the object, and optical measurement technology with features such as non-invasive, non-contact, high sensitivity and parallel processing is indispensable It has become.
  • phase information is important as three-dimensional information, and it is required to accurately measure the wavefront of laser emitted light, and to measure the wavefront of transmitted light in order to grasp information on the structure of a transparent object.
  • wavefront information phase information
  • the phase information can accurately measure the shape of the surface of the object.
  • FIG. 19 shows an optical system using a holographic device.
  • light object irradiation light
  • reference light for irradiating a measurement target 100 with laser light emitted from a laser light source 51, which is a highly coherent light source, are used.
  • the object irradiation light is irradiated to the measurement object 100 through the objective lens 53a, the lens 54a, and the mirror 55a.
  • Object light that is reflected light from the measurement object 100 enters the CCD camera 57 via the beam splitter 56.
  • the reference light enters the CCD camera 57 via a path where the measurement target 100 does not exist, specifically, the mirror 55b, the objective lens 53b, the lens 54b, the mirror 55c, and the beam splitter 56.
  • the CCD camera 57 captures an interference fringe between the reference light and the object light, and the computer performs a predetermined calculation based on the interference fringe so that complex amplitude information (intensity information and phase information) of the measurement target 100 is obtained. Is obtained.
  • interference fringes are produced by irradiating the image sensor of the CCD camera 57 with reference light at a right angle. Therefore, the reproduced image obtained by Fresnel transforming the interference fringes overlaps not only the necessary + 1st order diffracted image but also the unnecessary 0th order diffracted image and ⁇ 1st order diffracted image, making it difficult to obtain a clear reproduced image. It has become. Therefore, a phase shift digital holography device that shifts the phase of the reference light in a plurality of stages has been proposed in order to obtain a clear reproduced image without the 0th-order diffraction image or the ⁇ 1st-order diffraction image (Patent Document 1).
  • phase shift digital holography device has been proposed in which the phase of the reference light is shifted in three steps or four steps using a piezoelectric element. Further, a phase shift digital holography device using a phase plate has been proposed as a method for shifting the phase of the reference light.
  • phase of the reference light is changed by, for example, ⁇ / 2 [rad], and a plurality of interference fringes are recorded in the CCD camera 57.
  • a plurality of interference fringes are required, there is a problem that a phenomenon that occurs at a high speed cannot be recorded and reproduced when the movement of the object is fast or when the minute shape changes rapidly.
  • Patent Document 2 in order to solve the above problem, a phase obtained by causing a plurality of reference lights having different phase values to interfere with object light emitted from a subject irradiated with the light.
  • a digital holography device including a reproduction image generation unit that generates a reproduction image of a subject based on distribution data. That is, the phase distribution data generated by causing the reference light group and the object light to interfere with the phase shift element that converts the incident light into a reference light group composed of a plurality of reference lights having different phase values and emits the reference light group.
  • the reproduction image generating unit generates a reproduction image of the subject based on the information of the phase distribution data.
  • a plurality of reference beams having different phase values can be obtained simultaneously from incident light.
  • the phase distribution data obtained by causing the reference light group composed of a plurality of reference lights and the object light to interfere with each other is in a state where data in which the reference light of each phase value interferes with the object light is mixed. Therefore, if the information of the phase distribution data is used, a plurality of data in which the reference light and the object light having different phase values interfere with each other can be obtained, so information necessary for obtaining a clear reproduction image Can be obtained instantly. Therefore, real-time observation of a subject such as a moving subject or an instantaneous image deformation of the subject can be realized.
  • Non-Patent Document 1 and Non-Patent Document 2 show self-interference measurements using low-coherence light such as natural light, fluorescence, and light from a thermal light source without using a highly coherent light source such as laser light. There is an interferometry.
  • FIG. 20 is a schematic configuration diagram of the measuring device 60 described in Non-Patent Document 1.
  • a spatial light modulator (SLM) 61 is used to generate two types of light waves on the same optical path, and the fringes generated as a result of interference between them are recorded. It is necessary to record sequentially by changing the pattern to be performed.
  • SLM spatial light modulator
  • the measuring device 60 can be simplified, a diffractive optical element such as the SLM 61 is used, so that the diffraction efficiency is lowered and the reproduced image is deteriorated.
  • a multiple image formed to form a multiple image by diffraction. Have aberrations and image distortion, and because of the sequential recording system, it is impossible to realize real-time observation of subjects such as moving subjects and subjects that instantly deform. .
  • Non-Patent Document 3 proposes a method of dividing a light wave into two and tilting one wavefront of the light wave in order to reproduce an image by one recording.
  • it is necessary to increase the coherence using a narrow band-pass filter in order to tilt one light wave.
  • the two light waves pass through different optical paths when the light waves are divided into two, there is a problem that they are easily affected by external disturbances such as vibration.
  • Non-Patent Document 4 proposes a method of using a lens having polarization characteristics in order to reproduce an image by one recording.
  • this method theoretically requires a special lens having polarization characteristics, but it is difficult to actually realize this element, and even if it is realized, there is a problem that it is very expensive.
  • Non-Patent Document 5 also reports a technique for generating an image by generating two light waves with different polarizations and performing phase shift using a Pockels cell. There is a problem that it is not possible to measure a dynamic object because it is poor in performance and needs to be recorded sequentially.
  • Non-Patent Document 6 a radial shearing interferometer that can measure a plurality of interference images with one shot using polarized light has been proposed.
  • Non-Patent Document 6 has a very large number of optical elements necessary for the interferometer, and is complicated and difficult to adjust. Also, the optical system becomes large and is small and inexpensive. There is a problem that practical application is difficult.
  • Non-Patent Document 7 a technique for measuring a wavefront with a simpler interferometer by using a diffraction element has been reported (Non-Patent Document 7). Since this apparatus uses a diffractive element instead of requiring a complicated interferometer, it is greatly affected by the diffractive element, and the diffraction efficiency differs depending on the polarization direction, resulting in degradation of the reproduced image. Further, since the optical path is divided into two, there is a problem that it is easily affected by disturbance.
  • Non-patent Document 8 a wavefront measurement technique has been proposed in which two Sagnac interferometers, which are relatively simple interferometers, are used without requiring a diffraction element.
  • Non-patent Document 8 a wavefront measurement technique has been proposed in which two Sagnac interferometers, which are relatively simple interferometers, are used without requiring a diffraction element.
  • sequential recording is required, it is greatly affected by vibrations, and there is a problem that wavefront measurement cannot be performed instantaneously.
  • N. I. T.A. Arelano, D.M. I. S. Garcia, A .; M.M. Garcia, G .; R. Zurita, A .; M.M. Perez, J .; M.M. M.M. Gomez, G.M. R. Lopez, A.M. G. Rosas, and L. G. Lechuga, Rev. Mex. Fis. 58, 335 (2012).
  • N. I. T.A. Arelano, D.M. I. S. Garcia, and A.M. M.M. Garcia, Opt. Exp. 21, 31983 (2013).
  • the present invention has been made to solve the various problems described above, ⁇ It is possible to obtain three-dimensional object information of an object using an object that emits light by fluorescence or the like, an object illuminated with natural light or light from a thermal light source, or a coherent light source such as a laser beam.
  • the optical element group is simple and readily available, and the arrangement of the optical elements is simple.
  • ⁇ Strong against external disturbances ⁇ Structure of moving objects, or complex amplitude information (such as intensity information It is an object to provide a three-dimensional object information measuring apparatus capable of measuring phase information) or phase information at high speed.
  • the three-dimensional object information measuring apparatus is A linear polarization converter that converts object light coming from an object into linearly polarized light; A shearing interferometer for causing shearing interference of the object light converted into linearly polarized light; A circular polarization conversion unit that converts vertical polarization and horizontal polarization of interference light by the shearing interferometer into circular polarization; An interference fringe acquisition unit for recording the circularly polarized light by one-time photographing; A calculation unit for calculating complex amplitude information of the object from a recorded image of the interference fringe acquisition unit; A three-dimensional object information measuring device comprising: In the recorded image, the phase differs depending on the pixel, The calculator is An extraction unit that extracts pixels for each phase from the recorded image and generates a plurality of extraction data composed of pixels having the same phase and pixels with missing pixel values; An interpolation unit that generates a plurality of interpolation data approximated to a plurality of interference images having different phases by performing pixel interpolation on each of
  • the shearing interferometer may be a radial shearing interferometer.
  • the radial shearing interferometer is The light incident from the linearly polarized light conversion unit is divided into two, and among the two divided light, one re-incident light and the other re-entered by traveling in the same optical path as the one light.
  • a polarization beam splitting element that couples the light of Two lenses disposed in the optical path and having different focal lengths; With The light combined by the polarization beam splitting element may be output as the interference light.
  • the interference fringe acquisition unit A polarizer array having a plurality of types of polarization regions having different polarization directions and phase shift amounts of incident light;
  • An imaging device coupled to the polarizer array and having a one-to-one correspondence with each of the polarization regions; May be a polarizer array type imaging device.
  • the object light is Fourier transformed light
  • the shearing interferometer causes the Fourier planes of the object light to interfere with each other
  • the interference fringe acquisition unit records the circularly polarized interference fringes
  • the calculation unit may calculate the complex amplitude information by obtaining a complex amplitude of a spatial coherence function from the plurality of interpolation data using a phase shift method and performing inverse Fourier transform.
  • the object light is light in which coherent light is reflected or transmitted through the object
  • the shearing interferometer causes the object beams to interfere with each other
  • the interference fringe acquisition unit records the circularly polarized interference fringes
  • the arithmetic unit obtains a phase difference image of the interference light from the plurality of interpolation data using a phase shift method, and reconstructs the phase difference image with reference to a Zernike polynomial, a Legendre polynomial, or a central portion.
  • the phase image may be calculated by reconstructing the wavefront by applying this method.
  • the apparatus can be configured with simple components, optical adjustment is easy, robustness against external disturbances, complex amplitude information such as a moving object or an object whose shape changes, or light It is possible to provide a three-dimensional object information measuring device capable of instantaneously measuring three-dimensional information such as a wavefront (phase image information).
  • FIG. 1 is a schematic configuration diagram of a three-dimensional object information measuring apparatus according to a first embodiment of the present invention. It is explanatory drawing of the optical path in the three-dimensional object information measuring device shown in FIG. (A) is a side view which shows the structure of the interference fringe acquisition part of the said three-dimensional object information measuring device, (b) is a top view of the polarizer array of this interference fringe acquisition part, (c) is FIG. 3 is a plan view of an imaging surface of the interference fringe acquisition unit.
  • (A)-(e) is a figure for demonstrating the process which acquires a reproduced image from the recording image which the interference fringe acquisition part acquired. It is a schematic block diagram which shows the aspect in which a three-dimensional object information measuring device measures the reflective object illuminated with the light source. It is a schematic block diagram which shows the aspect in which a three-dimensional object information measuring device measures the transmission object illuminated with the light source. It is a schematic block diagram which shows the aspect in which a three-dimensional object information measuring device measures a celestial body. It is a schematic block diagram of the three-dimensional object information measuring device which concerns on the modification of the 1st Embodiment of this invention.
  • FIG. 1 is a schematic configuration diagram of a three-dimensional object information measuring apparatus according to Embodiment 1 of the present invention.
  • A is a photograph of the LED that is the subject in Example 1
  • (b) is an enlarged photograph of the LED
  • (c) is a photograph of the LED that is lit.
  • A) is a recorded image acquired by the interference fringe acquisition unit imaging the interference light at a time in Example 1, and (b) is four images generated from the recorded image
  • (c) ) Is a spatial coherence function image obtained from four images.
  • (A) and (b) are reproduction images of amplitude and phase obtained from the spatial coherence function image shown in FIG.
  • (A) is a schematic block diagram of the three-dimensional object information measuring device based on Example 2 of this invention
  • (b) is a photograph of an amplitude mask.
  • (A) and (b) are an amplitude image and a phase image, respectively, of the reproduced image focused on the amplitude mask in the second embodiment.
  • (A) and (b) are an amplitude image and a phase image, respectively, of a reproduced image focused on the LED in the second embodiment.
  • It is explanatory drawing which shows the principle of the three-dimensional object information measuring device which concerns on the 2nd Embodiment of this invention.
  • FIG. 3 is a plan view of an imaging surface of the interference fringe acquisition unit. It is a functional block diagram of the computer of the said three-dimensional object information measuring device.
  • (A)-(e) is a figure for demonstrating the process which acquires a reproduced image from the recording image which the interference fringe acquisition part acquired. It is a schematic block diagram of the three-dimensional object information measuring device which concerns on the modification of the 2nd Embodiment of this invention. It is a schematic block diagram of the three-dimensional object information measuring device which concerns on Example 3 of this invention.
  • (A) And (b) is the amplitude image and phase image of the virtual light wave in an Example, respectively.
  • (A) is the phase image acquired when the interference fringe acquisition part imaged the interference light at once in Example 3, and (b) was acquired by imaging the interference light sequentially as in the conventional method. It is a phase image.
  • the present invention obtains complex amplitude information or phase information by dividing object light arriving from an object into two lights whose wavefronts are shifted, causing them to interfere with each other using a shearing interferometer, and calculating an interference fringe image. This is a three-dimensional object information measuring device.
  • an apparatus for measuring complex amplitude information will be described. As shown in FIG.
  • a Fourier plane created through a lens is divided into two parts on a subject, the wave fronts are shifted by a method such as enlarging and reducing each of the divided parts, and they are superimposed to obtain interference light. .
  • a plurality of (preferably three or more) interference fringe images having different phases are recorded from the interference light by the phase shift method, and a spatial coherence function of the Fourier plane of the subject is obtained by calculation processing to obtain the three-dimensional structure of the subject.
  • an interference image is captured at a time by an interference fringe acquisition unit, and a plurality of interference fringe images having different phases are formed from the captured interference images, thereby instantly acquiring complex amplitude information of a subject. It is characterized by doing.
  • a plurality of (preferably three or more) interference fringe images having different phases are required.
  • the plurality of images are acquired at a time.
  • an acquisition method there are a method using an image sensor combined with a micro-polarizer array and a method using a plurality (preferably 3 or more) of image sensors and a polarizer, but the latter has a problem that the apparatus is large and complicated. There is.
  • the former method will be described. More specifically, it is shown in FIG. 2 by space division multiplexing used in parallel digital holography (Japanese Patent No. 4294526, Japanese Patent Application No.
  • 2008-031965 invented by the present inventors and capable of high-precision instantaneous three-dimensional measurement.
  • four interference fringe images are acquired by one imaging (one shot), and complex amplitude information that is three-dimensional object information is instantaneously measured by performing arithmetic processing.
  • FIG. 3 shows a schematic configuration of the three-dimensional object information measuring apparatus 1 according to the first embodiment.
  • the three-dimensional object information measuring device 1 is a digital holography device that measures three-dimensional structure information (complex amplitude information) of the object 10, and includes a lens 21, a linearly polarized light converting unit 22, a circularly polarized light converting unit 28, and a shearing interferometer. 2, an interference fringe acquisition unit 3, and a calculation unit 4.
  • the object 10 is a self-luminous object or an object illuminated with natural light or light from a thermal light source.
  • the lens 21 transmits the object light coming from the object 10 and plays a role of forming a Fourier plane.
  • the linearly polarized light conversion unit 22 is a polarizer, which passes the Fourier plane and converts object light into linearly polarized light.
  • the shearing interferometer 2 is a radial shearing interferometer, and includes a polarizing beam splitter (polarizing beam splitting element) 23, a lens 24, a lens 25, a mirror 26, and a mirror 27. .
  • polarizing beam splitter polarizing beam splitting element
  • the polarization beam splitter 23 divides the light incident from the linearly polarized light conversion unit 22 into two, and among the two divided light, re-enters one light and the same optical path as the one light in opposite directions. Combine with the other light that has been re-incident.
  • the light L1 incident from the linearly polarized light conversion unit 22 is divided into vertical polarized light L2 and horizontal polarized light L3.
  • the vertically polarized light L2 and the horizontally polarized light L3 propagate in the opposite directions on the common optical path and are combined by the polarization beam splitter 23 again. That is, the vertically polarized light L2 (solid line in FIG. 4) reenters the polarization beam splitter 23 through the lens 24, the mirror 26, the mirror 27, and the lens 25.
  • the horizontally polarized light L3 (dotted line in FIG. 4) rotates in the opposite direction to the optical path of the vertically polarized light L2, that is, passes through the lens 25, the mirror 27, the mirror 26, and the lens 24 and reenters the polarizing beam splitter 23.
  • the focal lengths of the lens 24 and the lens 25 are different from each other, the vertically polarized light L2 and the horizontally polarized light L3 pass through the lens 24 and the lens 25 in opposite directions, and one of them is enlarged and the other is reduced. Is done.
  • the focal length of the lens 24 is 200 mm
  • the vertically polarized light L2 and the horizontally polarized light L3 re-entering the polarization beam splitter 23 are combined and pass through the circularly polarized light conversion unit 28 that is a birefringent element, become circularly polarized light opposite to each other, and output as interference light.
  • the output interference light reaches the interference fringe acquisition unit 3 which is an imaging device.
  • the arrow in FIG. 4 corresponds to the optical axis. Therefore, for the sake of convenience, the arrow of the vertically polarized light L2 and the arrow of the horizontally polarized light L3 are shifted from each other, but in reality, these arrows are coincident with each other.
  • the interference fringe acquisition unit 3 is a polarizer array type imaging device, and includes a polarizer array 31, an imaging surface 32, and a main body 33, as shown in FIG. .
  • the polarizer array 31 and the imaging surface 32 are bonded together and joined to the main body 33.
  • the polarizer array 31 is formed by arranging four types of polarization regions having different polarization directions and phase shift amounts of incident light in a matrix.
  • the region indicated by the left and right arrows is a region that allows the incident light to pass through without changing the phase.
  • a region indicated by a double-pointing arrow pointing upward is a region that delays the phase of incident light by a quarter wavelength ( ⁇ / 2 [rad]), and a region indicated by double-headed arrows indicates that the phase of incident light is 1 ⁇ 2 wavelength.
  • ( ⁇ [rad]) is a region that is delayed
  • a region indicated by a double-pointing left arrow is a region that delays the phase of incident light by 3/4 wavelength (3 ⁇ / 2 [rad]).
  • the imaging surface 32 is configured by an imaging element such as a CCD or a CMOS arranged in an array, and has a plurality of pixels. Each polarization region shown in FIG. 5C is configured to correspond one to one.
  • the plurality of pixels are divided into four pixel groups P1 to P4 according to the phase of incident light. Interference light having no phase delay is incident on the pixel group P1, interference light having a phase delay of 1 ⁇ 4 wavelength ( ⁇ / 2 [rad]) is incident on the pixel group P2, and the pixel group P3 is incident on the pixel group P3. The interference light whose phase is delayed by 1 ⁇ 2 wavelength ( ⁇ [rad]) is incident, and the interference light whose phase is delayed by 3/4 wavelength (3 ⁇ / 2 [rad]) is incident on the pixel group P4.
  • two light waves that are circularly polarized light that are opposite to each other and incident on the interference fringe acquisition unit 3 are recorded as interference fringe images having four different polarization directions and different phases.
  • the data of the recorded image acquired by the interference fringe acquisition unit 3 by one shooting is transmitted to the calculation unit 4.
  • the calculation unit 4 is a part that plays a role of outputting the three-dimensional information (complex amplitude information) of the object 10 from the recorded image acquired by the interference fringe acquisition unit 3 by calculation, and may be configured by a general-purpose personal computer, for example. it can. As shown in FIG. 6, the calculation unit 4 includes an extraction unit 41, an interpolation unit 42, and a calculation unit 43. Each of these units is a functional block realized by causing the calculation unit 4 to execute a program. The above units may be realized by hardware.
  • FIG. 7A shows a recorded image acquired by the interference fringe acquisition unit 3.
  • Each pixel constituting the recorded image corresponds to each pixel on the imaging surface 32 of the interference fringe acquisition unit 3.
  • the pixels B1 to B4 shown in different patterns are pixels acquired by the pixel groups P1 to P4, respectively.
  • the extraction unit 41 extracts pixels from the recorded image for each phase, and extracts four pieces of extracted data composed of pixels having the same phase and pixels with missing pixel values. Generate. Specifically, as shown in FIG. 7B, only the extracted data D1a obtained by extracting only the pixel B1 having no phase delay and the pixel B2 having a phase delayed by 1 ⁇ 4 wavelength ( ⁇ / 2 [rad]). Extracted data D2a, extracted data D3a from which only the pixel B3 whose phase is delayed by 1 ⁇ 2 wavelength ( ⁇ [rad]), and pixels whose phase is delayed by 3/4 wavelength (3 ⁇ / 2 [rad]) Extracted data D4a obtained by extracting only B4 is generated. As can be seen from FIG. 5B, in the extracted data D1a to D4a, the pixel values of all 3 ⁇ 4 pixels are missing.
  • the interpolation unit 42 of the calculation unit 4 generates the four interpolation data D1b to D4b as shown in FIG. 7C by performing pixel interpolation on each of the four extracted data D1a to D4a. .
  • the interpolation unit 42 extracts pixels from the recorded image for each phase, and generates four pieces of extracted data including pixels with the same phase and pixels with missing pixel values.
  • Interpolation processing applicable to the present embodiment is not particularly limited. For example, linear interpolation (primary interpolation) is performed using pixel values of pixels having the same polarization and the same phase around a missing pixel for which a pixel value is to be calculated. The interpolation process may be performed by calculating the pixel value of the missing pixel.
  • the pixel value of the missing pixel may be calculated by interpolating or extrapolating in the second or third order using pixel values of pixels having the same polarization and the same phase around the missing pixel.
  • the interpolation unit 42 can determine the pixel value of the missing pixel in the extracted data D1a to D4a by such an interpolation process, and generate the interpolation data D1b to D4b approximated to interference images having different phases.
  • the interpolation data D1b approximates an interference image with no phase delay
  • the interpolation data D2b approximates an interference image with a phase delayed by 1/4 wavelength ( ⁇ / 2 [rad]), and interpolation is performed.
  • the data D3b approximates an interference image whose phase is delayed by 1/2 wavelength ( ⁇ [rad])
  • the interpolation data D4b approximates an interference image whose phase is delayed by 3/4 wavelength (3 ⁇ / 2 [rad]).
  • the computation unit 43 computes the imaging (complex amplitude information) of the three-dimensional structure of the object 10 by obtaining the spatial coherence function of the Fourier plane of the object 10 from the interpolation data D1b to D4b generated by the interpolation unit 42. Specifically, the calculation unit 43 calculates a complex amplitude distribution on the imaging surface from the four interpolation data D1b to D4b using an algorithm for reconstructing the image of the object 10, and obtains the obtained complex amplitude distribution. Based on the above, a reproduced image of the object 10 can be obtained.
  • a complex amplitude of a spatial coherence function is obtained by a phase shift method, and a reproduced image at an arbitrary depth position of the object 10 is acquired by performing inverse Fourier transform. In this way, instantaneous three-dimensional imaging is possible.
  • a detailed flow of three-dimensional imaging will be described.
  • the three-dimensional object information measuring apparatus 1 uses a shearing interferometer to acquire a recording image of interference light by one imaging, and the calculation unit 4 performs pixel extraction and pixel interpolation from one recording image.
  • the method is characterized in that a plurality of interpolation data is generated and complex amplitude information of an object is calculated from these interpolation data.
  • the object light that has arrived from the object is divided into two lights, which are interfered with each other, so that a highly coherent reference light such as a laser light source is not required.
  • a highly coherent reference light such as a laser light source
  • the interference fringe acquisition unit 3 acquires an interference fringe image by photographing the interference light at a time, it is also possible to measure complex amplitude information of a moving object structure or an object whose shape changes.
  • the polarizer array type imaging device illustrated as the interference fringe acquisition unit 3 is commercially available as a polarization imaging camera.
  • the three-dimensional object information measuring apparatus 1 can be configured with easily available elements.
  • the three-dimensional object information measuring apparatus 1 is characterized in that complex amplitude information with an accuracy equal to or higher than the complex amplitude information of an object obtained by conventional sequential imaging can be obtained.
  • the plurality of interpolation data are generated by the interpolation processing, they approximate to the plurality of interference images obtained by the conventional sequential imaging, but are not the same. Therefore, in general, it is expected that the complex amplitude information obtained based on the interpolation data is less accurate than the complex amplitude information obtained based on a plurality of interference images obtained by sequential imaging.
  • the measurement apparatus for complex amplitude information International Publication No.
  • the optical path having the same path is used. Since it is made by interference of images with different magnifications that have propagated through, the error due to the shear amount (shear amount) is included.
  • the present inventor found for the first time that the error due to the shear amount can be reduced by the extraction / interpolation processing on the recorded image. That is, since the pixel value of the interpolated pixel in the interpolation data in this embodiment is not an actually measured value but a value calculated by calculation, it is obtained by actually performing sequential shooting as in the past. However, in the interpolation data, the pixel value between adjacent pixels does not change abruptly (smoothing), so that the effect of reducing the error due to the shear amount occurs. It has been found that complex amplitude information with an accuracy equal to or better than the complex amplitude information obtained by conventional sequential imaging can be calculated.
  • the present inventors contrary to the above-mentioned consensus prediction at the time, reduce the error due to the shear amount by the extraction / interpolation process, so that it is clearer than the conventional three-dimensional structure imaging by sequential imaging. We found for the first time that imaging is possible.
  • the self-luminous object is the measurement target, but the measurement object is not limited to the self-luminous object.
  • the three-dimensional object information measuring apparatus 1 shown in FIG. 8 uses the reflecting object 11 illuminated by the light source 5 as a measurement target.
  • the three-dimensional object information measuring apparatus 1 shown in FIG. 9 uses the transmission object 12 illuminated by the light source 5 as a measurement target.
  • the three-dimensional object information measuring device 1 ′ is different from the three-dimensional object information measuring device 1 shown in FIG. 3 in that the lens 21 shown in FIG. 3 is not provided. This is because object light coming from a distant object such as the celestial body 13 forms a Fourier plane without passing through the lens 21.
  • a three-dimensional object information measuring apparatus 1 ′′ shown in FIG. 11 includes a linear polarization converter 22, a lens 21, a half-wave plate 29a, a shearing interferometer 2, a quarter-wave plate 29b, and interference fringe acquisition. And a calculation unit 4.
  • the shearing interferometer 2 includes a polarization beam splitter 23, a lens 24, a lens 25, a mirror 26, and a mirror 27.
  • the apparatus 1 ′′ replaces the positions of the linearly polarized light conversion unit 22 and the lens 21 and replaces the circularly polarized light conversion unit 28 with the 1 ⁇ 2 wavelength plate 29a and the 1 ⁇ 4 wavelength.
  • the difference is that the plate 29b is replaced.
  • the object light converted into the linearly polarized light by the linearly polarized light conversion unit 22 passes through the half-wave plate 29a and the quarter-wave plate 29b, so that the vertically polarized light L2 and the horizontally polarized light L3 are circularly polarized light that are opposite to each other.
  • the interference fringe acquisition unit 3 is reached.
  • the said embodiment demonstrated the three-dimensional object information measuring device using a radial shearing interferometer
  • the three-dimensional object information measuring device using other shearing interferometers such as a lateral shearing interferometer and a rotation shearing interferometer
  • the error due to the shearing amount can be reduced by extraction / interpolation processing, so that clearer imaging than the conventional method using sequential imaging becomes possible.
  • the three-dimensional object information measuring apparatus using light has been described.
  • wave characteristics it is not limited to light, and has low coherence such as X-rays and electron beams. It goes without saying that a wave source can be used.
  • a green LED 5a is used as a subject
  • a three-dimensional object information measuring device 1 ′′ shown in FIG. 11 is used as a three-dimensional object information measuring device.
  • the focal length of the lens 21 was 100 mm
  • the focal length of the lens 24 was 200 mm
  • the focal length of the lens 25 was 220 mm.
  • the optical path length to the interference fringe acquisition unit 3 via the beam splitter 23 was 220 mm.
  • FIG. 13 (a) is a photograph of the LED 5a as a subject
  • FIG. 13 (b) is an enlarged photograph of the LED 5a
  • FIG. 13 (c) is a photograph of the lit LED 5a.
  • FIG. 14A shows a recorded image acquired by turning on the LED 5a and the interference fringe acquisition unit 3 capturing the interference light at once.
  • FIG. 14B shows four interference images (interpolated data) generated by extracting and interpolating pixels (in-phase pixels) having the same interference fringe image information from the recorded image.
  • FIG. 14C shows a spatial coherence function image obtained from the four images using the above-described equation (1).
  • Example 2 (Experimental conditions) In Example 2, as shown in FIG. 16A, a green LED 5a and an amplitude mask 6 are used as a subject, and a three-dimensional object information measuring device 1 ′′ shown in FIG. 11 is used as a three-dimensional object information measuring device. 16B, the amplitude mask 6 is provided with “F” -shaped slits, and the amplitude mask 6 is installed between the LED 5a and the linearly polarized light conversion unit 22.
  • the LED 5a is turned on, and the interference fringe acquisition unit 3 records an interference fringe image by one-time imaging, and a reproduced image is obtained from four images generated by extracting / interpolating the interference fringe image.
  • FIGS. 17A and 17B are an amplitude image and a phase image of the reproduced image focused on the amplitude mask 6.
  • 18A and 18B are an amplitude image and a phase image of the reproduced image focused on the LED 5a. In FIG. 18, it can be seen that the LED 5 a can be observed only by the light transmitted through the amplitude mask 6.
  • the three-dimensional object information (phase information) measuring apparatus divides light (measurement light wave) that has passed through or reflected from an object irradiated with laser light into two lights whose wavefronts are shifted. It is an interference measuring apparatus using a shearing interferometer that causes interference with each other.
  • the measurement light wave of the subject is divided into two parts, the wave fronts are shifted by a method such as enlarging and reducing each divided part, and then superposing them.
  • interference light is obtained.
  • a plurality (preferably three or more) of interference fringe images (phase difference images) having different phases are recorded from the interference light by the phase shift method, and a phase image of the subject is obtained by calculation processing.
  • the interference light from the shearing interferometer is captured at once by the interference fringe acquisition unit, and a plurality of interference fringe images having different phases are formed from the captured interference images, so that the phase image of the subject is instantaneously obtained. It is characterized by acquiring.
  • FIG. 22 shows the result of spatial division multiplexing using parallel digital holography (Japanese Patent No. 4294526, Japanese Patent Application No. 2008-031965) invented by the present inventors and capable of high-precision instantaneous three-dimensional measurement.
  • Japanese Patent No. 4294526 Japanese Patent Application No. 2008-031965
  • four interference fringe images are acquired by one imaging.
  • a phase image can be acquired instantaneously (one shot).
  • FIG. 23 shows a schematic configuration of a three-dimensional object information measuring apparatus 201 according to the second embodiment.
  • the three-dimensional object information measurement device 201 is a device that acquires a phase image of the object 210, and includes a laser light source LA, a lens 221, a linear polarization conversion unit 222, a shearing interferometer 202, a circular polarization conversion unit 228, and an interference.
  • a fringe acquisition unit 203 and a calculation unit 204 are provided.
  • the laser light source LA includes a drive unit LA1 and a laser diode LA2, and emits laser light.
  • the object 210 is a transparent object.
  • the lens 221 converts the laser light emitted from the laser light source LA into parallel light. When the laser light is parallel light, the lens 221 may not be provided.
  • the object 210 is transparent and is installed between the lens 221 and the linear polarization conversion unit 222.
  • the linearly polarized light conversion unit 222 is a polarizer, and allows light that has passed through the object 10 to pass through and is polarized into linearly polarized light.
  • the shearing interferometer 202 is a radial shearing interferometer, and includes a polarization beam splitter (polarization beam splitting element) 223, a lens 224, a lens 225, a mirror 226, and a mirror 227. .
  • polarization beam splitter polarization beam splitting element
  • the polarization beam splitter 223 divides the light incident from the linear polarization conversion unit 222 into two parts, and the re-incident light of the two divided lights and the same optical path as the one light in the opposite direction. Combine with the other light that has been re-incident.
  • the light L1 incident from the linear polarization conversion unit 222 is divided into vertical polarization L2 and horizontal polarization L3.
  • the vertically polarized light L2 and the horizontally polarized light L3 propagate in opposite directions on the common optical path and are combined by the polarization beam splitter 223 again. That is, the vertically polarized light L2 (solid line in FIG. 24) reenters the polarization beam splitter 223 via the lens 224, the mirror 226, the mirror 227, and the lens 225.
  • the horizontally polarized light L3 (dotted line in FIG. 24) rotates in the opposite direction to the optical path of the vertically polarized light L2, that is, passes through the lens 225, the mirror 227, the mirror 226, and the lens 224 and reenters the polarization beam splitter 223.
  • the focal lengths of the lens 224 and the lens 225 are different from each other, the vertically polarized light L2 and the horizontally polarized light L3 pass through the lens 224 and the lens 225 in the opposite direction, so that one is enlarged and the other is reduced. Is done.
  • the focal length of the lens 224 is 200 mm
  • the horizontally polarized light L3 passes through the lens 225 and the lens 224 in this order, the Fourier plane is reduced to 200 / 220 ⁇ 0.91 times.
  • the vertically polarized light L2 and the horizontally polarized light L3 that are incident on the polarization beam splitter 223 are combined and pass through the circularly polarized light conversion unit 228.
  • the circularly polarized light conversion unit 228 has a refractive index that varies depending on the vibration direction of the linearly polarized light, and has a different propagation speed. A phase difference occurs. Therefore, the combined vertical polarization L2 and horizontal polarization L3 are circularly polarized in the opposite directions, and are output from the shearing interferometer 202 as interference light. The output interference light reaches the interference fringe acquisition unit 203.
  • the arrow in FIG. 24 corresponds to the optical axis. Therefore, for the sake of convenience, the arrow of the vertically polarized light L2 and the arrow of the horizontally polarized light L3 are shifted from each other, but in reality, these arrows are coincident with each other.
  • the interference fringe acquisition unit 203 is a polarizer array type imaging device, and includes a polarizer array 231, an imaging surface 232, and a main body 233 as shown in FIG. .
  • the polarizer array 231 and the imaging surface 232 are bonded together and joined to the main body 233.
  • the polarizer array 231 is formed by arranging four types of polarization regions having different polarization directions and phase shift amounts of incident light in a matrix.
  • the region indicated by the left and right arrows is a region that allows the incident light to pass through without changing the phase.
  • a region indicated by a double-pointing arrow pointing upward is a region that delays the phase of incident light by a quarter wavelength ( ⁇ / 2 [rad]), and a region indicated by double-headed arrows indicates that the phase of incident light is 1 ⁇ 2 wavelength.
  • ( ⁇ [rad]) is a region that is delayed, and a region indicated by a double-pointing left arrow is a region that delays the phase of incident light by 3/4 wavelength (3 ⁇ / 2 [rad]).
  • the imaging surface 232 has a plurality of pixels such as a CCD and a CMOS arranged in an array, and each pixel has a one-to-one correspondence with each polarization region of the polarizer array 231. It corresponds to.
  • the plurality of pixels are divided into four pixel groups P1 to P4 according to the phase of incident light. Interference light having no phase delay is incident on the pixel group P1, interference light having a phase delay of 1 ⁇ 4 wavelength ( ⁇ / 2 [rad]) is incident on the pixel group P2, and the pixel group P3 is incident on the pixel group P3. The interference light whose phase is delayed by 1 ⁇ 2 wavelength ( ⁇ [rad]) is incident, and the interference light whose phase is delayed by 3/4 wavelength (3 ⁇ / 2 [rad]) is incident on the pixel group P4.
  • interference fringe images phase difference images
  • the calculation unit 204 is a device that calculates the phase information of the object 210 from the recorded image acquired by the interference fringe acquisition unit 203, and can be configured by, for example, a general-purpose personal computer. As shown in FIG. 26, the calculation unit 204 includes an extraction unit 241, an interpolation unit 242, and a calculation unit 243. Each of these units is a functional block realized by causing the calculation unit 204 to execute a program. The above units may be realized by hardware.
  • FIG. 27A shows a recorded image acquired by the interference fringe acquisition unit 203.
  • Each pixel constituting the recorded image corresponds to each pixel on the imaging surface 232 of the interference fringe acquisition unit 203.
  • the pixels B1 to B4 shown in different patterns are pixels acquired by the pixel groups P1 to P4, respectively.
  • the extraction unit 41 extracts pixels from the recorded image for each phase, and extracts four pieces of extracted data including pixels having the same phase and pixels having missing pixel values. Generate. Specifically, as shown in FIG. 27B, only the extracted data D1a obtained by extracting only the pixel B1 having no phase delay and the pixel B2 having a phase delayed by 1 ⁇ 4 wavelength ( ⁇ / 2 [rad]). Extracted data D2a, extracted data D3a from which only the pixel B3 whose phase is delayed by 1 ⁇ 2 wavelength ( ⁇ [rad]), and pixels whose phase is delayed by 3/4 wavelength (3 ⁇ / 2 [rad]) Extracted data D4a obtained by extracting only B4 is generated. In the extracted data D1a to D4a, the pixel values of all 3/4 pixels are missing.
  • the interpolation unit 42 of the calculation unit 4 generates the four interpolation data D1b to D4b as shown in FIG. 27C by performing pixel interpolation on each of the four extraction data D1a to D4a. .
  • the interpolation unit 242 performs an interpolation process on pixels that are missing pixel values of the extracted data D1a to D4a (denoted as missing pixels).
  • Interpolation processing applicable to the present embodiment is not particularly limited. For example, linear interpolation (primary interpolation) is performed using pixel values of pixels having the same polarization and the same phase around a missing pixel for which a pixel value is to be calculated. The interpolation process may be performed by calculating the pixel value of the missing pixel.
  • the pixel value of the missing pixel may be calculated by interpolating or extrapolating in the second or third order using pixel values of pixels having the same polarization and the same phase around the missing pixel.
  • the interpolation unit 242 can determine the pixel value of the missing pixel in the extracted data D1a to D4a by such an interpolation process, and generate the interpolation data D1b to D4b approximated to the interference images having different phases.
  • the interpolation data D1b approximates an interference image with no phase delay
  • the interpolation data D2b approximates an interference image with a phase delayed by 1 ⁇ 4 wavelength ( ⁇ / 2 [rad]).
  • the data D3b approximates an interference image whose phase is delayed by 1/2 wavelength ( ⁇ [rad])
  • the interpolation data D4b approximates an interference image whose phase is delayed by 3/4 wavelength (3 ⁇ / 2 [rad]).
  • the calculation unit 243 calculates the phase information of the object 210 from the interpolation data D1b to D4b generated by the interpolation unit 242. Specifically, the computing unit 243 obtains a phase difference image of two light waves using the phase shift method, and obtains a phase image by performing wavefront reconstruction processing. As an algorithm for reconstructing a wavefront from a phase difference image, a method using a Zernike polynomial, a method using a Legendre polynomial, or a method of reconstructing with reference to the center can be applied.
  • wavefront reconstruction processing is performed by a method of reconfiguration with reference to the central portion. The algorithm will be described in detail.
  • the three-dimensional object information measuring apparatus 201 acquires a recording image of interference light by a shearing interferometer by one imaging, and the calculation unit 204 performs a plurality of pixel extraction and pixel interpolation from a single recording image. Interpolation data is generated, and phase information of light from an object is calculated from these interpolation data.
  • the object light that has arrived from the object is divided into two lights, which are interfered with each other, so that a highly coherent reference light such as a laser light source is not required. Further, since the two lights obtained by dividing the object light pass through a common optical path, the optical adjustment is simple, and the robustness against external disturbance can be improved.
  • the interference fringe acquisition unit 203 acquires the interference fringe image by capturing the interference light at a time
  • the interference fringe acquisition unit 203 can be applied to the measurement of the phase information of the light from the structure of the moving object or the object whose shape changes.
  • a polarizer array type imaging device exemplified as the interference fringe acquisition unit 203 is commercially available as a polarization imaging camera.
  • the three-dimensional object information measuring apparatus 1, commercially available ones can be used. Therefore, the three-dimensional object information measuring apparatus 201 can be configured with easily available elements.
  • the three-dimensional object information measuring apparatus 201 is characterized in that phase information with an accuracy equal to or higher than the phase information obtained by conventional sequential imaging can be obtained.
  • the plurality of interpolation data are generated by the interpolation processing, they approximate to the plurality of interference images obtained by the conventional sequential imaging, but are not the same. Therefore, in general, it is expected that the phase information obtained based on the interpolation data is less accurate than the phase information obtained based on a plurality of interference images obtained by sequential imaging.
  • the measuring device International Publication No. 2014/171256 by the present inventor, as shown in [Table 1] and [Table 2]
  • the phase obtained from the recorded image of the object obtained by one imaging is shown.
  • the accuracy (Examples 1 to 4) was inferior to the phase accuracy (Comparative Examples 1 to 4) obtained from the recorded images of the objects obtained by sequential imaging.
  • the same path is used. Since it is made by interference of images with different magnifications that have propagated through the optical path, it includes an error due to the shear amount (shear amount).
  • the error due to the shear amount can be actually reduced by the extraction / interpolation processing on the recorded image. That is, since the pixel value of the interpolated pixel in the interpolation data in this embodiment is not an actually measured value but a value calculated by calculation, it is obtained by actually performing sequential shooting as in the past. However, in the interpolation data, the pixel value between adjacent pixels does not change abruptly (smoothing), so that the effect of reducing the error due to the shear amount occurs. It is possible to calculate phase information with accuracy equal to or higher than phase information obtained by conventional sequential imaging.
  • phase information with higher accuracy than phase information obtained by conventional sequential imaging can be obtained. I found it for the first time.
  • a transparent object is a measurement target, but the measurement target is not limited to a transparent object.
  • a reflection object may be a measurement target, such as a three-dimensional object information measurement apparatus 201 ′ illustrated in FIG. Good.
  • the three-dimensional object information measuring apparatus 201 ' has a configuration in which a beam splitter 229 is further provided in the three-dimensional object information measuring apparatus 201 shown in FIG.
  • the laser light emitted from the laser light source LA reaches the object 211 that is a reflection object via the lens 221 and the beam splitter 229, is reflected by the object 211, and then is converted into linearly polarized light.
  • the unit 222 is reached.
  • the phase changes depending on the shape of the object 211.
  • Example 3 of the present invention will be described, but the present invention is not limited thereto.
  • Example 3 a computer simulation for confirming the effectiveness of the present invention was performed.
  • the three-dimensional object information measuring apparatus 201 according to the second embodiment is used as the three-dimensional object information measuring apparatus.
  • the focal length of the lens 224 is 170 mm
  • the focal length of the lens 225 is 175 mm.
  • the optical path length from the object 210 to the lens 224 via the polarizing beam splitter 223 is 170 mm
  • the optical path length from the lens 221 to the lens 225 via the polarizing beam splitter 223 is 175 mm
  • the optical path length from the lens 224 to the interference fringe acquisition unit 203 via the polarizing beam splitter 223 is 170 mm.
  • the optical path length to the interference fringe acquisition unit 203 that passed through was 175 mm. Thereby, one of the light waves divided by the polarization beam splitter 223 is reduced to 170 / 175 ⁇ 0.9714 times, and the other is enlarged to 175 / 170 ⁇ 1.0294 times.
  • FIGS. 30A and 30B are an amplitude image and a phase image of a virtual light wave of the object 210, respectively.
  • the wavelength of the laser beam from the laser light source LA is assumed to be 532 nm, and the number of pixels of the interference fringe acquisition unit 203 is assumed to be 300 ⁇ 300 pixels.
  • the computer simulation employs a method of reconstructing the wavefront reconstruction process with reference to the central portion.
  • FIG. 31B shows a phase image reproduced by a conventional method in which a plurality of phase difference images are acquired by sequential photographing.
  • the correlation coefficient (similarity) of this phase image was 0.9873, which is lower than that of the phase image reproduced by Example 3. From this simulation result, it was found that a three-dimensional object information measuring apparatus according to the second embodiment can reproduce a phase image that is clearer than the phase information obtained by conventional sequential imaging.
  • complex amplitude information which is three-dimensional information of an object that emits fluorescence or the like, or an object illuminated with natural light or light from a thermal light source, or phase information of a transparent object or optical component is instantaneously obtained. Allows you to record. Recording complex amplitude information, which is three-dimensional information, is the measurement of the distribution, shape, size, and density of biological microscopes, parts, and industrial inspection equipment for particles, fluids, etc. Is important. As a result, the present invention is effective in realizing drug discovery, product inspection devices, product manufacturing devices, and the like.
  • phase information which is three-dimensional information
  • an imaging device for pressure change of a gas jet which is a structure measurement of a transparent object, a thickness distribution / refractive index distribution measurement device for a transparent object / viable cell, a laser
  • a wavefront measuring device for the emitted light of a high-power laser and a wavefront measuring device for the emitted light of an ultrashort pulse laser. This will greatly contribute to the development of products with high international competitiveness in the manufacturing and biotechnology industries that drive our economy.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Instruments For Measurement Of Length By Optical Means (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Polarising Elements (AREA)

Abstract

3次元物体情報計測装置(1)は、物体から到来する物体光を直線偏光に変換する直線偏光変換部(22)と、前記物体光をシアリング干渉させるシアリング干渉計(2)と、前記シアリング干渉計による干渉光の垂直偏光と水平偏光とを円偏光に変換する円偏光変換部(28)と、前記円偏光を一度の撮影によって記録する干渉縞取得部(3)と、前記干渉縞取得部(3)の記録画像から前記物体の複素振幅情報を演算する計算部(4)と、を備え、記録画像では、画素によって位相が異なり、計算部(4)は、記録画像から画素を位相毎に抽出して、同一位相の画素と画素値の欠落した画素とからなる複数の抽出データを生成する抽出部(41)と、複数の抽出データの各々に対して画素補間を行うことにより、互いに位相の異なる複数の干渉画像に近似した複数の補間データを生成する補間部(42)と、複数の補間データから複素振幅情報を演算する演算部(43)と、を備える。

Description

3次元物体情報計測装置
 本発明は、物体の3次元構造情報である光の複素振幅情報または位相情報を計測する計測装置に関し、特に、物体から到来する物体光を波面のずれた2つの光に分けて互いに干渉させるシアリング干渉計を用いた3次元物体情報計測装置に関する。
 近年の工業、産業、医学の発展に伴い、より高精度、高速な計測技術が求められている。特に、物体の光の複素振幅情報や位相情報は重要な3次元情報として、物体の構造や変形など現象を知る上で非常に有益である。
 例えば、蛍光を発する物体や自然光や熱光源からの光で照明された物体などの複素振幅計測は、製品の精密な形状計測、生体の動態観察、生体の内部構造のイメージングなどの用途で重要であり、また、物体の厚み分布、屈折率などの物体構造の3次元形状情報を得ることも重要であり、非侵襲、非接触、高感度、並列処理性などの特長を持つ光計測技術が不可欠となっている。
 また、3次元情報として位相情報も重要であり、レーザの出射光の波面を正確に把握する、また、透明物体の構造の情報の把握のため透過した光の波面計測が求められている。例えば、目に見えないガスの噴流計測やレンズの精密検査、細胞や液滴等の透明物体の厚み・屈折率分布計測など、波面の情報(位相情報)は多岐に応用されている。また、反射物体であれば位相情報は物体の表面の形状を精密に計測することが可能である。
 (複素振幅情報計測の背景)
 物体の動きや微小な形状の変化などの高速で起こる現象を観察する最も簡単な方法として、高速度カメラで物体の明るさ情報(強度情報)のみを直接撮影する方法がある。しかし、物体情報を正確に計測するためには、明るさ情報(強度情報)だけでなく、複素振幅情報(すなわち、明るさ情報(強度情報)と位相情報)が必要である。例えば、高速度カメラによる撮影では、物体の強度情報しか記録できず、また、透明な物体には適用できないという問題がある。
 上記の問題点を解決する方法として、干渉計測法による複素振幅情報を得る光計測技術が開示されている。その一例として、ホログラフィ装置を用いた光学系を図19に示す。図19に示すホログラフィ装置50では、可干渉性の高い光源であるレーザ光源51から出射されたレーザ光を、ビームスプリッタ52で計測対象100に照射するための光(物体照射光)と参照光とに分離する。物体照射光は対物レンズ53a、レンズ54a、ミラー55aを介して計測対象100に照射される。計測対象100からの反射光である物体光はビームスプリッタ56を介してCCDカメラ57に入射する。一方、参照光は、計測対象100が存在しない経路、具体的には、ミラー55b、対物レンズ53b、レンズ54b、ミラー55cおよびビームスプリッタ56を介してCCDカメラ57に入射する。これにより、CCDカメラ57では、参照光と物体光との干渉縞が撮影され、この干渉縞に基づいて計算機が既定の計算を行なうことで計測対象100の複素振幅情報(強度情報と位相情報)が得られる。
 これらのホログラフィ装置では、CCDカメラ57の撮像素子に対して、参照光を直角に照射することによって干渉縞を作製している。そのため、干渉縞をフレネル変換して得られる再生像には、必要な+1次回折像だけでなく不必要な0次回折像や−1次回折像が重なり、鮮明な再生像を得ることが困難となっている。そこで、0次回折像や−1次回折像を伴わない鮮明な再生像を得るために、参照光の位相を複数段階にシフトさせる位相シフトデジタルホログラフィ装置が提案されている(特許文献1)。例えば、圧電素子によって、参照光の位相を3段階又は4段階にシフトさせる位相シフトデジタルホログラフィ装置が提案されている。また、参照光の位相をシフトさせる手法として、位相板を用いた位相シフトデジタルホログラフィ装置も提案されている。
 このような位相シフトデジタルホログラフィ装置では、参照光の位相を、例えばπ/2[rad]ずつ変化させて、複数の干渉縞をCCDカメラ57に記録する。この複数の干渉パターンを数値計算することにより、0次回折像や−1次回折像を伴わない再生像を得ることができる。しかし、複数の干渉縞を必要とするために、物体の動きが速い場合や微小な形状の変化の速い場合、つまり高速で起こる現象を記録し再生することできないという問題がある。
 これに対して、特許文献2は、上記問題を解決するために、互いに位相値が異なる複数の参照光と、光を照射された被写体から放射される物体光とを干渉させることによって得られる位相分布データに基づいて、被写体の再生像を作成する再生像生成部を備えたデジタルホログラフィ装置を提案している。つまり、入射した光を互いに位相値の異なる複数の参照光からなる参照光群に変換して出射する位相シフト素子と、参照光群と物体光とを干渉させることによって生成される位相分布データを記録する撮像面を有する撮像部とを備え、再生像生成部は、位相分布データの情報に基づいて被写体の再生像を生成している。
 上記デジタルホログラフィ装置の構成によれば、入射した光から位相値の異なる複数の参照光を同時に得ることができる。複数の参照光からなる参照光群と物体光とを干渉させることによって得られる位相分布データは、各位相値の参照光と物体光とが干渉したデータが混在した状態となっている。そのため、位相分布データの情報を用いれば、1回の撮影で異なる位相値の参照光と物体光とが干渉した複数のデータを得ることができるので、鮮明な再生像を得るために必要な情報を瞬時に得ることができる。それ故、動く被写体や、被写体の瞬時の像の変形など、被写体のリアルタイムでの観察等を実現することができる。
 しかし、上記デジタルホログラフィ装置では、
・レーザ光源などの干渉性の高い光源を必要とする
・レーザ光源に伴う雑音が発生する
・参照光と物体光の干渉を利用しているので、用いる光学素子が多いため装置が大きく、複雑になる
・光学素子に高い設置精度が要求されるため設置が難しく設置時間が長くなる
といった問題がある。
 レーザ光などの干渉性の高い光源を用いないで、自然光、蛍光、熱光源からの光などの可干渉性の低い光を用いた干渉計測として、非特許文献1や非特許文献2に示す自己干渉法がある。図20は、非特許文献1に記載の計測装置60の概略構成図である。計測装置60では、空間光変調器(SLM)61を用いることにより同一光路上で2種類の光波を生成し、それらが互いに干渉した結果生成される縞を記録する方法であるが、SLM61の表示するパターンを変化させて逐次的に記録する必要がある。従って、計測装置60を簡単にすることができるが、SLM61のような回折光学素子を用いているので回折効率が低下し再生画像が劣化する、回折により多重像を形成させるために形成した多重像には収差が生じ像の歪み等が生じる、また、逐次記録方式であるので、動く被写体や、瞬時に変形する被写体のなど、被写体のリアルタイムでの観察等を実現することができないという問題がある。
 非特許文献3では、1度の記録で像を再生するために、2つに光波を分け、光波の一方の波面を傾ける方法が提案されている。非特許文献3では、一方の光波を傾けるため狭帯域バンドパスフィルタを用いて可干渉性を高める必要がある。また、2つに光波を分けた際に2つの光波が異なる光路を通るため、振動などの外部擾乱の影響を受けやすくなるという問題がある。
 非特許文献4では、1度の記録で像を再生するために偏光特性をもつレンズを利用する方法が提案されている。しかし、この方法では、理論上、偏光特性をもつ特殊なレンズが必要となるが、この素子を実際に実現するのは困難であり、また実現したとしても極めて高額になるという問題がある。
 非特許文献5では、2つの光波を互いに異なる偏光で生成して、ポッケルスセルを用いて位相シフトすることで像を再生する技術も報告されているが、特殊な素子を使用しているので汎用性に乏しく、逐次的に記録する必要があるので動的な物体の計測はできないという問題がある。
 (位相情報計測の背景)
 位相を計測するために参照光を用いる従来の干渉計測技術は、振動や温度などの外部擾乱に非常に弱く、実用化するには外乱の影響を受けないようにしなければならない。そこで、参照光を用いない、同一光路を通り自己干渉を利用した干渉法で外乱の影響を抑える新たな干渉計測技術が報告されている。しかし、複数枚の干渉縞画像を逐次で記録する必要があり、各画像の取得に時間間隔が必要なため、結局は外部振動の影響を受けてしまうという問題があった。
 上記の問題を解決する技術として、近年、瞬時に位相画像を取得可能な技術がいくつか報告されている。例えば、光の波面を計測する方法として、被検面からの反射波面と、その反射波面をわずかにずらした波面を重ね合わせるシアリング干渉計が用いられる。シアリング干渉計は計測する波面とは別の参照光を必要とせず、それ自身との干渉を記録するため、外乱の影響を受けにくいという特長を持つ。また、そのシアリング干渉計の中でも偏光を利用して複数の干渉画像を1ショットで計測できるラジアルシアリング干渉計が提案されている(非特許文献6)。しかし、非特許文献6に記載のラジアルシアリング干渉計は、干渉計に必要な光学素子の数が非常に多く、光学調整が複雑で難しい、また、光学系が大きくなり小型で低価格な装置の実用化は難しいという問題を有する。
 また、回折素子を用いることでより簡易的な干渉計で波面を計測する技術も報告されている(非特許文献7)。この装置は複雑な干渉計を必要としない代わりに回折素子を用いるため、回折素子の影響を大きく受け、偏光方向で回折効率が異なり再生画像が劣化する。また、光路が2つに別れるため、外乱の影響を受けやすいという問題を有する。
 また、回折素子を必要とせず、比較的簡易な干渉計であるSagnac干渉計を2つ組み合わせた波面計測技術も提案されている(非特許文献8)。しかし、逐次記録を必要とするため振動の影響を大きく受けてしまい、また瞬時に波面計測をすることはできないという問題がある。
 これに対して、特許文献2のデジタルホログラフィ装置の構成によれば、1回の撮影で異なる位相値の参照光と物体光とが干渉した複数の画像を得ることができるので、再生像はもちろん、位相画像も瞬時に再生することができる。そして、動く被写体や、被写体の瞬時の像の変形など、被写体のリアルタイムでの観察等を実現することができる。
 しかし、上記デジタルホログラフィ装置では、参照光による干渉を利用しているため、
・用いる光学素子が多いため装置が大きく、複雑になる
・光学素子に高い位置精度が要求されるため設置が難しく設置時間が長くなる
・外部擾乱に対して弱い
といった問題がある。
特開2005−283683号公報(2005年10月13日公開) 特許4294526号
J.Rosen,and G.Brooker,Opt.Lett.32,912−914(2007). W.Qin,and et.al.,Journal of Biomedical Optics 19,p.060503(2014). J.Hong,and M.K.Kim,Opt.Lett.38,5196−5199(2013). Z.Zhu,and Z.Shi,Frontiers in Optics 2015,paper FTh4D.2,(2015). D.N.Naik,G.Pedrini,and W.Osten,Opt.Exo.21,p.3990(2013). N.Gu,L.Huang,Z.Yang,and C.Rao,Opt.Exp.19,4703(2011). N.I.T.Arellano,D.I.S.Garcia,A.M.Garcia,G.R.Zurita,A.M.Perez,J.M.M.Gomez,G.R.Lopez,A.G.Rosas,and L.G.Lechuga,,Rev.Mex.Fis.58,335(2012). N.I.T.Arellano,D.I.S.Garcia,and A.M.Garcia,Opt.Exp.21,31983(2013).
 本発明は、上記の様々な問題を解決するためになされたものであって、
・蛍光などで自己発光する物体や自然光や熱光源からの光で照明された物体、またはレーザ光等の可干渉性光源を用いて物体の3次元物体情報を得ることができる
・装置を構成する光学素子群が簡単で入手容易であり、しかも光学素子の配置調整が簡単である
・外部の擾乱に対して強い
・動く物体の構造、または形状の変化する物体などの複素振幅情報(強度情報と位相情報)、または位相情報を高速で計測できる
3次元物体情報計測装置の提供を目的とする。
 本発明に係る3次元物体情報計測装置は、
 物体から到来する物体光を直線偏光に変換する直線偏光変換部と、
 直線偏光に変換された前記物体光をシアリング干渉させるシアリング干渉計と、
 前記シアリング干渉計による干渉光の垂直偏光と水平偏光とを円偏光に変換する円偏光変換部と、
 前記円偏光を一度の撮影によって記録する干渉縞取得部と、
 前記干渉縞取得部の記録画像から前記物体の複素振幅情報を演算する計算部と、
を備えた3次元物体情報計測装置であって、
 前記記録画像では、画素によって位相が異なり、
 前記計算部は、
 前記記録画像から画素を位相毎に抽出して、同一位相の画素と画素値の欠落した画素とからなる複数の抽出データを生成する抽出部と、
 前記複数の抽出データの各々に対して画素補間を行うことにより、互いに位相の異なる複数の干渉画像に近似した複数の補間データを生成する補間部と、
 前記複数の補間データから複素振幅情報または位相画像を演算する演算部と、
を備えることを特徴とする3次元物体情報計測装置である。
 前記シアリング干渉計はラジアルシアリング干渉計であっても良い。
 前記ラジアルシアリング干渉計は、
 前記直線偏光変換部から入射した光を2分割するとともに、前記2分割された光のうち、再入射した一方の光と、前記一方の光と同一の光路を反対方向に進んで再入射した他方の光とを結合する偏光ビーム分割素子と、
 前記光路に配置された、お互いに焦点距離が異なる2枚のレンズと、
を備え、
 前記偏光ビーム分割素子によって結合された光を前記干渉光として出力しても良い。
 前記干渉縞取得部は、
 入射光の偏光方向および位相シフト量が互いに異なる複数種の偏光領域を有する偏光子アレイと、
 前記偏光子アレイと結合され、前記偏光領域の各々と一対一に対応した画素を有する撮像素子と、
を備えた偏光子アレイタイプ撮像装置であっても良い。
 前記物体光はフーリエ変換された光であり、
 前記シアリング干渉計は前記物体光のフーリエ面同士を干渉させ、
 前記干渉縞取得部は前記円偏光の干渉縞を記録し、
 前記演算部は、前記複数の補間データから、位相シフト法を用いて、空間コヒーレンス関数の複素振幅を求め、逆フーリエ変換することにより前記複素振幅情報を演算しても良い。
 前記物体光は可干渉光が前記物体を反射あるいは透過した光であり、
 前記シアリング干渉計は前記物体光同士を干渉させ、
 前記干渉縞取得部は前記円偏光の干渉縞を記録し、
 前記演算部は、前記複数の補間データから、位相シフト法を用いて、前記干渉光の位相差画像を求め、前記位相差画像から、ゼルニケ多項式、ルジャンドル多項式、あるいは、中心部を参照として再構成する方法を適用して波面再構成することにより前記位相画像を演算しても良い。
 本発明によれば、簡単な構成要素で装置を構成でき、光学的調整も簡単で、外部擾乱に対してロバスト性が高く、動く物体、または形状の変化する物体などの複素振幅情報または光の波面(位相画像情報)などの3次元情報を瞬時に計測可能な3次元物体情報計測装置を提供することができる。
本発明の第1の実施形態に係る3次元物体情報計測装置の原理を示す説明図である。 4枚の干渉像から3次元構造イメージングを得る原理を示す説明図である。 本発明の第1の実施形態に係る3次元物体情報計測装置の概略構成図である。 図3に示す3次元物体情報計測装置における光路の説明図である。 (a)は、上記3次元物体情報計測装置の干渉縞取得部の構成を示す側面図であり、(b)は、該干渉縞取得部の偏光子アレイの平面図であり、(c)は、該干渉縞取得部の撮像面の平面図である。 上記3次元物体情報計測装置の計算機の機能ブロック図である。 (a)~(e)は、干渉縞取得部が取得した記録画像から再生像を得る処理を説明するための図である。 3次元物体情報計測装置が、光源で照明された反射物体を計測する態様を示す概略構成図である。 3次元物体情報計測装置が、光源で照明された透過物体を計測する態様を示す概略構成図である。 3次元物体情報計測装置が、天体を計測する態様を示す概略構成図である。 本発明の第1の実施形態の変形例に係る3次元物体情報計測装置の概略構成図である。 本発明の実施例1に係る3次元物体情報計測装置の概略構成図である。 (a)は、実施例1における被写体であるLEDの写真であり、(b)は、該LEDの拡大写真であり、(c)は、点灯した該LEDの写真である。 (a)は、実施例1において干渉縞取得部が干渉光を一度に撮像することによって取得した記録画像であり、(b)は、該記録画像から生成された4つの画像であり、(c)は、4つの画像から得られた空間コヒーレンス関数画像である。 (a)および(b)はそれぞれ、図14(c)に示す空間コヒーレンス関数画像から得られた振幅および位相の再生画像である。 (a)は、本発明の実施例2に係る3次元物体情報計測装置の概略構成図であり、(b)は、振幅マスクの写真である。 (a)および(b)はそれぞれ、実施例2において振幅マスクに合焦した再生画像の振幅像および位相画像である。 (a)および(b)はそれぞれ、実施例2においてLEDに合焦した再生画像の振幅像および位相画像である。 従来のデジタルホログラフィ装置の一例を示す図である。 従来のデジタルホログラフィ装置の他の例を示す図である。 本発明の第2の実施形態に係る3次元物体情報計測装置の原理を示す説明図である。 4枚の干渉像から位相画像を得る原理を示す説明図である。 本発明の第2の実施形態に係る3次元物体情報計測装置の概略構成図である。 図3に示す3次元物体情報計測装置における光路の説明図である。 (a)は、上記3次元物体情報計測装置の干渉縞取得部の構成を示す側面図であり、(b)は、該干渉縞取得部の偏光子アレイの平面図であり、(c)は、該干渉縞取得部の撮像面の平面図である。 上記3次元物体情報計測装置の計算機の機能ブロック図である。 (a)~(e)は、干渉縞取得部が取得した記録画像から再生像を得る処理を説明するための図である。 本発明の第2の実施形態の変形例に係る3次元物体情報計測装置の概略構成図である。 本発明の実施例3に係る3次元物体情報計測装置の概略構成図である。 (a)および(b)はそれぞれ、実施例における仮想的な光波の振幅画像および位相画像である。 (a)は、実施例3において干渉縞取得部が干渉光を一度に撮像することによって取得した位相画像であり、(b)は、従来法のように干渉光を逐次撮像することによって取得した位相画像である。
 〔第1の実施形態:複素振幅情報計測〕
 以下、本発明の第1の実施形態について添付図面を参照して説明する。
 〔計測の原理〕
 本発明は、物体から到来する物体光を波面のずれた2つの光に分け、シアリング干渉計を用いて互いに干渉させ、干渉縞画像を計算処理することにより、複素振幅情報または位相情報を得る3次元物体情報計測装置である。第1の実施形態では、複素振幅情報を計測する装置を説明する。図1に示すように、被写体にレンズを介して作成したフーリエ面を2つに分割し、分割された各々を拡大および縮小する等の方法によって波面をずらし、それらを重ね合わせて干渉光を得る。そして、位相シフト法により、干渉光から位相の互いに異なる複数(好ましくは3つ以上)の干渉縞画像を記録し、計算処理によって被写体のフーリエ面の空間コヒーレンス関数を求めて被写体の3次元構造のイメージング(複素振幅情報)を取得する。第1の実施形態では、干渉像を干渉縞取得部によって1度に撮影し、撮像した干渉像から互いに位相の異なる複数の干渉縞画像を構成することで、被写体の複素振幅情報を瞬時に取得することを特徴とする。
 被写体のフーリエ面の空間コヒーレンス関数を求める際に、互いに位相の異なる複数(好ましくは3つ以上)の干渉縞画像が必要である。本実施形態では、この複数の画像を1度に取得する。取得方法としては、微小偏光子アレイと結合した撮像素子を用いる方法と、複数(好ましくは3以上)の撮像素子と偏光子を用いる方法があるが、後者は装置が大きく、複雑になるという問題がある。以下の実施形態では前者の方法を述べる。より具体的には、本発明者らが発明した、高精度瞬時3次元計測可能な並列デジタルホログラフィ(特許第4294526号、特願2008−031965号)で用いた空間分割多重によって、図2に示すように、1度の撮像(1ショット)で4つの干渉縞画像を取得し、演算処理を施すことにより瞬時に3次元物体情報である複素振幅情報を計測する。
 〔3次元物体情報計測装置の構成〕
 第1の実施形態に係る3次元物体情報計測装置1の概略構成を図3に示す。3次元物体情報計測装置1は物体10の3次元構造情報(複素振幅情報)を計測するデジタルホログラフィ装置であり、レンズ21と、直線偏光変換部22と、円偏光変換部28と、シアリング干渉計2と、干渉縞取得部3と、計算部4と、を備えている。物体10は自己発光する物体、または自然光または熱光源からの光で照明された物体である。
 レンズ21は、物体10から到来する物体光を透過させて、フーリエ面を形成する役目を果たす。直線偏光変換部22は偏光子であり、上記フーリエ面を通過させて、物体光を直線偏光に変換する。
 (シアリング干渉計)
 シアリング干渉計2は、本実施形態では、ラジアルシアリング干渉計であり、偏光ビームスプリッタ(偏光ビーム分割素子)23と、レンズ24と、レンズ25と、ミラー26と、ミラー27と、を備えている。
偏光ビームスプリッタ23は、直線偏光変換部22から入射した光を2分割するとともに、上記2分割された光のうち、再入射した一方の光と、該一方の光と同一の光路を反対方向に進んで再入射した他方の光とを結合する。
 具体的には、図4に示すように、直線偏光変換部22から入射した光L1を、垂直偏光L2と、水平偏光L3とに分割する。垂直偏光L2と水平偏光L3は共通の光路を互いに逆回りに伝播し、再び偏光ビームスプリッタ23によって結合される。すなわち、垂直偏光L2(図4の実線)は、レンズ24、ミラー26、ミラー27およびレンズ25を経て、偏光ビームスプリッタ23に再入射する。一方、水平偏光L3(図4の点線)は、垂直偏光L2の光路と逆回り、すなわち、レンズ25、ミラー27、ミラー26およびレンズ24を経て、偏光ビームスプリッタ23に再入射する。
 このとき、レンズ24とレンズ25は、互いに焦点距離が異なっているため、垂直偏光L2と水平偏光L3は、レンズ24とレンズ25を逆方向に通過することにより、一方は拡大され、他方は縮小される。例えば本実施形態では、レンズ24の焦点距離は200mmであり、レンズ25の焦点距離は220mmである。垂直偏光L2は、レンズ24、レンズ25の順に通過するため、フーリエ面が220/200=1.1倍に拡大する。一方、水平偏光L3は、レンズ25、レンズ24の順に通過するため、フーリエ面が200/220≒0.91倍に縮小する。
 偏光ビームスプリッタ23に再入射した垂直偏光L2および水平偏光L3は、結合されて複屈折素子である円偏光変換部28を通過し、互いに逆回りの円偏光となり、干渉光として出力される。出力された干渉光は、撮像装置である干渉縞取得部3へ到達する。
 なお、図4における矢印は光軸に対応する。そのため、便宜上、垂直偏光L2の矢印と水平偏光L3の矢印とをずらして図示しているが、実際は、それらの矢印は一致している。
 (干渉縞取得部)
 本実施形態では、干渉縞取得部3は、偏光子アレイタイプ撮像装置であり、図5(a)に示すように、偏光子アレイ31と、撮像面32と、本体33と、を備えている。偏光子アレイ31と撮像面32とは互いに貼り合わされて、本体33に接合されている。
 図5(b)に示すように、偏光子アレイ31は、入射光の偏光方向および位相シフト量が互いに異なる4種の偏光領域がマトリクス状に配列してなる。左右の両矢印で示す領域は、入射光の位相を変化させることなく通過させる領域である。右上がりの両矢印で示す領域は、入射光の位相を1/4波長(π/2[rad])遅らせる領域であり、上下の両矢印で示す領域は、入射光の位相を1/2波長(π[rad])遅らせる領域であり、左上がりの両矢印で示す領域は、入射光の位相を3/4波長(3π/2[rad])遅らせる領域である。
 図5(c)に示すように、撮像面32は、アレイ状に整列されたCCD、CMOSなどの撮像素子で構成され、複数の画素を有しており、各画素は、偏光子アレイ31の図5(c)に示す各偏光領域と一対一に対応して構成されている。また、複数の画素は、入射光の位相に応じて4つの画素群P1~P4に分かれている。画素群P1には、位相の遅れがない干渉光が入射し、画素群P2には、位相が1/4波長(π/2[rad])遅れた干渉光が入射し、画素群P3には、位相が1/2波長(π[rad])遅れた干渉光が入射し、画素群P4には、位相が3/4波長(3π/2[rad])遅れた干渉光が入射する。
 上記の構成により、干渉縞取得部3に入射した互いに逆回りの円偏光である2つの光波は、4種類の偏光方向および位相の異なる干渉縞画像として記録される。このようにして干渉縞取得部3が一度の撮影によって取得した記録画像のデータは、計算部4に送信される。
 (計算部)
 計算部4は、干渉縞取得部3が取得した記録画像から物体10の3次元情報(複素振幅情報)を演算により出力する役目を果たす部分であり、例えば、汎用のパーソナルコンピュータで構成することができる。図6に示すように、計算部4は、抽出部41、補間部42および演算部43を備えている。これらの各部は、プログラムを計算部4に実行させることによって実現される機能ブロックである。なお、上記各部をハードウェアによって実現してもよい。
 計算部4が記録画像から3次元情報を演算する処理について、図7に基づいて説明する。図7(a)は、干渉縞取得部3が取得した記録画像を示している。記録画像を構成する各画素は、干渉縞取得部3の撮像面32の各画素に対応している。具体的には、互いに異なるパターンで示された画素B1~B4は、それぞれ画素群P1~P4によって取得された画素である。
 計算部4に記録画像のデータが入力されると、抽出部41は、記録画像から画素を位相毎に抽出して、同一位相の画素と画素値の欠落した画素とからなる4つの抽出データを生成する。具体的には、図7(b)に示すように、位相の遅れがない画素B1のみを抽出した抽出データD1aと、位相が1/4波長(π/2[rad])遅れた画素B2のみを抽出した抽出データD2aと、位相が1/2波長(π[rad])遅れた画素B3のみを抽出した抽出データD3aと、位相が3/4波長(3π/2[rad])遅れた画素B4のみを抽出した抽出データD4aとが生成される。同図(b)からもわかるように、抽出データD1a~D4aにおいて、全体の3/4の画素は画素値が欠落している。
 続いて、計算部4の補間部42は、4つの抽出データD1a~D4aの各々に対して画素補間を行うことにより、図7(c)に示すような4つの補間データD1b~D4bを生成する。具体的には、補間部42は、記録画像から画素を位相毎に抽出して、同一位相の画素と画素値の欠落した画素とからなる4つの抽出データを生成する。本実施形態に適用可能な補間処理は特に限定されないが、例えば、画素値を算出しようとする、欠落画素の周囲にある同一偏光、同一位相の画素の画素値を用いて、線形補間(1次の内挿)することによって、欠落画素の画素値を算出することによって補間処理を行ってもよい。または、欠落画素の周囲にある同一偏光、同一位相の画素の画素値を用いて、2次又は3次で内挿する、あるいは外挿することによって、欠落画素の画素値を算出してもよい。補間部42は、このような補間処理によって、抽出データD1a~D4aにおける欠落画素の画素値を決定して、互いに位相の異なる干渉像に近似した補間データD1b~D4bを生成することができる。図7(c)において、補間データD1bは、位相の遅れがない干渉画像に近似し、補間データD2bは位相が1/4波長(π/2[rad])遅れた干渉画像に近似し、補間データD3bは位相が1/2波長(π[rad])遅れた干渉画像に近似し、補間データD4bは位相が3/4波長(3π/2[rad])遅れた干渉画像に近似している。
 演算部43は、補間部42が生成した補間データD1b~D4bから物体10のフーリエ面の空間コヒーレンス関数を求めることにより、物体10の3次元構造のイメージング(複素振幅情報)を演算する。具体的には、演算部43は、物体10の像を再構成するためのアルゴリズムを用いて、4つの補間データD1b~D4bから、撮像面の複素振幅分布を算出し、得られた複素振幅分布をもとに、物体10の再生像を得ることができる。
 本実施形態における演算部43の演算処理では、位相シフト法にて空間コヒーレンス関数の複素振幅を求め、逆フーリエ変換することで物体10の任意の奥行き位置での再生像を取得する。このようにして瞬時3次元イメージングが可能である。以下に、詳細な3次元イメージングのフローを以下に説明する。
[規則26に基づく補充 20.03.2018] 
説明の簡単化のために補間データD1b~D4bを
Figure WO-DOC-FIGURE-0
とすると、下記の式(1)によって、図7(d)に示すような空間コヒーレンスの複素振幅を求める。
Figure WO-DOC-MATHS-1
得られた空間コヒーレンスの複素振幅
Figure WO-DOC-FIGURE-1
から下記の式(2)によって任意の奥行zでの物体光の複素振幅
Figure WO-DOC-FIGURE-2
を求める。
Figure WO-DOC-MATHS-2
ここで、aはレンズによって拡大される倍率、fはレンズの焦点距離、λは中心波長を表す。このようにして、図7(e)に示すような再生像(複素振幅情報)が得られる。
 〔本実施形態の特徴〕
 本実施形態に係る3次元物体情報計測装置1は、シアリング干渉計を用いることにより干渉光の記録画像を一度の撮影によって取得し、計算部4において、1つの記録画像から画素抽出および画素補間により、複数の補間データを生成し、これらの補間データから物体の複素振幅情報を演算することを特徴としている。シアリング干渉計では、物体から到来した物体光を2つの光に分け、それらを互いに干渉させるため、レーザ光源などの可干渉性の高い参照光を必要としない。また、物体光を分割した2つの光は、共通の光路を通過するため、光学的調整が簡単であり、振動や温度変化などの外部擾乱に対してロバスト性を高めることができる。
 さらに、干渉縞取得部3は、干渉光を一度に撮影することによって干渉縞画像を取得するので、動く物体の構造、または形状の変化する物体の複素振幅情報の計測も可能である。また、干渉縞取得部3として例示した偏光子アレイタイプ撮像装置は、偏光イメージングカメラとして市販されている。3次元物体情報計測装置1の他の素子も、市販のものを使用することができる。よって、入手が容易な素子で3次元物体情報計測装置1を構成できる。
 また、本実施形態に係る3次元物体情報計測装置1では、従来の逐次撮影によって得られた物体の複素振幅情報と同等以上の精度の複素振幅情報を得られることを特徴とする。ここで、複数の補間データは、補間処理によって生成されたものであるため、従来の逐次撮影によって得られた複数の干渉画像と近似しているが同一ではない。そのため、一般的に、補間データに基づいて得られた複素振幅情報は、逐次撮影によって得られた複数の干渉画像に基づいて得られた複素振幅情報に比べ、精度が劣ることが予想される。実際、本発明者による複素振幅情報の計測装置(国際公開第2014/171256号)では、[表1]および[表2]に示されるように、一度の撮影によって得られた物体の記録画像から得られた位相精度(実施例1~4)は、逐次撮影によって得られた物体の記録画像から得られた位相精度(比較例1~4)よりも劣る結果となった。
 また、参照光を用いる通常の干渉計測法では、同じサイズの物体光と参照光とを干渉させることが望ましいが、本発明が採用しているラジアルシアリング干渉による計測法においては、経路の同じ光路を伝搬した倍率の異なる像の干渉で作られているので、シア量による誤差(シア量)を含んだものとなっている。
 よって、本実施形態のように、シアリング干渉計による干渉光を一度に撮影することによって取得した記録画像から、抽出・補間処理によって生成した補間データに基づいて物体の複素振幅情報を演算すると、シアリング干渉計によるシア量による誤差がさらに拡大して、複素振幅情報の精度がさらに低下することが予想されたため、当業者は、本願出願時まで本実施形態に想到することができなかった。
 しかし、実際には、研究の結果、記録画像に対する抽出・補間処理によってシア量による誤差を低減できることが本発明者によって初めて見出された。すなわち、本実施形態における補間データ内の補間された画素の画素値は、実際に測定された値ではなく、演算によって算出された値であるため、従来のように実際に逐次撮影を行って得られる干渉像とは異なっている可能性があるが、補間データでは、隣接する画素間の画素値が急激に変化することが無くなるため(平滑化)、シア量による誤差の低減効果が生じ、ほぼ従来の逐次撮影によって得られた複素振幅情報と同等以上の精度の複素振幅情報を算出することができることが見出された。
 このように、本発明者らは、上述の当時の同業者予想に反して、シア量による誤差を抽出・補間処理によって低減することで、従来の逐次撮影による3次元構造のイメージングよりも鮮明なイメージングが可能となることを初めて見出した。
 〔変形例1〕
 本発明は上記第1の実施形態に限定されるものではなく、種々の変更が可能である。また、上記実施形態に開示された技術的手段を適宜組み合わせて得られる形態も本発明の技術的範囲に含まれる。
 例えば、上記実施形態では、自己発光物体を計測対象としていたが、計測対象は自己発光物体に限られない。例えば、図8に示す3次元物体情報計測装置1は、光源5で照明された反射物体11を計測対象としている。また、図9に示す3次元物体情報計測装置1は、光源5で照明された透過物体12を計測対象としている。また、図10に示す3次元物体情報計測装置1’は、天体13を計測対象としている。
 3次元物体情報計測装置1’は、図3に示す3次元物体情報計測装置1において、図3に示すレンズ21が設けられていない点で異なる。これは、天体13のような遠方にある物体から到来する物体光は、レンズ21を介さずともフーリエ面を形成するためである。
 また、全体構成も、上記実施形態に限定されない。図11に示す3次元物体情報計測装置1”は、直線偏光変換部22と、レンズ21と、1/2波長板29aと、シアリング干渉計2と、1/4波長板29bと、干渉縞取得部3と、計算部4とを備えている。シアリング干渉計2は、偏光ビームスプリッタ23と、レンズ24と、レンズ25と、ミラー26と、ミラー27とを備えている。3次元物体情報計測装置1”は、図3に示す3次元物体情報計測装置1と比較すると、直線偏光変換部22およびレンズ21の位置を入れ替え、円偏光変換部28を1/2波長板29aおよび1/4波長板29bに置き換えた点で異なっている。直線偏光変換部22によって直線偏光に変換された物体光は、1/2波長板29aおよび1/4波長板29bを通過することにより、垂直偏光L2と水平偏光L3とが互いに逆回りの円偏光となり、干渉縞取得部3へ到達する。
 また、上記実施形態では、ラジアルシアリング干渉計を用いた3次元物体情報計測装置について説明したが、ラテラルシアリング干渉計や回転シアリング干渉計などの他のシアリング干渉計を用いた3次元物体情報計測装置も本発明に含まれる。これらの他のシアリング干渉計を用いた3次元物体情報計測装置においても、シア量による誤差を抽出・補間処理によって低減することができるため、逐次撮影による従来法よりも鮮明なイメージングが可能となる。
 さらに、上記実施形態では、光を用いた3次元物体情報計測装置を説明したが、波動性のあるものであれば光に限定されるものではなく、X線や電子線などの干渉性の低い波動源を用いることができることは言うまでもない。
 以下、本発明の実施例1および2について説明するが、本発明はこれらに限定されない。
 (実験条件)
 実施例1では、図12に示すように、被写体として緑色のLED5aを使用し、3次元物体情報計測装置として、図11に示す3次元物体情報計測装置1”を用いた。3次元物体情報計測装置1”において、レンズ21の焦点距離は100mmであり、レンズ24の焦点距離は200mmであり、レンズ25の焦点距離は220mmであった。また、レンズ21から偏光ビームスプリッタ23を経由したレンズ24までの光路長は100mm+200mm=300mmであり、レンズ21から偏光ビームスプリッタ23を経由したレンズ25までの光路長は100mm+220mm=320mmであり、レンズ24からミラー26およびミラー27を経由したレンズ25までの光路長は200mm+220mm=420mmであり、レンズ24から偏光ビームスプリッタ23を経由した干渉縞取得部3までの光路長は200mmであり、レンズ25から偏光ビームスプリッタ23を経由した干渉縞取得部3までの光路長は220mmであった。
 図13(a)は、被写体であるLED5aの写真であり、図13(b)は、LED5aの拡大写真であり、図13(c)は、点灯したLED5aの写真である。
 (実験結果)
 LED5aを点灯させ、干渉縞取得部3が干渉光を一度に撮像することによって取得した記録画像を図14(a)に示す。その記録画像から同じ干渉縞画像の情報を持った画素(同位相の画素)を抽出・補間することにより生成された4つの干渉画像(補間データ)を図14(b)に示す。また、それらの4つの画像から上述の式(1)を用いて得られた空間コヒーレンス関数画像を図14(c)に示す。
 さらに、空間コヒーレンス関数画像から上述の式(2)を用いて得られた振幅および位相の再生画像(再生距離z=0、画素数は60×60)を図15(a)および(b)に示す。これらの再生画像から、反射板とLED5aのチップ、更にその上の端子部分が確認できた。
 (実験条件)
 実施例2では、図16(a)に示すように、被写体として緑色のLED5aおよび振幅マスク6を使用、3次元物体情報計測装置として、図11に示す3次元物体情報計測装置1”を用いた。図16(b)に示すように、振幅マスク6には、「F」字形状のスリットが形成されており、LED5aと直線偏光変換部22との間に振幅マスク6を設置した。
 (実験結果)
 実施例1と同様、LED5aを点灯させ、干渉縞取得部3が一度の撮像によって干渉縞画像を記録し、当該干渉縞画像に対し抽出・補間することにより生成された4つの画像から、再生画像を得た。図17(a)および(b)は、振幅マスク6に合焦した再生画像の振幅像および位相画像である。図18(a)および(b)は、LED5aに合焦した再生画像の振幅像および位相画像である。図18では、振幅マスク6を透過した光のみによってLED5aが観測できていることが分かる。
 〔第2の実施形態:位相情報計測〕
 以下、本発明の第2の実施形態について添付図面を参照して説明する。
 〔計測の原理〕
 本発明の第2の実施形態に係る3次元物体情報(位相情報)計測装置は、レーザ光を照射された物体を通過あるいは反射した光(計測光波)を波面のずれた2つの光に分けて互いに干渉させるシアリング干渉計を用いる干渉計測装置である。一般的に、シアリング干渉を用いた計測では、図21に示すように、被写体の計測光波を2つに分割し、分割された各々を拡大および縮小する等の方法によって波面をずらし、それらを重ね合わせて干渉光を得る。そして、位相シフト法により、干渉光から位相の互いに異なる複数(好ましくは3つ以上)の干渉縞画像(位相差画像)を記録し、計算処理によって被写体の位相画像を取得する。本実施形態では、シアリング干渉計による干渉光を干渉縞取得部によって1度に撮影し、撮像した干渉像から互いに位相の異なる複数の干渉縞画像を構成することで、被写体の位相画像を瞬時に取得することを特徴とする。
 位相差画像の取得方法としては、微小偏光子アレイと結合した撮像素子を用いる方法と、複数(好ましくは3以上)の撮像素子と偏光子を用いる方法がある。以下の第2の実施形態では前者の方法を述べる。より具体的には、本発明者らが発明した、高精度瞬時3次元計測可能な並列デジタルホログラフィ(特許第4294526号、特願2008−031965号)を用いた空間分割多重によって、図22に示すように、1度の撮像で4つの干渉縞画像を取得する。これにより、瞬時(1ショット)に位相画像を取得することができる。
 〔3次元物体情報計測装置の構成〕
 第2の実施形態に係る3次元物体情報計測装置201の概略構成を図23に示す。3次元物体情報計測装置201は物体210の位相画像を取得する装置であり、レーザ光源LAと、レンズ221と、直線偏光変換部222と、シアリング干渉計202と、円偏光変換部228と、干渉縞取得部203と、計算部204と、を備えている。レーザ光源LAは、駆動部LA1とレーザダイオードLA2とを備えており、レーザ光を出射する。物体210は透明物体である。
 レンズ221は、レーザ光源LAから出射されたレーザ光を平行光にする。レーザ光が平行光である場合は、レンズ221を設けなくてもよい。物体210は透明であり、レンズ221と直線偏光変換部222との間に設置されている。直線偏光変換部222は偏光子であり、物体10を通過した光を通過させて直線偏光に偏光させる。
 (シアリング干渉計)
 シアリング干渉計202は、本実施形態では、ラジアルシアリング干渉計であり、偏光ビームスプリッタ(偏光ビーム分割素子)223と、レンズ224と、レンズ225と、ミラー226と、ミラー227と、を備えている。
偏光ビームスプリッタ223は、直線偏光変換部222から入射した光を2分割するとともに、上記2分割された光のうち、再入射した一方の光と、該一方の光と同一の光路を反対方向に進んで再入射した他方の光とを結合する。
 具体的には、図24に示すように、直線偏光変換部222から入射した光L1を、垂直偏光L2と、水平偏光L3とに分割する。垂直偏光L2と水平偏光L3は共通の光路を互いに逆回りに伝播し、再び偏光ビームスプリッタ223によって結合される。すなわち、垂直偏光L2(図24の実線)は、レンズ224、ミラー226、ミラー227およびレンズ225を経て、偏光ビームスプリッタ223に再入射する。一方、水平偏光L3(図24の点線)は、垂直偏光L2の光路と逆回り、すなわち、レンズ225、ミラー227、ミラー226およびレンズ224を経て、偏光ビームスプリッタ223に再入射する。
 このとき、レンズ224とレンズ225は、互いに焦点距離が異なっているため、垂直偏光L2と水平偏光L3は、レンズ224とレンズ225を逆方向に通過することにより、一方は拡大され、他方は縮小される。例えば本実施形態2では、レンズ224の焦点距離は200mmであり、レンズ225の焦点距離は220mmである。垂直偏光L2は、レンズ224、レンズ225の順に通過するため、フーリエ面が220/200=1.1倍に拡大する。一方、水平偏光L3は、レンズ225、レンズ224の順に通過するため、フーリエ面が200/220≒0.91倍に縮小する。
 偏光ビームスプリッタ223に再入射した垂直偏光L2および水平偏光L3は、結合されて円偏光変換部228を通過する。ここで、円偏光変換部228は屈折率が直線偏光の振動方向によって異なるものであり、伝播速度が異なるので円偏光変換部228の結晶を透過した後に、直交する直線偏光成分の間には位相差が生じる。よって、結合された垂直偏光L2および水平偏光L3は、互いに逆回りの円偏光となり、シアリング干渉計202から干渉光として出力される。出力された干渉光は、干渉縞取得部203へ到達する。
 なお、図24における矢印は光軸に対応する。そのため、便宜上、垂直偏光L2の矢印と水平偏光L3の矢印とをずらして図示しているが、実際は、それらの矢印は一致している。
 (干渉縞取得部)
 本実施形態では、干渉縞取得部203は、偏光子アレイタイプ撮像装置であり、図25(a)に示すように、偏光子アレイ231と、撮像面232と、本体233と、を備えている。偏光子アレイ231と撮像面232とは互いに貼り合わされて、本体233に接合されている。
 図25(b)に示すように、偏光子アレイ231は、入射光の偏光方向および位相シフト量が互いに異なる4種の偏光領域がマトリクス状に配列してなる。左右の両矢印で示す領域は、入射光の位相を変化させることなく通過させる領域である。右上がりの両矢印で示す領域は、入射光の位相を1/4波長(π/2[rad])遅らせる領域であり、上下の両矢印で示す領域は、入射光の位相を1/2波長(π[rad])遅らせる領域であり、左上がりの両矢印で示す領域は、入射光の位相を3/4波長(3π/2[rad])遅らせる領域である。
 図25(c)に示すように、撮像面232は、アレイ状に整列されたCCD、CMOSなどの複数の画素を有しており、各画素は、偏光子アレイ231の各偏光領域と一対一に対応している。また、複数の画素は、入射光の位相に応じて4つの画素群P1~P4に分かれている。画素群P1には、位相の遅れがない干渉光が入射し、画素群P2には、位相が1/4波長(π/2[rad])遅れた干渉光が入射し、画素群P3には、位相が1/2波長(π[rad])遅れた干渉光が入射し、画素群P4には、位相が3/4波長(3π/2[rad])遅れた干渉光が入射する。
 上記の構成により、干渉縞取得部203に入射した互いに逆回りの円偏光である2つの光波は、4種類の偏光方向および位相の異なる干渉縞画像(位相差画像)として記録される。このようにして干渉縞取得部203が一度の撮影によって取得した記録画像のデータは、計算部204に送信される。
 (計算部)
 計算部204は、干渉縞取得部203が取得した記録画像から物体210の位相情報を演算する装置であり、例えば、汎用のパーソナルコンピュータで構成することができる。図26に示すように、計算部204は、抽出部241、補間部242および演算部243を備えている。これらの各部は、プログラムを計算部204に実行させることによって実現される機能ブロックである。なお、上記各部をハードウェアによって実現してもよい。
 計算部204が記録画像から位相情報を演算する処理について、図27に基づいて説明する。図27(a)は、干渉縞取得部203が取得した記録画像を示している。記録画像を構成する各画素は、干渉縞取得部203の撮像面232の各画素に対応している。具体的には、互いに異なるパターンで示された画素B1~B4は、それぞれ画素群P1~P4によって取得された画素である。
 計算部204に記録画像のデータが入力されると、抽出部41は、記録画像から画素を位相毎に抽出して、同一位相の画素と画素値の欠落した画素とからなる4つの抽出データを生成する。具体的には、図27(b)に示すように、位相の遅れがない画素B1のみを抽出した抽出データD1aと、位相が1/4波長(π/2[rad])遅れた画素B2のみを抽出した抽出データD2aと、位相が1/2波長(π[rad])遅れた画素B3のみを抽出した抽出データD3aと、位相が3/4波長(3π/2[rad])遅れた画素B4のみを抽出した抽出データD4aとが生成される。抽出データD1a~D4aにおいて、全体の3/4の画素は画素値が欠落している。
 続いて、計算部4の補間部42は、4つの抽出データD1a~D4aの各々に対して画素補間を行うことにより、図27(c)に示すような4つの補間データD1b~D4bを生成する。具体的には、補間部242は、抽出データD1a~D4aの画素値が欠落している画素(欠落画素とする)に対して補間処理を行う。本実施形態に適用可能な補間処理は特に限定されないが、例えば、画素値を算出しようとする、欠落画素の周囲にある同一偏光、同一位相の画素の画素値を用いて、線形補間(1次の内挿)することによって、欠落画素の画素値を算出することによって補間処理を行ってもよい。または、欠落画素の周囲にある同一偏光、同一位相の画素の画素値を用いて、2次又は3次で内挿する、あるいは外挿することによって、欠落画素の画素値を算出してもよい。補間部242は、このような補間処理によって、抽出データD1a~D4aにおける欠落画素の画素値を決定して、互いに位相の異なる干渉像に近似した補間データD1b~D4bを生成することができる。図27(c)において、補間データD1bは、位相の遅れがない干渉画像に近似し、補間データD2bは位相が1/4波長(π/2[rad])遅れた干渉画像に近似し、補間データD3bは位相が1/2波長(π[rad])遅れた干渉画像に近似し、補間データD4bは位相が3/4波長(3π/2[rad])遅れた干渉画像に近似している。
 演算部243は、補間部242が生成した補間データD1b~D4bから物体210の位相情報を演算する。具体的には、演算部243は、位相シフト法を用いて2つの光波の位相差画像を求め、波面再構成処理を行うことで位相画像を得る。位相差画像から波面再構成する際のアルゴリズムは、ゼルニケ多項式を用いる方法やルジャンドル多項式を用いる方法、あるいは、中心部を参照として再構成する方法などが適用できる。
 本実施形態2における演算部243の演算処理では、中心部を参照として再構成する方法により、波面再構成処理を行う。そのアルゴリズムを詳細に説明する。
[規則26に基づく補充 20.03.2018] 
 図24に示す垂直偏光L2を拡大させる前の光波の位相を
Figure WO-DOC-FIGURE-4
、倍率をsとすると、縮小した水平偏光L3の位相
Figure WO-DOC-FIGURE-5
と拡大した垂直偏光L2の位相
Figure WO-DOC-FIGURE-6
の位相関係は、
Figure WO-DOC-MATHS-1-1
となる。この関係式はほかの倍率においても次の式のように成り立つ。
Figure WO-DOC-MATHS-2-2
N回拡大した光波の位相についても、
Figure WO-DOC-MATHS-3
が成り立つ。ここで、1,2,3…,N回拡大する式を足し合わせると、次の式が成り立つ。
Figure WO-DOC-MATHS-4
この式の右辺の第二項は光波を2N+1回拡大している波面を表すため、一様とみなせる。つまり、
Figure WO-DOC-MATHS-5
が成り立つ。記録画像から得られた4枚の干渉縞画像を
Figure WO-DOC-FIGURE-7
とすると,下記の位相シフト法の式によって2つの光波の位相差
Figure WO-DOC-FIGURE-8
が求まる。
Figure WO-DOC-MATHS-6
この位相差
Figure WO-DOC-FIGURE-9
を用いて、上記式から縮小した光波の位相画像
Figure WO-DOC-FIGURE-
を得る。
 〔本実施形態の特徴〕
 本実施形態に係る3次元物体情報計測装置201は、シアリング干渉計による干渉光の記録画像を一度の撮影によって取得し、計算部204において、1つの記録画像から画素抽出および画素補間により、複数の補間データを生成し、これらの補間データから物体からの光の位相情報を演算することを特徴としている。シアリング干渉計では、物体から到来した物体光を2つの光に分け、それらを互いに干渉させるため、レーザ光源などの可干渉性の高い参照光を必要としない。また、物体光を分割した2つの光は、共通の光路を通過するため、光学的調整が簡単であり、外部擾乱に対してロバスト性を高めることができる。
 さらに、干渉縞取得部203は、干渉光を一度に撮影することによって干渉縞画像を取得するので、動く物体の構造、または形状の変化する物体からの光の位相情報の計測にも適用できる。また、干渉縞取得部203として例示した偏光子アレイタイプ撮像装置は、偏光イメージングカメラとして市販されている。3次元物体情報計測装置1の他の素子も、市販のものを使用することができる。よって、入手が容易な素子で3次元物体情報計測装置201を構成できる。
 また、本実施形態に係る3次元物体情報計測装置201では、従来の逐次撮影によって得られた位相情報と同等以上の精度の位相情報を得られることを特徴とする。ここで、複数の補間データは、補間処理によって生成されたものであるため、従来の逐次撮影によって得られた複数の干渉画像と近似しているが同一ではない。そのため、一般的に、補間データに基づいて得られた位相情報は、逐次撮影によって得られた複数の干渉画像に基づいて得られた位相情報に比べ、精度が劣ることが予想される。実際、本発明者による計測装置(国際公開第2014/171256号)では、[表1]および[表2]に示されるように、一度の撮影によって得られた物体の記録画像から得られた位相精度(実施例1~4)は、逐次撮影によって得られた物体の記録画像から得られた位相精度(比較例1~4)よりも劣る結果となった。
 また、参照光を用いる通常の干渉計測法では、同じサイズの物体光と参照光とを干渉させることが望ましいが、本実施形態が採用しているラジアルシアリング干渉による計測法においては、経路の同じ光路を伝搬した倍率の異なる像の干渉で作られているので、シア量による誤差(シア量)を含んだものとなっている。
 よって、本実施形態のように、シアリング干渉計による干渉光を一度に撮影することによって取得した記録画像から、抽出・補間処理によって生成した補間データに基づいて物体からの光の位相情報を演算すると、シア量による誤差がさらに拡大して、位相情報の精度がさらに低下することが予想される。そのため、当業者は、本願出願時まで本実施形態に想到することができなかった。
 しかし、実際には、記録画像に対する抽出・補間処理によってシア量による誤差を低減できることが本発明者によって見出された。すなわち、本実施形態における補間データ内の補間された画素の画素値は、実際に測定された値ではなく、演算によって算出された値であるため、従来のように実際に逐次撮影を行って得られる干渉像とは異なっている可能性があるが、補間データでは、隣接する画素間の画素値が急激に変化することが無くなるため(平滑化)、シア量による誤差の低減効果が生じ、ほぼ従来の逐次撮影によって得られた位相情報と同等以上の精度の位相情報を算出することができる。
 このように、本発明者らは、上述の予想にもかかわらず、シア量による誤差を抽出・補間処理によって低減することで、従来の逐次撮影によって得られる位相情報よりも高精度の位相情報が得られることを初めて見出した。
 〔変形例2〕
 本発明は上記第2の実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能である。また、上記実施形態に開示された技術的手段を適宜組み合わせて得られる形態も本発明の技術的範囲に含まれる。
 例えば、上記実施形態では、透明物体を計測対象としていたが、計測対象は透明物体に限られず、例えば、図28に示す3次元物体情報計測装置201’のように、反射物体を計測対象としてもよい。3次元物体情報計測装置201’は、図23に示す3次元物体情報計測装置201において、ビームスプリッタ229をさらに備えた構成である。3次元物体情報計測装置201’では、レーザ光源LAから出射されたレーザ光は、レンズ221およびビームスプリッタ229を介して反射物体である物体211に到達し、物体211で反射した後、直線偏光変換部222に到達する。レーザ光は、物体211の表面で反射するときに、物体211の形状によって位相が変化する。
 以下、本発明の実施例3について説明するが、本発明はこれに限定されない。
 (シミュレーション条件)
 実施例3では、本発明の有効性を確認するための計算機シミュレーションを行った。計算機シミュレーションでは、図29に示すように、3次元物体情報計測装置として上記の第2の実施形態に係る3次元物体情報計測装置201を用いた。3次元物体情報計測装置201において、レンズ224の焦点距離は170mmであり、レンズ225の焦点距離は175mmであった。また、物体210から偏光ビームスプリッタ223を経由したレンズ224までの光路長は170mmであり、レンズ221から偏光ビームスプリッタ223を経由したレンズ225までの光路長は175mmであり、レンズ224からミラー226およびミラー227を経由したレンズ25までの光路長は170mm+175mm=345mmであり、レンズ224から偏光ビームスプリッタ223を経由した干渉縞取得部203までの光路長は170mmであり、レンズ225から偏光ビームスプリッタ223を経由した干渉縞取得部203までの光路長は175mmであった。これにより、偏光ビームスプリッタ223によって分割された光波の一方は170/175≒0.9714倍に縮小され、他方は175/170≒1.0294倍に拡大される。
 被写体である物体210は液滴であると仮定した。図30(a)および(b)はそれぞれ、物体210の仮想的な光波の振幅画像および位相画像である。また、レーザ光源LAからのレーザ光の波長は532nmと仮定し、干渉縞取得部203の画素数は300×300画素と仮定した。計算機シミュレーションは、波面再構成処理に中心部を参照として再構成する方法を採用した。
 (シミュレーション結果)
 実施例3によって再生された位相画像を図31(a)に示す。この位相画像の相関係数(類似度)は0.9874であった。また、複数の位相差画像を逐次撮影によって取得する従来法によって再生された位相画像を図31(b)に示す。この位相画像の相関係数(類似度)は、実施例3によって再生された位相画像よりも低い0.9873であった。このシミュレーション結果から、第2の実施形態に係る3次元物体情報計測装置によって、従来の逐次撮影によって得られた位相情報と同等以上に鮮明な位相画像が再生できることが分かった。
 以上のように、本発明によれば、蛍光などを発する物体や自然光や熱光源からの光で照明された物体の3次元情報である複素振幅情報または透明物体や光学部品の位相情報を瞬時に記録することを可能にする。3次元情報である複素振幅情報を瞬時に記録することは、生体の観察・計測のための生体顕微鏡、部品、製品の工業検査装置、粒子、流体などの分布、形状、大きさ、密度の計測において重要である。その結果、本発明は、創薬、製品検査装置および製品製造装置などの実現に効果をもたらす。また、3次元情報である位相情報を瞬時に記録することは、透明物体の構造計測であるガス噴流の圧力変化のイメージング装置、透明物体・生細胞の厚さ分布・屈折率分布計測装置、レーザの品質検査であるハイパワーレーザの出射光の波面計測装置、超短パルスレーザの出射光の波面計測装置として展開することができる。これより、我が国の経済を牽引する製造業界、バイオテクノロジー業界に置いて、国際競争力の高い製品の開発に大きく寄与できる。
1  3次元物体情報計測装置(デジタルホログラフィ装置)
1’ 3次元物体情報計測装置(デジタルホログラフィ装置)
1” 3次元物体情報計測装置(デジタルホログラフィ装置)
2  シアリング干渉計
3  干渉縞取得部(撮像装置)
4  計算部(計算機)
5  光源
5a LED
6  振幅マスク
10 物体
11 反射物体
12 透過物体
13 天体
21 レンズ
22 直線偏光変換部(偏光子)
23 偏光ビームスプリッタ
24 レンズ
25 レンズ
26 ミラー
27 ミラー
28 円偏光変換部(複屈折素子)
29a 1/2波長板
29b 1/4波長板
31 偏光子アレイ
32 撮像面
33 本体
41 抽出部
42 補間部
43 演算部
B1~B4 画素
D1a~D4a 抽出データ
D1b~D4b 補間データ
L2 垂直偏光
L3 水平偏光
P1~P4 画素群
201  3次元物体情報計測装置(干渉計測装置)
201’ 3次元物体情報計測装置(干渉計測装置)
202  シアリング干渉計
203  干渉縞取得部(撮像装置)
204  計算部(計算機)
210 物体
211 物体
221 レンズ
222 直線偏光変換部(偏光子)
223 偏光ビームスプリッタ
224 レンズ
225 レンズ
226 ミラー
227 ミラー
228 円偏光変換部(複屈折素子)
229 ビームスプリッタ
231 偏光子アレイ
232 撮像面
233 本体
241 抽出部
242 補間部
243 演算部
LA  レーザ光源
LA1 駆動部
LA2 レーザダイオード

Claims (6)

  1.  物体から到来する物体光を直線偏光に変換する直線偏光変換部と、
     直線偏光に変換された前記物体光をシアリング干渉させるシアリング干渉計と、
     前記シアリング干渉計による干渉光の垂直偏光と水平偏光とを円偏光に変換する円偏光変換部と、
     前記円偏光を一度の撮影によって記録する干渉縞取得部と、
     前記干渉縞取得部の記録画像から前記物体の複素振幅情報を演算する計算部と、
    を備えた3次元物体情報計測装置であって、
     前記記録画像では、画素によって位相が異なり、
     前記計算部は、
     前記記録画像から画素を位相毎に抽出して、同一位相の画素と画素値の欠落した画素とからなる複数の抽出データを生成する抽出部と、
     前記複数の抽出データの各々に対して画素補間を行うことにより、互いに位相の異なる複数の干渉画像に近似した複数の補間データを生成する補間部と、
     前記複数の補間データから複素振幅情報または位相画像を演算する演算部と、
    を備えることを特徴とする3次元物体情報計測装置。
  2.  前記シアリング干渉計はラジアルシアリング干渉計である、請求項1に記載の3次元物体情報計測装置。
  3.  前記ラジアルシアリング干渉計は、
     前記直線偏光変換部から入射した光を2分割するとともに、前記2分割された光のうち、再入射した一方の光と、前記一方の光と同一の光路を反対方向に進んで再入射した他方の光とを結合する偏光ビーム分割素子と、
     前記光路に配置された、お互いに焦点距離が異なる2枚のレンズと、
    を備え、
     前記偏光ビーム分割素子によって結合された光を前記干渉光として出力することを特徴とする請求項2に記載の3次元物体情報計測装置。
  4.  前記干渉縞取得部は、
     入射光の偏光方向および位相シフト量が互いに異なる複数種の偏光領域を有する偏光子アレイと、
     前記偏光子アレイと結合され、前記偏光領域の各々と一対一に対応した画素を有する撮像素子と、
    を備えた偏光子アレイタイプ撮像装置であることを特徴とする、請求項1に記載の3次元物体情報計測装置。
  5.  前記物体光はフーリエ変換された光であり、
     前記シアリング干渉計は前記物体光のフーリエ面同士を干渉させ、
     前記干渉縞取得部は前記円偏光の干渉縞を記録し、
     前記演算部は、前記複数の補間データから、位相シフト法を用いて、空間コヒーレンス関数の複素振幅を求め、逆フーリエ変換することにより前記複素振幅情報を演算することを特徴とする請求項1~4のいずれかに記載の3次元物体情報計測装置。
  6.  前記物体光は可干渉光が前記物体を反射あるいは透過した光であり、
     前記シアリング干渉計は前記物体光同士を干渉させ、
     前記干渉縞取得部は前記円偏光の干渉縞を記録し、
     前記演算部は、前記複数の補間データから、位相シフト法を用いて、前記干渉光の位相差画像を求め、前記位相差画像から、ゼルニケ多項式、ルジャンドル多項式、あるいは、中心部を参照として再構成する方法を適用して波面再構成することにより前記位相画像を演算することを特徴とする請求項1~4のいずれかに記載の3次元物体情報計測装置。
PCT/JP2018/005604 2017-02-10 2018-02-09 3次元物体情報計測装置 WO2018147473A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018567549A JP6995376B2 (ja) 2017-02-10 2018-02-09 3次元物体情報計測装置

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2017023018 2017-02-10
JP2017-023023 2017-02-10
JP2017-023018 2017-02-10
JP2017023023 2017-02-10

Publications (1)

Publication Number Publication Date
WO2018147473A1 true WO2018147473A1 (ja) 2018-08-16

Family

ID=63106800

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/005604 WO2018147473A1 (ja) 2017-02-10 2018-02-09 3次元物体情報計測装置

Country Status (2)

Country Link
JP (1) JP6995376B2 (ja)
WO (1) WO2018147473A1 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110243786A (zh) * 2019-06-10 2019-09-17 佛山科学技术学院 基于二维剪切干涉测量待测气体参数的装置
WO2020066738A1 (ja) * 2018-09-26 2020-04-02 日本電信電話株式会社 偏光イメージング撮像システム
JP2020190616A (ja) * 2019-05-21 2020-11-26 日本放送協会 ホログラム記録再生装置及び立体像再生方法
CN112525104A (zh) * 2020-12-18 2021-03-19 昆明理工大学 一种数字全息三维形貌测量装置及方法
JP2021060283A (ja) * 2019-10-07 2021-04-15 国立研究開発法人情報通信研究機構 干渉光生成素子及び干渉イメージング装置
CN113029960A (zh) * 2021-04-18 2021-06-25 中国人民解放军空军工程大学 一种测量航空部件表面微缺陷的高精度实时三维测量系统及方法
JP2021184033A (ja) * 2020-05-21 2021-12-02 日本放送協会 光変調素子及び位相計測装置
KR20220095977A (ko) * 2020-12-30 2022-07-07 서울과학기술대학교 산학협력단 간섭계를 포함하는 광학 검사 시스템
JPWO2022162868A1 (ja) * 2021-01-29 2022-08-04
WO2022215499A1 (ja) * 2021-04-09 2022-10-13 富士フイルム株式会社 ホログラフィー装置及び細胞の評価方法

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112179505B (zh) * 2020-09-23 2022-08-02 中国科学院光电技术研究所 一种基于楔形平板剪切干涉仪图像处理装置及方法
CN112304241A (zh) * 2020-10-27 2021-02-02 衡阳市智谷科技发展有限公司 一种基于数字全息术的物体形貌测试方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS4874250A (ja) * 1971-12-29 1973-10-06
JP2005283683A (ja) * 2004-03-26 2005-10-13 Japan Science & Technology Agency デジタルホログラフィ装置及びデジタルホログラフィを用いた像再生方法
JP2007212455A (ja) * 2006-02-08 2007-08-23 Carl Zeiss Smt Ag 光学的放射の偏光の状態に対する光学系の影響を近似する方法
JP2010151590A (ja) * 2008-12-25 2010-07-08 Nikon Corp 画像縮小方法及び画像縮小用プログラム
EP2535679A1 (en) * 2011-06-15 2012-12-19 Lambda-X Improvements in or relating to interferometry
WO2014054446A1 (ja) * 2012-10-05 2014-04-10 国立大学法人京都工芸繊維大学 デジタルホログラフィ装置
JP2015031658A (ja) * 2013-08-06 2015-02-16 キヤノン株式会社 シアリング干渉計とシアリング干渉計による測定方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS4874250A (ja) * 1971-12-29 1973-10-06
JP2005283683A (ja) * 2004-03-26 2005-10-13 Japan Science & Technology Agency デジタルホログラフィ装置及びデジタルホログラフィを用いた像再生方法
JP2007212455A (ja) * 2006-02-08 2007-08-23 Carl Zeiss Smt Ag 光学的放射の偏光の状態に対する光学系の影響を近似する方法
JP2010151590A (ja) * 2008-12-25 2010-07-08 Nikon Corp 画像縮小方法及び画像縮小用プログラム
EP2535679A1 (en) * 2011-06-15 2012-12-19 Lambda-X Improvements in or relating to interferometry
WO2014054446A1 (ja) * 2012-10-05 2014-04-10 国立大学法人京都工芸繊維大学 デジタルホログラフィ装置
JP2015031658A (ja) * 2013-08-06 2015-02-16 キヤノン株式会社 シアリング干渉計とシアリング干渉計による測定方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
WALLACE, JOHN: "Coping with square opening by algorithm of radial shearing interferometer", LASER FOCUS WORLD JAPAN, November 2015 (2015-11-01), pages 17 *
WATANABE, KAHO ET AL.: "Recording incoherent off-axis hologram by rotational shearing interferometer", EXTENDED ABSTRACTS OF THE 76TH JSAP AUTUMN MEETING, vol. 76, 31 August 2015 (2015-08-31) *

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020066738A1 (ja) * 2018-09-26 2020-04-02 日本電信電話株式会社 偏光イメージング撮像システム
JP2020051868A (ja) * 2018-09-26 2020-04-02 日本電信電話株式会社 偏光イメージング撮像システム
JP2020190616A (ja) * 2019-05-21 2020-11-26 日本放送協会 ホログラム記録再生装置及び立体像再生方法
JP7324047B2 (ja) 2019-05-21 2023-08-09 日本放送協会 ホログラム記録再生装置及び立体像再生方法
CN110243786A (zh) * 2019-06-10 2019-09-17 佛山科学技术学院 基于二维剪切干涉测量待测气体参数的装置
JP7300171B2 (ja) 2019-10-07 2023-06-29 国立研究開発法人情報通信研究機構 干渉光生成素子及び干渉イメージング装置
JP2021060283A (ja) * 2019-10-07 2021-04-15 国立研究開発法人情報通信研究機構 干渉光生成素子及び干渉イメージング装置
WO2021070708A1 (ja) * 2019-10-07 2021-04-15 国立研究開発法人情報通信研究機構 干渉光生成素子及び干渉イメージング装置
US11774288B2 (en) 2019-10-07 2023-10-03 National Institute Of Information And Communications Technology Light interference generator and interference imaging device
JP7478026B2 (ja) 2020-05-21 2024-05-02 日本放送協会 光変調素子及び位相計測装置
JP2021184033A (ja) * 2020-05-21 2021-12-02 日本放送協会 光変調素子及び位相計測装置
CN112525104A (zh) * 2020-12-18 2021-03-19 昆明理工大学 一种数字全息三维形貌测量装置及方法
KR102527425B1 (ko) * 2020-12-30 2023-05-02 서울과학기술대학교 산학협력단 간섭계를 포함하는 광학 검사 시스템
KR20220095977A (ko) * 2020-12-30 2022-07-07 서울과학기술대학교 산학협력단 간섭계를 포함하는 광학 검사 시스템
JPWO2022162868A1 (ja) * 2021-01-29 2022-08-04
WO2022215499A1 (ja) * 2021-04-09 2022-10-13 富士フイルム株式会社 ホログラフィー装置及び細胞の評価方法
CN113029960A (zh) * 2021-04-18 2021-06-25 中国人民解放军空军工程大学 一种测量航空部件表面微缺陷的高精度实时三维测量系统及方法

Also Published As

Publication number Publication date
JPWO2018147473A1 (ja) 2020-01-09
JP6995376B2 (ja) 2022-02-04

Similar Documents

Publication Publication Date Title
WO2018147473A1 (ja) 3次元物体情報計測装置
JP7161777B2 (ja) ホログラフィック撮像装置および同装置に用いるデータ処理方法
US10845760B2 (en) Digital holographic reconstruction device and method using single generation phase shifting method
JP5339535B2 (ja) デジタルホログラフィ装置及び位相板アレイ
JP5648193B2 (ja) 干渉計測装置および干渉計測方法
Desse et al. Digital color holography applied to fluid and structural mechanics
US9678473B2 (en) Apparatus for producing a hologram
WO2015064088A1 (ja) ホログラフィック顕微鏡および高分解能ホログラム画像用のデータ処理方法
JP7231946B2 (ja) 表面形状計測装置および表面形状計測方法
JP7122153B2 (ja) ホログラム記録装置及び像再生装置
JP7352292B2 (ja) ホログラフィック撮像装置およびホログラフィック撮像方法
CN109283821B (zh) 基于涡旋透镜的相移数字全息单次曝光成像装置及方法
Abdelsalam A comparison of digital holographic microscopy and on-axis phase-shifting interferometry for surface profiling
JP6309384B2 (ja) デジタルホログラフィ装置およびデジタルホログラフィ方法
Rosen et al. Three-dimensional imaging by self-reference single-channel digital incoherent holography
Zhong et al. High-stable In-line-and-off-axis Hybrid Digital Holography using High Resolution Reconstruction under Spatial and Frequency Constraints
JP4069204B2 (ja) デジタルホログラフィを利用した変位分布計測方法
CN110262206B (zh) 一种菲涅尔非相干数字全息单次曝光成像方法和系统
Evans et al. Digital phase-sensitive holography for numerical shock-wave distortion cancellation
Aguilar et al. Displacement measurement with multi-level spiral phase filtering in speckle interferometry
Agour et al. Spatial multiplexing digital holography for speckle noise reduction in single-shot holographic two-wavelength contouring
Agour et al. Speckle noise reduction in single-shot holographic two-wavelength contouring
Arroyo et al. A comparison of temporal, spatial and parallel phase shifting algorithms for digital image plane holography
JP4038576B2 (ja) デジタルホログラフィを利用した変位分布計測方法及び物体像再生方法
Schedin Digital holographic interferometry

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18751088

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2018567549

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18751088

Country of ref document: EP

Kind code of ref document: A1