WO2023042346A1 - 光学装置、情報処理方法、および、プログラム - Google Patents

光学装置、情報処理方法、および、プログラム Download PDF

Info

Publication number
WO2023042346A1
WO2023042346A1 PCT/JP2021/034144 JP2021034144W WO2023042346A1 WO 2023042346 A1 WO2023042346 A1 WO 2023042346A1 JP 2021034144 W JP2021034144 W JP 2021034144W WO 2023042346 A1 WO2023042346 A1 WO 2023042346A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
spectral
region
wavelength
subject
Prior art date
Application number
PCT/JP2021/034144
Other languages
English (en)
French (fr)
Inventor
博司 大野
宏弥 加納
英明 岡野
Original Assignee
株式会社東芝
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社東芝 filed Critical 株式会社東芝
Priority to PCT/JP2021/034144 priority Critical patent/WO2023042346A1/ja
Priority to CN202180052432.5A priority patent/CN116137888A/zh
Publication of WO2023042346A1 publication Critical patent/WO2023042346A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object

Definitions

  • Embodiments of the present invention relate to optical devices, information processing methods, and programs.
  • Non-contact shape measurement of objects has become important in various industries. For example, it discloses a method of acquiring the shape of an object by illuminating the object by splitting light and acquiring an image split by an imaging unit.
  • the measurement accuracy of the shape of the subject may be reduced due to the spread of the light when the subject is irradiated with the light that is dispersed.
  • the optical device of the embodiment includes a surface emitting light source, a light selection section, an imaging section, and a derivation section.
  • the light selector splits the light beam emitted from the surface emitting light source into a plurality of spectral light beams in different wavelength regions.
  • the imaging unit captures an image of a subject irradiated with a plurality of spectral light beams to obtain a spectral image.
  • the derivation unit estimates an irradiation region of each of the plurality of spectral light beams on the subject based on the mutual magnitude relationship of the received light intensity for at least two different wavelength regions among the plurality of spectral light beams acquired in the spectral image. From the estimation result, the surface texture or shape information of the subject is derived.
  • FIG. 1 is a schematic diagram of an optical device.
  • FIG. 2 is a block diagram of the functional configuration of the information processing device.
  • FIG. 3A is a diagram showing the wavelength spectrum of the illuminated area.
  • FIG. 3B is a diagram showing the wavelength spectrum of the irradiated region.
  • FIG. 3C is a diagram showing the wavelength spectrum of the illuminated area.
  • FIG. 4 is a flow chart of information processing.
  • FIG. 5 is a schematic diagram of an optical device.
  • FIG. 6 is a schematic diagram of an optical device.
  • FIG. 7A is a diagram showing the wavelength spectrum of the irradiated region.
  • FIG. 7B is a diagram showing the wavelength spectrum of the irradiated region.
  • FIG. 7C is a diagram showing the wavelength spectrum of the irradiated region.
  • FIG. 7A is a diagram showing the wavelength spectrum of the irradiated region.
  • FIG. 7B is a diagram showing the wavelength spectrum of the irradiated region
  • FIG. 8 is a schematic diagram of an optical device.
  • FIG. 9 is a schematic diagram showing the intensity distribution of spectral rays.
  • FIG. 10A is a diagram showing the wavelength spectrum of the irradiated region.
  • FIG. 10B is a diagram showing the wavelength spectrum of the irradiated region.
  • FIG. 10C is a diagram showing the wavelength spectrum of the irradiated region.
  • FIG. 11 is a schematic diagram of an optical device.
  • FIG. 12A is a diagram showing the intensity distribution of a projected image.
  • FIG. 12B is a diagram showing the intensity distribution of the projected image.
  • FIG. 13 is a hardware configuration diagram.
  • FIG. 1 is a schematic diagram showing an example of an optical device 1A of this embodiment.
  • the optical device 1A is an example of an optical device. When collectively describing the optical devices of this embodiment and the embodiments to be described later, they may simply be referred to as the optical device 1 .
  • the optical device 1A includes a light source 10, a light selection section 30, an imaging section 40, and an information processing device 50.
  • the imaging unit 40 and the information processing device 50 are connected so as to be able to exchange data or signals.
  • the light source 10 is a surface emitting light source that emits light rays R.
  • Ray R is an example of an electromagnetic wave.
  • the light source 10 may have a light emitting surface 11 of a finite size and emit electromagnetic waves.
  • the light emitting surface 11 is the exit surface of the light ray R in the light source 10 . That the light emitting surface 11 has a finite size means that the light source 10 is substantially larger than the point light source in the optical system. “Substantially larger than a point light source” means that when the light source 10 is placed far enough away from a general commercially available lens, the light from the light source 10 is larger than the size of the condensing point obtained by condensing the light from the lens. means
  • the light rays R emitted by the light source 10 are, for example, visible rays, X-rays, infrared rays, microwaves, and the like. Moreover, the light beam R emitted by the light source 10 may be either coherent light or incoherent light. Coherent light is, for example, laser light. Incoherent light is, for example, a light emitting diode (LED).
  • LED light emitting diode
  • the light source 10 is an LED
  • the light source 10 is not limited to LEDs, and may be incandescent lamps, fluorescent tubes, mercury lamps, or the like.
  • the light source 10 may be a light source that emits laser, infrared rays, or X-rays.
  • the wavelength included in the light beam R emitted from the light source 10 may be determined according to the wavelength selectivity of the light selector 30, which will be described later.
  • the light beam R emitted from the light source 10 is an electromagnetic wave, for example, visible light
  • the light beam R emitted from the light source 10 includes a light beam having a wavelength in the visible light region from 400 nm to 800 nm. Note that the wavelength included in the light beam R is not limited to this wavelength.
  • the LED which is the light source 10 of the present embodiment, may be an LED having a finite-sized light emitting surface 11 .
  • the present embodiment will be described on the assumption that the size of the light emitting surface 11 is 0.2 mm ⁇ 0.2 mm. Note that the size of the light emitting surface 11 is not limited to this size.
  • the subject B is an inspection target in the optical device 1A.
  • the subject B may be an object that refracts or scatters the light beam R irradiated via the light selection unit 30, which will be described later.
  • the subject B is, for example, but not limited to, a living cell, an object including a laser welded area, and the like.
  • a laser-welded area is an area welded by a laser.
  • the subject B may be any of solid, liquid, and gas. In this embodiment, a case where the subject B is solid will be described as an example.
  • the light selector 30 splits the light beam R emitted from the light source 10 into a plurality of spectral components in different wavelength regions.
  • the split ray R will be referred to as a split ray L for explanation.
  • the light selector 30 separates the light beam R emitted from the light source 10 into a first spectral light beam L1 in the first wavelength region and a second spectral light beam L2 in the second wavelength region.
  • the first spectral ray L1 and the second spectral ray L2 are examples of the spectral ray L.
  • FIG. The first wavelength region and the second wavelength region are wavelength regions different from each other.
  • the light selection unit 30 may be configured to split the spectral ray L into three or more different wavelength regions, and is not limited to splitting into the first spectral ray L1 and the second spectral ray L2.
  • the light selection unit 30 allows the first spectral ray L1 and the second spectral ray L2, which are rays R in different wavelength regions, to pass through the different wavelength selection regions 31 .
  • the light selection unit 30 may be configured to pass the first spectral beam L1 and the second spectral beam L2 in different directions.
  • the light selector 30 only needs to have a function of passing a plurality of light rays R in different wavelength ranges from different positions in the light selector 30 or in different directions from the light selector 30 .
  • the light selector 30 has a first wavelength selection region 31A and a second wavelength selection region 31B as the plurality of wavelength selection regions 31 .
  • the first wavelength selection region 31A and the second wavelength selection region 31B are arranged at mutually different positions on a two-dimensional plane orthogonal to the optical axis Z in the light selection section 30 .
  • the first wavelength selection region 31A and the second wavelength selection region 31B allow light rays R in wavelength regions different from each other to pass therethrough.
  • Transmitting the ray R means at least one of transmitting the ray R and specularly reflecting the ray R.
  • both transmission and regular reflection will be referred to as “passing”.
  • pass means "transmission" will be described as an example.
  • the first wavelength selection region 31A allows the first spectral light beam L1 in the first wavelength region to pass through.
  • the second wavelength selection region 31B allows passage of the second spectral beam L2 in the second wavelength region.
  • the first spectral light beam L1 in the first wavelength region is a light beam R of blue (eg, wavelength 450 nm). It is also assumed that the second spectral light beam L2 in the second wavelength region is a light beam R of red color (for example, wavelength 650 nm).
  • the first wavelength selection region 31A allows the first blue spectral ray L1 included in the irradiated light ray R to pass through
  • the second wavelength selection region 31B allows the second red spectral ray L2 included in the light ray R to pass through. pass through.
  • the first wavelength selection region 31A and the second wavelength selection region 31B may be realized, for example, by arranging a bandpass filter corresponding to the wavelength region of the light beam R to be passed through the aperture provided in the light selection section 30. .
  • the first wavelength selection region 31A may be configured with a bandpass filter for the first wavelength region
  • the second wavelength selection region 31B may be configured with a bandpass filter for the second wavelength region.
  • the width of each bandpass filter of the first wavelength selection region 31A and the second wavelength selection region 31B may be set to 0.1 mm, for example. Note that the width of the bandpass filter is not limited to this value.
  • the imaging unit 40 captures an image of the subject B irradiated with the first spectral light beam L1 and the second spectral light beam L2 using an image sensor (not shown), and acquires a spectral image with the image sensor.
  • a spectroscopic image is a captured image obtained by spectroscopy into a plurality of wavelength regions different from each other.
  • the imaging unit 40 captures a spectroscopic image obtained by spectroscopy into at least the first wavelength region and the second wavelength region.
  • the image sensor of the imaging unit 40 is, for example, a CCD (Charge-Coupled Device), a CMOS (Complementary Metal-Oxide Semiconductor), or the like.
  • a hyperspectral camera capable of acquiring at least five different wavelength regions may be used as the imaging unit 40 .
  • the imaging unit 40 includes an image sensor in which photoelectric conversion elements (photodiodes) are arranged for each pixel
  • the image sensor of the imaging unit 40 separates and receives at least the first spectral ray L1 and the second spectral ray L2 in each of the plurality of pixels.
  • the light intensity of the light beam R received by each pixel is sometimes referred to as received light intensity, intensity, or pixel value.
  • the light intensity of the light beam R received by each pixel will be referred to as a pixel value.
  • the image sensor of the imaging unit 40 may be configured with a plurality of wavelength filters for each pixel.
  • the plurality of wavelength filters are filters that selectively transmit rays R of different wavelengths.
  • the imaging unit 40 can perform spectral separation at each pixel. That is, the imaging unit 40 can simultaneously capture spectroscopic images in the first wavelength region and the second wavelength region.
  • the first spectral light beam L1 in the first wavelength region included in the light beam R emitted from the light source 10 reaches the subject B through the first wavelength selection region 31A. That is, a specific irradiation area EA on the surface of the subject B is irradiated with the first spectral beam L1.
  • the irradiation area EA by the first spectral ray L1 is emitted from the edge of the finite-sized light emitting surface 11 of the light source 10 and passes through the edge of the first wavelength selection area 31A in the light ray R in the first wavelength region. It is a region bounded by the edge ray G1. That is, the irradiation area EA by the first spectral ray L1 is an area defined by the edge ray G1.
  • the second spectral light beam L2 in the second wavelength region included in the light beam R emitted from the light source 10 reaches the subject B through the second wavelength selection region 31B. That is, a specific irradiation area EB on the surface of the subject B is irradiated with the second spectral beam L2.
  • the irradiation region EB by the second spectral ray L2 is emitted from the end of the finite-sized light emitting surface 11 of the light source 10 and passes through the end of the second wavelength selection region 31B in the light ray R in the second wavelength region. This is a region bounded by the edge ray G2. That is, the irradiation area EB by the second spectral beam L2 is an area defined by the edge beam G2.
  • the irradiation area EA by the first spectral beam L1 and the irradiation area EB by the second spectral beam L2 do not overlap.
  • the definition of non-overlapping also includes the case where only the boundary between these irradiation areas EA and EB overlaps.
  • the size of the light emitting surface 11 of the light source 10 is finite, as described above. Therefore, there is an overlapping area between the irradiation area EA of the first spectral beam L1 and the irradiation area EB of the second spectral beam L2.
  • the irradiation area E of the light beam R on the subject B is classified into a first irradiation area E1, a second irradiation area E2, and a third irradiation area E3.
  • the first irradiation region E1 is a region of the subject B to which only the first spectral light beam L1 in the first wavelength region is irradiated.
  • the second irradiation region E2 is a region on the subject B where the first spectral beam L1 in the first wavelength region and the second spectral beam L2 in the second wavelength region overlap (superimpose) and are irradiated. That is, the second irradiation region E2 includes both the first spectral light beam L1 in the first wavelength region and the second spectral light beam L2 in the second wavelength region.
  • the third irradiation region E3 is a region of the subject B to which only the second spectral beam L2 is irradiated.
  • the imaging unit 40 After being irradiated with the first spectral beam L1 and the second spectral beam L2, the imaging unit 40 images the subject B in which the first irradiation region E1, the second irradiation region E2, and the third irradiation region E3 are formed. , to obtain a spectroscopic image.
  • the information processing device 50 is connected to the imaging unit 40 so as to be able to transmit and receive data or signals.
  • the information processing device 50 analyzes the spectral image captured by the imaging section 40 .
  • FIG. 2 is a block diagram showing an example of the functional configuration of the information processing device 50.
  • the information processing device 50 includes a processing section 52 , a storage section 54 and an output section 56 .
  • the processing unit 52, the storage unit 54, and the output unit 56 are connected via a bus 58 so as to be able to exchange data or signals.
  • the storage unit 54 stores various data.
  • the storage unit 54 is, for example, a RAM, a semiconductor memory device such as a flash memory, a hard disk, an optical disk, or the like.
  • the storage unit 54 may be a storage device provided outside the information processing device 50 .
  • the storage unit 54 may be a storage medium.
  • the storage medium may store or temporarily store programs and various types of information downloaded via a LAN (Local Area Network), the Internet, or the like.
  • the storage unit 54 may be composed of a plurality of storage media.
  • the output unit 56 outputs various information.
  • the output unit 56 includes at least one of a display, a speaker, and a communication unit that communicates with an external device via a network.
  • the processing unit 52 includes an acquisition unit 52A, a derivation unit 52B, and an output control unit 52C. At least one of the acquisition unit 52A, the derivation unit 52B, and the output control unit 52C is implemented by one or more processors, for example.
  • processors for example, each of the above units may be realized by causing a processor such as a CPU (Central Processing Unit) to execute a program, that is, by software.
  • processors such as a CPU (Central Processing Unit) to execute a program, that is, by software.
  • Each of the above units may be implemented by a processor such as a dedicated IC (Integrated Circuit), that is, by hardware.
  • Each of the above units may be implemented using both software and hardware. When multiple processors are used, each processor may implement one of the units, or may implement two or more of the units.
  • the acquisition unit 52A acquires a spectral image from the imaging unit 40.
  • the derivation unit 52B obtains a plurality of spectroscopic images of the subject B based on the magnitude relationship of the received light intensities for at least two different wavelength regions among the plurality of spectral light beams L included in the spectral image obtained by the obtaining unit 52A. Estimate or specify an irradiation area E for each light ray L. FIG. Then, the derivation unit 52B derives the shape information of the subject B from this estimation (identification) result. In the following description, estimation may be referred to as identification.
  • the deriving unit 52B estimates (specifies) the irradiation region E of each of the first spectral ray L1 and the second spectral ray L2 on the subject B by analyzing the spectral image acquired by the acquisition unit 52A. do. Then, the shape information of the subject B is derived from the specified result of specifying the irradiation area E.
  • FIG. 1 the deriving unit 52B estimates (specifies) the irradiation region E of each of the first spectral ray L1 and the second spectral ray L2 on the subject B by analyzing the spectral image acquired by the acquisition unit 52A. do. Then, the shape information of the subject B is derived from the specified result of specifying the irradiation area E.
  • 3A to 3C are diagrams showing examples of wavelength spectra of each of the first irradiation region E1, the second irradiation region E2, and the third irradiation region E3.
  • the horizontal axis indicates wavelength
  • the vertical axis indicates pixel value. Pixel values may be normalized as needed.
  • FIG. 3A is a diagram showing an example of the wavelength spectrum of the first irradiation area E1.
  • FIG. 3B is a diagram showing an example of the wavelength spectrum of the second irradiation area E2.
  • FIG. 3C is a diagram showing an example of the wavelength spectrum of the third irradiation area E3.
  • Background noise N is also shown in FIGS. 3A to 3C.
  • Background noise N is an example of a dark current component.
  • the background noise N means the pixel value of the spectral image obtained by the imaging unit 40 before the light source 10 is turned on and the light beam R is emitted.
  • the background noise N is the pixel value of each pixel in the spectral image when the light source 10 is turned off.
  • pixel values equal to or greater than the first threshold are obtained for the first spectral light beam L1 in the first wavelength region S1.
  • pixel values equal to or greater than the first threshold are obtained for both the first wavelength region S1 and the second wavelength region S2.
  • pixel values equal to or greater than the first threshold are obtained for the second wavelength region S2.
  • the first threshold value it is sufficient to predetermine a value at which it can be determined that the light beam R has been received by irradiation.
  • the first irradiation region E1, the second irradiation region E2, and the third irradiation region E3 are obtained. It can be said that they can be distinguished. In other words, it can be said that each irradiation region can be distinguished based on the magnitude relationship of pixel values for different wavelength regions.
  • the first irradiation region E1 and the second irradiation region E2 cannot be distinguished (see FIG. 3A). Also, even if only the pixel values for the second wavelength region S2 are analyzed, the first irradiation region E1 and the second irradiation region E2 cannot be distinguished (see FIG. 3C). That is, by using a combination of pixel values for both the first wavelength region S1 and the second wavelength region S2, the first irradiation region E1, the second irradiation region E2, and the third irradiation region E3 can be distinguished for the first time. can. In other words, it can be said that each irradiation region can be distinguished with higher accuracy based on the magnitude relationship of pixel values for different wavelength regions.
  • the deriving unit 52B based on the first pixel value of the first wavelength region S1 and the second pixel value of the second wavelength region S2 included in the spectral image, the first spectral light beam L1 and the The irradiation area E of each of the second spectral beams L2 is estimated.
  • the first pixel value is an example of the first received light intensity.
  • the second pixel value is an example of the second received light intensity.
  • the deriving unit 52B uses a combination of pixel values for the first wavelength region S1 and the second wavelength region S2 to obtain the first irradiation region E1, the second irradiation region E2, and the third irradiation region E2 in the spectral image. Estimate each of the regions E3.
  • the derivation unit 52B uses a combination of pixel values for the first wavelength region S1 and the second wavelength region S2 to obtain the respective values of the first irradiation region E1, the second irradiation region E2, and the third irradiation region E3. can be distinguished. That is, the lead-out portion 52B can distinguish the irradiation regions E more finely.
  • the derivation unit 52B derives the shape information of the subject B from the estimation result of the irradiation region E.
  • the shape includes fine surface shapes such as irregularities and scratches. These surface fine shapes are also called surface textures. That is, the shape described here includes the surface texture.
  • the deriving unit 52B divides the irradiation region E into the first irradiation region E1, the second irradiation region E2, and the second irradiation region E2 by using a combination of pixel values in the first wavelength region S1 and the second wavelength region S2. Estimated by distinguishing three irradiation areas E3. Then, the derivation unit 52B derives the shape information of the subject B from the estimation result.
  • the derivation unit 52B can derive the shape information of the subject B with higher accuracy than when the combination of the pixel values of the first wavelength region S1 and the second wavelength region S2 is not used.
  • the derivation unit 52B can estimate the irradiation area E by subdividing it into the first irradiation area E1, the second irradiation area E2, and the third irradiation area E3. This is because, by using the light source 10 having the finite-sized light emitting surface 11, the second irradiation area E2 in which the irradiation area E of the first spectral beam L1 and the second spectral beam L2 overlap is formed on the subject B. be. Therefore, in the present embodiment, the shape information can be obtained with higher accuracy by using the light source 10 having the finite-sized light emitting surface 11 and by using the combination of the pixel values of the first wavelength region S1 and the second wavelength region S2. can be derived to
  • the first irradiation region E1 and the third irradiation region E3 can be made substantially the same size. Accordingly, when estimating the first irradiation region E1 and the third irradiation region E3 and calculating the shape information, the shape accuracy in each irradiation region can be substantially equalized. That is, there is an effect that variation in shape accuracy can be reduced.
  • S0 be the size of the light emitting surface 11
  • S1 be the size of the first wavelength selection region 31A
  • S2 be the size of the second wavelength selection region 31B
  • D0 be the distance from the light selection unit 30 to the light source
  • D0 be the distance from the light selection unit 30 to the light source.
  • to the irradiation area is D1.
  • the size SE1 of the first irradiation region E1, the size SE2 of the second irradiation region E2, and the size SE3 of the third irradiation region E3 are represented by the following formulas (1), (2), and (3), respectively. be. These are guided by geometric optics.
  • SE1 S1 ⁇ D1/D0 Expression (1)
  • SE2 S0 ⁇ D1/D0 Expression (2)
  • SE3 S2 ⁇ D1/D0 Expression (3)
  • the size S0 of the light emitting surface 11 is represented by the following formula (4), the first irradiation area E1 and the second irradiation area E2 can be made substantially the same size.
  • the shape accuracy in each irradiation area can be made substantially equal. That is, there is an effect that variation in shape accuracy can be reduced.
  • the size of the first wavelength selection region 31A and the size of the second wavelength selection region 31B are made equal and the size S0 of the light emitting surface 11 is made larger than them, that is, when the following formula (5) holds, the first The size SE1 of the irradiation area E1 and the size SE2 of the second irradiation area E2 can be made equal.
  • the light emitting surface 11 is large, there is an effect that it can be made brighter.
  • the S/N signal-to-noise ratio
  • the derivation unit 52B obtains the shape information based on the first pixel value of the first wavelength region S1 and the second pixel value of the second wavelength region S2 after removing the background noise N, which is an example of the dark current component. is preferably derived.
  • the derivation unit 52B first compares the combination of pixel values in the first wavelength region S1 and the second wavelength region S2 with the background noise N. Specifically, the derivation unit 52B determines whether each of the pixel values of the first wavelength region S1 and the second wavelength region S2 is greater than the pixel value of the background noise N. By this determination processing, the derivation unit 52B can suppress, for example, considering that the irradiation area EB of the second spectral light beam L2 exists in the first irradiation area E1. In this embodiment, the derivation unit 52B removes the pixel values of the background noise N from the pixel values of each of the first wavelength region S1 and the second wavelength region S2.
  • the pixel value of the background noise N may be measured in advance and stored in the storage unit 54 . Then, the derivation unit 52B estimates the irradiation region E using a combination of pixel values of the first wavelength region S1 and the second wavelength region S2 after the background noise N is removed.
  • the irradiation region E (the first irradiation region E1, the second irradiation region E2, and the third irradiation region E3) is By estimating, erroneous recognition of the irradiation area E can be reduced. Further, by deriving the shape information using this estimation result, the derivation unit 52B can reduce the derivation error of the shape information of the subject B.
  • the output control unit 52C outputs the derivation result of the shape information by the derivation unit 52B to the output unit 56.
  • FIG. 4 is a flowchart showing an example of the flow of information processing executed by the information processing device 50. As shown in FIG. 4
  • the acquisition unit 52A acquires a spectral image from the imaging unit 40 (step S100).
  • the derivation unit 52B derives the first spectral ray L1 in the subject B based on the first pixel value of the first wavelength region S1 and the second pixel value of the second wavelength region S2 included in the spectral image acquired in step S100. and the irradiation area E of each of the second spectral beams L2 is estimated (step S102).
  • the derivation unit 52B derives the shape information of the subject B from the estimation result estimated in step S102 (step S104).
  • the output control unit 52C outputs the derivation result of step S104 to the output unit 56 (step S106). Then, the routine ends.
  • the optical device 1A of this embodiment includes the light source 10, which is a surface emitting light source, the light selection section 30, the imaging section 40, and the derivation section 52B.
  • the light selector 30 splits the light beam R emitted from the light source 10 into a plurality of spectral light beams L in different wavelength regions.
  • the imaging unit 40 captures an image of the subject B irradiated with the plurality of spectral light beams L to obtain a spectral image.
  • the deriving unit 52B determines the irradiation of each of the plurality of spectral light beams L on the subject B based on the mutual magnitude relationship of the received light intensity for at least two different wavelength regions among the plurality of spectral light beams L acquired in the spectral image.
  • Shape information of the subject B is derived from the estimation result of estimating the region E.
  • the optical device 1A of the present embodiment irradiates the subject B with a plurality of different spectral light beams L separated by the light selection unit 30 .
  • the derivation unit 52B estimates the irradiation area E of each of the plurality of spectral light beams L on the subject B based on the spectral K image, which is the captured image of the subject B captured by the imaging unit 40 . That is, the derivation unit 52B can more finely distinguish the irradiation region E by the spectral light beams L of these multiple wavelength regions by using the combination of the pixel values for each of the wavelength regions different from each other.
  • each irradiation region can be distinguished with higher accuracy based on the magnitude relationship of pixel values for different wavelength regions.
  • the derivation unit 52B derives the shape information of the subject B from the estimation result of the irradiation area E. FIG.
  • the optical device 1A of this embodiment can derive the shape information of the subject B with high accuracy.
  • FIG. 5 is a schematic diagram showing an example of the optical device 1B of this embodiment.
  • the optical device 1B has a configuration in which a lens 60 is added to the configuration of the optical device 1A.
  • the lens 60 is an example of an optical element.
  • the optical element reduces the divergence angle of the light beam R emitted from the light source 10 .
  • the optical element converts divergent light, which is the light ray R emitted from the light source 10, into quasi-parallel light.
  • the quasi-parallel light means light with a divergent full angle of 1 mrad or less of divergent light, which is the light ray R emitted from the light source 10 . Therefore, quasi-parallel light includes parallel light.
  • the optical element is the lens 60
  • a concave mirror may be used as an optical element instead of the lens 60 .
  • the lens 60 is arranged between the light source 10 and the light selector 30 .
  • the light source 10 will be described as an example in which it is an LED.
  • the lens 60 has a focus.
  • Light source 10 is positioned in the focal region of lens 60 .
  • a focal region means the focal point of the lens 60 or the vicinity of the focal point.
  • the light emitting surface 11 of the light source 10 has a finite size. Therefore, the light beam R emitted from the light source 10 becomes slightly divergent light.
  • the full angle of divergence of this divergent light is represented by the following formula (6). Even when a concave mirror is used instead of the lens 60, the following formula (6) holds.
  • is the divergence full angle.
  • f is the focal length of lens 60;
  • D is the size of the light emitting surface 11 of the light source 10 .
  • the lens 60 can convert diverging light into quasi-parallel light.
  • the light beam R emitted from the light source 10, which is an LED, is generally divergent light, and its light distribution is approximately lambertian. That is, the light rays R emitted from the light source 10 are fan rays.
  • a fan ray means a ray that spreads out in a fan shape.
  • the ray R which is a fan ray, passes through the lens 60 to become quasi-parallel light RP having a slight divergence angle, and reaches the subject B via the light selector 30 . For this reason, compared with the case where the subject B is irradiated with the fan beam, the irradiation area E irradiated to the subject B can be narrowed.
  • the derivation unit 52B combines the pixel values for the first wavelength region S1 and the pixel values for the second wavelength region S2 to obtain the first irradiation region E1, the second irradiation region E2, and the third irradiation region E2.
  • An illuminated area E3 is distinguished. That is, the deriving unit 52B uses a combination of pixel values for the first wavelength region S1 and the second wavelength region S2 included in the spectral image to obtain the first irradiation region E1, the second irradiation region E2, and the third irradiation area E3 are separately estimated.
  • the deriving unit 52B derives the shape information using such structured illumination, the precision of deriving the shape information improves as the pattern of the irradiation area E becomes finer. Therefore, in the optical apparatus 1B of this embodiment, the shape information of the subject B can be derived with high precision, as in the above embodiments.
  • the subject B is irradiated with the quasi-parallel light RP from the lens 60 via the light selector 30.
  • FIG. Therefore, the irradiation area E on the subject B can be made narrower than when the lens 60 is not interposed. Therefore, in the optical apparatus 1B of the present embodiment, a finer pattern of irradiation regions E (first irradiation region E1, second irradiation region E2, and third irradiation region E3) can be formed on the subject B.
  • the shape information of the subject B can be derived with higher accuracy.
  • FIG. 6 is a schematic diagram showing an example of the optical device 1C of this embodiment.
  • the optical device 1C includes a diffraction grating 34 in place of the light selector 30 of the optical device 1B of the second embodiment.
  • the optical device 1B further includes an aperture member 32 .
  • the optical device 1 ⁇ /b>C includes a lens 62 instead of the lens 60 .
  • the diffraction grating 34 is an example of a light selector. In this embodiment, the diffraction grating 34 allows the light beams R in different wavelength regions to pass in different directions.
  • the diffraction grating 34 splits the irradiated light beam R into a plurality of spectral light beams L in different wavelength regions.
  • the diffraction grating 34 divides the irradiated light beam R into a first spectral ray L1 in the first wavelength region S1, a second spectral ray L2 in the second wavelength region S2, and a third spectral ray L2 in the third wavelength region.
  • a case of splitting into the spectral ray L3 will be described as an example.
  • the first wavelength region S1, the second wavelength region S2, and the third wavelength region are wavelength regions different from each other.
  • the diffraction grating 34 is formed, for example, by forming convex portions at an equal pitch H on a flat glass substrate.
  • the diffraction grating 34 is not limited to this configuration as long as it has a configuration having a function as a diffraction grating.
  • the aperture member 32 is arranged between the light source 10 and the lens 60 .
  • the case where the light source 10 is an LED will be described as an example.
  • a case where the size of the light emitting surface 11 of the light source 10 is 0.1 mm or less will be described as an example.
  • description will be made on the assumption that the light emitting surface 11 of the light source 10 has a size of 0.1 mm ⁇ 0.1 mm. Note that the size of the light emitting surface 11 is not limited to this size.
  • the opening member 32 has an opening 32A.
  • a description will be given assuming that the opening 32A is, for example, a pinhole with a diameter of 0.1 mm. Note that the size of the opening 32A is not limited to this size.
  • the lens 62 is similar to the lens 60 of the second embodiment.
  • a lens 62 is arranged between the aperture member 32 and the diffraction grating 34 .
  • a concave mirror may be used in place of the lens 62 as in the second embodiment.
  • the aperture 32A of the aperture member 32 is arranged at the focal position of the lens 62 or substantially near the focal position. With this arrangement, the light beam R emitted from the light source 10 passes through the aperture 32A and the lens 62, becomes quasi-parallel light RP, and reaches the diffraction grating 34.
  • FIG. 1 The aperture 32A of the aperture member 32 is arranged at the focal position of the lens 62 or substantially near the focal position.
  • the divergence full angle of divergent light which is the light ray R emitted from the light source 10, is expressed by the above formula (6) as described in the second embodiment.
  • D in Equation (6) is the size of the opening 32A.
  • the focal length f of the lens 62 is 500 mm.
  • the size of the opening 32A is 0.1 mm in diameter.
  • the divergence full angle ⁇ is 0.2 mrad (milliradian). Therefore, it can be said that the aperture 32A and the lens 62 can convert diverging light into quasi-parallel light RP.
  • the light beam R emitted from the light source 10, which is an LED, is generally divergent light, and its light distribution is approximately lambertian. That is, the light rays R emitted from the light source 10 are fan rays.
  • the ray R which is a fan ray, passes through the aperture 32A and the lens 62, becomes quasi-parallel light RP with a slight divergence angle, and reaches the diffraction grating 34.
  • the quasi-parallel light RP is generated because the focal length of the lens 62 is sufficiently large with respect to the size of the light emitting surface 11 or the aperture 32A.
  • the distance between adjacent light rays in the direction orthogonal to the optical axis Z, which is included in the light ray R converted into quasi-parallel light RP by passing through the lens 62, is substantially constant along the optical axis Z. That is, these adjacent rays reach grating 34 without touching each other.
  • the diffraction grating 34 irradiates the subject B with a plurality of spectral beams L (first spectral beam L1, second spectral beam L2, third beam R3) in different wavelength regions. Therefore, the derivation unit 52B can further distinguish a plurality of irradiation regions E by combining pixel values for each of these plurality of wavelength regions.
  • FIG. 6 shows a first irradiation area E1, a second irradiation area E2, and a third irradiation area E3 as an example.
  • the first irradiation region E1 is a region of the subject B to which only the first spectral beam L1 in the first wavelength region S1 is irradiated.
  • the second irradiation region E2 is a region of the subject B where the first spectral beam L1 in the first wavelength region and the second spectral beam L2 in the second wavelength region overlap and are irradiated.
  • the third irradiation region E3 is a region of the subject B where the first wavelength region S1, the second wavelength region S2, and the third wavelength region S3 overlap and are irradiated.
  • H is the pitch H of the diffraction grating 34.
  • m is an integer.
  • quasi-parallel light RP is incident on the diffraction grating 34 . Therefore, the angle of incidence ⁇ is substantially zero.
  • the light beams R at various angles are incident on the diffraction grating 34 .
  • light rays R in various wavelength regions are transmitted in various directions and reach the subject B in a color-mixed state. Therefore, when a light beam R other than the quasi-parallel light beam RP is incident on the diffraction grating 34, it becomes difficult for the lead-out part 52B to distinguish the irradiation region E according to the wavelength.
  • the derivation unit 52B can estimate the irradiation region E of each of the spectral light beams L in different wavelength regions on the subject B by analyzing the spectral image according to the wavelength. That is, the lead-out portion 52B can easily distinguish between the first irradiation region E1, the second irradiation region E2, and the third irradiation region E3 according to the wavelength regions.
  • the angle ⁇ of the spectral ray L that has passed through the diffraction grating 34 is expressed by the above equation (7).
  • equation (7) above a strong diffraction grating 34 can be obtained if m is 1 or ⁇ 1.
  • the spectral beams L passing through this diffraction grating 34 are referred to as ⁇ first-order diffracted beams.
  • the passing angles of the ⁇ 1st-order diffracted lights are represented by the following equation (8).
  • the angle of the spectral ray L passing through the diffraction grating 34 increases as the wavelength increases. That is, the diffraction grating 34 can change the direction, ie, the angle, of the spectral light beam L according to the wavelength of the spectral light beam L.
  • FIG. (8) the angle of the spectral ray L passing through the diffraction grating 34 increases as the wavelength increases. That is, the diffraction grating 34 can change the direction, ie, the angle, of the spectral light beam L according to the wavelength of the spectral light beam L.
  • the pitch H of the diffraction grating 34 is 2 ⁇ m. It is also assumed that the first wavelength region S1 is 650 nm, the second wavelength region S2 is 640 nm, and the third wavelength region is 640 nm.
  • 7A to 7C are diagrams showing examples of wavelength spectra of each of the first irradiation region E1, the second irradiation region E2, and the third irradiation region E3.
  • the horizontal axis indicates wavelength
  • the vertical axis indicates pixel value. Pixel values may be normalized as needed.
  • FIG. 7A is a diagram showing an example of the wavelength spectrum of the first irradiation area E1.
  • FIG. 7B is a diagram showing an example of the wavelength spectrum of the second irradiation area E2.
  • FIG. 7C is a diagram showing an example of the wavelength spectrum of the third irradiation area E3.
  • the derivation unit 52B combines the pixel values for each of the first wavelength region S1, the second wavelength region S2, and the third wavelength region S3 to obtain the first irradiation region E1 and the second irradiation region E1. It can be said that the area E2 and the third irradiation area E3 can be distinguished.
  • the first irradiation region E1 cannot be distinguished from the second irradiation region E2 and the third irradiation region E3. Also, even if only the pixel values for the third wavelength region S3 are analyzed, the third irradiation region E3 cannot be distinguished from the first irradiation region E1 and the second irradiation region E2.
  • the first irradiation region E1, the second irradiation region E2, and the third irradiation region E3 can be distinguished.
  • the derivation unit 52B uses the first pixel value in the first wavelength region S1, the second pixel value in the second wavelength region S2, and the second pixel value in the third wavelength region S3, which are included in the spectral image. Based on the three pixel values, the irradiation area E of each of the first spectral ray L1, the second spectral ray L2, and the third spectral ray R3 on the subject B is estimated.
  • the derivation unit 52B uses a combination of pixel values for each of the first wavelength region S1, the second wavelength region S2, and the third wavelength region S3 to obtain the first irradiation region E1, the second An irradiation area E2 and a third irradiation area E3 are estimated.
  • the derivation unit 52B uses a combination of pixel values for each of the first wavelength region S1, the second wavelength region S2, and the third wavelength region S3, and then the first irradiation region E1, the second irradiation region E2, and the third irradiation area E3 can be distinguished. That is, the lead-out portion 52B can distinguish the irradiation regions E more finely.
  • the derivation unit 52B derives the shape information of the subject B from the estimation result of the irradiation region E.
  • the derivation unit 52B uses a combination of pixel values for the first wavelength region S1 and the second wavelength region S2 to obtain the respective values of the first irradiation region E1, the second irradiation region E2, and the third irradiation region E3. can be distinguished. That is, the lead-out portion 52B can distinguish the irradiation regions E more finely.
  • the derivation unit 52B derives the shape information of the subject B from the estimation result of the irradiation area E.
  • the derivation unit 52B derives the shape information using such structured illumination, the finer the pattern of the irradiation area E, the more the shape information derivation accuracy is improved.
  • adjacent light beams in the direction perpendicular to the optical axis Z which are included in the light beam R converted into quasi-parallel light RP by passing through the lens 62, pass through the diffraction grating 34 without touching each other. It reaches the subject B.
  • quasi-parallel light it is possible to realize delicate structured illumination that does not depend on distance. Therefore, in the present embodiment, it is possible to create illumination with a finer structure, and realize a distribution of the irradiation regions E with a finer structure than in the above-described embodiment.
  • the derivation unit 52B uses a combination of pixel values of the first wavelength region S1, the second wavelength region S2, and the third wavelength region S3 to convert the irradiation region E into the first irradiation region E1 , the second irradiation area E2, and the third irradiation area E3. Therefore, the derivation unit 52B can derive the shape information with higher accuracy than when the combination of the pixel values of the first wavelength region S1, the second wavelength region S2, and the third wavelength region S3 is not used.
  • the optical device 1C of this embodiment can derive the shape information of the subject B with higher accuracy in addition to the effects of the above embodiments.
  • FIG. 8 is a schematic diagram showing an example of the optical device 1D of this embodiment.
  • the optical device 1D has a configuration in which an optical element 64 and a lens 66 are added to the configuration of the optical device 1A.
  • the lens 66 forms an image of the light beam R reflected by the subject B on the light receiving surface 41 of the imaging unit 40 .
  • the optical element 64 is composed of a transparent medium.
  • Transparent means transparent to the incident light beam R.
  • transparent media include glass, resin, quartz, and sapphire.
  • the resin is, for example, acrylic, polycarbonate, or the like. In this embodiment, an example in which the transparent medium forming the optical element 64 is acrylic will be described.
  • the optical element 64 has a reflective surface 64B, an incident surface 64A, and an exit surface 64C on the outer surface of a transparent medium.
  • the reflective surface 64B is a paraboloidal or quasi-paraboloidal reflective surface provided on the outer surface of the transparent medium.
  • the reflective surface 64B is, for example, a parabolic surface forming part of the outer surface of the transparent medium and having aluminum vapor deposited thereon. Therefore, the reflective surface 64B functions as a reflective surface that reflects the light ray R. As shown in FIG. In this embodiment, the focal length of the reflecting surface 64B is assumed to be 100 mm.
  • the incident surface 64A is a planar surface facing the reflective surface 64B and is arranged on the light emitting surface 11 of the light source 10 .
  • the incident surface 64A is provided in the vicinity of the focal position of the parabolic reflecting surface 64B.
  • the light emitting surface 11 of the light source 10 and the entrance surface 64A are arranged to face each other.
  • the exit surface 64C is arranged to face the light selection section 30 .
  • a light ray R emitted from the light source 10 and incident on the incident surface 64A of the optical element 64 is refracted by the refraction action of the transparent medium and enters the inside of the transparent medium. Almost all of the light rays R that have entered the transparent medium are guided through the transparent medium, and all the guided light rays R are specularly reflected by the reflecting surface 64B.
  • the ray R is not refracted if there is no refractive action by the transparent medium. Therefore, the light rays R spread like fan rays, and the light rays R that do not hit the reflecting surface 64B and become a loss increase.
  • the light source 10 is arranged at or near the focal point of the reflecting surface 64B. Therefore, the light ray R reflected by the reflecting surface 64B becomes parallel light RP'. That is, the distance between adjacent light rays in the direction orthogonal to the optical axis Z, which is included in the light ray R converted into the parallel light RP by passing through the optical element 64, is substantially constant along the optical axis Z. . That is, these adjacent light rays reach the light selection section 30 without touching each other.
  • FIG. 9 is a schematic diagram showing an example of the intensity distribution V of the spectral ray L at a certain position on the optical path of the spectral ray L.
  • the subject B is irradiated with the spectral light beam L, and the imaging unit 40 performs imaging, whereby the imaging unit 40 obtains a spectral image.
  • the deriving unit 52B calculates the irradiation regions E of the light beams R in the different wavelength regions on the subject B based on the pixel values in the different wavelength regions included in the spectral image. presume. Then, the shape information of the subject B is derived from the estimation result.
  • 10A to 10C are diagrams showing examples of wavelength spectra of each of the first irradiation region E1, the second irradiation region E2, and the third irradiation region E3.
  • the horizontal axis indicates wavelength
  • the vertical axis indicates pixel value. Pixel values may be normalized as needed. Background noise N is also shown in FIGS. 10A to 10C.
  • FIG. 10A is a diagram showing an example of the wavelength spectrum of the first irradiation area E1.
  • FIG. 10B is a diagram showing an example of the wavelength spectrum of the second irradiation area E2.
  • FIG. 10C is a diagram showing an example of the wavelength spectrum of the third irradiation area E3.
  • the derivation unit 52B combines the pixel values for each of the first wavelength region S1, the second wavelength region S2, and the third wavelength region S3 to obtain the first irradiation region E1 and the second irradiation region E1. It can be said that the area E2 and the third irradiation area E3 can be distinguished.
  • the first irradiation region E1 cannot be distinguished from the second irradiation region E2 and the third irradiation region E3. Further, even if only the pixel values for the second wavelength region S2 are analyzed, the second irradiation region E2 cannot be distinguished from the first irradiation region E1 and the third irradiation region E3. Also, even if only the pixel values for the third wavelength region S3 are analyzed, the third irradiation region E3 cannot be distinguished from the first irradiation region E1 and the second irradiation region E2.
  • the first irradiation region E1, the second irradiation region E2, and the third irradiation region E3 can be distinguished.
  • the derivation unit 52B calculates the first pixel value in the first wavelength region S1, the second pixel value in the second wavelength region S2, and the third wavelength region S3, which are included in the spectral image. Based on the third pixel value of , the irradiation area E of each of the first spectral ray L1, the second spectral ray L2, and the third ray R3 on the subject B is estimated. Specifically, the derivation unit 52B uses a combination of pixel values for each of the first wavelength region S1, the second wavelength region S2, and the third wavelength region S3 to obtain the first irradiation region E1, the second An irradiation area E2 and a third irradiation area E3 are estimated.
  • the derivation unit 52B uses a combination of pixel values for each of the first wavelength region S1, the second wavelength region S2, and the third wavelength region S3, and then the first irradiation region E1, the second irradiation region E2, and the third irradiation area E3 can be distinguished. That is, the lead-out portion 52B can distinguish the irradiation regions E more finely.
  • the derivation unit 52B derives the shape information of the subject B from the estimation result of the irradiation region E.
  • the derivation unit 52B derives the shape information using such structured illumination, the finer the pattern of the irradiation area E, the more the shape information derivation accuracy is improved.
  • the optical apparatus 1D of this embodiment can derive the shape information of the subject B with higher accuracy in addition to the effects of the first embodiment.
  • the derivation unit 52B removes the background noise N, the first pixel value in the first wavelength region S1, the second pixel value in the second wavelength region S2, and the third wavelength region Shape information is preferably derived based on the third pixel value of S3.
  • FIG. 11 is a schematic diagram showing an example of the optical device 1E of this embodiment.
  • the optical device 1E further includes a cylindrical lens 68 in addition to the configuration of the optical device 1A of the first embodiment.
  • FIG. 11 is a schematic diagram showing an example of the optical device 1E of this embodiment.
  • the optical device 1E has a configuration in which a cylindrical lens 68 is added to the configuration of the optical device 1A.
  • the cylindrical lens 68 is an example of an optical element.
  • the cylindrical lens 68 forms an image on the subject B with the light ray R that has passed through the light selector 30 .
  • the optical device 1E may have a configuration including a concave mirror instead of the cylindrical lens 68 .
  • the optical element used in this embodiment may be any optical element that can define the image plane and the object plane of the subject B.
  • FIG. In this embodiment, a form using a cylindrical lens 68 as an optical element will be described as an example.
  • the LED which is the light source 10 of this embodiment, may be an LED having a finite-sized light-emitting surface 11, as in the first embodiment.
  • the present embodiment will be described on the assumption that the size of the light emitting surface 11 is 3 mm ⁇ 3 mm. Note that the size of the light emitting surface 11 is not limited to this size.
  • the light selector 30 is arranged between the light source 10 and the cylindrical lens 68 .
  • the light selection unit 30 is arranged in the vicinity of the light emitting surface 11 of the light source 10 so as to face it. It should be noted that the size of the wavelength selection region 31 in the light selection section 30 is assumed to be approximately the same size as the light emitting surface 11 of the light source 10 .
  • the wavelength selection region 31 of the light selection section 30 is arranged on the object plane of the cylindrical lens 68 . Therefore, the wavelength selection region 31 is projected (illuminated) onto the image plane of the cylindrical lens 68 .
  • the projection images of the first wavelength selection region 31A and the second wavelength selection region 31B included in the wavelength selection region 31 are superimposed and projected. It becomes a projected image.
  • FIG. 12A is a diagram showing an example of the intensity distribution of the projected image at position A1 in FIG. 12B is a diagram showing an example of the intensity distribution of the projected image at position A2 in FIG. 11.
  • FIG. 12A is a diagram showing an example of the intensity distribution of the projected image at position A1 in FIG. 12B is a diagram showing an example of the intensity distribution of the projected image at position A2 in FIG. 11.
  • the overlap with the irradiation area EB is increased. Therefore, the distance in the direction of the optical axis Z is estimated from the presence or absence of overlap between the irradiation areas EA and EB corresponding to the first wavelength selection area 31A and the irradiation area EB, respectively, and the degree of overlap. can do.
  • the derivation unit 52B analyzes the spectral image acquired by the acquisition unit 52A to obtain the first spectral ray L1 and the first spectral ray L1 in the subject B, as in the first embodiment.
  • the irradiation area E of each of the two spectral beams L2 is estimated.
  • the shape information of the subject B is derived from the estimation result of estimating the irradiation area E.
  • the derivation unit 52B further estimates the distance in the optical axis Z direction from the presence or absence of overlap between the irradiation areas EA and EB and the degree of overlap.
  • the derivation unit 52B can estimate the three-dimensional shape of the subject B.
  • the processing unit 52 holds a combination of both pixel values for each of the first wavelength region S1 and the second wavelength region S2 separated by the wavelength selection region 31, and the derivation unit 52B This is achieved by estimating the distance using
  • the irradiation field (illumination distribution on the plane) consists of only the irradiation region E in which the first spectral beam L1 of the first wavelength region S1 does not exist, the irradiation field is on the imaging plane. .
  • the three-dimensional shape of the subject B can be derived as shape information.
  • FIG. 13 is an example of a hardware configuration diagram of the information processing device 50 according to the above embodiment and modifications.
  • the information processing device 50 includes a control device such as a CPU 86, a storage device such as a ROM (Read Only Memory) 88, a RAM (Random Access Memory) 91, a HDD (Hard Disk Drive) 92, etc., and an interface that is an interface with various devices. It has an F unit 82, an output unit 81 for outputting various information such as output information, an input unit 94 for receiving user operations, and a bus 96 connecting each unit, and has a hardware configuration using a normal computer. It has become.
  • a control device such as a CPU 86
  • a storage device such as a ROM (Read Only Memory) 88, a RAM (Random Access Memory) 91, a HDD (Hard Disk Drive) 92, etc.
  • an interface that is an interface with various devices. It has an F unit 82, an output unit 81 for outputting various information such as output information, an input unit 94 for receiving user operations, and a bus 96 connecting each unit, and
  • the CPU 86 reads the program from the ROM 88 onto the RAM 91 and executes it, thereby implementing the above-described units on the computer.
  • the programs for executing the above processes executed by the information processing device 50 may be stored in the HDD 92 . Further, the program for executing each of the above-described processes executed by the information processing device 50 may be provided by being incorporated in the ROM 88 in advance.
  • the program for executing the above processing executed by the information processing device 50 is a file in an installable format or an executable format and can be stored on a CD-ROM, a CD-R, a memory card, a DVD (Digital Versatile Disk), It may be stored in a computer-readable storage medium such as a flexible disk (FD) and provided as a computer program product.
  • the program for executing the above processes executed by the information processing device 50 may be stored on a computer connected to a network such as the Internet, and may be provided by being downloaded via the network. Further, the program for executing the above process executed by the information processing device 50 may be provided or distributed via a network such as the Internet.
  • Optical device 10 Light source 30
  • Light selection unit 32 Aperture member 34
  • Imaging unit 52B Derivation unit 60
  • Lens 64 Optical element 68 Cylindrical lens

Abstract

光学装置(1A)は、面発光光源である光源(10)と、光選択部(30)と、撮像部(40)と、導出部(52B)と、を備える。光選択部(30)は、光源(10)から照射された光線(R)を互いに異なる波長領域の複数の分光光線(L)に分光する。撮像部(40)は、複数の分光光線(L)が照射された被検体(B)を撮像し、分光画像を取得する。導出部(52B)は、分光画像で取得された複数の分光光線(L)のうち、少なくとも2つの異なる波長領域に対する受光強度の互いの大小関係に基づいて、被検体(B)における複数の分光光線(L)の各々の照射領域(E)を推定した推定結果から、被検体(B)の表面性状または形状情報を導出する。

Description

光学装置、情報処理方法、および、プログラム
 本発明の実施形態は、光学装置、情報処理方法、および、プログラムに関する。
 様々な産業において、非接触での物体の形状測定が重要となっている。例えば、光を分光して物体に照明し、撮像部で分光された画像を取得することで、物体の形状を取得する方法が開示されている。
米国特許第5675407号公報
 しかし、従来では、光を分光して被検体に照射した場合の光の広がりによって、被検体の形状の計測精度が低下する場合があった。
 実施形態の光学装置は、面発光光源と、光選択部と、撮像部と、導出部と、を備える。光選択部は、前記面発光光源から照射された光線を互いに異なる波長領域の複数の分光光線に分光する。撮像部は、複数の分光光線が照射された被検体を撮像し、分光画像を取得する。導出部は、分光画像で取得された複数の分光光線のうち、少なくとも2つの異なる波長領域に対する受光強度の互いの大小関係に基づいて、被検体における複数の分光光線の各々の照射領域を推定した推定結果から、被検体の表面性状または形状情報を導出する。
図1は、光学装置の模式図である。 図2は、情報処理装置の機能的構成のブロック図である。 図3Aは、照射領域の波長スペクトルを示す図である。 図3Bは、照射領域の波長スペクトルを示す図である。 図3Cは、照射領域の波長スペクトルを示す図である。 図4は、情報処理の流れのフローチャートである。 図5は、光学装置の模式図である。 図6は、光学装置の模式図である。 図7Aは、照射領域の波長スペクトルを示す図である。 図7Bは、照射領域の波長スペクトルを示す図である。 図7Cは、照射領域の波長スペクトルを示す図である。 図8は、光学装置の模式図である。 図9は、分光光線の強度分布を示す模式図である。 図10Aは、照射領域の波長スペクトルを示す図である。 図10Bは、照射領域の波長スペクトルを示す図である。 図10Cは、照射領域の波長スペクトルを示す図である。 図11は、光学装置の模式図である。 図12Aは、投影像の強度分布を示す図である。 図12Bは、投影像の強度分布を示す図である。 図13は、ハードウェア構成図である。
 以下に添付図面を参照して、本実施形態の光学装置を詳細に説明する。
 実施形態で説明に用いる図面は、模式的または概念的なものであり、各部分の厚みと幅との関係、部分間の大きさの比率などは、必ずしも現実のものと同一とは限らない。また、同じ部分を表す場合であっても、図面により互いの寸法や比率が異なって表される場合もある。本願明細書と各図において、既出の図に関して前述したものと同様の要素には、同一の符号を付し、詳細な説明は適宜省略する。
(第1の実施形態)
 図1は、本実施形態の光学装置1Aの一例を示す模式図である。
 光学装置1Aは、光学装置の一例である。本実施形態および後述する実施形態の光学装置を総称して説明する場合には、単に、光学装置1と称して説明する場合がある。
 光学装置1Aは、光源10と、光選択部30と、撮像部40と、情報処理装置50と、を備える。撮像部40と情報処理装置50とは、データまたは信号を授受可能に接続されている。
 光源10は、光線Rを出射する面発光光源である。光線Rは、電磁波の一例である。
 光源10は、発光面11が有限サイズであり、且つ、電磁波を発するものであればよい。発光面11とは、光源10における、光線Rの出射面である。発光面11が有限サイズであるとは、光学系において実質的に光源10が点光源よりも大きいことを意味する。実質的に点光源よりも大きいとは、一般的な市販レンズに対して十分遠方に光源10を置いたとき、光源10からの光をレンズで集光させた集光点のサイズよりも大きいことを意味する。
 光源10が出射する光線Rは、例えば、可視光線、X線、赤外線、マイクロ波などである。また、光源10が出射する光線Rは、コヒーレント光、インコヒーレント光の何れであってもよい。コヒーレント光は、例えば、レーザ光である。インコヒーレント光は、例えば、発光ダイオード(LED:light emitting diode)である。
 本実施形態では、光源10が、LEDである形態を一例として説明する。なお、光源10は、LEDに限らず、白熱電球、蛍光管、水銀灯等であってもよい。また、光源10は、レーザ、赤外線、または、X線などを照射する光源であってもよい。また、光源10から出射する光線Rに含まれる波長は、後述する光選択部30の波長選択性に応じて決定されればよい。
 本実施形態では、光源10から照射される光線Rが電磁波であり、例えば、可視光である場合を一例として説明する。具体的には、本実施形態では、光源10から照射される光線Rが、400nmから800nmの可視光領域の波長の光線を含む場合を一例として説明する。なお、光線Rに含まれる波長は、この波長に限定されない。
 また、本実施形態の光源10であるLEDは、有限サイズの発光面11を有するLEDであればよい。本実施形態では、発光面11のサイズが、0.2mm×0.2mmである場合を想定して説明する。なお、発光面11のサイズは、このサイズに限定されない。
 被検体Bは、光学装置1Aにおける検査対象である。被検体Bは、後述する光選択部30を介して照射された光線Rを屈折または散乱させる対象であればよい。被検体Bは、例えば、生細胞、レーザ溶接領域を含む物体、などであるが、これらに限定されない。レーザ溶接領域は、レーザによって溶接された領域である。また、被検体Bは、固体、液体、気体、の何れであってもよい。本実施形態では、被検体Bが、固体である場合を一例として説明する。
 光選択部30は、光源10から照射された光線Rを、互いに異なる波長領域の複数の分光に分光する。分光された光線Rを、分光光線Lと称して説明する。
 本実施形態では、光選択部30は、光源10から照射された光線Rを、第1波長領域の第1分光光線L1、および、第2波長領域の第2分光光線L2、に分光する場合を一例として説明する。第1分光光線L1および第2分光光線L2は、分光光線Lの一例である。第1波長領域と第2波長領域とは、互いに異なる波長領域である。なお、光選択部30は、分光光線Lを、3以上の互いに異なる波長領域に分光する構成であってもよく、第1分光光線L1および第2分光光線L2に分光する形態に限定されない。
 光選択部30は、互いに異なる波長領域の光線Rである第1分光光線L1および第2分光光線L2を、互いに異なる波長選択領域31から通過させる。なお、光選択部30は、第1分光光線L1および第2分光光線L2を互いに異なる方向に通過させる形態であってもよい。すなわち、光選択部30は、互いに異なる波長領域の複数の光線Rを、光選択部30における異なる位置、または、光選択部30から異なる方向に通過させる作用を有すればよい。
 本実施形態では、光選択部30は、複数の波長選択領域31として、第1波長選択領域31Aおよび第2波長選択領域31Bを有する。
 第1波長選択領域31Aおよび第2波長選択領域31Bは、光選択部30における光軸Zに直交する二次元平面における、互いに異なる位置に配置されている。第1波長選択領域31Aおよび第2波長選択領域31Bは、互いに異なる波長領域の光線Rを通過させる。
 光線Rを通過させる、とは、光線Rを透過させる、および、光線Rを正反射させる、の少なくとも一方を意味する。透過および正反射の何れの場合であっても、後述する撮像部40に到達する光の光路上を通る場合、透過および正反射の何れであっても“通過”と称して説明する。なお、本実施形態では、“通過”が“透過”を意味する場合を一例として説明する。
 第1波長選択領域31Aは、第1波長領域の第1分光光線L1を通過させる。第2波長選択領域31Bは、第2波長領域の第2分光光線L2を通過させる。
 例えば、第1波長領域の第1分光光線L1が、青色(例えば、波長450nm)の光線Rである場合を想定する。また、第2波長領域の第2分光光線L2が、赤色(例えば、波長650nm)の光線Rである場合を想定する。この場合、第1波長選択領域31Aは、照射された光線Rに含まれる青色の第1分光光線L1を通過させ、第2波長選択領域31Bは、光線Rに含まれる赤色の第2分光光線L2を通過させる。
 第1波長選択領域31Aおよび第2波長選択領域31Bは、例えば、光選択部30に設けられた開口に、通過させる光線Rの波長領域に対応するバンドパスフィルタを配置することで実現すればよい。具体的には、第1波長選択領域31Aは、第1波長領域に対するバンドパスフィルタで構成し、第2波長選択領域31Bは、第2波長領域に対するバンドパスフィルタで構成すればよい。第1波長選択領域31Aおよび第2波長選択領域31Bの各々のバンドパスフィルタの幅は、例えば、0.1mmとすればよい。なお、バンドパスフィルタの幅は、この値に限定されない。
 撮像部40は、第1分光光線L1および第2分光光線L2が照射された被検体Bを画像センサー(図示せず)に撮像し、画像センサーで分光画像を取得する。分光画像とは、互いに異なる複数の波長領域に分光した撮像画である。本実施形態では、撮像部40は、少なくとも第1波長領域および第2波長領域に分光した分光画像を撮像する。
 撮像部40の画像センサーは、例えば、CCD(Charge-Coupled  Device)、CMOS(Complementary  Metal-Oxide  Semiconductor)等である。なお、撮像部40には、少なくとも5つ以上の異なる波長領域を取得できるハイパースペクトルカメラを用いてもよい。
 本実施形態では、撮像部40が、画素ごとに光電変換素子(フォトダイオード)を配列した画像センサーを備える場合を、一例として説明する。撮像部40の画像センサーは、複数の画素の各々において、少なくとも第1分光光線L1と第2分光光線L2とを分光して受光する。各画素で受光した光線Rの光強度は、受光強度、強度、または、画素値、と称される場合がある。以下、各画素で受光した光線Rの光強度を、画素値と称して説明する。
 例えば、撮像部40の画像センサーは、画素毎に複数枚の波長フィルタを備えた構成とすればよい。複数枚の波長フィルタは、互いに異なる波長の光線Rを選択的に透過するフィルタである。画素毎に複数枚の波長フィルタを備えた構成とすることで、撮像部40は、各画素で分光することができる。すなわち、撮像部40は、第1波長領域と第2波長領域とを分光した分光画像を同時期に撮像することができる。
 次に、光学装置1Aにおける、光学的な作用を説明する。
 光源10から照射された光線Rに含まれる第1波長領域の第1分光光線L1は、第1波長選択領域31Aを通過し、被検体Bに到達する。すなわち、被検体B表面の特定の照射領域EAが、第1分光光線L1によって照射される。第1分光光線L1による照射領域EAは、第1波長領域の光線Rの内、光源10の有限サイズの発光面11の端部から発せられ、且つ、第1波長選択領域31Aの端部を通過するエッジ光線G1を境界とする領域である。すなわち、第1分光光線L1による照射領域EAは、エッジ光線G1によって規定される領域である。
 一方、光源10から照射された光線Rに含まれる第2波長領域の第2分光光線L2は、第2波長選択領域31Bを通過し、被検体Bに到達する。すなわち、被検体B表面の特定の照射領域EBが、第2分光光線L2によって照射される。第2分光光線L2による照射領域EBは、第2波長領域の光線Rの内、光源10の有限サイズの発光面11の端部から発せられ、且つ、第2波長選択領域31Bの端部を通過するエッジ光線G2を境界とする領域である。すなわち、第2分光光線L2による照射領域EBは、エッジ光線G2によって規定される領域である。
 ここで、光源10の発光面11が点光源である場合、第1分光光線L1による照射領域EAと第2分光光線L2による照射領域EBとは、非重複となる。非重複の定義には、これらの照射領域EAと照射領域EBとの境界のみが重なる場合も含まれる。
 一方、本実施形態の光源10は、上述したように、光源10の発光面11のサイズが有限サイズである。このため、第1分光光線L1による照射領域EAと、第2分光光線L2による照射領域EBと、には、重複する領域が存在する。
 具体的には、図1に示すように、被検体Bにおける光線Rの照射領域Eは、第1照射領域E1と、第2照射領域E2と、第3照射領域E3と、に分類される。
 第1照射領域E1は、被検体Bにおける、第1波長領域の第1分光光線L1のみが照射される領域である。第2照射領域E2は、被検体Bにおける、第1波長領域の第1分光光線L1と第2波長領域の第2分光光線L2とが重複(重畳)して照射される領域である。すなわち、第2照射領域E2には、第1波長領域の第1分光光線L1と第2波長領域の第2分光光線L2の両方が含まれる。第3照射領域E3は、被検体Bにおける、第2分光光線L2のみが照射される領域である。
 撮像部40は、第1分光光線L1および第2分光光線L2が照射された後に、第1照射領域E1、第2照射領域E2、および第3照射領域E3が形成された被検体Bを撮像し、分光画像を得る。
 次に、情報処理装置50について説明する。
 情報処理装置50は、撮像部40にデータまたは信号を授受可能に接続されている。情報処理装置50は、撮像部40で撮像された分光画像を解析する。
 図2は、情報処理装置50の機能的構成の一例を示すブロック図である。情報処理装置50は、処理部52と、記憶部54と、出力部56と、を備える。処理部52、記憶部54、および出力部56は、バス58を介してデータまたは信号を授受可能に接続されている。
 記憶部54は、各種データを記憶する。記憶部54は、例えば、RAM、フラッシュメモリ等の半導体メモリ素子、ハードディスク、光ディスク等である。なお、記憶部54は、情報処理装置50の外部に設けられた記憶装置であってもよい。また、記憶部54は、記憶媒体であってもよい。具体的には、記憶媒体は、プログラムや各種情報を、LAN(Local Area Network)やインターネットなどを介してダウンロードして記憶または一時記憶したものであってもよい。また、記憶部54を、複数の記憶媒体から構成してもよい。
 出力部56は、各種の情報を出力する。例えば、出力部56は、ディスプレイ、スピーカ、ネットワークを介して外部装置と通信する通信部、の少なくとも1つを備える。
 処理部52は、取得部52Aと、導出部52Bと、出力制御部52Cと、を備える。取得部52A、導出部52B、および出力制御部52Cの少なくとも1つは、例えば、1または複数のプロセッサにより実現される。例えば、上記各部は、CPU(Central Processing Unit)などのプロセッサにプログラムを実行させること、すなわちソフトウェアにより実現してもよい。上記各部は、専用のIC(Integrated Circuit)などのプロセッサ、すなわちハードウェアにより実現してもよい。上記各部は、ソフトウェアおよびハードウェアを併用して実現してもよい。複数のプロセッサを用いる場合、各プロセッサは、各部のうち1つを実現してもよいし、各部のうち2以上を実現してもよい。
 取得部52Aは、撮像部40から分光画像を取得する。
 導出部52Bは、取得部52Aで取得した分光画像に含まれる、複数の分光光線Lのうち、少なくとも2つの異なる波長領域に対する受光強度の互いの大小関係に基づいて、被検体Bにおける複数の分光光線Lの各々の照射領域Eを推定あるいは特定する。そして、導出部52Bは、この推定(特定)結果から、被検体Bの形状情報を導出する。以下では、推定を特定と称して説明する場合がある。
 本実施形態では、導出部52Bは、取得部52Aで取得した分光画像を解析することで、被検体Bにおける第1分光光線L1および第2分光光線L2の各々の照射領域Eを推定(特定)する。そして、該照射領域Eを特定した特定結果から、被検体Bの形状情報を導出する。
 詳細に説明する。
 図3A~図3Cは、第1照射領域E1、第2照射領域E2、および第3照射領域E3の各々の波長スペクトルの一例を示す図である。図3A~図3C中、横軸は波長を示し、縦軸は画素値を示す。画素値は、必要に応じて規格化してもよい。
 図3Aは、第1照射領域E1の波長スペクトルの一例を示す図である。図3Bは、第2照射領域E2の波長スペクトルの一例を示す図である。図3Cは、第3照射領域E3の波長スペクトルの一例を示す図である。
 図3A~図3Cには、背景ノイズNを併せて示した。背景ノイズNとは、暗電流成分の一例である。本実施形態では、背景ノイズNは、光源10をオンにして光線Rを出射する前において、撮像部40で得られた分光画像の画素値を意味する。言い換えると、背景ノイズNは、光源10をオフにしたときの分光画像の各画素の画素値である。
 図3Aに示すように、第1照射領域E1については、第1波長領域S1の第1分光光線L1について、第1閾値以上の画素値が得られる。図3Bに示すように、第2照射領域E2については、第1波長領域S1および第2波長領域S2の双方に対して、第1閾値以上の画素値が得られる。また、図3Cに示すように、第3照射領域E3については、第2波長領域S2に対して、第1閾値以上の画素値が得られる。第1閾値は、光線Rの照射により受光したと判別可能な値を予め定めればよい。
 図3A~図3Cに示すように、第1波長領域S1と第2波長領域S2に対する画素値の双方を組み合わせることで、第1照射領域E1、第2照射領域E2、および第3照射領域E3を区別することができるといえる。つまり、異なる波長領域に対する画素値の大小関係に基づき、各照射領域が区別できると言える。
 一方、第1波長領域S1に対する画素値のみを解析しても、第1照射領域E1と第2照射領域E2を区別することは出来ない(図3A参照)。また、第2波長領域S2に対する画素値のみを解析しても、第1照射領域E1と第2照射領域E2を区別することは出来ない(図3C参照)。すなわち、第1波長領域S1と第2波長領域S2の双方に対する画素値の組合せを用いることで、初めて、第1照射領域E1、第2照射領域E2、および第3照射領域E3を区別することができる。言い換えれば、異なる波長領域に対する画素値の大小関係に基づき、各照射領域がより高精度に区別できると言える。
 図2に戻り説明を続ける。そこで、導出部52Bは、分光画像に含まれる、第1波長領域S1の第1画素値、および、第2波長領域S2の第2画素値に基づいて、被検体Bにおける第1分光光線L1および第2分光光線L2の各々の照射領域Eを推定する。第1画素値は、第1受光強度の一例である。第2画素値は、第2受光強度の一例である。
 詳細には、導出部52Bは、第1波長領域S1と第2波長領域S2に対する画素値の組合せを用いることで、分光画像における、第1照射領域E1、第2照射領域E2、および第3照射領域E3、の各々を推定する。
 言い換えると、導出部52Bは、第1波長領域S1と第2波長領域S2に対する画素値の組合せを用いることで初めて、第1照射領域E1、第2照射領域E2、および第3照射領域E3の各々を区別することができる。すなわち、導出部52Bは、照射領域Eをより細かく区別することができる。
 そして、導出部52Bは、照射領域Eの推定結果から、被検体Bの形状情報を導出する。
 形状情報の導出には、位相シフト法、縞投影法、および、光切断法といった構造化照明を用いた三次元形状の算出で一般的に使用される計算手法などを用いればよい。ただし、ここで形状とは、表面の微細な形状、すなわち凹凸やキズなども含む。これらの表面の微細な形状は表面性状とも呼ばれる。すなわち、ここで述べる形状は表面性状も含むとする。
 構造化照明を用いて形状情報を導出する場合、照射領域Eのパターンが細かいほど、形状情報の導出精度が向上する。本実施形態では、導出部52Bは、第1波長領域S1と第2波長領域S2の画素値の組合せを用いることで、照射領域Eを、第1照射領域E1、第2照射領域E2、および第3照射領域E3に区別して推定する。そして、導出部52Bは、推定結果から、被検体Bの形状情報を導出する。
 このため、第1波長領域S1と第2波長領域S2の画素値の組合せを用いない場合に比べて、導出部52Bは、被検体Bの形状情報を高精度に導出することができる。
 また、本実施形態では、導出部52Bは、照射領域Eを、第1照射領域E1、第2照射領域E2、第3照射領域E3に細分化して推定することができる。これは、有限サイズの発光面11を有する光源10を用いることで、第1分光光線L1と第2分光光線L2による照射領域Eが重複する第2照射領域E2を被検体B上に形成したためである。このため、本実施形態では、有限サイズの発光面11を有する光源10を用い、且つ、第1波長領域S1と第2波長領域S2の画素値の組合せを用いることで、形状情報を更に高精度に導出することができる。
 また、第1波長選択領域31Aと第2波長選択領域31Bのサイズを同じにすることにより、第1照射領域E1と第3照射領域E3をほぼ同じサイズにできる。これにより、第1照射領域E1と第3照射領域E3を推定し、形状情報を算出する際、それぞれの照射領域での形状精度をほぼ等しくできる。すなわち、形状精度のばらつきを低減できるという効果がある。
 発光面11のサイズをS0とし、第1波長選択領域31AのサイズをS1とし、第2波長選択領域31BのサイズをS2とし、光選択部30から光源までの距離をD0とし、光選択部30から照射領域までの距離をD1とする。このとき、第1照射領域E1のサイズSE1、第2照射領域E2のサイズSE2、第3照射領域E3のサイズSE3は、それぞれ下記式(1)、式(2)、式(3)で表される。これらは幾何光学により導かれる。
 SE1=S1×D1/D0 ・・・式(1)
 SE2=S0×D1/D0 ・・・式(2)
 SE3=S2×D1/D0 ・・・式(3)
 このとき、発光面11のサイズS0を、下記式(4)で表すと、第1照射領域E1と第2照射領域E2をほぼ同じサイズにできる。
 S0=S1 ・・・式(4)
 これにより、第1照射領域E1と第2照射領域E2を推定し、形状情報を算出する際、それぞれの照射領域での形状精度をほぼ等しくできる。すなわち、形状精度のばらつきを低減できるという効果がある。
 また、第1波長選択領域31Aのサイズと第2波長選択領域31Bのサイズを等しくし、発光面11のサイズS0をそれらよりも大きくするとき、すなわち、下記式(5)が成り立つとき、第1照射領域E1のサイズSE1と第2照射領域E2のサイズSE2を等しくできる。
 S0>S1=S2 ・・・式(5)
 さらに、発光面11が大きいのでより明るくできるという効果がある。明るいと、撮像時のS/N(信号雑音比)が向上する。すなわち、形状精度のばらつきを低減できるという効果がある。
 なお、導出部52Bは、暗電流成分の一例である背景ノイズNを除去した後の、第1波長領域S1の第1画素値および第2波長領域S2の第2画素値に基づいて、形状情報を導出することが好ましい。
 導出部52Bは、まず、第1波長領域S1と第2波長領域S2の画素値の組合せと、背景ノイズNと、を比較する。詳細には、導出部52Bは、第1波長領域S1と第2波長領域S2の画素値の各々が、背景ノイズNの画素値より大きいか否を判断する。この判断処理により、導出部52Bは、例えば、第1照射領域E1に、第2分光光線L2の照射領域EBが存在する、とみなすことを抑制することができる。本実施形態では、導出部52Bは、第1波長領域S1および第2波長領域S2の各々の画素値から、背景ノイズNの画素値を除去する。背景ノイズNの画素値は、予め測定し、記憶部54へ記憶しておけばよい。そして、導出部52Bは、背景ノイズNを除去した後の第1波長領域S1および第2波長領域S2の各々の画素値の組合せを用いて、照射領域Eを推定する。
 背景ノイズNを除去された、第1波長領域S1および第2波長領域S2の各々の画素値を用いて照射領域E(第1照射領域E1、第2照射領域E2、第3照射領域E3)を推定することで、照射領域Eの誤認識を低減することができる。また、この推定結果を用いて形状情報を導出することで、導出部52Bは、被検体Bの形状情報の導出誤差を低減することができる。
 次に、出力制御部52Cについて説明する。出力制御部52Cは、導出部52Bによる形状情報の導出結果を出力部56へ出力する。
 次に、情報処理装置50が実行する情報処理の流れの一例を説明する。図4は、情報処理装置50が実行する情報処理の流れの一例を示す、フローチャートである。
 まず、取得部52Aが、撮像部40から分光画像を取得する(ステップS100)。
 導出部52Bは、ステップS100で取得した分光画像に含まれる第1波長領域S1の第1画素値および第2波長領域S2の第2画素値に基づいて、被検体Bにおける、第1分光光線L1および第2分光光線L2の各々の照射領域Eを推定する(ステップS102)。
 導出部52Bは、ステップS102で推定された推定結果から、被検体Bの形状情報を導出する(ステップS104)。
 出力制御部52Cは、ステップS104の導出結果を出力部56へ出力する(ステップS106)。そして、本ルーチンを終了する。
 以上説明したように、本実施形態の光学装置1Aは、面発光光源である光源10と、光選択部30と、撮像部40と、導出部52Bと、を備える。光選択部30は、光源10から照射された光線Rを互いに異なる波長領域の複数の分光光線Lに分光する。撮像部40は、複数の分光光線Lが照射された被検体Bを撮像し、分光画像を取得する。導出部52Bは、分光画像で取得された複数の分光光線Lのうち、少なくとも2つの異なる波長領域に対する受光強度の互いの大小関係に基づいて、被検体Bにおける複数の分光光線Lの各々の照射領域Eを推定した推定結果から、被検体Bの形状情報を導出する。
 このように、本実施形態の光学装置1Aは、光選択部30によって分光された互いに異なる複数の分光光線Lを被検体Bへ照射する。そして、導出部52Bは、撮像部40によって撮像された被検体Bの撮像画像である分光K画像に基づいて、被検体Bにおける複数の分光光線Lの各々の照射領域Eを推定する。すなわち、導出部52Bは、互いに異なる波長領域の各々に対する画素値の組み合わせを用いることで、これらの複数の波長領域の分光光線Lによる照射領域Eをより細かく区別することができる。言い換えれば、異なる波長領域に対する画素値の大小関係に基づき、各照射領域がより高精度に区別できると言える。そして、導出部52Bは、照射領域Eの推定結果から、被検体Bの形状情報を導出する。
 従って、本実施形態の光学装置1Aは、被検体Bの形状情報を高精度に導出することができる。
(第2の実施形態)
 本実施形態では、上記第1の実施形態の光学装置1Aの構成に加えて、光学素子を更に備えた構成を説明する。
 図5は、本実施形態の光学装置1Bの一例を示す模式図である。光学装置1Bは、光学装置1Aの構成に、更に、レンズ60を備えた構成である。
 レンズ60は、光学素子の一例である。光学素子は、光源10から出射された光線Rの発散角を縮小させる。具体的には、光学素子は、光源10から出射された光線Rである発散光を準平行光とする。
 準平行光とは、光源10から出射された光線Rである発散光の発散全角を1mrad以下とした光を意味する。このため、準平行光には、平行光が含まれる。
 本実施形態では、光学素子が、レンズ60である場合を一例として説明する。なお、光学素子として、レンズ60に代えて、凹面鏡を用いてもよい。
 レンズ60は、光源10と光選択部30との間に配置されている。光源10は、第1の実施形態と同様に、LEDである場合を一例として説明する。
 ここで、レンズ60は、焦点を有する。光源10は、レンズ60の焦点領域に配置されている。焦点領域とは、レンズ60の焦点、または、該焦点の近傍を意味する。光源10をこのように配置することで、光源10から照射された光線Rは、レンズ60を通過することで準平行光となり、光選択部30へ到る。
 第1の実施形態で説明したように、光源10の発光面11は有限サイズである。このため、光源10から照射された光線Rは、やや発散光となる。この発散光の発散全角は、下記式(6)で表される。レンズ60に代えて凹面鏡を用いた場合にも、下記式(6)が成り立つ。
 Θ=D/f   ・・・式(6)
 式(6)中、Θは、発散全角である。fは、レンズ60の焦点距離である。Dは、光源10の発光面11のサイズである。
 例えば、焦点距離fが200mmである場合を想定すると、発散全角Θは、1mrad(ミリラジアン)となる。このため、レンズ60によって、発散光を準平行光とすることができるといえる。
 次に、光学装置1Bにおける、光学的な作用を説明する。
 LEDである光源10から出射される光線Rは、一般的に発散光であり、その配光分布は、ほぼランバーシアである。すなわち、光源10から出射される光線Rは、ファン光線である。ファン光線とは、扇状に広がった光線である事を意味する。本実施形態では、ファン光線である光線Rは、レンズ60を通過することで、わずかな発散角を持つ準平行光RPとなり、光選択部30を介して被検体Bへ到る。このため、ファン光線を被検体Bへ照射する場合に比べて、被検体Bに照射される照射領域Eを狭くすることができる。
 第1の実施形態と同様に、導出部52Bは、第1波長領域S1と第2波長領域S2に対する画素値の双方を組み合わせることで、第1照射領域E1、第2照射領域E2、および第3照射領域E3を区別する。すなわち、導出部52Bは、分光画像に含まれる、第1波長領域S1と第2波長領域S2に対する画素値の組合せを用いることで、分光画像における、第1照射領域E1、第2照射領域E2、および第3照射領域E3を区別して推定する。
 導出部52Bが、このような構造化照明を用いて形状情報を導出する場合、照射領域Eのパターンが細かいほど、形状情報の導出精度が向上する。このため、本実施形態の光学装置1Bでは、上記実施形態と同様に、被検体Bの形状情報を高精度に導出することができる。
 また、本実施形態の光学装置1Bでは、レンズ60による準平行光RPを、光選択部30を介して被検体Bへ照射する。このため、被検体Bにおける照射領域Eを、レンズ60を介さない場合に比べて狭くすることができる。このため、本実施形態の光学装置1Bでは、より細かいパターンの照射領域E(第1照射領域E1、第2照射領域E2、第3照射領域E3)を被検体B上に形成することができる。
 従って、本実施形態の光学装置1Bでは、上記第1の実施形態の効果に加えて、被検体Bの形状情報を、更に高精度に導出することができる。
(第3の実施形態)
 本実施形態では、上記第2の実施形態の光学装置1Bの光選択部30として、回折格子を用いる場合を説明する。
 図6は、本実施形態の光学装置1Cの一例を示す模式図である。光学装置1Cは、上記第2の実施形態の光学装置1Bの光選択部30に代えて、回折格子34を備えた構成である。また、光学装置1Bは、更に、開口部材32を備える。また、光学装置1Cは、レンズ60に変えて、レンズ62を備える。
 回折格子34は、光選択部の一例である。本実施形態では、回折格子34は、互いに異なる波長領域の光線Rを、互いに異なる方向に通過させる。
 具体的には、回折格子34は、照射された光線Rを互いに異なる波長領域の複数の分光光線Lに分光する。本実施形態では、回折格子34は、照射された光線Rを、第1波長領域S1の第1分光光線L1、第2波長領域S2の第2分光光線L2、および、第3波長領域の第3分光光線L3に分光する場合を一例として説明する。なお、第1波長領域S1、第2波長領域S2、および第3波長領域は、互いに異なる波長領域である。
 回折格子34は、例えば、平面状のガラス基板に等間隔のピッチHで凸部が形成されてなる。ただし、回折格子34は、回折格子としての機能を有する構成であればよく、この構成に限定されない。
 開口部材32は、光源10とレンズ60との間に配置されている。本実施形態では、第1の実施形態と同様に、光源10がLEDである場合を一例として説明する。また、本実施形態では、光源10の発光面11のサイズが、0,1mm以下である場合を一例として説明する。具体的には、本実施形態では、光源10の発光面11のサイズが、0.1mm×0.1mmである場合を想定して説明する。なお、発光面11のサイズは、このサイズに限定されない。
 開口部材32は、開口32Aを有する。開口32Aは、例えば、直径0.1mmのピンホールである場合を想定して説明する。なお、開口32Aのサイズは、このサイズに限定されない。
 レンズ62は、第2の実施形態のレンズ60と同様である。レンズ62は、開口部材32と回折格子34との間に配置されている。第2の実施形態と同様に、レンズ62に代えて凹面鏡を用いてもよい。
 開口部材32の開口32Aは、レンズ62の焦点位置、または、該焦点位置の実質的な近傍に配置する。このような配置とすることで、光源10から照射された光線Rは、開口32Aおよびレンズ62を通過することで準平行光RPとなり、回折格子34へ到る。
 光源10から出射する光線Rである発散光の発散全角は、第2の実施形態で説明したように、上記式(6)で表される。本実施形態では、式(6)中、Dは、開口32Aのサイズである。
 例えば、レンズ62の焦点距離fが500mmである場合を想定する。また、上述したように、本実施形態では、開口32Aのサイズが直径0.1mmである場合を想定する。この場合、発散全角Θは、0.2mrad(ミリラジアン)となる。このため、開口32Aおよびレンズ62によって、発散光を準平行光RPとすることができるといえる。
 次に、光学装置1Cにおける、光学的な作用を説明する。
 LEDである光源10から出射される光線Rは、一般的に発散光であり、その配光分布は、ほぼランバーシアである。すなわち、光源10から出射される光線Rは、ファン光線である。本実施形態では、ファン光線である光線Rは、開口32Aおよびレンズ62を通過することで、わずかな発散角を持つ準平行光RPとなり、回折格子34へ到る。
 ここで、準平行光RPは、発光面11または開口32Aのサイズに対して、レンズ62の焦点距離が十分に大きいことで、生成される。レンズ62を通過することで準平行光RPとされた光線Rに含まれる、光軸Zに対して直交する方向に隣接する光線間の距離は、光軸Zに沿って略一定となる。すなわち、これらの隣接する光線は、互いに触れ合うことなく回折格子34へ到る。
 本実施形態では、回折格子34によって、互いに異なる波長領域の複数の分光光線L(第1分光光線L1、第2分光光線L2、第3光線R3)が被検体Bへ照射される。このため、導出部52Bは、これらの複数の波長領域の各々に対する画素値を組み合わせることで、さらに複数の照射領域Eを区別することができる。
 図6には、一例として、第1照射領域E1、第2照射領域E2、第3照射領域E3を示した。本実施形態では、第1照射領域E1は、被検体Bにおける、第1波長領域S1の第1分光光線L1のみが照射される領域である。第2照射領域E2は、被検体Bにおける、第1波長領域の第1分光光線L1と第2波長領域の第2分光光線L2とが重複して照射される領域である。第3照射領域E3は、被検体Bにおける、第1波長領域S1と第2波長領域S2と第3波長領域S3とが重複して照射される領域である。
 ここで、波長λの光線Rが、回折格子34のガラス基板の表面または裏面の法線に対して、入射角αで入射した場合を想定する。また、回折格子34を透過した光線Rである分光光線Lの光線方向の、該ガラス基板の表面または裏面の法線に対する角度を、βと想定する。すると、以下の式(7)が成り立つ。
 sinβ-sinα=m×λ/H    ・・・式(7)
 式(7)中、Hは、回折格子34のピッチHである。また、mは、整数である。
 本実施形態では、回折格子34には、準平行光RPが入射する。このため、入射角αは、実質的に0である。ここで、回折格子34に準平行光RP以外の光線Rが入射する場合、様々な角度の光線Rが回折格子34へ入射することとなる。この場合、上記式(7)に示されるように、様々な波長領域の光線Rが様々な方向に向かって透過し、混色された状態で被検体Bへ到ることとなる。このため、回折格子34に準平行光RP以外の光線Rが入射する場合、導出部52Bは、照射領域Eを波長に応じて区別することが困難となる。
 一方、本実施形態では、開口32Aおよびレンズ62によって、回折格子34には、準平行光RPが入射する。このため、導出部52Bは、分光画像を波長に応じて解析することで、被検体Bにおける、互いに異なる波長領域の分光光線Lの各々の照射領域Eを推定することができる。すなわち、導出部52Bは、第1照射領域E1、第2照射領域E2、および第3照射領域E3を波長領域に応じて区別しやすくなる。
 上述したように、回折格子34を通過した分光光線Lの角度βは、上記式(7)によって表される。上記式(7)中、mが1または-1である場合、強い回折格子34とすることができる。この回折格子34を通過する分光光線Lは、±1次回折光と称される。この±1次回折光の通過角度は、下記式(8)で表される。
 sinβ=±λ/H      ・・・式(8)
 式(8)に示されるように、波長が大きくなるほど、回折格子34を透過する分光光線Lの角度が大きくなる。すなわち、回折格子34によって、分光光線Lの波長に応じて、分光光線Lの方向、すなわち角度を異ならせることができる。
 例えば、回折格子34のピッチHを2μmとした場合を想定する。また、第1波長領域S1が650nmであり、第2波長領域S2が640nmであり、第3波長領域が640nmである場合を想定する。
 図7A~図7Cは、第1照射領域E1、第2照射領域E2、および第3照射領域E3の各々の波長スペクトルの一例を示す図である。図7A~図7C中、横軸は波長を示し、縦軸は画素値を示す。画素値は、必要に応じて規格化してもよい。
 図7Aは、第1照射領域E1の波長スペクトルの一例を示す図である。図7Bは、第2照射領域E2の波長スペクトルの一例を示す図である。図7Cは、第3照射領域E3の波長スペクトルの一例を示す図である。
 図7A~図7Cに示すように、第1波長領域S1、第2波長領域S2、および第3波長領域S3に対する画素値を組み合わせることで、第1照射領域E1、第2照射領域E2、および第3照射領域E3を区別することができるといえる。
 このため、本実施形態では、導出部52Bは、第1波長領域S1、第2波長領域S2、および第3波長領域S3の各々に対する画素値を組み合わせることで、第1照射領域E1、第2照射領域E2、および第3照射領域E3を区別することができるといえる。
 一方、第1波長領域S1に対する画素値のみを解析しても、第1照射領域E1と、第2照射領域E2および第3照射領域E3と、を区別することは出来ない。また、第3波長領域S3に対する画素値のみを解析しても、第3照射領域E3と、第1照射領域E1および第2照射領域E2と、を区別することは出来ない。
 すなわち、第1波長領域S1と第2波長領域S2と第2波長領域S2の各々対する画素値の組合せを用いることで、初めて、第1照射領域E1、第2照射領域E2、および第3照射領域E3を区別することができる。
 そこで、本実施形態では、導出部52Bは、分光画像に含まれる、第1波長領域S1の第1画素値、および、第2波長領域S2の第2画素値、および第3波長領域S3の第3画素値に基づいて、被検体Bにおける第1分光光線L1、第2分光光線L2、および第3光線R3の各々の照射領域Eを推定する。
 詳細には、導出部52Bは、第1波長領域S1と第2波長領域S2と第3波長領域S3の各々に対する画素値の組合せを用いることで、分光画像における、第1照射領域E1、第2照射領域E2、および第3照射領域E3を推定する。
 言い換えると、導出部52Bは、第1波長領域S1と第2波長領域S2と第3波長領域S3の各々に対する画素値の組合せを用いることで初めて、第1照射領域E1、第2照射領域E2、および第3照射領域E3の各々を区別することができる。すなわち、導出部52Bは、照射領域Eをより細かく区別することができる。
 そして、導出部52Bは、照射領域Eの推定結果から、被検体Bの形状情報を導出する。言い換えると、導出部52Bは、第1波長領域S1と第2波長領域S2に対する画素値の組合せを用いることで初めて、第1照射領域E1、第2照射領域E2、および第3照射領域E3の各々を区別することができる。すなわち、導出部52Bは、照射領域Eをより細かく区別することができる。そして、導出部52Bは、照射領域Eの推定結果から、被検体Bの形状情報を導出する。
 上述したように、導出部52Bが、このような構造化照明を用いて形状情報を導出する場合、照射領域Eのパターンが細かいほど、形状情報の導出精度が向上する。
 本実施形態では、レンズ62を通過することで準平行光RPとされた光線Rに含まれる、光軸Zに対して直交する方向に隣接する光線は、互いに触れ合うことなく回折格子34を介して被検体Bへ到る。準平行光を作成することで、距離に依存しない繊細な構造化照明を実現することができる。このため、本実施形態では、より細かい構造の照明を作成することができ、上記実施形態に比べて、さらに細かい構造の照射領域Eの分布を実現することができる。
 また、本実施形態では、導出部52Bが、第1波長領域S1と第2波長領域S2と第3波長領域S3との画素値の組合せを用いることで、照射領域Eを、第1照射領域E1、第2照射領域E2、および第3照射領域E3に区別して推定することができる。このため、第1波長領域S1と第2波長領域S2と第3波長領域S3の画素値の組合せを用いない場合に比べて、導出部52Bは、形状情報を高精度に導出することができる。
 従って、本実施形態の光学装置1Cは、上記実施形態の効果に加えて、被検体Bの形状情報を、更に高精度に導出することができる。
(第4の実施形態)
 本実施形態では、上記第1の実施形態の光学装置1Aに加えて、特有の光学素子を更に備えた構成を説明する。
 図8は、本実施形態の光学装置1Dの一例を示す模式図である。光学装置1Dは、光学装置1Aの構成に、更に、光学素子64およびレンズ66を備えた構成である。
 レンズ66は、被検体Bで反射した光線Rを撮像部40の受光面41へ結像させる。
 光学素子64は、透明媒質で構成されている。透明とは、入射する光線Rに対して透明であることを意味する。透明媒質は、例えば、ガラス、樹脂、石英、サファイヤなどである。樹脂は、例えば、アクリル、ポリカーボネートなどである。本実施形態では、光学素子64を構成する透明媒質が、アクリルである場合を一例として説明する。
 光学素子64は、透明媒質の外面に、反射面64Bと、入射面64Aと、出射面64Cと、を備える。
 反射面64Bは、透明媒質の外面に設けられた、放物面状または準放物面状の反射面である。反射面64Bは、例えば、透明媒質の外面の一部を構成する放物面に、アルミ蒸着が施された面である。このため、反射面64Bは、光線Rを反射する反射面として機能する。本実施形態では、反射面64Bの焦点距離が、100mmである場合を想定して説明する。
 入射面64Aは、反射面64Bに対向する平面状の面であり、光源10の発光面11に配置されている。入射面64Aは、放物面である反射面64Bの焦点位置近傍に設けられている。光源10の発光面11と、入射面64Aとは、対向配置されている。
 出射面64Cは、光選択部30に対向配置されている。
 本実施形態の光源10であるLEDは、発光面11のサイズが、0.1mm×0.1mmである場合を想定して説明する。
 光源10から出射し、光学素子64の入射面64Aに入射した光線Rは、透明媒質による屈折作用により屈折し、透明媒質内部に入射する。そして、透明媒質内部に入射した光線Rのほぼ全てが、透明媒質内を導光し、導光した全ての光線Rは反射面64Bで正反射される。
 ここで、透明媒質による屈折作用がない場合、光線Rは屈折されない。このため、光線Rはファン光線のように広がり、反射面64Bに当たらないでロスとなる光線Rが増加する。
 一方、本実施形態では、光学素子64による導光作用により、コンパクトな放物面である反射面64Bによって、略全ての光線Rを、光選択部30を介して被検体Bへ向かって反射させることができる。
 また、上述したように、光源10は、反射面64Bの焦点または焦点近傍に配置されている。このため、反射面64Bで反射された光線Rは、平行光RP’となる。すなわち、光学素子64を通過することで平行光RPとされた光線Rに含まれる、光軸Zに対して直交する方向に隣接する光線間の距離は、光軸Zに沿って略一定となる。すなわち、これらの隣接する光線は、互いに触れ合うことなく、光選択部30へ到る。
 平行光RP’を作成することで、距離に依存しない繊細な構造化照明を実現することができる。このため、本実施形態では、より細かい構造の照明を作成することができ、上記実施形態に比べて、さらに細かい構造の照射領域Eの分布を実現することができる。
 光選択部30へ照射された平行光RP’は、光選択部30を通過することで分光され、被検体Bへ到る。図9は、分光光線Lの光路上のある位置における、分光光線Lの強度分布Vの一例を示す模式図である。被検体Bに分光光線Lが照射され、撮像部40による撮像が行われることで、撮像部40は、分光画像を得る。
 第1の実施形態と同様に、導出部52Bは、分光画像に含まれる互いに異なる波長領域の各々の画素値に基づいて、被検体Bにおける互いに異なる波長領域の光線Rの各々の照射領域Eを推定する。そして、推定結果から、被検体Bの形状情報を導出する。
 図10A~図10Cは、第1照射領域E1、第2照射領域E2、および第3照射領域E3の各々の波長スペクトルの一例を示す図である。図10A~図10C中、横軸は波長を示し、縦軸は画素値を示す。画素値は、必要に応じて規格化してもよい。また、図10A~図10Cには、背景ノイズNも併せて示した。
 図10Aは、第1照射領域E1の波長スペクトルの一例を示す図である。図10Bは、第2照射領域E2の波長スペクトルの一例を示す図である。図10Cは、第3照射領域E3の波長スペクトルの一例を示す図である。
 図10A~図10Cに示すように、第1波長領域S1、第2波長領域S2、および第3波長領域S3に対する画素値を組み合わせることで、第1照射領域E1、第2照射領域E2、および第3照射領域E3を区別することができるといえる。
 このため、本実施形態では、導出部52Bは、第1波長領域S1、第2波長領域S2、および第3波長領域S3の各々に対する画素値を組み合わせることで、第1照射領域E1、第2照射領域E2、および第3照射領域E3を区別することができるといえる。
 一方、第1波長領域S1に対する画素値のみを解析しても、第1照射領域E1と、第2照射領域E2および第3照射領域E3と、を区別することは出来ない。また、第2波長領域S2に対する画素値のみを解析しても、第2照射領域E2と、第1照射領域E1および第3照射領域E3と、を区別することは出来ない。また、第3波長領域S3に対する画素値のみを解析しても、第3照射領域E3と、第1照射領域E1および第2照射領域E2と、を区別することは出来ない。
 すなわち、第1波長領域S1と第2波長領域S2と第2波長領域S2の各々に対する画素値の組合せを用いることで、初めて、第1照射領域E1、第2照射領域E2、および第3照射領域E3を区別することができる。
 そこで、上記実施形態と同様に、導出部52Bは、分光画像に含まれる、第1波長領域S1の第1画素値、および、第2波長領域S2の第2画素値、および第3波長領域S3の第3画素値に基づいて、被検体Bにおける第1分光光線L1、第2分光光線L2、および第3光線R3の各々の照射領域Eを推定する。詳細には、導出部52Bは、第1波長領域S1と第2波長領域S2と第3波長領域S3の各々に対する画素値の組合せを用いることで、分光画像における、第1照射領域E1、第2照射領域E2、および第3照射領域E3を推定する。
 言い換えると、導出部52Bは、第1波長領域S1と第2波長領域S2と第3波長領域S3の各々に対する画素値の組合せを用いることで初めて、第1照射領域E1、第2照射領域E2、および第3照射領域E3の各々を区別することができる。すなわち、導出部52Bは、照射領域Eをより細かく区別することができる。
 そして、導出部52Bは、照射領域Eの推定結果から、被検体Bの形状情報を導出する。
 上述したように、導出部52Bが、このような構造化照明を用いて形状情報を導出する場合、照射領域Eのパターンが細かいほど、形状情報の導出精度が向上する。
 従って、本実施形態の光学装置1Dは、上記第1の実施形態の効果に加えて、被検体Bの形状情報を、更に高精度に導出することができる。
 なお、導出部52Bは、上記実施形態と同様に、背景ノイズNを除去した後の、第1波長領域S1の第1画素値、第2波長領域S2の第2画素値、および第3波長領域S3の第3画素値に基づいて、形状情報を導出することが好ましい。
(第5の実施形態)
 本実施形態では、シリンドリカルレンズを更に備えた構成を説明する。
 図11は、本実施形態の光学装置1Eの一例を示す模式図である。光学装置1Eは、上記第1の実施形態の光学装置1Aの構成に加えて、シリンドリカルレンズ68を更に備える。
 図11は、本実施形態の光学装置1Eの一例を示す模式図である。光学装置1Eは、光学装置1Aの構成に、更に、シリンドリカルレンズ68を備えた構成である。
 シリンドリカルレンズ68は、光学素子の一例である。シリンドリカルレンズ68は、光選択部30を通過した光線Rを被検体Bに結像させる。なお、光学装置1Eは、シリンドリカルレンズ68に代えて、凹面ミラーを備えた構成であってもよい。すなわち、本実施形態で用いる光学素子は、像面と被検体Bの物体面とが規定可能な光学素子であればよい。本実施形態では、光学素子として、シリンドリカルレンズ68を用いる形態を一例として説明する。
 本実施形態の光源10であるLEDは、第1の実施形態と同様に、有限サイズの発光面11を有するLEDであればよい。本実施形態では、発光面11のサイズが、3mm×3mmである場合を想定して説明する。なお、発光面11のサイズは、このサイズに限定されない。
 また、本実施形態では、光選択部30は、光源10とシリンドリカルレンズ68との間に配置されている。本実施形態では、光選択部30は、光源10の発光面11の近傍に対向配置されている。なお、光選択部30における波長選択領域31のサイズは、光源10の発光面11と略同じサイズであるものとする。
 光選択部30の波長選択領域31は、シリンドリカルレンズ68の物体面に配置されている。このため、シリンドリカルレンズ68の像面に、波長選択領域31が投影(照明)されることとなる。
 ここで、シリンドリカルレンズ68の像面よりシリンドリカルレンズ68側の位置では、波長選択領域31に含まれる第1波長選択領域31Aおよび第2波長選択領域31Bの各々の投影像は、重なって投影された投影像となる。
 そして、よりシリンドリカルレンズ68に近い位置であるほど、この重なりは更に大きくなる。
 図12Aは、図11中の位置A1における投影像の強度分布の一例を示す図である。図12Bは、図11中の位置A2における、投影像の強度分布の一例を示す図である。
 図11、図12A、および図12Bに示すように、シリンドリカルレンズ68に近い位置であるほど、第1波長選択領域31Aを通過した第1分光光線L1による照射領域EAと、第2分光光線L2による照射領域EBと、の重なりが大きくなる。このため、第1波長選択領域31Aと第2波長選択領域31Bの各々に対応する照射領域EAと照射領域EBとの重なりの有無と、重なりの程度と、から、光軸Z方向の距離を推定することができる。
 そこで、本実施形態の光学装置1Eでは、導出部52Bは、第1の実施形態と同様に、取得部52Aで取得した分光画像を解析することで、被検体Bにおける第1分光光線L1および第2分光光線L2の各々の照射領域Eを推定する。そして、該照射領域Eを推定した推定結果から、被検体Bの形状情報を導出する。
 このとき、本実施形態では、導出部52Bは、更に、照射領域EAと照射領域EBとの重なりの有無と、重なりの程度と、から、光軸Z方向の距離を推定する。
 このため、本実施形態では、導出部52Bは、被検体Bの三次元形状を推定することができる。
 このような距離推定処理は、波長選択領域31によって分光された第1波長領域S1および第2波長領域S2の各々に対する画素値の両方の組み合わせを処理部52で保持し、導出部52Bがこの組み合わせを用いて距離を推定することで実現される。
 すなわち、第1波長領域S1の第1分光光線L1が存在し且つ第2波長領域S2の第2分光光線L2が存在しない照射領域Eと、第2波長領域S2の第2分光光線L2が存在し且つ第1波長領域S1の第1分光光線L1が存在しない照射領域Eと、の2つのみで照射野(平面上の照明分布)が構成されるならば、照射野は結像面上にある。
 一方、双方が重なる領域、つまり、第1波長領域S1の第1分光光線L1が存在し、且つ、第2波長領域S2の第2分光光線L2が存在する、照射領域Eがあれば、それは結像面よりもシリンドリカルレンズ68側(光学素子側)であるということが推定できる。
 このため、本実施形態の光学装置1Eによれば、上記実施形態の効果に加えて、被検体Bの三次元形状を形状情報として導出することができる。
 次に、上記実施形態における情報処理装置50の、ハードウェア構成の一例を説明する。
 図13は、上記実施形態および変形例に係る情報処理装置50の、ハードウェア構成図の一例である。
 情報処理装置50は、CPU86などの制御装置と、ROM(Read Only Memory)88やRAM(Random Access Memory)91やHDD(ハードディスクドライブ)92などの記憶装置と、各種機器とのインターフェースであるI/F部82と、出力情報などの各種情報を出力する出力部81と、ユーザによる操作を受付ける入力部94と、各部を接続するバス96とを備えており、通常のコンピュータを利用したハードウェア構成となっている。
 情報処理装置50では、CPU86が、ROM88からプログラムをRAM91上に読み出して実行することにより、上記各部がコンピュータ上で実現される。
 なお、情報処理装置50で実行される上記各処理を実行するためのプログラムは、HDD92に記憶されていてもよい。また、情報処理装置50で実行される上記各処理を実行するためのプログラムは、ROM88に予め組込まれて提供されていてもよい。
 また、情報処理装置50で実行される上記処理を実行するためのプログラムは、インストール可能な形式または実行可能な形式のファイルでCD-ROM、CD-R、メモリカード、DVD(Digital Versatile Disk)、フレキシブルディスク(FD)等のコンピュータで読み取り可能な記憶媒体に記憶されてコンピュータプログラムプロダクトとして提供されるようにしてもよい。また、情報処理装置50で実行される上記処理を実行するためのプログラムを、インターネットなどのネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するようにしてもよい。また、情報処理装置50で実行される上記処理を実行するためのプログラムを、インターネットなどのネットワーク経由で提供または配布するようにしてもよい。
 なお、上記には、本発明の実施形態および変形例を説明したが、上記実施形態および変形例は、例として提示したものであり、発明の範囲を限定することは意図していない。この新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。この実施形態やその変形は、発明の範囲や要旨に含まれるとともに、請求の範囲に記載された発明とその均等の範囲に含まれる。
1、1A、1B、1C、1D、1E 光学装置
10 光源
30 光選択部
32 開口部材
34 回折格子
40 撮像部
52B 導出部
60 レンズ
62 レンズ
64 光学素子
68 シリンドリカルレンズ

Claims (17)

  1.  面発光光源と、 
    前記面発光光源から照射された光線を互いに異なる波長領域の複数の分光光線に分光する光選択部と、
     複数の前記分光光線が照射された被検体を撮像し、分光画像を取得する撮像部と、
     前記分光画像で取得された複数の前記分光光線のうち、少なくとも2つの異なる波長領域に対する受光強度の互いの大小関係に基づいて、前記被検体における複数の前記分光光線の各々の照射領域を推定した推定結果から、前記被検体の表面性状または形状情報を導出する導出部と、
     を備える光学装置。
  2.  前記光選択部は、
     照射された光線を第1波長領域の第1分光光線および第2波長領域の第2分光光線である前記分光光線に分光し、
     前記撮像部は、
     少なくとも前記第1波長領域および前記第2波長領域に分光した前記分光画像を撮像し、
     前記導出部は、
     前記分光画像に含まれる前記第1波長領域の第1受光強度および前記第2波長領域の第2受光強度の互いの大小関係に基づいて、前記被検体における、前記第1分光光線および前記第2分光光線の各々の照射領域を推定した前記推定結果から、前記表面性状または前記形状情報を導出する、
     請求項1に記載の光学装置。
  3.  前記導出部は、
     前記被検体における、前記第1波長領域の第1分光光線のみの第1照射領域、前記第1分光光線および前記第2分光光線の両方が含まれる第2照射領域、および、前記第2分光光線のみの第3照射領域、を推定した前記推定結果から、前記表面性状または前記形状情報を導出する、
     請求項2に記載の光学装置。
  4.  前記導出部は、
     暗電流成分を除去した後の、前記第1受光強度および前記第2受光強度に基づいて、前記表面性状または前記形状情報を導出する、
     請求項2または請求項3に記載の光学装置。
  5.  前記光選択部は、
     前記第1分光光線を通過させる第1波長選択領域と、前記第2分光光線を通過させる第2波長選択領域と、を有し、
     前記第1波長選択領域および前記第2波長選択領域は、互いに異なる位置に配置される、
     請求項2~請求項4の何れか1項に記載の光学装置。
  6.  光源と、
     前記光源から出射された前記光線の発散角を縮小させる光学素子と、
     を有する照射部を備える、
     請求項1~請求項5の何れか1項に記載の光学装置。
  7.  前記光源は、
     有限サイズの発光面を有する、請求項6に記載の光学装置。
  8.  前記光学素子は、レンズであり、
     前記光源は、前記レンズの焦点領域に配置され、
     前記レンズは、前記光源から出射された前記光線を準平行光とする、
     請求項6または請求項7に記載の光学装置。
  9.  前記光学素子は、凹面鏡であり、
     前記光源は、前記凹面鏡の焦点領域に配置され、
     前記凹面鏡は、前記光源から出射された前記光線を準平行光とする、
     請求項8に記載の光学装置。
  10.  前記光選択部は、回折格子である、
     請求項8または請求項9に記載の光学装置。
  11.  前記光学素子は、
     透明媒質で構成され、
     前記透明媒質の外面に放物面状または準放物面状の反射面を備え、
     前記光源は、前記反射面の焦点領域に配置されてなる、
     請求項6に記載の光学装置。
  12.  前記光学素子は、
     前記反射面に対向する平面状の入射面を備え、
     前記入射面は、前記光源の発光面に対向配置されてなる、
     請求項11に記載の光学装置。
  13.  前記光学素子はレンズであり、
     前記光選択部は、前記光源と前記レンズとの間に配置され、
     前記レンズは、前記光選択部を通過した光線を前記被検体に結像する、
     請求項6に記載の光学装置。
  14.  前記光線を照射する光源の発光面のサイズと前記第1分光光線を通過させる第1波長選択領域のサイズとが実質的に等しい、
     請求項2に記載の光学装置。
  15.  前記光線を照射する光源の発光面のサイズが前記第1分光光線を通過させる第1波長選択領域のサイズよりも大きい、
     請求項2に記載の光学装置。
  16.  面発光光源から照射された光線を互いに異なる波長領域の複数の分光光線に分光するステップと、
     複数の前記分光光線が照射された被検体を撮像し、分光画像を取得するステップと、
     前記分光画像で取得された複数の前記分光光線のうち、少なくとも2つの異なる波長領域に対する受光強度の互いの大小関係に基づいて、前記被検体における複数の前記分光光線の各々の照射領域を推定した推定結果から、前記被検体の表面性状または形状情報を導出する導出ステップと、
     を含む情報処理方法。
  17.  面発行光源から照射された光線を互いに異なる波長領域の複数の分光光線に分光する光選択部により分光された複数の前記分光光線が照射された被検体を撮像し、分光画像を取得する撮像部と接続されるコンピュータに、
     前記分光画像で取得された複数の前記分光光線のうち、少なくとも2つの異なる波長領域に対する受光強度の互いの大小関係に基づいて、前記被検体における複数の前記分光光線の各々の照射領域を推定した推定結果から、前記被検体の表面性状または形状情報を導出する導出ステップ、
     を実行させるためのプログラム。
PCT/JP2021/034144 2021-09-16 2021-09-16 光学装置、情報処理方法、および、プログラム WO2023042346A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2021/034144 WO2023042346A1 (ja) 2021-09-16 2021-09-16 光学装置、情報処理方法、および、プログラム
CN202180052432.5A CN116137888A (zh) 2021-09-16 2021-09-16 光学装置、信息处理方法以及程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/034144 WO2023042346A1 (ja) 2021-09-16 2021-09-16 光学装置、情報処理方法、および、プログラム

Publications (1)

Publication Number Publication Date
WO2023042346A1 true WO2023042346A1 (ja) 2023-03-23

Family

ID=85602610

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/034144 WO2023042346A1 (ja) 2021-09-16 2021-09-16 光学装置、情報処理方法、および、プログラム

Country Status (2)

Country Link
CN (1) CN116137888A (ja)
WO (1) WO2023042346A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002191058A (ja) * 2000-12-20 2002-07-05 Olympus Optical Co Ltd 3次元画像取得装置および3次元画像取得方法
JP2005274567A (ja) * 2004-03-15 2005-10-06 Northrop Grumman Corp フォトグラメトリーを使用する自動形状計測用にカラーコード化された光
JP2006214914A (ja) * 2005-02-04 2006-08-17 Asahi Glass Co Ltd 鏡面形状測定方法および装置並びに検査方法および装置
JP2008157888A (ja) * 2006-12-26 2008-07-10 Nikon Corp 立体計測装置
US20170059408A1 (en) * 2014-02-21 2017-03-02 Universität Stuttgart Method and Device for Generating Multispectral or Hyperspectral Light, for Hyperspectral Imaging and/or for Distance Measurement and/or 2D or 3D Profile Measurement of an Object by Means of Spectrometry

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002191058A (ja) * 2000-12-20 2002-07-05 Olympus Optical Co Ltd 3次元画像取得装置および3次元画像取得方法
JP2005274567A (ja) * 2004-03-15 2005-10-06 Northrop Grumman Corp フォトグラメトリーを使用する自動形状計測用にカラーコード化された光
JP2006214914A (ja) * 2005-02-04 2006-08-17 Asahi Glass Co Ltd 鏡面形状測定方法および装置並びに検査方法および装置
JP2008157888A (ja) * 2006-12-26 2008-07-10 Nikon Corp 立体計測装置
US20170059408A1 (en) * 2014-02-21 2017-03-02 Universität Stuttgart Method and Device for Generating Multispectral or Hyperspectral Light, for Hyperspectral Imaging and/or for Distance Measurement and/or 2D or 3D Profile Measurement of an Object by Means of Spectrometry

Also Published As

Publication number Publication date
CN116137888A (zh) 2023-05-19

Similar Documents

Publication Publication Date Title
US10732102B2 (en) Optical test apparatus and optical test method
JP7191801B2 (ja) 光学検査装置
JP7410969B2 (ja) スペクトル共焦点測定装置及び測定方法
US20130063721A1 (en) Pattern inspection apparatus and method
CN111879239B (zh) 光谱共焦测量装置及测量方法
TWI640764B (zh) 用於使用多個照明波長檢測樣本之系統及方法
JP2024060068A (ja) 光学装置
WO2023042346A1 (ja) 光学装置、情報処理方法、および、プログラム
JP7309640B2 (ja) 光学検査装置
JP6938093B2 (ja) 検査対象物の境界部を検査する方法及びその検査装置
US11333492B2 (en) Optical device, information processing method, and computer program product
JP2013122393A (ja) 欠陥検査装置および欠陥検査方法
JP5887120B2 (ja) 接触部検出装置および接触部検出方法
US11774369B2 (en) Optical imaging apparatus, optical inspection apparatus, and optical inspection method
JP7043577B2 (ja) 光学検査装置、方法及びプログラム
JP2022146636A (ja) 光学装置、光学検査方法及び光学検査プログラム
US11150134B2 (en) Spectral information acquisition system, inspection method, and manufacturing method
US20230304929A1 (en) Optical inspection method, non-transitory storage medium storing optical inspection program, processing device, and optical inspection apparatus
US11176695B2 (en) Shape information acquisition apparatus and shape information acquisition method
US20240094115A1 (en) Non-transitory storage medium, optical inspection system, processing apparatus for optical inspection system, and optical inspection method
US20230077793A1 (en) Optical inspection method, non-transitory storage medium storing optical inspection program, processing device, and optical inspection apparatus
KR20030049913A (ko) 다중 광로 광원장치 및 그 동작방법
JP2023139653A (ja) 光学検査装置、処理装置、光学検査方法、及び、光学検査プログラム
WO2016199307A1 (ja) 光学特性検出光学系、測定プローブおよび光学特性検出装置
KR20110123944A (ko) 백색광 주사방식 웨이퍼 두께측정장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21957527

Country of ref document: EP

Kind code of ref document: A1