WO2010021090A1 - 距離推定装置、距離推定方法、プログラム、集積回路およびカメラ - Google Patents

距離推定装置、距離推定方法、プログラム、集積回路およびカメラ Download PDF

Info

Publication number
WO2010021090A1
WO2010021090A1 PCT/JP2009/003574 JP2009003574W WO2010021090A1 WO 2010021090 A1 WO2010021090 A1 WO 2010021090A1 JP 2009003574 W JP2009003574 W JP 2009003574W WO 2010021090 A1 WO2010021090 A1 WO 2010021090A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
distance
unit
image
frequency
Prior art date
Application number
PCT/JP2009/003574
Other languages
English (en)
French (fr)
Inventor
渡辺辰巳
桑原康浩
井東武志
田路文平
佐藤大将
木内真也
尾脇義明
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to US12/922,544 priority Critical patent/US20110063437A1/en
Priority to JP2010525573A priority patent/JPWO2010021090A1/ja
Publication of WO2010021090A1 publication Critical patent/WO2010021090A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/32Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • G01S17/36Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated with phase comparison between the received signal and the contemporaneously transmitted signal

Definitions

  • the present invention captures the target space and increases the distance to the target in the target space in order to improve the sense of depth and stereoscopic effect of the image captured by an imaging device such as a movie or DSC (Digital Still Camera).
  • the present invention relates to an estimation apparatus and method.
  • the space three-dimensional measurement technique is expected to be applied in many fields, and has been tried to be put into practical use by various methods.
  • Typical methods include the light cutting method using laser slit light scanning, the triangulation method represented by the stereo vision method, and the object to be measured with illumination light.
  • TOF Time Of Flight
  • the distance to the subject can be detected at high speed in pixel units of the television image (captured image), and the distance measurement range is relatively Can be set widely (distance measurement range can be set to about 3 m or more).
  • a LED light source can be used instead of a laser light source, a person can also be photographed safely.
  • the phase TOF method mainly irradiates a measurement object with a light beam whose intensity is modulated, detects reflected light from the object, performs photoelectron conversion, and converts the converted photoelectron to one of a plurality of storage units. This is a method of generating distance information according to the number of photoelectrons accumulated in these accumulators.
  • the pulse TOF method is a method for irradiating a measurement object with a pulsed light beam and obtaining a distance based on the phase difference between the reflected light from the measurement object and the measurement light beam, and scanning the measurement light beam two-dimensionally. In this method, the distance between each point is measured to measure a three-dimensional shape.
  • the distance is measured using the phase amount ⁇ instead of ⁇ t in (Equation 1).
  • the maximum detection distance Lmax corresponds to a case where the phase amount ⁇ is 2 ⁇ (T in terms of ⁇ t: one period time of modulation intensity), and is obtained based on the following equation. That is, the maximum detection distance Lmax depends on the modulation frequency f of the measurement light beam and is determined by the following equation.
  • FIG. 23 is a block diagram showing a configuration of the distance estimation apparatus 900 of the first conventional example.
  • the distance estimation apparatus 900 receives the reflected light S907 from the subject by changing the imaging gain with time by the light projecting unit 902 capable of illuminating the subject OBJ1 with the amplitude-modulated illumination light S906, and the optical of the subject.
  • An imaging unit 903 capable of capturing an image.
  • the distance estimation apparatus 900 also includes a signal processing unit 904 for converting the video signal S904 from the imaging unit 903 into a stereoscopic information signal S905, an illumination light modulation signal S901, an imaging gain modulation signal S902, and control signals S903a and S903b.
  • FIG. 24 is a diagram schematically showing an outline of the distance detection process in the distance estimation apparatus 900 of the first conventional example.
  • the distance estimation apparatus 900 irradiates a subject with infrared light whose light intensity is modulated at high speed, and captures reflected light from the subject with an ultra-high-speed shutter.
  • the distance estimation apparatus 900 has illumination light (measurement light beam) (for example, the figure) modulated so that the light intensity decreases as time passes. 24, illumination light whose intensity is modulated in a period indicated by tr1 is irradiated to the subjects O1 and O2.
  • the distance estimation apparatus 900 acquires the reflected light from the subjects O1 and O2 at a predetermined shutter timing and shutter time (the shutter time indicated by ts1 in FIG.
  • the reflected light from the subjects O1 and O2 is modulated so that the light intensity decreases with respect to time, the light intensity of the reflected light from the subject O1 close to the distance estimating device (camera) 900 is large, and the distance is estimated. The light intensity of the reflected light from the subject O2 far from the apparatus 900 is small.
  • the flight time of light (Because the illumination light is modulated so that the light intensity decreases with respect to time, the flight time of light (the light irradiated from the distance estimation device 900 is reflected by the subject O1 and returned to the distance estimation device 900)
  • the light intensity of the reflected light from the subject O1 with a short time to come) is large (the amount of decrease in light intensity is small), and the light intensity of the reflected light from the subject O2 with a long flight time of light is small (decrease in light intensity). The amount is large).
  • the reflected light from the subjects O1 and O2 is acquired by the distance estimation apparatus 900 at a predetermined shutter timing and shutter time (the shutter time indicated by ts1 in FIG.
  • the flight of illumination light The image I1 of the subject O1 with a short time is bright and the image I2 of the subject O2 is dark. That is, in the captured image A, the distance information is expressed as the luminance of the image.
  • the distance estimation apparatus 900 performs the following processing in order to correct these effects.
  • the distance estimation apparatus 900 has an illumination light (measurement light beam) (for example, a measurement light beam) modulated so that the light intensity increases with time.
  • illumination light whose intensity is modulated in a period indicated by tr2 is irradiated to the subjects O1 and O2.
  • the distance estimation apparatus 900 acquires the reflected light from the subjects O1 and O2 at a predetermined shutter timing and shutter time (the shutter time indicated by ts2 in FIG. 24) and converts it into a captured image. Since the reflected light from the subjects O1 and O2 is modulated so that the light intensity increases with time, the light intensity of the reflected light from the subject O1 close to the distance estimating device (camera) 900 is small, and the distance is estimated. The light intensity of the reflected light from the subject O2 far from the apparatus 900 is large.
  • the reflected light from the subjects O1 and O2 is acquired by the distance estimation device 900 at a predetermined shutter timing and shutter time (the shutter time indicated by ts2 in FIG. 24), and the flight of illumination light in the captured image B
  • the image I1 of the subject O1 with a short time is dark, and the image I2 of the subject O2 is bright. That is, in the captured image B, the distance information is expressed as the luminance of the image.
  • the distance estimation apparatus 900 obtains a distance image (distance image C in FIG. 24) in which the influence of the reflectance and the like is corrected by taking the luminance ratio between the captured image A and the captured image B acquired as described above. Generate.
  • the distance estimation apparatus 900 can obtain the TOF by dividing the brightness of the two captured images in this way, theoretically, the diffusion of infrared light, the reflectance of the subject, and the direction of the reflection direction And the influence of background light can be canceled.
  • the distance estimation device 900 it is necessary to secure a certain level of light intensity of the reflected light from the subject, so it is necessary to use a light source or the like using a light-emitting diode array composed of a plurality of light-emitting diodes, which increases the configuration of the device. There are drawbacks.
  • FIG. 25 is a block diagram showing a configuration of a distance estimation apparatus 950 of Conventional Example 2.
  • the distance estimation apparatus 950 includes a light emission source 951 that irradiates the target space with the illumination light S9511, a light detection element 952 that receives light from the target space and outputs an electrical signal having an output value that reflects the amount of received light, and a light emission source 951. And a control circuit unit 953 that controls the light detection element 952 and an image generation unit 954 that performs an image generation process on the output from the light detection element 952.
  • the distance estimation device 950 includes a light receiving optical system 955.
  • the light detection element 952 includes a plurality of photosensitive units 9521, a plurality of sensitivity control units 9522, a plurality of charge accumulation units 9523, and a charge extraction unit 9524.
  • the light emission source 951 irradiates the target space with light modulated with a modulation signal having a predetermined period, and the light detection element 952 images the target space.
  • the image generation unit 954 is based on the phase difference of the modulation signal between the light emitted to the target space from the light source 951 and the reflected light reflected by the target object OBJ2 in the target space and received by the light detection element 952. Find the distance to OBJ2.
  • Each photosensitive portion 9521 provided in the light detection element 952 is controlled by the control circuit portion 953 in a light receiving period in which light from the target space is received.
  • Each photosensitive portion 9521 receives light during a light receiving period synchronized with a different phase of the modulation signal.
  • FIG. 26 schematically illustrates a distance detection method of the distance estimation apparatus 950 of the second conventional example.
  • the phase amount of the received light signal is derived. That is, the distance estimation apparatus 950 of the conventional example 2 samples 4 points (for example, 4 points of A0 point, A1 point, A2 point, and A3 point in FIG. 26) per one period of the modulation period, and (Formula 4)
  • the phase shift amount ⁇ is derived.
  • the above-described process of deriving the phase shift amount ⁇ is performed by using a special CCD image pickup device in which the light receiving unit and the demodulation unit are integrated, and by devising a driving method thereof, thereby achieving a high aperture ratio. Distance detection processing is realized.
  • the distance estimation apparatus 950 of Conventional Example 2 is small and has a high resolution, but has a drawback that the captured image (video) has a low resolution and a low frame rate.
  • the ratio of noise (shot noise) included in the amount of charge acquired from each pixel of the image sensor increases. That is, when the amount of incident light on each pixel of the image sensor (CCD or the like) decreases, the S / N ratio of the signal acquired from each pixel of the image sensor decreases. As a result, the distance accuracy is reduced.
  • the S / N ratio of the amount of charge is the charge amount. Since it is determined by Ns (the charge amount of the signal component), the shot noise Ss proportional to the 1 ⁇ 2 power of the charge amount Ns, and the stationary noise corresponding to the ambient light or the like, the charge amount increases as the charge amount Ns increases.
  • the S / N ratio of the quantity is improved, and the S / N of the signal acquired by the image sensor is also improved. As a result, the distance resolution of distance measurement in the distance estimation apparatus is also improved.
  • steady noise such as ambient light has a value much larger than the charge amount (charge amount Ns) of the reflected light. Therefore, when the light emission amount of the light source of the distance estimation device is increased, each of the image pickup devices (CCD, etc.) Saturation is likely to occur in the pixel. In addition, there are problems of practical restrictions (scale, power, etc.). Further, when the charge accumulation period in each pixel of the image sensor (CCD or the like) is extended, the steady noise component also increases, so the S / N ratio of the amount of charge accumulated in each pixel decreases, and a large amount of noise A minute amount of signal component (corresponding to the charge amount Ns) exists in the component.
  • each pixel (photosensitive portion) of the image sensor that constitutes the photodetecting element there is a limit to the capacity for charge accumulation, and therefore there is a high possibility that saturation will occur.
  • the amount of light received by the photosensitive unit has no correlation with the light whose intensity has been modulated. Therefore, the distance can be accurately obtained from the signal acquired from the pixel corresponding to the photosensitive unit. become unable.
  • the present invention suppresses the occurrence of a saturation phenomenon of an image sensor (CCD or the like), acquires a high-resolution and high-frame-rate distance image using the TOF method, and performs highly accurate distance estimation processing.
  • An object is to realize a distance estimation device, a distance estimation method, a program, and an integrated circuit.
  • a first invention is a distance estimation device that irradiates an object with light whose intensity has been modulated and estimates a distance to the object using reflected light from the object, the light source and a light source control unit
  • the light source emits light capable of modulating the light intensity.
  • the light emission source control unit controls the light source.
  • the light emission frequency selection unit determines the frequency of light emitted from the light source.
  • the light receiving optical system collects light from the object.
  • the light receiving element unit converts light received by the light receiving optical system into electric charges.
  • the charge integration unit integrates the charges acquired by the light receiving element unit and acquires a charge signal.
  • the signal calculation unit calculates distance information based on the charge signal.
  • the image generation unit generates a distance image based on the distance information.
  • the light emission source control unit controls the light source not to emit light
  • the light emission frequency selection unit obtains the frequency spectrum of the charge signal acquired by the charge integration unit, and in the frequency spectrum, the frequency component is A predetermined frequency in a small frequency band is determined as the optimum light emission frequency
  • the light emission source control unit sets the light emission frequency of the light source to the optimum light emission frequency.
  • the light source control unit causes the light source to emit light using the optimum frequency
  • the charge accumulation unit obtains a charge signal from the light received in a state where the light source emits light using the optimum frequency.
  • the calculation unit calculates distance information based on the charge signal acquired from the light received with the light source emitted using the optimum frequency, and the image generation unit emits the light source using the optimum frequency.
  • a distance image is generated based on the distance information calculated based on the charge signal acquired from the light received in step.
  • This distance estimation device receives reflected light from an object when no light is emitted from the light source, and emits light with a light emission frequency that is less susceptible to ambient light based on frequency analysis (spectrum analysis) of the reflected light.
  • the object is irradiated with (electromagnetic wave), a charge signal is obtained from the reflected light from the object, and a distance image is obtained from the charge signal. That is, this distance estimation apparatus can acquire a distance image based on a charge signal that is not easily affected by the ambient light component.
  • the second invention is the first invention, wherein the light source has a plurality of light emitting sources each having a different light emitting frequency, and the light source control unit is the most suitable light emitting frequency among the plurality of light emitting sources. A light source having a near light emission frequency is selected, and control is performed so that the selected light source emits light in the distance image acquisition mode.
  • a highly accurate distance estimation apparatus can be easily realized using a plurality of light sources.
  • “emission frequency” refers to the frequency of light (electromagnetic wave).
  • 3rd invention is 2nd invention, Comprising: A some light source light-emits the light of the frequency of an infrared region.
  • a distance estimation apparatus is realizable, for example using an inexpensive infrared LED light source etc. as a some light source.
  • a fourth invention is any one of the first to third inventions, comprising: a color separation prism, an imaging element unit, an image generation unit, a target region extraction unit, and a target region charge extraction unit. Further prepare.
  • the color separation prism decomposes the light received by the light receiving optical system into visible light component light and infrared light component light.
  • the imaging element unit converts the light of the visible light component separated by the color separation prism into an image generation charge signal.
  • the image generation unit generates an image from the image generation charge signal converted by the image sensor unit.
  • the target area extraction unit extracts a predetermined image area as a target area in the image generated by the image generation unit.
  • the target region charge extraction unit extracts only the charge signal corresponding to the target region from the charge signal acquired by the charge accumulation unit.
  • the light emission frequency selection unit acquires the frequency spectrum of the charge signal extracted by the target region charge extraction unit, and determines a predetermined frequency in a frequency band having a small frequency component in the frequency spectrum as the optimum light emission frequency.
  • distance image data obtained by extracting a predetermined target region from a color image acquired from light of visible light components and receiving reflected light from the target at the time when there is no light emission from the light source
  • the frequency analysis (spectrum analysis) of the reflected light in the region corresponding to the target region extracted from the (color) image is performed.
  • distance estimation processing is performed using irradiation light having a light emission frequency that is not easily affected by ambient light, and a distance image is acquired.
  • 5th invention is 4th invention, Comprising:
  • the object area extraction part makes an object area the face image area.
  • 6th invention is 4th invention, Comprising: The object area
  • 7th invention is 4th invention, Comprising: The object area extraction part makes an object area the image area which the user specified.
  • 8th invention is 4th invention, Comprising: The object area extraction part performs area
  • region And 9th invention is 8th invention, Comprising: A target area
  • 10th invention is 8th invention, Comprising:
  • region extraction part performs the block division process in an image in the image produced
  • An eleventh aspect of the present invention is a distance estimation device that irradiates an object with light whose intensity has been modulated and estimates the distance to the object using reflected light from the object, the light source and the light source control unit
  • a light receiving optical system a light receiving element unit, a charge integrating unit, a signal calculating unit, an image generating unit, a multiple image holding memory unit, an optimum distance image selecting unit, a color separation prism, and an image sensor unit.
  • the light source emits light capable of modulating the light intensity.
  • the light emission source control unit controls the light source.
  • the light receiving optical system collects light from the object.
  • the light receiving element unit converts light received by the light receiving optical system into electric charges.
  • the charge integration unit integrates the charges acquired by the light receiving element unit and acquires a charge signal.
  • the signal calculation unit calculates distance information based on the charge signal.
  • the image generation unit generates a distance image based on the distance information.
  • the multiple image holding memory unit can store a plurality of distance images generated by the image generation unit.
  • the optimum distance image selection unit selects an optimum distance image from a plurality of distance images stored in the multiple image holding memory unit.
  • the color separation prism decomposes the light received by the light receiving optical system into visible light component light and infrared light component light.
  • the imaging element unit converts the light of the visible light component separated by the color separation prism into an image generation charge signal.
  • the image generation unit generates an image from the image generation charge signal converted by the image sensor unit.
  • the target area extraction unit extracts a predetermined image area as a target area in the image generated by the image generation unit.
  • the target region charge extraction unit extracts only the charge signal corresponding to the target region from the charge signal acquired by the charge accumulation unit.
  • the light source control unit controls the light source to emit light having different light emission frequencies from the light source.
  • the multiple image holding memory stores a plurality of distance images generated by irradiating the object with light having different emission frequencies from the light source.
  • the optimum distance image selection unit evaluates the image data in the target area set by the target area extraction unit in a plurality of distance images stored in the multiple image holding memory based on a predetermined criterion, thereby The optimum distance image is selected from the distance images.
  • pixel value distribution in a distance image corresponding to a target area extracted from a (color) image is obtained for distance image data generated by light of a plurality of frequencies, and the obtained pixels Distance image data showing an appropriate pixel value distribution is selected based on the value distribution.
  • this distance estimation apparatus a distance image obtained by a light source of illumination light having a light emission frequency that is not easily affected by ambient light in a target region to be noticed can be acquired as an optimum distance image.
  • a range image with high accuracy can be acquired in the region.
  • the twelfth invention is the eleventh invention, wherein the light source has a plurality of light emitting sources each having a different light emitting frequency.
  • a thirteenth invention is the twelfth invention, wherein the plurality of light sources emit light having a frequency in the infrared region.
  • a fourteenth aspect of the invention is a distance estimation method for irradiating an object with light whose intensity has been modulated, and estimating a distance to the object using reflected light from the object.
  • a light source, a light receiving optical system, A distance estimation method used in a distance estimation device including a light receiving element unit, a charge integration unit, a light emission source control step, a light emission frequency selection step, a signal calculation step, and an image generation step.
  • the light source emits light capable of modulating the light intensity.
  • the light receiving optical system collects light from the object.
  • the light receiving element unit converts light received by the light receiving optical system into electric charges.
  • the charge integration unit integrates the charges acquired by the light receiving element unit and acquires a charge signal.
  • the light emission source control step the light source is controlled.
  • the light emission frequency selection step the frequency of light emitted from the light source is determined.
  • distance information is calculated based on the charge signal.
  • the image generation step a distance image is generated based on the distance information. Then, in the light emission frequency selection mode, control is performed so that the light source does not emit light, and in the light emission frequency selection step, the frequency spectrum of the charge signal acquired by the charge accumulation unit is acquired, and the frequency spectrum has a frequency band with a small frequency component.
  • a predetermined frequency is determined as the optimum emission frequency, and in the emission source control step, the emission frequency of the light source is set to the optimum emission frequency.
  • the light source in the light source control step, the light source is caused to emit light using the optimum frequency.
  • the distance information is calculated based on the charge signal acquired based on the light received with the light source being emitted using the optimum frequency.
  • the image generation step a distance image is generated based on the distance information calculated based on the charge signal acquired based on the light received with the light source emitted using the optimum frequency.
  • a fifteenth aspect of the invention is a distance estimation method for irradiating an object with light whose intensity has been modulated and estimating the distance to the object by reflected light from the object, the light source, the light receiving optical system,
  • a program that causes a computer to execute a distance estimation method including an element unit, a charge integration unit, a light emission source control step, a light emission frequency selection step, a signal calculation step, and an image generation step.
  • the light source emits light capable of modulating the light intensity.
  • the light receiving optical system collects light from the object.
  • the light receiving element unit converts light received by the light receiving optical system into electric charges.
  • the charge integration unit integrates the charges acquired by the light receiving element unit and acquires a charge signal.
  • the light source control step the light source is controlled.
  • the light emission frequency selection step the frequency of light emitted from the light source is determined.
  • distance information is calculated based on the charge signal.
  • the image generation step a distance image is generated based on the distance information.
  • the light emission frequency selection mode control is performed so that the light source does not emit light
  • the frequency spectrum of the charge signal acquired by the charge accumulation unit is acquired, and the frequency spectrum has a frequency band with a small frequency component.
  • a predetermined frequency is determined as the optimum light emission frequency.
  • the light emission frequency of the light source is set to the optimum light emission frequency.
  • the distance image acquisition mode in the light source control step, the light source is caused to emit light using the optimum frequency.
  • the distance information is calculated based on the charge signal acquired based on the light received with the light source being emitted using the optimum frequency.
  • a distance image is generated based on the distance information calculated based on the charge signal acquired based on the light received with the light source emitted using the optimum frequency.
  • a sixteenth aspect of the invention is an integrated circuit for a distance estimation device that irradiates a target with light whose intensity has been modulated, and estimates the distance to the target using reflected light from the target, the light source, It is an integrated circuit used in a distance estimation apparatus including a light receiving optical system, a light emission source control unit, a light emission frequency selection unit, a light receiving element unit, a charge integration unit, a signal calculation unit, and an image generation unit.
  • the light source emits light capable of modulating the light intensity.
  • the light receiving optical system collects light from the object.
  • the light emission source control unit controls the light source.
  • the light emission frequency selection unit determines the frequency of light emitted from the light source.
  • the light receiving element unit converts light received by the light receiving optical system into electric charges.
  • the charge integration unit integrates the charges acquired by the light receiving element unit and acquires a charge signal.
  • the signal calculation unit calculates distance information based on the charge signal.
  • the image generation unit generates a
  • the light emission source control unit controls the light source not to emit light
  • the light emission frequency selection unit obtains the frequency spectrum of the charge signal acquired by the charge integration unit, and in the frequency spectrum, the frequency A predetermined frequency in a frequency band with few components is determined as the optimum light emission frequency.
  • the light source control unit sets the light emission frequency of the light source to the optimum light emission frequency.
  • the distance image acquisition mode the light source control unit causes the light source to emit light using the optimum frequency, and the charge accumulation unit outputs the charge signal based on the light received while the light source is emitted using the optimum frequency. get.
  • the signal calculation unit calculates the distance information based on the charge signal acquired from the light received in the state where the light source is emitted using the optimum frequency.
  • the image generation unit generates a distance image based on the distance information calculated based on the charge signal acquired based on the light received with the light source emitted using the optimum frequency.
  • a seventeenth invention is a camera including the distance estimation apparatus according to any one of the first to thirteenth inventions.
  • a camera equipped with a distance measuring device that exhibits the same effects as the first to thirteenth inventions.
  • “Camera” refers to a still camera that acquires still images, an imaging device (movie) that acquires moving images, an imaging device that can capture both still images and moving images, and acquired captured images (video). ) Is a concept including an imaging device having a function of generating an image (video) for 3D display from (1).
  • the captured image may be a high-resolution image generated by a high-resolution image generation unit of a distance measuring device included in the camera, or separately from the distance measuring device. Further, an imaging element may be further added, and a captured image may be acquired from the added imaging element.
  • a distance estimation apparatus that suppresses the occurrence of a saturation phenomenon of an image sensor (CCD or the like), acquires a high-resolution and high-frame-rate distance image using the TOF method, and performs highly accurate distance estimation processing.
  • a distance estimation method, a program, an integrated circuit, and a camera can be realized.
  • the schematic block diagram of the distance estimation apparatus which concerns on 1st Embodiment in this invention The schematic block diagram of the light emission frequency selection part which concerns on 1st Embodiment in this invention.
  • region extraction part 14B in the distance estimation apparatus which concerns on 3rd Embodiment in this invention The figure which shows the outline
  • the process flowchart figure of the distance estimation method which concerns on 4th Embodiment in this invention The figure which shows the image division in the image division part in the distance estimation apparatus which concerns on 4th Embodiment in this invention.
  • FIG. The figure which shows the outline
  • FIG. The block diagram which shows the structure of the distance estimation apparatus of the prior art example 2.
  • FIG. The figure which shows the outline
  • FIG. The figure which shows the relationship between the spectrum analysis which took the wavelength on the horizontal axis, and the selected infrared wavelength.
  • the reflected light from the object at the time when there is no light emission from the light source is received, and the irradiation light having the light emission frequency that is not easily affected by the environmental light is selected based on the frequency analysis of the reflected light.
  • An apparatus and method for estimating a distance by obtaining a distance image to an object using irradiation light having the selected emission frequency will be described.
  • a predetermined target region is extracted from the color image obtained from the visible light component obtained in synchronization with the reflected light of the distance estimation irradiation light, and the target object at the time when there is no light emission from the light source.
  • the irradiation having an emission frequency that is not easily affected by the ambient light based on the frequency analysis of the reflected light in the region corresponding to the target region extracted from the color image An apparatus and method for selecting light and obtaining a distance image to an object using irradiation light having the selected emission frequency will be described.
  • the distance is divided by grouping each pixel based on luminance and color information.
  • An estimation apparatus and method will be described.
  • block division in an image is performed, and a group of each block is obtained based on average luminance and average color information in each block.
  • a distance estimation apparatus and method characterized by segmentation by performing segmentation will be described.
  • a light source that can irradiate light having a plurality of different emission frequencies is generated, a plurality of distance image data obtained by using a plurality of irradiation lights having the respective emission frequencies is generated, and the irradiation light for distance estimation is generated.
  • a predetermined target area is extracted from a color image obtained from a visible light component obtained in synchronization with reflected light of the light, and is extracted from a color image with respect to the generated distance image data for irradiation light having a plurality of emission frequencies.
  • a distance for obtaining a pixel value distribution in the distance image corresponding to the target area, and selecting distance image data indicating an appropriate pixel value distribution from the pixel value distribution in the distance image in the target area for the irradiation light of the plurality of emission frequencies An estimation apparatus and method will be described.
  • FIG. 1 is a diagram showing a schematic configuration diagram of a distance estimation apparatus 100 according to the first embodiment of the present invention.
  • FIG. 2 is a diagram showing a configuration of the light emission frequency selection unit 7 in the distance estimation apparatus according to the first embodiment of the present invention.
  • FIG. 3 is a diagram showing an outline of the light emission frequency selection method of the light source in the distance estimation method according to the first embodiment.
  • FIG. 4 is a diagram illustrating a relationship between spectrum analysis and a selected emission frequency in the distance estimation method according to the first embodiment.
  • FIG. 5 is a processing flowchart of the distance estimation method according to the first embodiment.
  • the distance estimation apparatus of the present invention captures a target space in order to improve a sense of depth and a stereoscopic effect of an image captured by an imaging apparatus such as a movie or a DSC, and extends from the imaging apparatus to an object existing in the target space.
  • the present invention relates to a method and apparatus for estimating a distance. For example, it is mounted on a photographing device such as a digital still camera or a digital video camera, a mobile phone used in a mobile environment, a car mobile device, a PDA, or the like. Further, the distance estimation method of the present invention is executed in the above-described device or the like. As shown in FIG.
  • a distance estimation apparatus 100 includes a light receiving optical system 1 that collects light from a subject, and a light receiving element unit 2 that includes an element (imaging device) that photoelectrically converts light collected by the light receiving optical system. And a charge integration unit 3 that integrates the charges converted by the light receiving element unit 2 and outputs them as a charge signal.
  • the distance estimation apparatus 100 analyzes the spectrum of the charge signal output from the charge accumulating unit 3, and the light emission frequency selection unit 7 that determines the optimal light emission frequency, and the optimum light emission frequency determined by the light emission frequency selection unit 7.
  • a light source selection control unit 8 that determines a light source to actually emit light from the plurality of light source 9A to 9N, and a plurality of light sources that are controlled to emit light based on a control signal from the light source selection control unit 8.
  • 9A to 9N first emission source 9A, second emission source 9B,..., Nth emission source
  • N natural number
  • the distance estimation device 100 performs a process of (Equation 4) on the charge signal output from the charge accumulation unit 3 to calculate distance information, and the charge accumulation unit 3 and the signal calculation unit. 5, a mode control unit 4 that performs control 5, and an image generation unit 6 that generates a distance image based on the distance information calculated by the signal calculation unit 5.
  • the light receiving optical system 1 is an optical system that collects light from the imaging target space, and includes an optical lens, an optical filter, and the like.
  • the light receiving element section 2 has an image pickup element composed of a plurality of pixels, and each pixel includes a photoelectric conversion element such as a photodiode. In the light receiving element unit 2, a charge corresponding to the received light amount photoelectrically converted is acquired in each pixel.
  • the charge acquired by the light receiving element unit 2 is output to the charge accumulation unit 3.
  • first light source 9A, second light source 9B,..., Nth light source (N: natural number)
  • N natural number
  • the light receiving element It is preferable to use an infrared light CCD as the image pickup element of the unit 2.
  • an infrared light filter (optical filter) or the like may be installed in front of the image sensor of the light receiving element unit 2.
  • the charge accumulating unit 3 accumulates the charges photoelectrically converted by the light receiving element unit 2 based on a predetermined charge accumulation time set by the mode control unit 4 and acquires a charge signal Di.
  • the charge accumulation unit 3 outputs the acquired charge signal Di to the light emission frequency selection unit 7 or the signal calculation unit 5 based on a command from the mode control unit 4.
  • the emission frequency selection unit 7 includes a spectrum analysis unit 71, a spectrum averaging unit 72, and an optimum emission frequency selection unit 73.
  • the light emission frequency selection unit 7 receives the charge signal Di from the charge accumulation unit 3, analyzes the spectrum of the charge signal Di, and determines the optimum light emission frequency Fbest (details will be described later).
  • the spectrum analysis unit 71 receives the charge signal Di from the charge accumulation unit 3 and performs, for example, Fourier transform on the charge signal Di to obtain the spectrum V (f) of the charge signal Di. Then, the spectrum analyzing unit 71 outputs the spectrum analysis result V (f) for the acquired charge signal Di to the spectrum averaging unit 72.
  • the spectrum averaging unit 72 receives the output V (f) from the spectrum analysis unit 71 and performs an averaging process on the spectrum analysis result V (f) for the charge signal Di acquired by the spectrum analysis unit 71. (Details will be described later). Then, the spectrum averaging unit 72 outputs the spectrum analysis result AV (f) subjected to the averaging process to the optimum emission frequency selection unit 73.
  • the optimum emission frequency selection unit 73 receives the spectrum analysis result AV (f) from the spectrum averaging unit 72 and determines the optimum emission frequency Fbest based on the spectrum analysis result AV (f) (details will be described later). .
  • the optimum light emission frequency selection unit 73 outputs the determined optimum light emission frequency Fbest to the light source selection control unit 8.
  • the light source selection control unit 8 is connected to the plurality of light sources 9A to 9N, and can control the plurality of light sources 9A to 9N. Based on the optimum light emission frequency determined by the light emission frequency selection unit 7, the light emission source selection control unit 8 determines a light emission source to actually emit light from the plurality of light emission sources 9A to 9N, and emits light to the determined light emission source. Take control. Specifically, the light source selection control unit 8 selects a light source that emits light having a frequency closest to the optimum frequency from the plurality of light sources 9A to 9N, and performs light emission control on the selected light source. The light source selection control unit 8 receives the light intensity modulation control signal output from the mode control unit 4 and performs light intensity modulation of the selected light source based on the light intensity modulation control signal.
  • a plurality of light emission sources 9A to 9N are light sources that emit light of frequencies in different frequency bands. Yes, light emission is controlled based on a control signal from the light source selection control unit 8.
  • “different frequency bands” do not necessarily mean completely different frequency bands. For example, there are overlapping frequency bands in a part of the frequency bands of light emitted from a plurality of light sources.
  • the plurality of light emission sources 9A to 9N (first light emission source 9A, second light emission source 9B,..., Nth light emission source) (N: natural number) is a frequency in the infrared light region (for example, 1 ⁇ 10 ⁇ 6 [MHz] to 1 ⁇ 10 ⁇ 9 [MHz]) (Note that “X ⁇ Y” represents “X to the power of Y”, and so on), and emits electromagnetic waves (infrared light). It is preferable to use a light emitting source. Moreover, when using the frequency of an infrared region, it is preferable to use the LED light source which light-emits the light of the frequency of an infrared region as a light emission source.
  • the signal calculation unit 5 performs, for example, processing of (Equation 4) on the charge signal Di output from the charge accumulation unit 3 to calculate distance information Li. It is assumed that the charge signal Di corresponding to the pixel i of the imaging element of the light receiving element portion 2 is used, and the distance information corresponding to the pixel i is expressed as Li.
  • the signal calculation unit 5 outputs the calculated distance information Li to the image generation unit 6.
  • the mode control unit 4 controls the charge accumulation unit 3 and the signal calculation unit 5. Further, the mode control unit 4 performs control for each mode according to the “light emission frequency selection mode” and the “distance image acquisition mode” which are the two modes of the distance estimation apparatus 100.
  • the “light emission frequency selection mode” is a mode in which the distance estimation apparatus 100 performs a process for determining the frequency of light irradiated to the imaging target space in order to execute the distance estimation process.
  • the “distance image acquisition mode” refers to the distance estimation apparatus 100 that irradiates the imaging target space with light having the frequency determined in the “light emission frequency selection mode”, acquires distance information, and is based on the acquired distance information. This is a mode for acquiring a distance image.
  • the mode control unit 4 When the mode of the distance estimation device 100 is the “light emission frequency selection mode”, the mode control unit 4 outputs the charge signal Di output from the charge integration unit 3 to the light emission frequency selection unit 7. To control. On the other hand, when the mode of the distance estimation apparatus 100 is the “distance image acquisition mode”, the mode control unit 4 outputs a light intensity modulation control signal to the light source selection control unit 8 and is selected by the light source selection control unit 8. The intensity of light emitted from the light emission source is modulated based on the light intensity modulation control signal.
  • the mode control unit 4 acquires the amount of charge accumulated in the charge accumulation unit 3 at a predetermined timing in synchronization with the modulation period of the illumination light S1 that has been light intensity modulated based on the light intensity modulation control signal,
  • the signal calculation unit 5 outputs the electric charge signal Di.
  • the mode control unit 4 controls the signal calculation unit 5 to execute, for example, processing corresponding to (Equation 4).
  • the “predetermined timing” refers to, for example, four points per one period of the modulation period of the illumination light S1 that has been modulated based on the light intensity modulation control signal (for example, A0 in (Expression 4) above). (Corresponding to 4 points from point to A4)). It goes without saying that the number of samplings per modulation period of the illumination light S1 is not limited to four points.
  • the signal calculation unit 5 performs a process corresponding to (Formula 4) on the charge signal Di output from the charge integration unit 3.
  • the phase shift amount ⁇ can be obtained, and the distance information Li can be easily obtained.
  • the image generation unit 6 receives the distance information Li calculated by the signal calculation unit 5 and generates a distance image based on the distance information Li.
  • the “distance image” is a two-dimensional image corresponding to the pixel i of the image sensor of the light receiving element unit 2, and the position value corresponding to the pixel i on the distance image is a distance corresponding to the pixel i.
  • the value represents information. That is, the value of the position corresponding to the pixel i on the distance image is a value indicating the distance between the object in the imaging target space corresponding to the pixel i and the distance estimation device 100 (this value is not necessarily the value of the distance). It does not have to be the actual value, and may be a value correlated with the distance).
  • the charge accumulation unit 3 obtains the charge signal Di by integrating the charge signals obtained from the reflected light S2.
  • the charge accumulation unit 3 performs charge accumulation for a predetermined time set by the mode control unit 4 to obtain the charge signal Di.
  • the mode control unit 4 controls the charge accumulation unit 3 to output the charge signal Di to the light emission frequency selection unit 7.
  • the charge signal Di is input to the light emission frequency selector 7.
  • spectrum analysis is performed on the charge signal Di by the spectrum analysis unit 71.
  • the spectrum analysis unit 71 will explain the case where the Fourier transform shown in (Formula 5) is used for the charge signal Di of the reflected light S2 (hereinafter, Fourier transform is used. Cosine transform, wavelet transform, etc. may be used), and a power spectrum amount V (f) indicating the magnitude of the Fourier transform coefficient for each obtained frequency f [Hz] is obtained.
  • FIG. 4 is an example of the spectrum V obtained from the charge signal Di by the spectrum analysis unit 71.
  • the spectrum V thus obtained is output to the spectrum averaging unit 72.
  • the spectrum averaging unit 72 performs a moving average process on the spectrum V.
  • the spectrum averaging unit 72 performs a moving average process for the frequency f as shown in (Formula 6).
  • the moving average processing is weighted by using a weighting factor w (f) for a spectral amount V (f) within a range of [ ⁇ df + f, f + df] around the target frequency f as shown in (Formula 6).
  • the average value AV (f) is obtained.
  • weighting coefficient w (f) a Gaussian distribution function centered on the target frequency fc is used as in (Formula 6).
  • a function such as a rectangular function or a trigonometric function may be used for the weight coefficient w (f).
  • the purpose of the processing here is to reduce the influence of noise at the time of measurement by obtaining a global variation of the spectral amount V (f).
  • a method of providing a window function hwN at the time of Fourier transform as in (Equation 7) and using it as a weight when obtaining the sum in (Equation 5) may be adopted.
  • the averaged spectrum AV (f) obtained in this way by the spectrum averaging unit 72 is input to the optimum emission frequency selection unit 73. Based on the input averaged spectrum AV (f), the optimum light emission frequency selection unit 73 obtains the frequency fmin at which AV (f) becomes the minimum value.
  • the optimum light emission frequency Fbest determined in this way is a frequency in a frequency band that is not so much included in the ambient light. Therefore, in the distance estimation apparatus 100, it is possible to reduce the influence of environmental light by performing the distance estimation process with the light (electromagnetic wave) having the optimum light emission frequency Fbest.
  • the spectrum V (f) shown in FIG. 4 since the frequency component of the frequency band fr is small, it can be estimated that the ambient light does not contain much frequency component of the frequency band fr.
  • the optimum light emission frequency Fbest is determined to be a frequency within the frequency band fr, and the distance estimation process is performed using the light (electromagnetic wave) of the determined frequency, thereby reducing the influence of the environmental light. It becomes possible to reduce.
  • the method for determining the optimum light emission frequency Fbest in the light emission frequency selection unit 7 may be as follows. (1) First, the average value AV (fmin) of the averaged spectrum is compared with a predetermined threshold value TH1.
  • the optimum light emission frequency Fbest determined by the light emission frequency selection unit 7 is output to the light emission source selection control unit 8.
  • the light source selection control unit 8 controls the light emission of the light source having the determined optimum light emission frequency Fbest in the “light emission frequency selection mode”.
  • a light intensity modulation signal is input from the mode control unit 4 to the light source selection control unit 8.
  • the light source selection control unit 8 controls light emission of the selected light source, that is, the light source whose light (electromagnetic wave) frequency is the optimum light emission frequency Fbest.
  • the intensity of light emitted from the light source is modulated based on the light intensity modulation signal.
  • Illumination light S1 emitted from the selected light source (illumination light S1 having a frequency that is the optimum emission frequency Fbest) is applied to the object OBJ10, and the reflected light S2 is collected by the light receiving optical system 1 to receive the light receiving element unit 2.
  • the reflected light S ⁇ b> 2 is photoelectrically converted and acquired as electric charges in each pixel.
  • the charges acquired by the light receiving element unit 2 are accumulated by the charge accumulation unit, and are output to the signal calculation unit 5 as a charge signal Di.
  • the “predetermined timing” is, for example, four points per one period of the modulation period of the illumination light S1 that is light intensity modulated based on the light intensity modulation control signal (for example, A0 point in the above (Expression 4)) (Corresponding to 4 points of A4 points)).
  • the number of samplings per one modulation period of the illumination light S1 is four points.
  • the signal calculation unit 5 performs a process corresponding to (Equation 4) on the input charge signal Di (charge signal Di sampled at four points per one modulation period of the illumination light S1) to obtain the phase
  • the shift amount ⁇ is obtained.
  • the signal calculation unit 5 performs a process corresponding to (Equation 3) on the phase shift amount ⁇ to obtain the distance information Li of the pixel i.
  • the distance information Li acquired by the signal calculation unit 5 is output to the image generation unit 6.
  • a distance image is generated based on the distance information Li calculated by the signal calculation unit 5.
  • the reflected light S2 is received by the light receiving element unit 2, and the charge signal Di converted and integrated by the light receiving element unit 2 and the charge accumulating unit 3 is controlled by the mode control unit 4 to obtain a signal.
  • the calculation unit 5 converts the distance information value Li of the corresponding pixel i.
  • the distance estimation apparatus 100 samples the charge signals Di at four points (four points A0, A1, A2, and A3) per one modulation cycle shown in FIG. And the phase shift amount ⁇ is derived from (Equation 4). Then, the distance estimation apparatus 100 obtains the distance information value Li of the pixel i by applying the derived phase amount ⁇ (phase amount obtained from four points A0 to A3) to (Equation 3).
  • FIG. 3A schematically shows the optimum light emission frequency determination process ("light emission frequency selection mode” process)
  • FIG. 3B shows the process after the optimum light emission frequency determination ("distance image” The processing of “acquisition mode” is schematically shown.
  • FIG. 3A schematically shows the optimum light emission frequency determination process ("light emission frequency selection mode” process)
  • FIG. 3B shows the process after the optimum light emission frequency determination ("distance image”
  • the processing of “acquisition mode” is schematically shown.
  • the distance estimation apparatus 100 receives the reflected light from the object at the time when there is no light emission from the light source, and has a light emission frequency that is not easily affected by ambient light based on the frequency analysis of the reflected light. Select a light source that emits light (electromagnetic waves), cause the selected light source to emit light, and obtain a light reception signal (a charge signal Di acquired by the light receiving element unit 2 and the charge integration unit 3) from the reflected light from the object. Then, a distance image is acquired from the received light signal. That is, the distance estimation apparatus 100 can acquire a distance image by a light reception signal (a charge signal Di acquired by the light receiving element unit 2 and the charge integration unit 3) that is not easily influenced by the ambient light component.
  • a light reception signal a charge signal Di acquired by the light receiving element unit 2 and the charge integration unit 3
  • the S / N of the light reception signal (charge signal Di). The ratio will be good.
  • the pixel in the light receiving element unit 2 and the charge integrating unit 3 is Even when the charge detection period (charge accumulation time) is shortened and high-speed readout is performed, a charge signal Di having a good S / N ratio can be obtained, so that a high resolution and a high frame rate can be obtained. Distance images can be acquired.
  • the distance estimation apparatus 100 since the ambient light component (stationary noise) is small in the light reception signal (the charge signal Di acquired by the light receiving element unit 2 and the charge integration unit 3), there is a margin until the saturation phenomenon occurs. In addition, the charge detection period (charge accumulation time) in the light receiving element unit 2 and the charge integration unit 3 can be extended. Therefore, in the distance estimation device 100, by increasing the charge detection period (charge accumulation time) in the light receiving element unit 2 and the charge accumulation unit 3, a charge signal Di having a better S / N ratio is obtained, and the charge Since the distance image can be acquired by the signal Di, high accuracy of the distance image can be easily realized.
  • FIG. 6 is a schematic configuration diagram of a distance estimation apparatus 200 according to the second embodiment of the present invention.
  • 10 and 11 are schematic configuration diagrams of the target area extraction units 14 and 14A of the distance estimation apparatus 200 according to the second embodiment of the present invention.
  • FIG. 7 is a diagram showing an outline of the light emission frequency selection method of the light source in the distance estimation method according to the second embodiment.
  • FIG. 8 is a diagram illustrating a process flowchart of the distance estimation method according to the second embodiment.
  • FIG. 9 shows an example of pattern matching at the time of target region extraction.
  • the same number is attached
  • the distance estimation apparatus 200 replaces the emission frequency selection unit 7 with an in-region emission frequency selection unit 7A in the distance estimation apparatus 100 according to the first embodiment.
  • the color separation prism 11, the image sensor unit 12, the color image generation unit 13, the target region extraction unit 14, and the target region charge extraction unit 10 are further added to 100.
  • the distance estimation apparatus 200 is the same as the distance estimation apparatus 100, and a detailed description thereof will be omitted.
  • the color separation prism 11 is an optical prism that separates its optical path according to the frequency of light (electromagnetic waves). And a visible light component for a color image. Then, the light (electromagnetic wave) of the infrared light component for distance estimation separated by the color separation prism 11 enters the light receiving element portion 2. The light (electromagnetic wave) of the visible light component for color image separated by the color separation prism 11 is incident on the image sensor unit 12.
  • the image sensor unit 12 includes an image sensor composed of a plurality of pixels, and each pixel includes a photoelectric conversion element such as a photodiode. In the image sensor unit 12, electric charges corresponding to the received light quantity photoelectrically converted are acquired and accumulated in each pixel. Then, the image sensor unit 12 outputs the accumulated charges to the color image generation unit 13. For example, a CCD type image sensor or a CMOS type image sensor may be used as the imaging element unit 12.
  • the color image generation unit 13 receives a charge output from the image sensor unit 12 corresponding to each pixel, and generates a color image signal from the charge. Then, the color image generation unit 13 outputs the generated color image signal to the target area extraction unit 14.
  • the target area extraction unit 14 includes a contour detection unit 141 and a pattern matching unit 142.
  • the contour detection unit 141 receives the color image signal (image data) from the color image generation unit 13, performs contour pixel extraction from the color image signal, and acquires contour information. Then, the contour detection unit 141 outputs the acquired contour information to the pattern matching unit 142.
  • the pattern matching unit 142 receives contour information from the contour detection unit 141 as input, performs pattern matching processing on the contour information, and extracts target region information. Then, the pattern matching unit 142 outputs the extracted target region information to the target region charge extraction unit 10.
  • the target region charge extraction unit 10 receives the charge signal Di output from the charge accumulation unit 3 and the target region information output from the target region extraction unit 14, and receives only the charge signal Di in the image region indicated by the target region information. Are extracted and output to the in-region emission frequency selection unit 7A.
  • ⁇ 2.2: Configuration of distance estimation device> The operation of the distance estimation apparatus 200 configured as described above will be described below.
  • the plurality of light emission sources 9A to 9N are light emission sources that emit light in the infrared region (infrared light). Needless to say, electromagnetic waves outside the infrared region can be used.
  • the operation of the distance estimation apparatus 200 in the “light emission frequency selection mode” will be described. In the distance estimation apparatus 200, none of the light sources 9A to 9N is caused to emit light, and light from the target object OBJ10 enters the light receiving optical system 1 in this state.
  • the light incident on the light receiving optical system 1 is separated by the color separation prism 11 into light of a distance estimation infrared light component and light of a color image visible light component.
  • the light of the infrared light component for distance estimation is photoelectrically converted and accumulated (accumulated) by the light receiving element unit 2 and the charge accumulating unit 3, and as a charge signal Di corresponding to the pixel i of the image sensor of the light receiving element unit, This is output to the target region charge extraction unit 10.
  • the charge accumulation time and output timing in the charge accumulation unit 3 are controlled by the mode control unit 4.
  • the light of the visible light component separated by the color separation prism 11 is received and integrated by the image sensor unit 12 and converted into a color image signal (image data) by the color image generation unit 13. Then, the color image signal acquired by the color image generation unit 13 is output to the target region extraction unit 14.
  • the target area extraction unit 14 is configured as shown in FIG. 10, for example.
  • the template storage memory 143 may be configured by an external memory outside the target area extraction unit 14, but the template storage memory 143 is included in the target area extraction unit 14. It may be.
  • the contour detection unit 141 acquires contour information from the input color image signal (image data). The processing in the contour detection unit 141 will be described in detail below. In the contour detection unit 141, each pixel (i, j) in the image is subjected to two-dimensional filter processing (processing of (Expression 9)) by a two-dimensional filter having a size of 3 ⁇ 3 expressed by (Expression 8).
  • the contour information E (i, j) obtained by the contour detection unit 141 (hereinafter sometimes simply referred to as “contour information Ei”) is output to the pattern matching unit 142.
  • the pattern matching unit 142 performs pattern matching processing on the contour information Ei obtained by the contour detection unit 141 with the shape data of the target region prepared in advance in the template storage memory 143, and performs target region extraction. This will be described in detail below.
  • the target area where the target area is extracted include a face area, a person area (upper body, whole body), and a face part area such as an eye / nose / mouth.
  • the template storage memory 143 holds standard shape data (may be plural or may be shape data in a plurality of directions) of the face area. .
  • the template storage memory 143 may store standard shape data (a plurality of person areas. The shape data may be a plurality of directions. The upper body or the whole body may be used. ).
  • the template storage memory 143 holds standard shape data of each part area.
  • the pattern matching unit 142 extracts the corresponding region (target region information).
  • Pnum is the number of templates
  • Wp and Hp are the number of horizontal pixels and the number of vertical pixels of the rectangular template.
  • FIG. 9 is a schematic diagram for explaining an example of the pattern matching method.
  • the target area information BestSR [i, j, W, for obtaining the rectangular area candidate SR [i, j, Wp, Hp] corresponding to the maximum value MR H].
  • the target region information BestSR [i, j, W, H] is used as input image information [width / 2, height / 2, width, height] is output.
  • width indicates the number of horizontal pixels of the input image
  • height indicates the number of vertical pixels of the input image.
  • the target region information BestSR [i, j, W, H] acquired by the pattern matching unit 142 is output to the target region charge extraction unit 10.
  • the target region charge extraction unit 10 only the charge signal Di of the pixel i included in the target region information BestSR [i, j, W, H] is extracted and output to the in-region emission frequency selection unit 7A.
  • the region emission frequency selection unit 7A the same processing as that of the emission frequency selection unit 7 of the first embodiment is performed on the charge signal Di output from the target region charge extraction unit 10. Note that the subsequent processing is the same as that in the first embodiment, and a description thereof will be omitted.
  • the operation in the distance image acquisition mode in the distance estimation apparatus 200 is also the same as that in the first embodiment, and a description thereof will be omitted.
  • the processing outline in the distance estimation apparatus 200 will be summarized with reference to FIG.
  • the target region extraction unit from the color image generated by the color image generation unit 13 image formed by the color image signal.
  • the optimum light emission frequency Fbest is selected. That is, the distance estimation apparatus 200 first extracts a target area to be necessary from a color image generated from light of visible light components, and then reflects infrared light reflected in the target area (a plurality of light sources 9A to 9N).
  • the charge signal Di (in the absence of any light emission) is spectrally analyzed to determine the light emission frequency that appears to be less affected by ambient light only within that region.
  • the distance estimation apparatus 200 performs a distance measurement process using the light source having the light emission frequency determined by the in-region light emission frequency selection unit, and acquires a distance image.
  • a predetermined target region is extracted from the color image acquired from the light of the visible light component, and the target object at the time when there is no light emission from the light source.
  • frequency analysis (spectrum analysis) of the reflected light in the region corresponding to the target region extracted from the color image is performed.
  • the distance estimation apparatus 200 selects a light source of irradiation light having a light emission frequency that is not easily affected by ambient light based on the spectrum analysis result of the target region, performs distance estimation processing using the illumination light, and performs distance estimation. Get an image.
  • the distance estimation apparatus 200 can perform distance estimation processing using irradiation light that does not easily affect the distance accuracy of the target area to be noticed, so that a more accurate distance image can be obtained in the target area to be noticed. Can be obtained.
  • the average value of the contour information E (i, j) and the average value of the shape data Tp [k, l] are obtained, and a value obtained by subtracting the corresponding average value from each value (difference value ), It is possible to perform processing in the distance estimation apparatus 200. It is also possible to obtain the minimum value of the contour information E (i, j) and the minimum value of the shape data Tp [k, l] and use a value (difference value) obtained by subtracting the corresponding minimum value from each value. .
  • the distance estimation apparatus 200 can perform processing. By using such a method, it is possible to suppress to some extent the influence of a large fluctuation component when performing pattern matching processing.
  • the target region extraction unit 14 may be replaced with a target region extraction unit 14A illustrated in FIG.
  • the target area extraction unit 14A includes a color degree detection unit 144 that detects the color degree of each pixel with respect to the outline information E (i, j) of each pixel (i, j) obtained by the outline detection unit 141. It is a combination.
  • the color degree detection unit 144 further improves the accuracy and speed of the pattern matching unit 142 by further restricting the color information in the target region. For example, when the target region is a face region, the color degree detection unit 144 calculates the skin color degree amount C (i, j) for each pixel (i, j) of the color image.
  • the feature amount extraction unit 146 applies a feature amount SE (i, j), which is a combination of the color degree amount C (i, j) and the contour information E (i, j), to each pixel (i, j). Ask.
  • a feature amount SE (i, j) which is a combination of the color degree amount C (i, j) and the contour information E (i, j), to each pixel (i, j).
  • Ask there are various methods. As a simple method, there is a method according to (Equation 13).
  • the feature quantity SE (i) is obtained using nonlinear function transformation with the color degree quantity C (i, j) and the contour information E (i, j) as two variables. , J) can also be obtained.
  • the target region extraction unit 14A can perform target region extraction by performing pattern matching processing in the same manner as the target region extraction unit 14 using the feature quantity SE (i, j) obtained in this way.
  • [Third Embodiment] 12 to 15 as a third embodiment of the present invention, based on the ambient light distribution in the target area extracted from the color image, distance estimation by a light source having a light emission frequency with less influence is performed. An apparatus and a distance estimation method will be described.
  • FIG. 12 or 15 shows the configuration of the target area extraction units 14B and 14C in the distance estimation apparatus according to the third embodiment of the present invention.
  • FIG. 13 is a diagram illustrating an overview of the classification method in the target area extraction units 14B and 14C in the distance estimation apparatus according to the third embodiment.
  • FIG. 14 is a diagram schematically illustrating candidate pixel extraction, classification, and candidate area detection in the distance estimation apparatus according to the third embodiment.
  • the same number is attached
  • the distance estimation apparatus according to this embodiment is different in that the target area extraction unit 14 or 14A in the distance estimation apparatus 200 of the second embodiment is replaced with the target area extraction unit 14B or 14C. Other than that is the same as the distance estimation apparatus 200 according to the second embodiment.
  • a distance estimation apparatus and a distance estimation method according to the third embodiment of the present invention will be described with reference to FIGS.
  • the distance estimation apparatus of this embodiment since processes other than the target region extraction unit are the same as those in the second embodiment, detailed description thereof is omitted.
  • the target region extraction unit 14B acquires the target region extraction unit 14B from the color image generated by the color image generation unit 13, as in the case of the second embodiment. Based on the target area information, the optimum light emission frequency Fbest is selected. As illustrated in FIG. 12, the target region extraction unit 14B includes a region detection unit 147 including a candidate pixel extraction unit 148, a classification processing unit 149, and a candidate region detection unit 150, and a maximum region extraction unit 151. .
  • the parameter storage memory 152 is an external memory, but the target area extraction unit 14 ⁇ / b> B may include the parameter storage memory 152.
  • the candidate pixel extraction unit 148 of the target region extraction unit 14B performs a process of determining whether or not each pixel in the color image is a candidate pixel.
  • this determination process for example, similar to the color degree detection unit 144 in the second embodiment, it is conceivable to check the hue degree with the target region and use a pixel that is larger than the predetermined threshold TH3 as a candidate pixel.
  • the degree of color degree the difference between the target color information of the target area (for example, Cb and Cr values Cr0 and Cb0 in the YCbCr color space) and the Cb and Cr values of each pixel is obtained. What is necessary is just to define so that the color degree degree Ci may become a small value.
  • the target color information of the target area (for example, Cb and Cr values Cr0 and Cb0 in the YCbCr space) need not be one, and may be plural.
  • the degree of color degree of the pixel i can be an average of the degree of color degree obtained by the difference between the pixel i and the target color information.
  • a color information area that can be taken by the target area may be set, and the degree of color degree of the pixel i may be defined by the difference between the center value of the area and the Cb and Cr values of the pixel i.
  • the correct classification process is performed by defining a vector VEs having as its components color information C1s and C2s representing pixel pixels PEs and pixel positions P1s and P2s, and applying a vector quantization method to the vector set.
  • color information Cb and Cr can be considered as an example of C1 and C2, and pixel coordinates x and y can be considered as an example of P1 and P2.
  • C1 and C2 may be S (saturation) and H (hue) in the HSV color space, or chromaticity a in the La * b * color space. * Or chromaticity b *.
  • FIG. 14 is a diagram schematically illustrating the state of the classification processing in the classification processing unit 149 of the target area extraction unit 14B.
  • G1, G2, and G3 in FIG. 4B indicate the clusters.
  • the clusters G1 to G3 are classified by the classification processing unit 149.
  • the candidate area detection unit 150 divides the clusters G1, G2, and G3 in FIG. 14B based on the positions of the clusters.
  • eight candidate pixels around the candidate pixels after each cluster classification are viewed, and the region is formed depending on whether or not they are connected.
  • the same cluster number is added to two distant clusters, but as shown in FIG. , Different area numbers are added to L1 and L4.
  • the candidate area (a plurality of cluster areas) is detected by the candidate area detection unit 150.
  • the maximum area extraction unit 151 checks the number of pixels of each cluster area, and extracts candidate areas having the maximum number of pixels as target areas. Is done. Then, information indicating the extracted target region is output from the maximum region extraction unit 151 to the in-target region charge extraction unit 10 as target region information.
  • the distance estimation apparatus can automatically extract a target region according to the color distribution in the image. Therefore, template shape data prepared in advance as in the second embodiment. And the influence of pixel value fluctuations during color image generation (influence of fluctuations in ambient light and noise due to fluctuations in charge conversion in an image sensor such as a CCD) can be reduced. .
  • each pixel is determined based on the luminance and color information. By grouping, it is possible to divide the region and automatically extract a region with a high degree of attention in the image.
  • a light source having an emission frequency that is not easily affected by ambient light is selected based on the spectrum analysis result of the automatically extracted region. Then, the distance estimation process is performed to acquire a distance image. Therefore, the distance estimation apparatus and the distance estimation method according to the third embodiment can acquire a distance image with high accuracy in a region with a high degree of attention in the image.
  • a target area extracting unit 14C having the configuration shown in FIG. 15 may be used.
  • the target region extraction unit 14C replaces the maximum region extraction unit 151 of the target region extraction unit 14B with a target region determination unit 153, and further stores the data stored in the target region information storage memory 154. It can be used.
  • an evaluation value of the cluster is obtained from the center of gravity position of the cluster, average color information, the circularity of the cluster, the number of pixels of the cluster, and the like ( The data serving as a reference for this evaluation value is stored in the target area information storage memory 154.)
  • the target area is determined by extracting a plurality of cluster areas whose evaluation value is higher than a predetermined threshold value TH5, or
  • the target area may be determined by selecting and extracting one cluster area having the highest evaluation value. Since the target region can be determined more appropriately by performing the processing in this manner in the target region extraction unit 14C, the distance estimation processing in the distance estimation device can be made more accurate.
  • FIG. 16 or FIG. 19 shows the configuration of the target region extraction unit 14D or 14E in the distance estimation apparatus according to the fourth embodiment of the present invention.
  • FIG. 18 is a diagram for explaining image division processing in the image division unit in the target region extraction unit in the distance estimation apparatus according to the fourth embodiment.
  • FIG. 17 is a process flowchart of the distance estimation method according to the fourth embodiment.
  • the same number is attached
  • the distance estimation apparatus is different in that the target area extraction unit 14 or 14A in the distance estimation apparatus 200 of the second embodiment is replaced with the target area extraction unit 14D or 14E. Other than that is the same as the distance estimation apparatus 200 according to the second embodiment.
  • the target area extraction unit 14D includes a block area detection unit 160, a maximum area extraction unit 166, and a second parameter storage memory 165 that is an external memory.
  • the block area detection unit 160 includes an image division unit 161, a candidate block extraction unit 162, a block classification processing unit 163, and a candidate block region detection unit 164.
  • a distance estimation apparatus and a distance estimation method according to the fourth embodiment of the present invention will be described.
  • processes other than the target region extraction unit are the same as those in the second embodiment, detailed description thereof is omitted.
  • the feature of this embodiment is that, in the target area extraction processing in the third embodiment, the color image is subdivided into block units including a predetermined number of pixels as shown in FIG.
  • the processing is the same as the target region extraction processing of the third embodiment for each block.
  • candidate pixel detection, candidate pixel classification, and candidate area detection in units of pixels can be performed in units of blocks. Reduction can be achieved.
  • the target area extraction unit 14D illustrated in FIG. 16 may be replaced with the target area extraction unit 14E illustrated in FIG.
  • the target area extraction unit 14E of FIG. 19 corresponds to the block unit processing version of the target area extraction unit 14C of FIG. 15 in the third embodiment, and is different only in that the processing unit is a block unit.
  • FIG. 20 is a schematic configuration diagram of a distance estimation apparatus 500 according to the fifth embodiment of the present invention.
  • FIG. 21 is a diagram schematically illustrating an outline of processing (distance estimation method) in the distance estimation apparatus 500 according to the fifth embodiment.
  • FIG. 22 is a diagram illustrating a process flowchart of the distance estimation method according to the fifth embodiment.
  • steps F81 and F82 are not limited to the flowchart of FIG. For example, steps F81 and F82 may be immediately before step F203.
  • the distance estimation device 500 deletes the in-region emission frequency selection unit 7A and the target region charge extraction unit 10 from the distance estimation device 200 of the second embodiment, and the mode control unit 4 It replaces with the control part 195, and the light emission source selection control part 8 is substituted with the light emission source control part 190, Furthermore, the multiple image generation part 191, the multiple image memory part 192, the object area distance information extraction part 193, and the optimal distance image A selection unit 194 is added. Since other than that is the same as the distance estimation apparatus 200 of 2nd Embodiment, description is abbreviate
  • the light source control unit 190 is connected to a plurality of light sources 9A to 9N (the first light source 9A to the Nth light source 9N), and sequentially switches the light sources to emit light based on the light source switching signal from the control unit 195. .
  • the light source control unit 190 modulates the light intensity of the light source that emits light in accordance with the light intensity modulation control signal from the control unit 195, similarly to the mode control unit 4 of the above-described embodiment.
  • the control unit 195 outputs a light source switching signal and a light intensity modulation control signal to the light source control unit 190, and performs light emission control of a plurality of light sources via the light source control unit 190.
  • control unit 195 performs the same control as the control in the distance image acquisition mode of the mode control unit 4 of the above-described embodiment on the charge accumulation unit 3 and the signal calculation unit 5.
  • the multiple image generation unit 191 receives the distance information Li from the signal calculation unit 5 and creates a distance image from the distance information Li. Then, the multiple image generation unit 191 acquires the acquired distance image together with information indicating which light source among the first light emission source 9A to the Nth light emission source 9N is used as the acquired distance image. Are output to the multiple-image holding memory unit 192.
  • the multiple image memory unit 192 records and holds the distance image acquired from the multiple image generation unit 191 together with information on the light emission source when the distance image is acquired. Note that the information on the light emission source when the distance image recorded and held in the multi-image memory unit 192 is acquired may be acquired from the control unit 195. In addition, the multiple image memory unit 192 displays the distance image recorded and held and the information on the light emission source when the distance image is acquired in accordance with the request from the target region distance information extraction unit 193. The data is output to the information extraction unit 193.
  • the multiple image memory unit 192 is a memory that can record and hold at least distance images corresponding to the number of light emitting sources (N) and information on the light emitting sources.
  • the distance information extraction unit 193 within the target area is a distance image that is recorded and held by the multi-image memory unit 192, information on the light emission source when the distance image is acquired, and a target that is output from the target area extraction unit 14.
  • the area information is input, and distance information in the target area is extracted from the distance image.
  • the target area distance information extraction unit 193 outputs the extracted distance information in the target area to the optimum distance image selection unit 194 together with the information of the light source from which the distance information is acquired.
  • the optimum distance image selection unit 194 receives the distance information in the target region extracted by the target region distance information extraction unit 193 and the information on the light source from which the distance information is acquired, and determines the optimum from the distance information in the target region. The distance image is determined, and the determined optimum distance image is output. Specifically, the optimum distance image selection unit 194 evaluates distance information in the target area corresponding to N light sources based on a predetermined criterion, and determines distance information in which the distance information in the target area is optimal. To do. Then, the optimal distance image selection unit 194 determines the distance image acquired using the light source when the distance information determined to be optimal is acquired as the optimal distance image.
  • the distance estimation apparatus 500 does not operate by switching between two modes (light emission frequency selection mode and distance image acquisition mode) unlike the distance estimation apparatus 200 according to the second embodiment. Operates (without switching modes).
  • the distance estimation apparatus 500 acquires a distance image from the first light emission source 9A.
  • the control unit 195 outputs a light source switching control signal for causing the first light source 9A to emit light to the light source control unit 190.
  • the control unit 195 outputs a light intensity modulation control signal to the light source control unit 190.
  • the light emission source control unit 190 causes the first light emission source 9 ⁇ / b> A to emit light based on the light source switching control signal from the control unit 195.
  • the light source control unit 190 modulates the intensity of light (infrared light) emitted from the first light source 9A based on the light intensity modulation control signal from the control unit 195.
  • the light emitted from the first light emission source 9A to the Nth light emission source 9N is assumed to be infrared light and will be described below.
  • the light receiving optical system 1 light (reflected light S ⁇ b> 2) emitted from the first light emission source 9 ⁇ / b> A, irradiated to the imaging target space, and reflected by the imaging target space is received.
  • distance information Li is acquired from the received light by the light receiving element unit 2, the charge integration unit 3, and the signal calculation unit 5 as in the above-described embodiment.
  • the multiple image generation unit 191 generates a distance image from the distance information Li.
  • the distance image generated by the multiple image generation unit 191 is output to the multiple image holding memory unit 192 as a distance image acquired from the first light emission source 9A.
  • the distance image generated from the first light emission source 9A is expressed as Img (9A)
  • the distance image generated from the Nth light emission source 9N is expressed as Img (9N)).
  • the multiple image memory unit 192 records and holds the distance image Img (9A) together with information indicating that the distance image Img (9A) is a distance image acquired using the first light emission source 9A.
  • the distance estimation apparatus 500 acquires a distance image from the second light emission source 9B.
  • the control unit 195 outputs to the light source control unit 190 a light source switching control signal for causing the second light source 9B to emit light.
  • the control unit 195 outputs a light intensity modulation control signal to the light source control unit 190.
  • the light source control unit 190 causes the second light source 9B to emit light based on the light source switching control signal from the control unit 195.
  • the light source control unit 190 modulates the intensity of light (infrared light) emitted from the second light source 9B based on the light intensity modulation control signal from the control unit 195.
  • the multiple image generation unit 191 generates a distance image Img (9B) from the distance information Li.
  • the distance image Img (9B) generated by the multiple image generation unit 191 is output to the multiple image holding memory unit 192 as a distance image acquired from the second light emission source 9B.
  • the multiple image memory unit 192 records and holds the distance image Img (9B) together with information indicating that the distance image Img (9B) is a distance image acquired by the second light emission source 9B.
  • the distance estimation apparatus 500 acquires distance images from the third light emission source 9C to the Nth light emission source 9N in the same manner as described above. After the distance images Img (9A) to Img (9N) from all the light emitting sources 9A to 9N are acquired and recorded and held in the multiple image holding memory unit 192, the distance information extraction unit 193 in the target area is obtained. Extracts distance information Li (9A) to Li (9N) from the distance images Img (9A) to Img (9N) in the target area determined by the target area extraction unit 14. Here, the distance information in the target area acquired from the distance image Img (x) is expressed as Li (x). Then, the target area distance information extraction unit 193 outputs the extracted distance information Li (9A) to Li (9N) to the optimum distance image selection unit 194.
  • FIG. 21 is a diagram illustrating a processing outline of an example of a method for selecting an optimum distance image by the optimum distance image selection unit 194. As shown in FIG.
  • the distance estimation apparatus 500 compares the accuracy and resolution of the distance image with respect to each light emission frequency f of the plurality of light emission sources 9A to 9N in the target region (face region in FIG. 21). At that time, the optimum distance image selection unit 194 may determine the optimum distance image using, for example, the following criteria.
  • the distance image in the target area has the largest gradation range
  • the distance image in the target area has a nearly linear gradation characteristic (the linearity of the pixel values of the distance image in the target area is good) (For example, when the pixel value of the distance image in the target region has an extreme change in the pixel value or when the pixel value is saturated, it can be determined that the linearity of the pixel value of the distance image is poor.)
  • (3) A pixel with a large contrast ratio in the distance image within the target region (the absolute value or ratio of the difference between the value of the target pixel and the value of the adjacent pixel, a normalized value thereof, the target pixel
  • Etc. the optimum distance image is determined from the distance images Img (9A) to Img (9N).
  • the optimum distance image selection unit 194 selects the optimum distance image when the distance information in the target area is determined to have the maximum gradation range of Li (9C).
  • the unit 194 determines that Img (9C) is the optimum distance image.
  • the optimum distance image selection unit 194 takes out the distance image Img (9C) from the multiple image holding memory 192 and outputs it as the optimum distance image.
  • the optimum distance image may be output directly from the multiple image holding memory 192, or the optimum distance image selecting unit 194 reads the optimum distance image from the multiple image holding memory 192 as shown in FIG. Alternatively, the optimum distance image selection unit 194 may output the image.
  • the pixel value distribution in the distance image corresponding to the target region extracted from the color image is obtained, and distance image data indicating an appropriate pixel value distribution is selected from the obtained pixel value distribution. That is, in the distance estimation apparatus 500 and the distance estimation method of the present embodiment, a distance image by a light source of illumination light having a light emission frequency that is not easily affected by ambient light in a target region to be noted can be acquired as an optimal distance image.
  • the ambient light is emitted in a state where no light is emitted from any of the plurality of light emission sources.
  • the optimum light emission frequency Fbest with less influence of the light emission processing in the light emission frequency selection mode
  • a distance image using the reflected light by the irradiation light from a predetermined light source is generated (processing in the distance image acquisition mode)
  • the distance estimation apparatus having a plurality of light emission sources has been described.
  • the present invention is not limited to this, and for example, a light source capable of changing the frequency of light (electromagnetic wave) to be emitted may be used.
  • frequency analysis by Fourier transform is used as spectrum analysis in the spectrum analysis unit 71.
  • the reflected light S2 can be more simply decomposed into light intensities having different wavelengths ⁇ through a spectroscope such as a prism or a diffraction grating, and the light intensities can be arranged in the order of each wavelength (see FIG. 27).
  • the reflected light is infrared light
  • the wavelength thereof is also in the infrared light region (region having a wavelength of 800 [nm] to 100,000 [nm]).
  • a light emitting source that emits a wavelength ⁇ r1 close to the wavelength at which the light intensity is minimum is selected from the N light emitting sources of the first light emitting source 9A to the Nth light emitting source 9N. It will be.
  • the wavelengths of the N light emitting sources are set in advance. Then, only a light source that emits a selected wavelength is caused to emit light, and a distance image is generated by reflected light from the light source, thereby obtaining a distance image that is not easily affected by ambient light.
  • the difference in wavelength from each light source is equivalent to the difference in frequency from each light source shown in the above-described embodiment.
  • a left-eye parallax image (stereo image left-eye parallax image) and a right-eye parallax image (stereo image right-eye parallax image) are generated, and the generated left-eye parallax is generated.
  • a three-dimensional image (video) may be displayed on the three-dimensional display device or the like by using the image and the right-eye parallax image.
  • a left-eye parallax image (a left-eye parallax of a stereo image) based on a distance image acquired by the distance measuring device of the present invention.
  • Image) and right-eye parallax image are generated, and the generated left-eye parallax image and right-eye parallax image are used to display an image (video) three-dimensionally on a three-dimensional display device. Also good. Further, a three-dimensional image generation unit is added to the distance measurement device of the present invention, and the left-eye parallax image (the left eye of the stereo image) is obtained based on the distance image acquired by the distance measurement device of the present invention in the three-dimensional image generation unit.
  • a parallax image for right eye and a parallax image for right eye may be generated, and the generated parallax image for left eye and parallax image for right eye may be output.
  • a three-dimensional display device can display a three-dimensional image (video) using the left-eye parallax image and the right-eye parallax image output from the distance measuring device to which the three-dimensional image generation unit is added. it can.
  • the left-eye parallax image left-eye parallax image of a stereo image
  • the right-eye parallax image right-eye parallax image of a stereo image
  • the pixel position According to distance information z (x, y) of the pixel p (x, y) at x, y), the pixel p can be generated by shifting to the left or right.
  • the distance information z (x, y) may be a relative distance (depth value) from a predetermined reference. Further, based on the relationship between a predetermined reference point and the distance information of the pixels in each image, the corresponding parallax amount of the corresponding pixel can be obtained by a geometric technique such as triangulation.
  • the distance estimation method and distance estimation apparatus of the present invention described in the above embodiment is an apparatus that is built in or connected to a device that handles images, such as a computer, a television, a digital camera, a mobile phone, a PDA, and a car TV. It is realized as an integrated circuit such as an LSI.
  • the distance estimation apparatus of each of the above embodiments may be individually made into one chip, or may be made into one chip so as to include a part or all of them.
  • LSI LSI
  • the method of the integrated circuit is not limited to LSI, and can be realized by a dedicated circuit or a general-purpose processor. It is also possible to use an FPGA (Field Programmable Gate Array) that can be programmed after manufacturing the LSI, or a reconfigurable processor that can reconfigure the connection and setting of circuit cells inside the LSI.
  • FPGA Field Programmable Gate Array
  • a reconfigurable processor that can reconfigure the connection and setting of circuit cells inside the LSI.
  • each functional block in each of the above embodiments may be realized by a program.
  • the processing of each functional block in each of the above embodiments is performed by a central processing unit (CPU) in a computer, for example.
  • a program for performing each processing is stored in a storage device such as a hard disk or a ROM, and is read out and executed in the ROM or the RAM.
  • each process of the said embodiment may be implement
  • the distance estimation apparatus, distance estimation method, program, integrated circuit, and camera of the present invention can achieve high resolution and high frame rate of distance images by using irradiation light that is not easily affected by ambient light.
  • the present invention is useful in the field of video equipment-related industries, and the present invention can be implemented in this field.
  • Light receiving optical system Light receiving element portion 3 Charge accumulation portion 4 Mode control portion 5 Signal calculation portion 6 Image generation portion 7 Light emission frequency selection portion 8 Light emission source selection control portions 9A to 9N Light emission source OBJ10 Target Object S1 Illumination light S2 Reflected light 11 Color separation prism 7A Intra-region emission frequency selection unit 10 In-region charge extraction unit 12 Imaging element unit 13 Color image generation unit 14 Target region extraction unit 190 Light source control unit 191 Multiple image generation unit 192 Multiple image storage memory unit 193 Target area distance information extraction unit 194 Optimal distance image selection unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

 対象空間に存在する対象物までの距離画像をTOF方式で推定する際、距離画像の高解像度化や高フレームレート化を実現しようとすると、ショットノイズや環境光等の影響でCCD飽和が発生し、距離精度の低下を招く恐れがある。光源からの発光がない時点での対象物からの反射光S2を受光しその反射光S2の周波数分析をもとに環境光の影響を受けにくい発光周波数を持つ照明光S1を発光周波数選択部(7)が行う。この最適発光周波数を持つ照射光を用意された複数の光源(9A~9N)から選択し、選択された光源からの照明光S1の反射光を受光して対象物までの距離を画像生成部(6)が生成することで、受光時の環境光の影響を抑えることが可能となり、受光素子部(2)を高解像度化した際の距離精度に与えるノイズの影響を低減することが可能となる。

Description

距離推定装置、距離推定方法、プログラム、集積回路およびカメラ
 本発明は、ムービーやDSC(Digital Still Camera)等の撮像装置で撮影された画像の奥行き感・立体感を向上させるために、対象空間を撮像し、対象空間に存在する対象物までの距離を推定する装置および方法に関するものである。
 空間の3次元計測技術は、多くの分野において応用が期待されており、種々の手法により実用化が試みられている。その手法の中で代表的な手法として、レーザスリット光のスキャンによる光切断方法や、ステレオ視による方法に代表される三角測量法や、照明光を測定対象物体に照射し、照射した光が測定対象物体から戻ってくるまでの時間TOF(Time Of Flight)を計測することで距離を測定するTOF法等がある。
 三角測量法を用いて空間の3次元計測を行う場合、対象空間(撮像する対象である3次元空間)の3次元情報を得るために対象空間で光を走査する必要があり、対象空間全体について3次元情報が得られるまでには比較的長い時間が必要となる。このため、三角測量法は、移動物体を追跡するような用途には不向きであるとされている。
 これに対して、TOF法を用いて空間の3次元計測を行う場合、三角測定法のようなレーザービーム走査を行う必要がない。このため、TOF法による空間の3次元計測では、テレビ画像(撮像画像)の画素単位で被写体までの距離(撮像装置から被写体までの距離)を高速に検出でき、また、距離測定範囲も比較的広く設定することができる(距離測定範囲を約3m以上に設定することができる)。さらに、TOF法による空間の3次元計測では、レーザ光源の代わりに、LED光源を使用できるため、人物も安全に撮影することができる。このような利点より、TOF法による3次元計測技術について、種々の方法が報告されるとともに、距離センサとして製品化された例も報告されている。
 TOF法は、(数式1)に基づき3次元空間内の距離を測定する。つまり、TOF法では、光の速度C=3.0×10^8[m/sec](なお、「X^Y」は、「XのY乗」を表している。以下同様。)が既知であるので、測定基準ポイントに存在する光源から照射された光が、被測定ポイントにある測定対象に照射され、測定対象からの反射光が測定基準ポイントである光源まで戻ってくるまでの時間、つまり、光源から測定対象までの光の往復時間をΔtとすると、測定基準ポイント-被測定ポイント間の距離Lは、次式に基づき求められる。
Figure JPOXMLDOC01-appb-M000001
 TOF法の方法として多くの方式があり、代表的なものとして、位相TOF方式とパルスTOF方式とがある。
 位相TOF方式は、主に強度変調された光線を、測定対象に照射して、対象物からの反射光を検出して光電子変換を行い、変換された光電子を複数の蓄積部のいずれかに時間的にずらして蓄積し、これらの蓄積部に蓄積された光電子数に応じて距離情報を生成する方式である。
 パルスTOF方式は、パルス状の光線を測定対象物に照射して、測定対象物からの反射光と測定光線との位相差に基づいて距離を求める方式であり、測定光線を2次元的に走査し、各点の距離を測定して3次元の形状を測定する方式である。
 位相TOF方式では、(数式1)におけるΔtの代わりに、位相量Δφを用いて距離の測定を行う。位相TOF方式では、最大検出距離Lmaxは、位相量Δφが2πとなる場合(Δtで言えばT:変調強度の1周期時間)に相当し、次式に基づき求められる。つまり、最大検出距離Lmaxは、測定光線の変調周波数fに依存し、次式で決定される。
Figure JPOXMLDOC01-appb-M000002
 そして、位相量Δφにおける検出距離Lは、(数式3)のようになる。
Figure JPOXMLDOC01-appb-M000003
 この場合、(数式2)に基づき、測定対象物までの距離が、測定光線の強度変調の周期に対応する波長以上の場合には、原理的に距離算出結果を一意に決定できない(すなわち、測定対象物までの距離を特定することができない)という問題がある。
 一方、パルスTOF方式では、測定光線を2次元で走査して距離画像を得るためには、光源から発光されるレーザ光等の測定光線を揺動ミラーやポリゴンミラーを用いて上下左右に物理的に走査する必要があるため、距離画像の取得時間が長くなるという問題がある。
 現状では、位相TOF方式に類する方式を用いて空間の3次元計測を実行する技術が多く存在する(例えば、特許文献1、2参照)。以下、位相TOF方式を利用した従来の距離推定装置(従来例1および従来例2)について説明する。
 ≪従来例1≫
 まず、従来例1(特許文献1の技術)について、説明する。
 図23は、従来例1の距離推定装置900の構成を示すブロック図である。距離推定装置900は、振幅変調された照明光S906で被写体OBJ1を照明することが可能な投光部902と、撮像利得を時間とともに変化させて被写体からの反射光S907を受光し、被写体の光学像を撮像することが可能な撮像部903と、を備える。また、距離推定装置900は、撮像部903からの映像信号S904を立体情報信号S905に変換するための信号処理部904と、照明光変調信号S901、撮像利得変調信号S902、制御信号S903aおよびS903bを発生するための信号発生部901と、を備える。
 図24は、従来例1の距離推定装置900での距離検出処理の概要を模式的に示した図である。
 図24に示すように、距離推定装置900では、高速に光強度が変調された赤外光を被写体に照射し、被写体からの反射光を超高速シャッターで撮影する。
 図24の上側部分(図24のEx901)に模式的に示すように、距離推定装置900は、時間が経過するにつれ光強度が減少するように変調された照明光(測定光線)(例えば、図24においてtr1で示す期間において光強度変調された照明光)を被写体O1およびO2に対して照射する。そして、距離推定装置900は、被写体O1およびO2からの反射光を、所定のシャッタータイミングおよびシャッター時間(図24にts1で示したシャッター時間)により取得し、撮像画像に変換する。被写体O1およびO2からの反射光は、光強度が時間に対して減少するように変調されているので、距離推定装置(カメラ)900に近い被写体O1からの反射光の光強度は大きく、距離推定装置900から遠い被写体O2からの反射光の光強度は小さい。(照明光は、光強度が時間に対して減少するように変調されているので、光の飛行時間(距離推定装置900から照射された光が被写体O1で反射し、距離推定装置900に戻ってくるまでの時間)が短い被写体O1からの反射光の光強度は大きく(光強度の減少量が小さく)、光の飛行時間が長い被写体O2からの反射光の光強度は小さい(光強度の減少量が大きい)。)
 このため、被写体O1およびO2からの反射光を、距離推定装置900において、所定のシャッタータイミングおよびシャッター時間(図24にts1で示したシャッター時間)により取得し、撮像画像Aにおいて、照明光の飛行時間が短い被写体O1の像I1は明るく、被写体O2の像I2は暗くなる。つまり、撮像画像Aにおいて、距離情報が画像の輝度として表現される。
 しかし、この撮像画像Aの輝度は、被写体の反射率や照射光量の空間的ムラ、また拡散反射光量の距離による減衰効果などの影響を受けている。
 そこで、距離推定装置900では、これらの影響を補正するために、以下の処理を行う。
 図24の下側部分(図24のEx902)に模式的に示すように、距離推定装置900は、時間が経過するにつれ光強度が増加するように変調された照明光(測定光線)(例えば、図24においてtr2で示す期間において光強度変調された照明光)を被写体O1およびO2に対して照射する。そして、距離推定装置900は、被写体O1およびO2からの反射光を、所定のシャッタータイミングおよびシャッター時間(図24にts2で示したシャッター時間)により取得し、撮像画像に変換する。被写体O1およびO2からの反射光は、光強度が時間に対して増加するように変調されているので、距離推定装置(カメラ)900に近い被写体O1からの反射光の光強度は小さく、距離推定装置900から遠い被写体O2からの反射光の光強度は大きい。
 このため、被写体O1およびO2からの反射光を、距離推定装置900において、所定のシャッタータイミングおよびシャッター時間(図24にts2で示したシャッター時間)により取得し、撮像画像Bにおいて、照明光の飛行時間が短い被写体O1の像I1は暗く、被写体O2の像I2は明るくなる。つまり、撮像画像Bにおいて、距離情報が画像の輝度として表現される。
 距離推定装置900では、上記のようにして取得した撮像画像Aと撮像画像Bとの間の輝度比をとることで、反射率等の影響を補正した距離画像(図24の距離画像C)を生成する。
 距離推定装置900では、このように、撮影された2枚の画像の輝度に関する除算によりTOFを求めることができるため、理論的には、赤外光の拡散、被写体の反射率、反射方向の向きや背景光の影響をキャンセルすることができる。しかし、距離推定装置900では、被写体からの反射光の光強度をある程度確保する必要があるため、複数の発光ダイオードからなる発光ダイオードアレイによる光源等を用いる必要があり、装置の構成が大きくなるという欠点がある。
 ≪従来例2≫
 次に、従来例2(特許文献2の技術)について、説明する。
 図25は、従来例2の距離推定装置950の構成を示すブロック図である。距離推定装置950は、対象空間に照明光S9511を照射する発光源951と、対象空間からの光を受光し受光光量を反映した出力値の電気信号を出力する光検出素子952と、発光源951および光検出素子952を制御する制御回路部953と、光検出素子952からの出力に対して画像生成処理を行う画像生成部954と、を備える。また、距離推定装置950は、受光光学系955を備える。光検出素子952は、図25に示すように、複数の感光部9521、複数の感度制御部9522、複数の電荷集積部9523および電荷取出部9524を有している。
 発光源951は、対象空間に所定周期の変調信号で変調された光を照射し、光検出素子952は、対象空間を撮像する。画像生成部954は、発光源951から対象空間に照射された光と対象空間内の対象物OBJ2で反射され光検出素子952で受光される反射光との変調信号の位相差に基づいて対象物OBJ2までの距離を求める。
 光検出素子952に設けた各感光部9521は、制御回路部953によって対象空間からの光を受光する受光期間が制御される。各感光部9521では、変調信号の異なる位相に同期した受光期間に受光する。光検出素子952からは変調信号の1周期以上の期間である検出期間ごとに集積した電荷が画像生成部954に与えられ、画像生成部954は、複数の検出期間の電荷量を受光期間別に積算した電荷量を用いて距離を求める。
 図26は、従来例2の距離推定装置950の距離検出方法を模式的に示すものである。
 従来例2の距離推定装置950では、正弦波y(t)=a×sin(2πt/T)+bに光強度変調された赤外光(照明波)の変調周期に同期させて、所定のタイミングで受光信号(反射波)をサンプリングすることにより、受光信号の位相量を導出するものである。つまり、従来例2の距離推定装置950では、変調周期1周期あたり4点(例えば、図26のA0点,A1点,A2点,A3点の4点)のサンプリングを行い、(数式4)により、位相シフト量Ψを導出する。
Figure JPOXMLDOC01-appb-M000004
 従来例2の距離推定装置950では、上記の位相シフト量Ψの導出処理を、受光部と復調部を一体化した特殊CCD撮像素子を用い、その駆動方法を工夫することにより、高い開口率による距離検出処理を実現している。従来例2の距離推定装置950は、小型で高分解能であるが、撮像画像(映像)が低解像度・低フレームレートであるという欠点を持つ。
特開2000-121339号公報 特開2006-84429号公報
 TOF方式で距離画像の高精度化を実現する場合、距離推定装置において、光検出素子を増やすことで、距離推定装置で取得される距離画像の高解像度化等を実現することが考えられる。しかし、この場合、光検出素子を構成する1つ1つの感光部に入射する光(反射光)の量が少なくなるので(撮像素子(CCD等)の各画素への入射光量が少なくなるので)、光検出素子を構成する各感光部から取得される信号の信号レベルが小さくなる。
 また、光電効果に対応した電荷量に含まれるランダムノイズ(ショットノイズ)Ss(光電変換により発生するショットノイズSs)は、電荷量Nsの1/2乗に比例することから、撮像素子(CCD等)の各画素への入射光量が少なくなると、撮像素子の各画素から取得される電荷量に含まれるノイズ(ショットノイズ)の比率が高くなる。つまり、撮像素子(CCD等)の各画素への入射光量が少なくなると、撮像素子の各画素から取得される信号のS/N比は低下することとなる。その結果、距離精度の低下が生じることとなる。
 これに対して、以下の対応策が考えられる。
(1)LED(照明光の発光源)の発光量を大きくする。
(2)電荷の検出期間(1周期以上)を長くして、撮像素子の各画素で確保される光電荷量を増やす。
 これらの対応策を行った場合、撮像素子の各画素の蓄積電荷量は大きくなる。この場合、ショットノイズも上記で説明した原理により増えるが、電荷量Ns(被写体からの反射光を光電変換して取得される電荷量(信号成分の電荷量))とショットノイズSsとの比率SN=Ns/Ssは、電荷量Nsが大きいほど大きくなる。
 撮像素子の各画素に蓄積される電荷量において、環境光等は、撮像素子で光電変換されることにより、電荷量に依存しない定常ノイズとなるので、電荷量のS/N比は、電荷量Ns(信号成分の電荷量)と、電荷量Nsの1/2乗に比例するショットノイズSsと、環境光等に対応する定常ノイズと、により決定されるので、電荷量Nsが大きくなるほど、電荷量のS/N比が良くなり、撮像素子で取得される信号のS/Nも良くなる。その結果、距離推定装置における距離測定の距離分解能も向上する。
 しかし、環境光等の定常ノイズは、反射光の電荷量(電荷量Ns)よりもずっと大きい値になるため、距離推定装置の光源の発光量を大きくした場合、撮像素子(CCD等)の各画素で、飽和が発生しやすくなる。また、実用上の制約(規模・電力等)の問題も発生する。
 さらに、撮像素子(CCD等)の各画素での電荷蓄積期間を延ばした場合、定常ノイズ成分も大きくなるので、各画素で電荷蓄積された電荷量のS/N比は低くなり、多量のノイズ成分の中に微小量の信号成分(電荷量Nsに相当)が存在することとなる。
 また、光検出素子を構成する撮像素子の各画素(感光部)において、電荷蓄積に対するキャパシティには限界があるため、飽和が発生する可能性が高くなる。光検出素子において飽和現象が発生すると、感光部の受光光量は、光強度変調した光との相関性がなくなるので、当該感光部に対応する画素から取得される信号から距離を正確に求めることができなくなる。
 本発明は、上記問題点に鑑み、撮像素子(CCD等)の飽和現象の発生を抑制し、TOF方式を用いて高解像度で高フレームレートの距離画像を取得し、精度の高い距離推定処理を行う距離推定装置、距離推定方法、プログラムおよび集積回路を実現することを目的とする。
 第1の発明は、光強度変調された光を対象物に照射し、対象物からの反射光を用いて対象物までの距離を推定する距離推定装置であって、光源と、発光源制御部と、発光周波数選択部と、受光光学系と、受光素子部と、電荷集積部と、信号演算部と、画像生成部と、を備える。
 光源は、光強度変調可能な光を照射する。発光源制御部は、光源を制御する。発光周波数選択部は、光源から発光される光の周波数を決定する。受光光学系は、対象物からの光を集光する。受光素子部は、受光光学系で受光した光を電荷に変換する。電荷集積部は、受光素子部で取得された電荷を集積し、電荷信号を取得する。信号演算部は、電荷信号に基づいて、距離情報を算出する。画像生成部は、距離情報に基づいて、距離画像を生成する。
 発光周波数選択モードにおいて、発光源制御部は、光源を発光させない状態に制御し、発光周波数選択部は、電荷集積部により取得された電荷信号の周波数スペクトルを取得し、周波数スペクトルにおいて、周波数成分が少ない周波数帯域の所定の周波数を最適発光周波数に決定し、発光源制御部は、光源の発光周波数を最適発光周波数に設定する。
 距離画像取得モードにおいて、発光源制御部は、最適周波数を用いて光源を発光させ、電荷集積部は、最適周波数を用いて光源を発光させた状態で受光した光から電荷信号を取得し、信号演算部は、最適周波数を用いて光源を発光させた状態で受光した光から取得した電荷信号に基づいて、距離情報を算出し、画像生成部は、最適周波数を用いて光源を発光させた状態で受光した光から取得した電荷信号に基づいて算出された距離情報に基づいて、距離画像を生成する。
 この距離推定装置では、光源からの発光がない時点での対象物からの反射光を受光し、その反射光の周波数分析(スペクトル分析)をもとに環境光の影響を受けにくい発光周波数の光(電磁波)を対象物に照射し、対象物からの反射光から電荷信号を取得し、その電荷信号から距離画像を取得する。つまり、この距離推定装置では、環境光成分の影響を受けにくい電荷信号に基づき距離画像を取得することができる。
 その結果、この距離推定装置により、撮像素子(CCD等)の飽和現象の発生を抑制し、TOF方式を用いて高解像度で高フレームレートの距離画像を取得し、精度の高い距離推定処理を行うことができる。
 第2の発明は、第1の発明であって、光源は、それぞれ、発光周波数の異なる複数の発光源を有し、発光源制御部は、複数の発光源の中から、最適発光周波数に最も近い発光周波数の発光源を選択し、距離画像取得モードにおいて、選択した発光源を発光させるように制御する。
 これにより、複数の光源を用いて、簡単に高精度な距離推定装置を実現することができる。
 なお、ここで、「発光周波数」とは、光(電磁波)の周波数のことである。
 第3の発明は、第2の発明であって、複数の光源は、赤外領域の周波数の光を発光させる。
 これにより、例えば、複数の光源として、安価な赤外光LED光源等を用いて、距離推定装置を実現することができる。
 第4の発明は、第1から第3のいずれかの発明であって、色分解プリズムと、撮像素子部と、画像生成部と、対象領域抽出部と、対象領域内電荷抽出部と、をさらに備える。
 色分解プリズムは、受光光学系で受光した光を、可視光成分の光と、赤外光成分の光に分解する。撮像素子部は、色分解プリズムにより分解された可視光成分の光を画像生成用電荷信号に変換する。画像生成部は、撮像素子部により変換された画像生成用電荷信号から画像を生成する。対象領域抽出部は、画像生成部により生成された画像において、所定の画像領域を対象領域として抽出する。対象領域内電荷抽出部は、電荷集積部により取得された電荷信号において、対象領域内に対応する電荷信号のみを抽出する。そして、発光周波数選択部は、対象領域内電荷抽出部により抽出された電荷信号の周波数スペクトルを取得し、周波数スペクトルにおいて、周波数成分が少ない周波数帯域の所定の周波数を最適発光周波数に決定する。
 この距離推定装置では、可視光成分の光から取得したカラー画像から、所定の対象領域を抽出し、光源からの発光がない時点での対象物からの反射光を受光して得られる距離画像データにおいて、(カラー)画像から抽出された対象領域に相当する領域内の反射光の周波数分析(スペクトル分析)を行う。そして、この距離推定装置では、その対象領域のスペクトル分析結果をもとに、環境光の影響を受けにくい発光周波数の照射光により距離推定処理を行い、距離画像を取得する。
 これにより、この距離推定装置では、注目すべき対象領域の距離精度に影響を与えにくい照射光を用いて距離推定処理を行うことができるので、注目すべき対象領域において、さらに高精度の距離画像を取得することができる。
 第5の発明は、第4の発明であって、対象領域抽出部は、対象領域を、顔の画像領域とする。
 第6の発明は、第4の発明であって、対象領域抽出部は、対象領域を、人物の画像領域とする。
 第7の発明は、第4の発明であって、対象領域抽出部は、対象領域を、ユーザが指定した画像領域とする。
 第8の発明は、第4の発明であって、対象領域抽出部は、画像生成部により生成される画像に対して、領域分割処理を行い、大きな領域に分割された画像領域を、対象領域とする。
 第9の発明は、第8の発明であって、対象領域抽出部は、輝度、色情報に基づいて、画像を形成する各画素のグループ化を行うことで、領域分割処理を行う。
 第10の発明は、第8の発明であって、対象領域抽出部は、画像生成部により生成される画像において、画像内のブロック分割処理を行い、分割された各画像ブロック内の平均輝度情報または/および平均色情報に基づいて、各画像ブロックのグループ化を行うことで領域分割処理を行う。
 第11の発明は、光強度変調された光を対象物に照射し、対象物からの反射光を用いて対象物までの距離を推定する距離推定装置であって、光源と、発光源制御部と、受光光学系と、受光素子部と、電荷集積部と、信号演算部と、画像生成部と、複数画像保持メモリ部と、最適距離画像選択部と、色分解プリズムと、撮像素子部と、画像生成部と、対象領域抽出部と、対象領域内電荷抽出部と、を備える。
 光源は、光強度変調可能な光を照射する。発光源制御部は、光源を制御する。受光光学系は、対象物からの光を集光する。受光素子部は、受光光学系で受光した光を電荷に変換する。電荷集積部は、受光素子部で取得された電荷を集積し、電荷信号を取得する。信号演算部は、電荷信号に基づいて、距離情報を算出する。画像生成部は、距離情報に基づいて、距離画像を生成する。複数画像保持メモリ部は、画像生成部により生成された距離画像を複数枚分記憶することができる。最適距離画像選択部は、複数画像保持メモリ部に記憶されている複数枚の距離画像の中から最適距離画像を選択する。色分解プリズムは、受光光学系で受光した光を、可視光成分の光と、赤外光成分の光に分解する。撮像素子部は、色分解プリズムにより分解された可視光成分の光を画像生成用電荷信号に変換する。画像生成部は、撮像素子部により変換された画像生成用電荷信号から画像を生成する。対象領域抽出部は、画像生成部により生成された画像において、所定の画像領域を対象領域として抽出する。対象領域内電荷抽出部は、電荷集積部により取得された電荷信号において、対象領域内に対応する電荷信号のみを抽出する。
 そして、発光源制御部は、光源から発光周波数の異なる光を対象物に照射するように制御する。複数画像保持メモリは、光源から発光周波数の異なる光を対象物に照射することにより生成された距離画像を複数枚記憶する。最適距離画像選択部は、複数画像保持メモリに記憶されている複数枚の距離画像において、対象領域抽出部により設定された対象領域内の画像データを所定の基準により評価することで、複数枚の距離画像の中から最適距離画像を選択する。
 この距離推定装置では、複数の周波数の光により生成された距離画像データに対して、それぞれ、(カラー)画像より抽出された対象領域に相当する距離画像内の画素値分布を求め、求めた画素値分布に基づいて適切な画素値分布を示す距離画像データを選択する。つまり、この距離推定装置では、注目すべき対象領域において環境光の影響を受けにくい発光周波数の照明光の光源による距離画像を最適距離画像として取得することができるので、画像内で注目度の高い領域において、精度の高い距離画像を取得することができる。
 第12の発明は、第11の発明であって、光源は、それぞれ、発光周波数の異なる複数の発光源を有している。
 第13の発明は、第12の発明であって、複数の光源は、赤外領域の周波数の光を発光させる。
 第14の発明は、光強度変調された光を対象物に照射し、対象物からの反射光を用いて対象物までの距離を推定する距離推定方法であり、光源と、受光光学系と、受光素子部と、電荷集積部と、発光源制御ステップと、発光周波数選択ステップと、信号演算ステップと、画像生成ステップと、を備える距離推定装置に用いられる距離推定方法である。
 光源は、光強度変調可能な光を照射する。受光光学系は、対象物からの光を集光する。受光素子部は、受光光学系で受光した光を電荷に変換する。電荷集積部は、受光素子部で取得された電荷を集積し、電荷信号を取得する。
 そして、発光源制御ステップでは、光源を制御する。発光周波数選択ステップでは、光源から発光される光の周波数を決定する。信号演算ステップでは、電荷信号に基づいて、距離情報を算出する。画像生成ステップでは、距離情報に基づいて、距離画像を生成する。
 そして、発光周波数選択モードにおいて、光源を発光させない状態に制御し、発光周波数選択ステップでは、電荷集積部により取得された電荷信号の周波数スペクトルを取得し、周波数スペクトルにおいて、周波数成分が少ない周波数帯域の所定の周波数を最適発光周波数に決定し、発光源制御ステップでは、光源の発光周波数を最適発光周波数に設定する。また、距離画像取得モードにおいて、発光源制御ステップでは、最適周波数を用いて光源を発光させる。信号演算ステップでは、最適周波数を用いて光源を発光させた状態で受光した光に基づいて取得した電荷信号に基づいて、距離情報を算出する。画像生成ステップでは、最適周波数を用いて光源を発光させた状態で受光した光に基づいて取得した電荷信号に基づいて算出された距離情報に基づいて、距離画像を生成する。
 これにより、第1の発明と同様の効果を奏する距離推定方法を実現することができる。
 第15の発明は、光強度変調された光を対象物に照射し、対象物からの反射光により対象物までの距離を推定する距離推定方法であって、光源と、受光光学系と、受光素子部と、電荷集積部と、発光源制御ステップと、発光周波数選択ステップと、信号演算ステップと、画像生成ステップと、を備える距離推定方法をコンピュータに実行させるプログラムである。
 光源は、光強度変調可能な光を照射する。受光光学系は、対象物からの光を集光する。受光素子部は、受光光学系で受光した光を電荷に変換する。電荷集積部は、受光素子部で取得された電荷を集積し、電荷信号を取得する。
 発光源制御ステップでは、光源を制御する。発光周波数選択ステップでは、光源から発光される光の周波数を決定する。信号演算ステップでは、電荷信号に基づいて、距離情報を算出する。画像生成ステップでは、距離情報に基づいて、距離画像を生成する。
 そして、発光周波数選択モードにおいて、光源を発光させない状態に制御し、発光周波数選択ステップでは、電荷集積部により取得された電荷信号の周波数スペクトルを取得し、周波数スペクトルにおいて、周波数成分が少ない周波数帯域の所定の周波数を最適発光周波数に決定する。発光源制御ステップでは、光源の発光周波数を最適発光周波数に設定する。また、距離画像取得モードにおいて、発光源制御ステップでは、最適周波数を用いて光源を発光させる。信号演算ステップでは、最適周波数を用いて光源を発光させた状態で受光した光に基づいて取得した電荷信号に基づいて、距離情報を算出する。画像生成ステップでは、最適周波数を用いて光源を発光させた状態で受光した光に基づいて取得した電荷信号に基づいて算出された距離情報に基づいて、距離画像を生成する。
 これにより、第1の発明と同様の効果を奏するプログラムを実現することができる。
 第16の発明は、光強度変調された光を対象物に照射し、対象物からの反射光を用いて対象物までの距離を推定する距離推定装置用の集積回路であって、光源と、受光光学系と、発光源制御部と、発光周波数選択部と、受光素子部と、電荷集積部と、信号演算部と、画像生成部と、を備える距離推定装置に用いられる集積回路である。
 光源は、光強度変調可能な光を照射する。受光光学系は、対象物からの光を集光する。発光源制御部は、光源を制御する。発光周波数選択部は、光源から発光される光の周波数を決定する。受光素子部は、受光光学系で受光した光を電荷に変換する。電荷集積部は、受光素子部で取得された電荷を集積し、電荷信号を取得する。信号演算部は、電荷信号に基づいて、距離情報を算出する。画像生成部は、距離情報に基づいて、距離画像を生成する。
 そして、発光周波数選択モードにおいて、発光源制御部は、光源を発光させない状態に制御し、発光周波数選択部は、電荷集積部により取得された電荷信号の周波数スペクトルを取得し、周波数スペクトルにおいて、周波数成分が少ない周波数帯域の所定の周波数を最適発光周波数に決定する。発光源制御部は、光源の発光周波数を最適発光周波数に設定する。また、距離画像取得モードにおいて、発光源制御部は、最適周波数を用いて光源を発光させ、電荷集積部は、最適周波数を用いて光源を発光させた状態で受光した光に基づいて電荷信号を取得する。信号演算部は、最適周波数を用いて光源を発光させた状態で受光した光から取得した電荷信号に基づいて、距離情報を算出する。画像生成部は、最適周波数を用いて光源を発光させた状態で受光した光に基づいて取得した電荷信号に基づいて算出された距離情報に基づいて、距離画像を生成する。
 これにより、第1の発明と同様の効果を奏する集積回路を実現することができる。
 第17の発明は、第1から第13のいずれかの発明である距離推定装置を含むカメラである。
 これにより、第1~第13の発明と同様の効果を奏する距離測定装置を搭載したカメラを実現することができる。
 なお、「カメラ」とは、静止画を取得するスチルカメラや、動画像を取得する撮像装置(ムービー)や、静止画および動画の両方を撮像することできる撮像装置や、取得した撮像画像(映像)から3D表示用画像(映像)を生成する機能を備える撮像装置を含む概念である。
 また、第17の発明のカメラにおいて、撮像画像は、カメラに含まれる距離測定装置の高解像度画像生成部により生成される高解像度画像を用いるものであってもよいし、距離測定装置とは別に、撮像素子をさらに追加し、追加した当該撮像素子から撮像画像を取得するものであってもよい。
 本発明によれば、撮像素子(CCD等)の飽和現象の発生を抑制し、TOF方式を用いて高解像度で高フレームレートの距離画像を取得し、精度の高い距離推定処理を行う距離推定装置、距離推定方法、プログラム、集積回路およびカメラを実現することができる。
本発明における第1実施形態に係る距離推定装置の概略構成図。 本発明における第1実施形態に係る発光周波数選択部の概略構成図。 本発明における第1実施形態に係る距離推定方法における光源の発光周波数選択方法の概要を示す図。 本発明における第1実施形態に係る距離推定方法におけるスペクトル分析と選択される発光周波数の関係を示す図。 本発明における第1実施形態に係る距離推定方法における処理フローチャートを示す図。 本発明における第2実施形態に係る距離推定装置の概略構成図。 本発明における第2実施形態に係る距離推定方法における領域内発光周波数選択方法の概要を示す図。 本発明における第2実施形態に係る距離推定方法の処理フローチャートを示す図。 本発明における第2実施形態に係る距離推定装置におけるパターンマッチングの概要を示す図。 本発明における第2実施形態に係る距離推定装置における対象領域抽出部14の構成を示すブロック図。 本発明における第2実施形態に係る距離推定装置における対象領域抽出部14Aの構成を示すブロック図。 本発明における第3実施形態に係る距離推定装置における対象領域抽出部14Bの構成を示すブロック図。 本発明における第3実施形態に係る距離推定装置内の対象領域抽出部における分割方法の概要を示す図。 本発明における第3実施形態に係る距離推定装置内の候補領域検出を模式的に示す図。 本発明における第3実施形態に係る距離推定装置における対象領域抽出部14Cの構成を示すブロック図。 本発明における第4実施形態に係る距離推定装置における対象領域抽出部14Dの構成を示すブロック図。 本発明における第4実施形態に係る距離推定方法の処理フローチャート図。 本発明における第4実施形態に係る距離推定装置内の画像分割部での画像分割を示す図。 本発明における第4実施形態に係る距離推定装置における対象領域抽出部14Eの構成を示すブロック図。 本発明における第5実施形態に係る距離推定装置の概略構成図。 本発明における第5実施形態に係る距離推定装置における最適距離画像選択部の処理を模式的に示す図。 本発明における第5実施形態に係る距離推定方法における処理フローチャート図。 従来例1の距離推定装置の構成を示すブロック図。 従来例1の距離推定方法の概要を示す図。 従来例2の距離推定装置の構成を示すブロック図。 従来例2の距離推定方法の概要を示す図。 波長を横軸にとったスペクトル分析と選択された赤外線波長との関係を示す図。
発明を実施するため形態
 以下、本発明の最良の形態としての第1~第5実施形態について説明する。
 第1実施形態では、光源からの発光がない時点での対象物からの反射光を受光しその反射光の周波数分析をもとに環境光の影響を受けにくい発光周波数を持つ照射光を選択し、前記選択された発光周波数を持つ照射光を使って対象物までの距離画像を求め距離推定を行う装置および方法について説明する。
 第2実施形態では、距離推定用照射光の反射光と同期して得られる可視光成分より得られたカラー画像から所定の対象領域を抽出し、光源からの発光がない時点での対象物からの反射光を受光して得られる距離画像データにおいて、前記カラー画像から抽出された対象領域に相当する領域内の反射光の周波数分析をもとに環境光の影響を受けにくい発光周波数を持つ照射光を選択し、前記選択された発光周波数を持つ照射光を使って対象物までの距離画像を求める装置および方法について説明する。
 第3実施形態では、本発明の第2の距離推定方法において対象領域を抽出する際に、輝度、色情報をもとに各画素のグループ化を行うことで領域分割することを特徴とした距離推定装置および方法に関して説明する。
 第4実施形態では、本発明の第2の距離推定方法において対象領域を抽出する際に、画像内のブロック分割を行い、各ブロック内の平均輝度、平均色情報をもとに各ブロックのグループ化を行うことで領域分割することを特徴とした距離推定装置および方法に関して説明する。
 第5実施形態では、複数の異なる発光周波数を持つ光を照射できる光源を持ち、各発光周波数を持つ複数の照射光を使って得られる複数の距離画像データを生成し、前記距離推定用照射光の反射光と同期して得られる可視光成分より得られたカラー画像から所定の対象領域を抽出し、前記生成された複数の発光周波数の照射光に対する距離画像データに対して、カラー画像より抽出された対象領域に相当する距離画像内画素値分布を求め、前記複数の発光周波数の照射光に対する対象領域内の距離画像内画素値分布から適切な画素値分布を示す距離画像データを選択する距離推定装置および方法について説明する。
 [第1実施形態]
 図1から図5を用いて、本発明の第1実施形態として、光源からの発光がない時点での対象物からの反射光を受光し、その反射光の周波数分析結果をもとに、環境光の影響を受けにくい発光周波数を持つ照射光を選択し、その選択された発光周波数を持つ照射光を使って、対象物までの距離画像を求める距離推定装置および距離推定方法について説明する。
 <1.1:距離推定装置の構成>
 図1は、本発明の第1実施形態である距離推定装置100の概略構成図を示す図である。また、図2は、本発明の第1の実施形態例である距離推定装置内の発光周波数選択部7の構成を示す図である。図3は、第1実施形態に係る距離推定方法における光源の発光周波数選択方法の概要を示した図である。図4は、第1実施形態に係る距離推定方法におけるスペクトル分析と選択される発光周波数との関係を示す図である。さらに、図5は、第1実施形態に係る距離推定方法の処理フローチャート図である。
 本発明の距離推定装置は、ムービーやDSC等の撮像装置で撮影された画像の奥行き感・立体感を向上させるために、対象空間を撮像し、撮像装置から対象空間に存在する対象物までの距離を推定する方法・装置に関するものであり、例えば、デジタルスチルカメラやデジタルビデオカメラのような撮影機器や、モバイル環境下で使用する携帯電話やカーモバイル機器・PDA等へ搭載される。また、本発明の距離推定方法は、上記した機器等において実行される。
 図1に示すように、距離推定装置100は、被写体からの光を集光する受光光学系1と、受光光学系で集光した光を光電変換する素子(撮像素子)を有する受光素子部2と、受光素子部2で変換された電荷を集積し、電荷信号として出力する電荷集積部3と、を備える。また、距離推定装置100は、電荷集積部3から出力される電荷信号のスペクトルを分析し、最適発光周波数を決定する発光周波数選択部7と、発光周波数選択部7により決定された最適発光周波数に基づいて、複数の発光源9A~9Nから実際に発光させる発光源を決定する発光源セレクト制御部8と、発光源セレクト制御部8からの制御信号に基づいて、発光制御される複数の発光源9A~9N(第1発光源9A、第2発光源9B、・・・、第N発光源)(N:自然数)と、を備える。
 また、距離推定装置100は、電荷集積部3から出力される電荷信号に対して、(数式4)の処理を行い、距離情報を算出する信号演算部5と、電荷集積部3および信号演算部5の制御を行うモード制御部4と、信号演算部5により算出された距離情報に基づいて、距離画像を生成する画像生成部6と、を備える。
 受光光学系1は、撮像対象空間からの光を集光する光学系であり、光学レンズ、光学フィルタ等から構成される。
 受光素子部2は、複数の画素からなる撮像素子を有しており、各画素は、フォトダイオード等の光電変換素子を含んでいる。受光素子部2では、各画素において、光電変換された受光光量に応じた電荷が取得される。受光素子部2で取得された電荷は、電荷集積部3に出力される。なお、複数の発光源9A~9N(第1発光源9A、第2発光源9B、・・・、第N発光源)(N:自然数)から発光させる光が赤外光である場合、受光素子部2の撮像素子は、赤外光用CCDを用いることが好ましい。また、受光素子部2の撮像素子の前段に、赤外領域外の電磁波を遮断するために、赤外光用のフィルタ(光学フィルタ)等を設置するようにしてもよい。
 電荷集積部3は、モード制御部4から設定された所定の電荷蓄積時間に基づいて、受光素子部2で光電変換された電荷を集積し、電荷信号Diを取得する。電荷集積部3は、取得した電荷信号Diを、モード制御部4の指令に基づいて、発光周波数選択部7または信号演算部5に出力する。
 発光周波数選択部7は、図2に示すように、スペクトル分析部71と、スペクトル平均化部72と、最適発光周波数選択部73と、を有する。発光周波数選択部7は、電荷集積部3からの電荷信号Diを入力とし、電荷信号Diのスペクトルを分析し、最適発光周波数Fbestを決定する(詳細については後述)。
 スペクトル分析部71は、電荷集積部3からの電荷信号Diを入力とし、電荷信号Diに対して、例えば、フーリエ変換を施し、電荷信号DiのスペクトルV(f)を取得する。そして、スペクトル分析部71は、取得した電荷信号Diについてのスペクトル分析結果V(f)をスペクトル平均化部72に出力する。
 スペクトル平均化部72は、スペクトル分析部71からの出力V(f)を入力とし、スペクトル分析部71により取得された電荷信号Diについてのスペクトル分析結果V(f)に対して平均化処理を行う(詳細については後述)。そして、スペクトル平均化部72は、平均化処理を施したスペクトル分析結果AV(f)を最適発光周波数選択部73に出力する。
 最適発光周波数選択部73は、スペクトル平均化部72からのスペクトル分析結果AV(f)を入力とし、スペクトル分析結果AV(f)に基づいて、最適発光周波数Fbestを決定する(詳細については後述)。そして、最適発光周波数選択部73は、決定した最適発光周波数Fbestを発光源セレクト制御部8に出力する。
 発光源セレクト制御部8は、複数の光源9A~9Nと接続されており、複数の光源9A~9Nを制御することができる。発光源セレクト制御部8は、発光周波数選択部7により決定された最適発光周波数に基づいて、複数の発光源9A~9Nから実際に発光させる発光源を決定し、決定した発光源に対して発光制御を行う。具体的には、発光源セレクト制御部8は、最適周波数に最も近い周波数の光を発光する光源を、複数の発光源9A~9Nから選択し、選択した光源に対して発光制御を行う。また、発光源セレクト制御部8は、モード制御部4から出力される光強度変調制御信号を入力とし、光強度変調制御信号に基づいて、選択した光源の光強度変調を行う。
 複数の発光源9A~9N(第1発光源9A、第2発光源9B、・・・、第N発光源)(N:自然数)は、それぞれ、異なる周波数帯域の周波数の光を発光する光源であり、発光源セレクト制御部8からの制御信号に基づいて、発光制御される。なお、ここで、「異なる周波数帯域」とは、必ずしも、完全に異なる周波数帯域のみを意味するものではなく、例えば、複数の光源の発光する光の周波数帯域の一部に重複する周波数帯域が存在する場合も含む概念である。なお、複数の発光源9A~9N(第1発光源9A、第2発光源9B、・・・、第N発光源)(N:自然数)は、赤外光領域の周波数(例えば、1×10^6[MHz]~1×10^9[MHz])(なお、「X^Y」は、「XのY乗」を表している。以下同様。)の電磁波(赤外光)を発光する発光源を用いることが好ましい。また、赤外光領域の周波数を用いる場合、発光源として、赤外領域の周波数の光を発光するLED光源を用いることが好ましい。
 信号演算部5は、電荷集積部3から出力される電荷信号Diに対して、例えば、(数式4)の処理を行い、距離情報Liを算出する。なお、受光素子部2の撮像素子の画素iに対応する電荷信号Diとし、画素iに対応する距離情報をLiと表記することとする。信号演算部5は、算出した距離情報Liを画像生成部6に出力する。
 モード制御部4は、電荷集積部3および信号演算部5の制御を行う。また、モード制御部4は、距離推定装置100の2つのモードである「発光周波数選択モード」および「距離画像取得モード」に従ったモード別の制御を行う。ここで、「発光周波数選択モード」とは、距離推定装置100において、距離推定処理を実行するために、撮像対象空間に対して照射する光の周波数を決定するための処理を行うモードである。一方、「距離画像取得モード」とは、距離推定装置100において、「発光周波数選択モード」において決定した周波数の光を撮像対象空間に照射して、距離情報を取得し、取得した距離情報に基づいた距離画像を取得するモードである。
 モード制御部4は、距離推定装置100のモードが「発光周波数選択モード」である場合、電荷集積部3から出力される電荷信号Diを発光周波数選択部7に出力するように、電荷集積部3を制御する。
 一方、距離推定装置100のモードが「距離画像取得モード」である場合、モード制御部4は、光強度変調制御信号を発光源セレクト制御部8に出力し、発光源セレクト制御部8により選択された発光源から発光される光の強度を、光強度変調制御信号に基づいて変調させる。そして、モード制御部4は、光強度変調制御信号に基づいて光強度変調させた照明光S1の変調周期に同期させて、所定のタイミングで電荷集積部3に集積された電荷量を取得させ、電荷信号Diとして、信号演算部5に出力させる。そして、モード制御部4は、信号演算部5に対して、例えば、(数式4)に相当する処理を実行するように制御する。
 なお、ここで、「所定のタイミング」とは、例えば、光強度変調制御信号に基づいて光強度変調させた照明光S1の変調周期の1周期あたり4点(例えば、上記(数式4)のA0点~A4点の4点に相当。)をサンプリングすることに相当するタイミングのことをいう。なお、照明光S1の変調周期1周期あたりのサンプリング数は、4点に限定されないことは、言うまでもない。
 照明光S1の変調周期1周期あたりのサンプリング数が4点である場合、信号演算部5では、電荷集積部3から出力された電荷信号Diに対して、(数式4)に相当する処理を行うことで、位相シフト量Ψを求め、さらに、距離情報Liを簡単に求めることができる。
 画像生成部6は、信号演算部5により算出された距離情報Liを入力とし、距離情報Liに基づいて、距離画像を生成する。ここで、「距離画像」とは、受光素子部2の撮像素子の画素iに対応させた2次元画像であり、距離画像上の画素iに対応する位置の値は、画素iに相当する距離情報を表す値となっている。つまり、距離画像上の画素iに対応する位置の値は、画素iに対応する撮像対象空間内の対象物と距離推定装置100との距離を表す値(この値は、必ずしも、当該距離の値そのものである必要はなく、当該距離と相関のある値であってもよい。)となっている。
 <1.2:距離推定装置の動作>
 以上のように構成された距離推定装置100の動作および距離推定装置100で実行される距離推定方法について、図1から図5を用いて説明する。なお、「発光周波数選択モード」および「距離画像取得モード」に分けて説明する。
 (1.2.1:発光周波数選択モード)
 まず、「発光周波数選択モード」について説明する。
 距離推定装置100において、複数の光源9A~9Nのいずれも発光させていない状態にし、その状態で、対象物体OBJ10からの光を、受光光学系1を通して、受光素子部2に入射させる。受光素子部2の撮像素子の各画素で光電変換されることにより取得された電荷は、電荷集積部3に出力される。
 電荷集積部3では、この反射光S2から取得された電荷信号を集積することで、電荷信号Diを取得する。なお、ここで、電荷集積部3では、モード制御部4により設定された所定時間により電荷集積を行い、電荷信号Diを取得する。そして、モード制御部4は、電荷集積部3が電荷信号Diを発光周波数選択部7に出力するように制御する。
 このようにして、電荷信号Diは、発光周波数選択部7に入力される。
 発光周波数選択部7では、まず、電荷信号Diに対して、スペクトル分析がスペクトル分析部71により実施される。
 具体的には、スペクトル分析部71により、反射光S2の電荷信号Diに対して、(数式5)に示すフーリエ変換(以下では、フーリエ変換を用いる場合について説明するが、フーリエ変換の他に離散コサイン変換やウェーブレット変換等を用いてもよい。)が実行され、得られた各周波数f[Hz]に対するフーリエ変換係数の大きさを示すパワースペクトル量V(f)が求められる。図4は、スペクトル分析部71により、電荷信号Diから求められたスペクトルVの一例である。
Figure JPOXMLDOC01-appb-M000005
 このようにして求められたスペクトルVは、スペクトル平均化部72に出力される。
 そして、スペクトル平均化部72では、スペクトルVに対して移動平均処理を実行する。例えば、図4に示すようなスペクトルVに対して、スペクトル平均化部72では、(数式6)に示すような周波数fに対する移動平均処理を実施する。移動平均処理とは、(数式6)にあるように、対象周波数fを中心とした[-df+f,f+df]の範囲内のスペクトル量V(f)に重み係数w(f)を用いた重みつき平均値AV(f)を求めるものであり、重み係数w(f)の例としては、(数式6)のように対象周波数fcを中心としたガウス分布関数を用いるものである。なお、重み係数w(f)は、このガウス分布関数以外にも矩形関数や三角関数等のよう関数を用いてもよい。
Figure JPOXMLDOC01-appb-M000006
 ここでの処理の目的は、スペクトル量V(f)の大局的な変動を求めることで、計測時のノイズの影響を軽減することにある。
 なお、(数式6)の代わりに(数式7)のようにフーリエ変換時に窓関数hwNを設け、(数式5)での和を求める際の重みとして利用する方法を採用してもよい。
Figure JPOXMLDOC01-appb-M000007
 スペクトル平均化部72により、このようにして求められた平均化スペクトルAV(f)は、最適発光周波数選択部73に入力される。
 最適発光周波数選択部73では、入力された平均化スペクトルAV(f)に基づいて、AV(f)が最小値となる周波数fminが求められる。そして、最適発光周波数選択部73では、第1発光源9A~第N発光源9NのN個の発光源の各発光周波数sf_k(K=1,…,N)の中でfminに最も近い発光周波数を持つ発光源の周波数を最適発光周波数Fbestに決定する。なお、第1発光源9A~第N発光源9NのN個の発光源の各発光周波数sf_k(K=1,…,N)は、予め分かっている。
 このようにして決定された最適発光周波数Fbestは、環境光にあまり含まれていない周波数帯域の周波数である。したがって、距離推定装置100において、この最適発光周波数Fbestの光(電磁波)により距離推定処理を行うことで、環境光の影響を低減することが可能となる。
 図4で示すスペクトルV(f)の場合、周波数帯域frの周波数成分が小さいので、環境光は、周波数帯域frの周波数成分をあまり含んでいないと推定することができる。したがって、この場合、距離推定装置100において、最適発光周波数Fbestを、周波数帯域fr内の周波数に決定し、その決定した周波数の光(電磁波)により距離推定処理を行うことで、環境光の影響を低減することが可能となる。
 さらに、発光周波数選択部7での最適発光周波数Fbestの決定方法を以下のようにしてもよい。
(1)まず、平均化スペクトルの最小値AV(fmin)が、所定のしきい値TH1と比較される。
(2)平均化スペクトルAV(f)の最小スペクトル量AV(fmin)が所定のしきい値TH1より小さい場合、N個の発光源の各発光周波数sf_k(K=1,…,N)の中で、fminに最も近い発光周波数を持つ発光源の周波数が最適発光周波数Fbestとされる。
(3)一方、平均化スペクトルAV(f)の最小スペクトル量AV(fmin)が所定のしきい値TH1以上の場合、環境光に対する影響の少ない周波数候補(環境光に含まれるスペクトル量が少ない周波数の候補)が多くあるものとして、
  |AV(f)-TH1|<Delta(Delta:所定の正定数)
を満足する周波数fの平均値をfmin_aveとして求める。そして、予め用意されたN個の発光源の各発光周波数sf_k(K=1,…,N)の中でfmin_aveに最も近い発光周波数を持つ発光源の周波数が最適発光周波数Fbestとされる。
 以上のようにして、発光周波数選択部7で決定された最適発光周波数Fbestは、発光源セレクト制御部8に出力される。
 (1.2.2:距離画像取得モード)
 次に、「距離画像取得モード」について説明する。
 距離画像取得モードでは、発光源セレクト制御部8により、「発光周波数選択モード」において、決定された最適発光周波数Fbestを持つ発光源が発光制御される。また、モード制御部4から光強度変調信号が発光源セレクト制御部8に入力される。
 発光源セレクト制御部8では、光強度変調信号に基づいて、選択された光源、すなわち、当該光源から発光される光(電磁波)の周波数が最適発光周波数Fbestである光源が発光制御される。具体的には、当該光源から発光される光の強度が、光強度変調信号に基づいて、変調される。
 選択された光源から発光された照明光S1(周波数が最適発光周波数Fbestである照明光S1)は、対象物OBJ10に照射され、反射光S2が受光光学系1で集光され、受光素子部2に入射される。
 受光素子部2では、各画素で、反射光S2が光電変換され、電荷として取得される。
 受光素子部2で取得された電荷は、電荷集積部により集積され、電荷信号Diとして信号演算部5に出力される。具体的には、モード制御部4からの指令に従い、光強度変調制御信号に基づいて光強度変調させた照明光S1の変調周期に同期した所定のタイミングで電荷集積部3に集積された電荷量が取得され、電荷信号Diとして、信号演算部5に出力される。なお、ここでの「所定のタイミング」は、例えば、光強度変調制御信号に基づいて光強度変調させた照明光S1の変調周期の1周期あたり4点(例えば、上記(数式4)のA0点~A4点の4点に相当。)をサンプリングすることに相当するタイミングである。以下では、説明便宜のために、照明光S1の変調周期1周期あたりのサンプリング数が4点である場合について説明する。
 信号演算部5では、入力された電荷信号Di(照明光S1の変調周期1周期あたりに4点のサンプリングをされた電荷信号Di)に対して、(数式4)に相当する処理を行い、位相シフト量Ψを求める。さらに、信号演算部5では、位相シフト量Ψに対して、(数式3)に相当する処理を行い、画素iの距離情報Liを取得する。
 信号演算部5により取得された距離情報Liは、画像生成部6に出力される。
 画像生成部6では、信号演算部5により算出された距離情報Liに基づいて、距離画像が生成される。
 まとめると、距離推定装置100では、反射光S2を受光素子部2で受け、受光素子部2および電荷集積部3により変換・集積された電荷信号Diを、モード制御部4で制御して、信号演算部5により、対応する画素iの距離情報値Liに変換する。
 この際、従来例2と同様に、距離推定装置100では、図25で示される変調周期1周期あたり4点(A0点,A1点,A2点およびA3点の4点)の電荷信号Diのサンプリングを行い、(数式4)により位相シフト量Ψを導出する。そして、距離推定装置100では、その導出した位相量Ψ(A0~A3の4点により求めた位相量)を、(数式3)に当てはめることで、画素iの距離情報値Liを求める。
 図3(a)は、最適発光周波数決定処理(「発光周波数選択モード」の処理)を模式的に示したものであり、図3(b)は、最適発光周波数決定後の処理(「距離画像取得モード」の処理)を模式的に示したものである。なお、図3では、複数の発光源9A~9Nが、赤外光を発光する発光源である場合について図示している。
 以上のように、距離推定装置100では、光源からの発光がない時点での対象物からの反射光を受光し、その反射光の周波数分析をもとに環境光の影響を受けにくい発光周波数の光(電磁波)を照射する発光源を選択し、選択した発光源を発光させ、対象物からの反射光から受光信号(受光素子部2および電荷集積部3により取得される電荷信号Di)を取得し、その受光信号から距離画像を取得する。つまり、距離推定装置100では、環境光成分の影響を受けにくい受光信号(受光素子部2および電荷集積部3により取得される電荷信号Di)により距離画像を取得することができる。
 距離推定装置100では、受光信号(受光素子部2および電荷集積部3により取得される電荷信号Di)において、環境光成分(定常ノイズ)が少ないため、受光信号(電荷信号Di)のS/N比が良いものとなる。
 高解像度・高フレームレートの距離画像を取得する場合、受光素子部2および電荷集積部3において、画素ごとの電荷検出期間(電荷蓄積時間)を短くし、高速読み出しを行う必要があるが、距離推定装置100では、受光信号(受光素子部2および電荷集積部3により取得される電荷信号Di)において、環境光成分(定常ノイズ)が少ないため、受光素子部2および電荷集積部3において、画素ごとの電荷検出期間(電荷蓄積時間)を短くし、高速読み出しを行う場合であっても、S/N比の良好な電荷信号Diを取得することができるので、良好な高解像度・高フレームレートの距離画像を取得することができる。
 さらに、距離推定装置100では、受光信号(受光素子部2および電荷集積部3により取得される電荷信号Di)において、環境光成分(定常ノイズ)が少ないので、飽和現象が発生するまでの余裕があり、受光素子部2および電荷集積部3での電荷検出期間(電荷蓄積時間)を長くすることができる。したがって、距離推定装置100では、受光素子部2および電荷集積部3での電荷検出期間(電荷蓄積時間)を長くすることにより、さらに、S/N比の良い電荷信号Diを取得し、その電荷信号Diにより距離画像を取得することができるので、距離画像の高精度化を容易に実現することができる。
 [第2実施形態]
 図6から図11を用いて、本発明の第2実施形態として、カラー画像より抽出された対象領域内での環境光分布をもとに、その影響の少ない発光周波数を持つ発光源による距離推定処理を行う距離推定装置および距離推定方法について説明する。
 図6は、本発明の第2実施形態に係る距離推定装置200の概略構成図である。また、図10および図11は、本発明の第2実施形態に係る距離推定装置200の対象領域抽出部14および14Aの概略構成図である。
 図7は、第2実施形態に係る距離推定方法における光源の発光周波数選択方法の概要を示す図である。図8は、第2実施形態に係る距離推定方法の処理フローチャートを示す図である。図9は、対象領域抽出時におけるパターンマッチング例を示したものである。なお、第1実施形態と同様な構成要素については、同じ番号を付し、詳細な説明を省略する。
 <2.1:距離推定装置の構成>
 図6に示すように、本実施形態に係る距離推定装置200は、第1実施形態に係る距離推定装置100において、発光周波数選択部7を領域内発光周波数選択部7Aに置換し、距離推定装置100からさらに、色分解プリズム11と、撮像素子部12と、カラー画像生成部13と、対象領域抽出部14と、対象領域内電荷抽出部10と、を追加した構成となっている。それ以外については、距離推定装置200は、距離推定装置100と同様であるので、詳細な説明は省略する。
 色分解プリズム11は、光(電磁波)の周波数により、その光路を分離する光学プリズムであり、距離推定装置200では、受光光学系で集光された反射光S2を、距離推定用赤外光成分とカラー画像用可視光成分とに分離する。そして、色分解プリズム11で分離された距離推定用赤外光成分の光(電磁波)は、受光素子部2に入射される。また、色分解プリズム11で分離されたカラー画像用可視光成分の光(電磁波)は、撮像素子部12に入射される。
 撮像素子部12は、複数の画素からなる撮像素子を有しており、各画素は、フォトダイオード等の光電変換素子を含んでいる。撮像素子部12では、各画素において、光電変換された受光光量に応じた電荷が取得・蓄積される。そして、撮像素子部12は、蓄積した電荷をカラー画像生成部13に出力する。なお、撮像素子部12として、例えば、CCD型イメージセンサやCMOS型イメージセンサを用いるとよい。
 カラー画像生成部13は、撮像素子部12から、各画素に対応して出力される電荷を入力とし、当該電荷からカラー画像信号を生成する。そして、カラー画像生成部13は、生成したカラー画像信号を、対象領域抽出部14に出力する。
 対象領域抽出部14は、図10に示すように、輪郭検出部141と、パターンマッチング部142と、を有している。
 輪郭検出部141は、カラー画像生成部13からのカラー画像信号(画像データ)を入力とし、カラー画像信号から輪郭画素抽出を行い、輪郭情報を取得する。そして、輪郭検出部141は、取得した輪郭情報をパターンマッチング部142に出力する。
 パターンマッチング部142は、輪郭検出部141からの輪郭情報を入力とし、輪郭情報に対してパターンマッチング処理を行い、対象領域情報を抽出する。そして、パターンマッチング部142は、抽出した対象領域情報を対象領域内電荷抽出部10に出力する。
 対象領域内電荷抽出部10は、電荷集積部3から出力される電荷信号Diおよび対象領域抽出部14から出力される対象領域情報を入力とし、対象領域情報が示す画像領域内の電荷信号Diのみを抽出し、領域内発光周波数選択部7Aに出力する。
 <2.2:距離推定装置の構成>
 以上のように構成された距離推定装置200の動作について、以下説明する。
 なお、距離推定装置200において、複数の発光源9A~9Nは、赤外領域の光(赤外光)を発光する発光源であるものとする。なお、赤外領域以外の電磁波を用いることも可能であることは言うまでもない。
 「発光周波数選択モード」における距離推定装置200の動作について説明する。
 距離推定装置200において、複数の光源9A~9Nのいずれも発光させていない状態にし、その状態で、対象物体OBJ10からの光が、受光光学系1に入射させる。
 受光光学系1に入射された光は、色分解プリズム11により、距離推定用赤外光成分の光とカラー画像用可視光成分の光に分離される。
 距離推定用赤外光成分の光は、受光素子部2および電荷集積部3により、光電変換および電荷集積(蓄積)され、受光素子部の撮像素子の画素iに対応させた電荷信号Diとして、対象領域内電荷抽出部10に出力される。なお、電荷集積部3での電荷集積時間および出力タイミングは、モード制御部4により制御される。
 一方、色分解プリズム11で分離された可視光成分の光は、撮像素子部12により、受光・集積されて、カラー画像生成部13で、カラー画像信号(画像データ)に変換される。そして、カラー画像生成部13で取得されたカラー画像信号は、対象領域抽出部14に出力される。
 対象領域抽出部14は、例えば、図10に示すように構成される。
 なお、図10に示すように、テンプレート記憶メモリ143は、対象領域抽出部14外の外部メモリにより構成されるものであってもよいが、テンプレート記憶メモリ143は、対象領域抽出部14内に含まれるものであってもよい。
 輪郭検出部141では、入力されたカラー画像信号(画像データ)から、輪郭情報が取得される。輪郭検出部141での処理について、以下詳細に説明する。
 輪郭検出部141では、(数式8)で示される3×3の大きさを持つ2次元フィルタによる2次元フィルタ処理((数式9)の処理)により、画像内の各画素(i,j)の微分ベクトルvd(i,j)(xd(i,j),yd(i,j))を求める。また、微分ベクトルvd(i,j)の大きさstv(ij)を、
  stv(ij)=(xd(i,j)×xd(i,j)+yd(i,j)×yd(i,j))^0.5
により求める。
 輪郭検出部141では、各画素(i,j)のstv(i,j)を、所定のしきい値TH2を使って、(数式10)のように比較することで、輪郭画素抽出を行う。なお(数式10)は、カラー画像信号により形成される画像上の画素が、輪郭に含まれる画素であるか否かを示すための2値化を行うものであり、E(i,j)=1は、画素(i,j)が輪郭に含まれる画素であることを表している。
Figure JPOXMLDOC01-appb-M000008
Figure JPOXMLDOC01-appb-M000009
Figure JPOXMLDOC01-appb-M000010
 このようにして、輪郭検出部141により求められた輪郭情報E(i,j)(以下では、単に「輪郭情報Ei」と表記することもある。)は、パターンマッチング部142に出力される。
 次に、パターンマッチング部142では、輪郭検出部141により得られた輪郭情報Eiを、予めテンプレート記憶メモリ143で用意された対象領域の形状データとパターンマッチング処理を行い、対象領域抽出を行う。これについて、以下詳細に説明する。
 対象領域抽出を行う対象領域としては、例えば、顔領域や、人物領域(上半身、全身)や、目・鼻・口のような顔パーツ領域等が挙げられる。
 対象領域を顔領域とする場合、テンプレート記憶メモリ143には、顔領域の標準形状データ(複数であってもよい。また、複数の方向の形状データであってもよい。)を保持しておく。
 対象領域を人物領域とする場合、テンプレート記憶メモリ143には、人物領域の標準形状データ(複数であってもよい。また複数の方向の形状データであってもよい。また上半身でも全身でもよい。)を保持しておく。
 対象領域を目・鼻・口のパーツ領域とする場合、テンプレート記憶メモリ143には、各パーツ領域の標準形状データを保持しておく。
 このように、テンプレート記憶メモリ143で保持する形状データTp[k,l](p=1,…,Pnum)(k=0,1,...Wp-1)(l=0,1,…,Hp-1)と各画素(i,j)の輪郭情報E(i,j)のパターンマッチング処理を行うことで、パターンマッチング部142により、該当領域(対象領域情報)が抽出される。なお、Pnumはテンプレート数であり、Wp,Hpは矩形テンプレートの水平画素数、垂直画素数である。
 パターンマッチング部142で実行されるパターンマッチング処理の手法としては、多くの方法があるが、簡易な方法としては、図9に示すような方法がある。これについて説明する。なお、図9は、パターンマッチ法の一例を説明するための模式図である。
 パターンマッチング部142は、テンプレートpに対して、画素(i,j)を中心とした水平幅Wp,垂直幅Hpを持つ矩形領域候補SR[i,j,Wp,Hp]を設定する。
 そして、パターンマッチング部142は、矩形領域候補SR[i,j,Wp,Hp]内の輪郭情報E(i,j)とテンプレート記憶メモリ143に保持されている形状データTp[k,l]((k=0,1,...Wp-1)(l=0,1,…,Hp-1))をもとに、(数式11)のような評価関数R(i,j,p)を求める。
 次に、パターンマッチング部142は、(数式12)に示されるように、テンプレートp、および画素(i,j)に対して最大の評価関数R(i,j,p)となるMRを求める。(数式12)において、MAXは、画素(i,j)およびテンプレートpに対して、R(i,j,p)の最大値を求めることを示す。そして、その最大値MRが所定のしきい値THMR以上であれば、最大値MRに該当する矩形領域候補SR[i,j,Wp,Hp]を求める対象領域情報BestSR[i,j,W,H]として抽出する。
 このように所定のしきい値THMRと比較することで、ノイズ等へのマッチングを抑えることができる。なお、しきい値THMRより最大値MRが小さい場合は、対象領域がないものとして、対象領域情報BestSR[i,j,W,H]として、入力画像の情報[width/2,height/2,width,height]が出力される。ここで、widthは入力画像の水平画素数を示し、heightは入力画像の垂直画素数を示す。
Figure JPOXMLDOC01-appb-M000011
Figure JPOXMLDOC01-appb-M000012
 以上のようにして、パターンマッチング部142により取得された対象領域情報BestSR[i,j,W,H]は、対象領域内電荷抽出部10に出力される。
 対象領域内電荷抽出部10では、対象領域情報BestSR[i,j,W,H]内に含まれる画素iの電荷信号Diのみが抽出され、領域内発光周波数選択部7Aに出力される。
 領域内発光周波数選択部7Aでは、対象領域内電荷抽出部10から出力された電荷信号Diに対して、第1実施形態の発光周波数選択部7と同様の処理が実行される。
 なお、これ以降の処理は、第1実施形態と同様であるので、説明を省略する。
 また、距離推定装置200における距離画像取得モードにおける動作も、第1実施形態同様であるので、説明を省略する。
 図7を用いて、距離推定装置200における処理概要についてまとめる。
 距離推定装置200の領域内発光周波数選択部7Aでは、図7に模式的に示すように、カラー画像生成部13で生成されたカラー画像(カラー画像信号により形成される画像)から対象領域抽出部14で得られた対象領域情報をもとに、最適発光周波数Fbestの選択を行う。
 つまり、距離推定装置200では、可視光成分の光より生成されたカラー画像から必要とすべき対象領域をまず抽出し、その対象領域内に含まれる赤外光反射光(複数の光源9A~9Nのいずれの発光もない状況下での)の電荷信号Diをスペクトル分析して、その対象領域内のみで環境光影響の少ないと思われる発光周波数を求める。
 そして、距離推定装置200では、領域内発光周波数選択部により決定された発光周波数の光源を用いて、距離測定処理を行い、距離画像を取得する。
 このように本実施形態に係る距離推定装置200および距離推定方法では、可視光成分の光から取得したカラー画像から、所定の対象領域を抽出し、光源からの発光がない時点での対象物からの反射光を受光して得られる距離画像データにおいて、カラー画像から抽出された対象領域に相当する領域内の反射光の周波数分析(スペクトル分析)を行う。そして、距離推定装置200では、その対象領域のスペクトル分析結果をもとに、環境光の影響を受けにくい発光周波数を持つ照射光の光源を選択し、その照明光により距離推定処理を行い、距離画像を取得する。
 これにより、距離推定装置200では、注目すべき対象領域の距離精度に影響を与えにくい照射光を用いて距離推定処理を行うことができるので、注目すべき対象領域において、さらに高精度の距離画像を取得することができる。
 なお、上記(数式11)の処理において、輪郭情報E(i,j)の平均値や形状データTp[k,l]の平均値を求め、各値から該当平均値を引いた値(差分値)により、距離推定装置200での処理を行うことが可能である。また、輪郭情報E(i,j)の最小値や形状データTp[k,l]の最小値を求め、各値から該当最小値を引いた値(差分値)を利用することも可能である。あるいは、輪郭情報や形状データにおける前記差分値の候補領域SR[i,j,Wp,Hp]での平均値、最大値、または取りえる範囲の上限設定値を求め、各値をその値で除算することで正規化した後、距離推定装置200での処理を行うことも可能である。このような方法を用いることにより、パターンマッチング処理を行う際の大きな変動成分による影響をある程度抑えることが可能となる。
 また、距離推定装置200において、対象領域抽出部14を、図11に示す対象領域抽出部14Aに置換させた構成としてもよい。
 この対象領域抽出部14Aは、輪郭検出部141で得られた各画素(i,j)の輪郭情報E(i,j)に対して、各画素の色度合いを検出する色度合い検出部144を組み合わせたものである。
 色度合い検出部144では、対象領域における色情報でさらに制約をつけることにより、パターンマッチング部142での精度向上および高速化を図るものである。
 例えば、対象領域を顔領域とする場合、色度合い検出部144は、肌色度合い量C(i,j)をカラー画像の各画素(i,j)に対して算出する。そして、特徴量抽出部146は、色度合い量C(i,j)と輪郭情報E(i,j)とを組み合わせた特徴量SE(i,j)を各画素(i,j)に対して求める。この場合、いろいろな方法があるが簡易なものとしては、(数式13)による方法がある。
Figure JPOXMLDOC01-appb-M000013
 また、これ以外にも、(数式14)のように、色度合い量C(i,j)と輪郭情報E(i,j)とを2変数とした非線形関数変換を用いて特徴量SE(i,j)を求めることも可能である。
Figure JPOXMLDOC01-appb-M000014
 対象領域抽出部14Aでは、このようにして求めた特徴量SE(i,j)を用いて、対象領域抽出部14と同様にパターンマッチング処理を行うことで、対象領域抽出を行うことができる。
 [第3実施形態]
 図12から図15を用いて、本発明の第3実施形態として、カラー画像より抽出された対象領域内での環境光分布をもとに、その影響の少ない発光周波数を持つ発光源による距離推定装置および距離推定方法について説明する。
 図12または図15に、本発明の第3実施形態に係る距離推定装置内の対象領域抽出部14Bおよび14Cの構成を示す。
 図13は、第3実施形態に係る距離推定装置内の対象領域抽出部14Bおよび14Cにおける分類手法の概要を示した図である。図14は、第3の実施形態に係る距離推定装置内の候補画素抽出、分類、候補領域検出の様子を模式的に示す図である。なお、上記実施形態と同様な構成要素については、同じ番号を付し、説明を省略する。
 なお、本実施形態に係る距離推定装置は、第2実施形態の距離推定装置200における対象領域抽出部14または14Aを、対象領域抽出部14Bまたは14Cに置換した点が異なる。それ以外は、第2実施形態に係る距離推定装置200と同様である。
 図12から図14に従い、本発明の第3実施形態である距離推定装置および距離推定方法について説明する。なお、本実施形態の距離推定装置において、対象領域抽出部以外の処理については、第2実施形態と同様であるので、詳細な説明を省略する。
 領域内発光周波数選択部7Aでは、第2実施形態の場合と同様に、図7に模式的に示したように、カラー画像生成部13で生成したカラー画像から対象領域抽出部14Bにより取得された対象領域情報をもとに、最適発光周波数Fbestの選択を行う。
 対象領域抽出部14Bは、図12に示すように、候補画素抽出部148、分類処理部149、および候補領域検出部150で構成される領域検出部147と、最大領域抽出部151と、を備える。なお、図12では、パラメータ記憶メモリ152を外部メモリとする構成としているが、対象領域抽出部14Bは、パラメータ記憶メモリ152を含む構成であってもよい。
 まず、対象領域抽出部14Bの候補画素抽出部148では、図13(a)に示すように、カラー画像内の各画素に対して、候補画素であるかどうかの判定処理を行う。この判定処理には、例えば、第2実施形態における色度合い検出部144と同様に、対象領域との色合い度を調べ、所定のしきい値TH3より大きいものを候補画素とすることが考えられる。この場合、色度合い度としては、対象領域の目標色情報(例えばYCbCr色空間におけるCb、Crの値Cr0、Cb0)と各画素のCb,Crの値との差分を求め、その差が大きいほど色度合い度Ciが小さい値になるように定義すればよい。この際、対象領域の目標色情報(例えばYCbCr空間におけるCb、Crの値Cr0、Cb0)は1つである必要がなく、複数であってもよい。その場合、画素iの色度合い度は、画素iと目標色情報の差分で得られた各色度合い度の平均とすることができる。また、対象領域の取りうる色情報の領域を設定して、その領域の中心値と画素iのCb、Crの値の差分により、画素iの色度合い度を定義するようにしてもよい。
 次に、対象領域抽出部14Bの分類処理部149では、候補画素抽出部148での上記判定処理により選ばれた候補画素PEs(s=1,…,MMM)に対して、図13に示すような分類処理を実行する。
 この分類処理は、候補画素PEsを表す色情報C1s,C2sと画素位置P1s,P2sを成分として持つベクトルVEsを定義し、そのベクトル集合に対して、ベクトル量子化手法を適用することで実施される。ベクトル量子化手法とは、複数のベクトルVt(t=1,…,Total)を所定の評価値をもとに近いかたまり(クラスタ、グループ)に分類する手法である。なお、C1,C2の一例としては、色情報Cb、Crが考えられ、P1、P2の一例としては、画素座標x,yが考えられる。ただし、これに限定されることはなく、例えば、C1,C2としては、HSV色空間におけるS(彩度)とH(色相)であってもよいし、La*b*色空間における色度a*、色度b*であってもよい。つまり、カラー画像内の色情報として用いられるこのような公知の色空間の色成分を使うことで、よりユーザの感覚に近い分類処理を行うことが可能となる。
 図14は、対象領域抽出部14Bの分類処理部149での分類処理の様子を模式的に示した図である。
 図4(b)のG1、G2、G3が各クラスタを示す。G1~G3の各クラスタは、分類処理部149により分類されたものである。さらに、候補領域検出部150では、図14(b)におけるクラスタG1、G2、G3を、そのクラスタの位置をもとに領域化する。ここでは、各クラスタ分類後の候補画素の周囲8つの候補画素を見て、連結しているかどうかで領域化を行う。例えば、図14(b)におけるクラスタG1は、2つの離れたかたまりに同じクラスタ番号が付加されているが、この候補領域検出部150での連結判定処理により、図14(c)に示すように、L1とL4に異なる領域番号が付加されるようになる。なお、ここで、連結処理にも多くの方法があり、例えば、候補領域検出部150において、画像処理で公知の対象画素の画素値とその周囲画素の画素値との差分により定義される距離値を求め、それが所定のしきい値TH4より小さければ、対象画素とその周囲画素は似た値を持つ(連結している)と判断する方法により処理を行うようにしてもよい。
 このようにして、候補領域検出部150により候補領域(複数のクラスタ領域)が検出される。候補領域検出部150により検出された候補領域(複数のクラスタ領域)は、最大領域抽出部151により、各クラスタ領域の画素数が調べられ、最大画素数を持つ領域の候補領域が対象領域として抽出される。そして、抽出された対象領域を示す情報が、対象領域情報として、最大領域抽出部151から対象領域内電荷抽出部10に出力される。
 このように、本実施形態の距離推定装置では、画像内の色分布に応じて対象となる領域を自動的に抽出することができるため、第2実施形態のように予め用意されたテンプレート形状データへの依存を抑制することができるとともに、カラー画像生成時における画素値変動の影響(環境光の変動やCCD等の撮像素子での電荷変換の変動によるノイズ等の影響)を緩和することもできる。
 つまり、第3実施形態の距離推定装置および距離推定方法では、第2実施形態の距離推定装置および距離推定装置方法において、対象領域を抽出する際に、輝度、色情報をもとに各画素のグループ化を行うことで領域分割し、画像内で注目度の高い領域を自動抽出することができる。そして、第3実施形態の距離推定装置の距離推定方法では、自動抽出した領域のスペクトル分析結果をもとに、環境光の影響を受けにくい発光周波数の照明光の光源を選択し、その照明光により距離推定処理を行い、距離画像を取得する。したがって、第3実施形態の距離推定装置および距離推定方法では、画像内で注目度の高い領域において、精度の高い距離画像を取得することができる。
 なお、対象領域抽出部14Bの代わりに、図15に示す構成の対象領域抽出部14Cを用いることも可能である。
 対象領域抽出部14Cは、図15に示すように、対象領域抽出部14Bの最大領域抽出部151を対象領域判定部153に置換し、さらに、対象領域情報記憶メモリ154に記憶されているデータを利用することができる構成となっている。
 対象領域抽出部14Cでは、候補領域検出処理後の各クラスタ領域に対して、そのクラスタの重心位置や、平均色情報、クラスタの円形度、クラスタの画素数等でそのクラスタの評価値を求め(この評価値の基準となるデータを対象領域情報記憶メモリ154に記憶しておく。)、その評価値が所定のしきい値TH5より高い複数クラスタ領域を抽出することにより対象領域を決定する、あるいは、最も高い評価値を持つクラスタ領域を1つ選択・抽出することにより対象領域を決定するようにしてもよい。対象領域抽出部14Cにおいて、このように処理することで、さらに適切に対象領域の決定を行うことができるので、距離推定装置での距離推定処理をさらに高精度なものにすることができる。
 [第4実施形態]
 図16から図19を用いて、本発明の第4実施形態として、カラー画像より抽出された対象領域内での環境光分布(環境光のスペクトル分布)をもとに、その影響の少ない発光周波数を持つ発光源による距離推定装置および距離推定方法について説明する。
 図16または図19に、本発明の第4実施形態に係る距離推定装置内の対象領域抽出部14Dまたは14Eの構成を示す。
 図18は、第4実施形態に係る距離推定装置内の対象領域抽出部における画像分割部での画像分割処理を説明するための図である。図17は、第4の実施形態に係る距離推定方法の処理フローチャート図である。なお、上記実施形態と同様な構成要素については、同じ番号を付し、詳細な説明を省略する。
 なお、本実施形態に係る距離推定装置は、第2実施形態の距離推定装置200における対象領域抽出部14または14Aを、対象領域抽出部14Dまたは14Eに置換した点が異なる。それ以外は、第2実施形態に係る距離推定装置200と同様である。
 対象領域抽出部14Dは、図16に示すように、ブロック領域検出部160と最大領域抽出部166、外部メモリである第2パラメータ記憶メモリ165より構成されている。ブロック領域検出部160は、画像分割部161、候補ブロック抽出部162、ブロック分類処理部163、候補ブロック領域検出部164より構成される。
 以下、本発明の第4実施形態に係る距離推定装置および距離推定方法について説明する。なお、本実施形態の距離推定装置において、対象領域抽出部以外の処理については、第2実施形態と同様であるので、詳細な説明を省略する。
 本実施形態の特徴は、第3実施形態における対象領域抽出処理において、画素単位で実施するのではなく、図18に示すように、所定の画素数を含むブロック単位にカラー画像を細分化し、そのブロック単位に、第3実施形態の対象領域抽出処理と同様の処理を実行することにある。このように処理を行う本実施形態の距離推定装置では、画素単位での候補画素検出、候補画素分類、候補領域検出(図14参照)の処理をブロック単位で行うことができるので、処理量の削減を図ることができる。
 なお、本実施形態に係る距離推定装置において、図16に示した対象領域抽出部14Dを、図19に示す対象領域抽出部14Eに置換した構成とすることも可能である。この図19の対象領域抽出部14Eは、第3実施形態における図15の対象領域抽出部14Cのブロック単位処理版に相当し、処理単位がブロック単位である点のみが相違する。
 [第5実施形態]
 図20から図22を用いて、本発明の第5実施形態の距離推定装置および距離推定方法について説明する。
 図20は、本発明の第5実施形態に係る距離推定装置500の概略構成図である。
 図21は、第5実施形態に係る距離推定装置500での処理(距離推定方法)の概要を模式的に示す図である。
 図22は、第5実施形態に係る距離推定方法の処理フローチャートを示す図である。図22のフローチャートにおいて、ステップF81およびF82は、ステップF203の前であればよいので、図22のフローチャートに限定されない。例えば、ステップF81およびF82は、ステップF203の直前であってもよい。
 なお、前述の実施形態と同様な構成要素については、同じ番号を付し、詳細な説明を省略する。
 <5.1:距離推定装置の構成>
 距離推定装置500は、図20に示すように、第2実施形態の距離推定装置200から、領域内発光周波数選択部7Aおよび対象領域内電荷抽出部10を削除し、そして、モード制御部4を制御部195に置換し、発光源セレクト制御部8を発光源制御部190に置換し、さらに、複数画像生成部191、複数画像メモリ部192、対象領域内距離情報抽出部193、および最適距離画像選択部194を追加した構成を有している。
 それ以外については、第2実施形態の距離推定装置200と同様であるので、説明を省略する。
 発光源制御部190は、複数の光源9A~9N(第1発光源9Aから第N発光源9N)と接続されており、制御部195からの光源切替信号に基づいて、発光させる光源を順次切り替える。また、発光源制御部190は、前述の実施形態のモード制御部4と同様に、制御部195からの光強度変調制御信号により、発光させている光源の光の強度を変調する。
 制御部195は、発光源制御部190に対して、光源切替信号および光強度変調制御信号を出力し、複数の発光源の発光制御を、発光源制御部190を介して行う。また、制御部195は、電荷集積部3および信号演算部5に対して、前述の実施形態のモード制御部4の距離画像取得モードにおける制御と同様の制御を行う。
 複数画像生成部191は、信号演算部5からの距離情報Liを入力とし、距離情報Liから距離画像を作成する。そして、複数画像生成部191は、取得した距離画像が、第1発光源9A~第N発光源9Nの中のどの発光源を用いて取得した画像であるかを示す情報とともに、取得した距離画像を複数画像保持メモリ部192に出力する。
 複数画像メモリ部192は、複数画像生成部191から取得された距離画像を、当該距離画像が取得されたときの発光源の情報とともに記録保持する。なお、複数画像メモリ部192で記録保持される当該距離画像が取得されたときの発光源の情報は、制御部195から取得するものであってもよい。また、複数画像メモリ部192は、記録保持している距離画像とその距離画像が取得されたときの発光源の情報とを、対象領域内距離情報抽出部193からの要求に従い、対象領域内距離情報抽出部193に出力する。なお、複数画像メモリ部192は、少なくとも発光源の数分(N個分)の距離画像およびその発光源の情報を記録保持することができるメモリである。
 対象領域内距離情報抽出部193は、複数画像メモリ部192により、記録保持している距離画像およびその距離画像が取得されたときの発光源の情報と、対象領域抽出部14から出力される対象領域情報と、を入力とし、距離画像から対象領域内の距離情報を抽出する。そして、対象領域内距離情報抽出部193は、抽出した対象領域内の距離情報を、距離情報が取得された発光源の情報とともに、最適距離画像選択部194に出力する。
 最適距離画像選択部194は、対象領域内距離情報抽出部193により抽出された対象領域内の距離情報およびその距離情報が取得された発光源の情報を入力とし、対象領域内の距離情報から最適距離画像を決定し、決定した最適距離画像を出力する。具体的には、最適距離画像選択部194は、光源数であるN個分の対象領域内の距離情報を所定の基準に基づき評価し、対象領域内の距離情報が最適である距離情報を決定する。そして、最適距離画像選択部194は、最適であると判断した距離情報を取得したときの光源を用いて取得された距離画像を最適距離画像に決定する。
 <5.2:距離推定装置の動作>
 以上のように構成された距離推定装置500の動作について、図20~図22を用いて説明する。なお、前述の実施形態の距離推定装置と同様の動作については、説明を省略する。
 本実施形態の距離推定装置500は、第2実施形態の距離推定装置200のように、2つのモード(発光周波数選択モードおよび距離画像取得モード)を切り替えて動作するものではなく、1つのモードで(モードの切替なしに)動作する。
 まず、距離推定装置500では、第1発光源9Aによる距離画像を取得する。
 制御部195は、発光源制御部190に対して、第1発光源9Aを発光させるための光源切替制御信号を出力する。それとともに、制御部195は、発光源制御部190に対して、光強度変調制御信号を出力する。
 発光源制御部190は、制御部195からの光源切替制御信号に基づき、第1発光源9Aを発光させる。そして、発光源制御部190は、制御部195からの光強度変調制御信号に基づき、第1発光源9Aから発光される光(赤外光)の強度を変調する。
 なお、本実施形態では、第1発光源9A~第N発光源9Nで発光される光は、赤外光であるものとして、以下説明する。
 受光光学系1では、第1発光源9Aから発光され、撮像対象空間に照射され、撮像対象空間で反射された光(反射光S2)を受光する。
 そして、受光した光から、受光素子部2、電荷集積部3、信号演算部5により、前述の実施形態同様に、距離情報Liが取得される。
 複数画像生成部191では、距離情報Liから距離画像が生成される。複数画像生成部191により生成された距離画像は、第1発光源9Aから取得された距離画像として、複数画像保持メモリ部192に出力される。ここで、第1発光源9Aから生成された距離画像を、Img(9A)(同様に、第N発光源9Nから生成された距離画像をImg(9N))と表記することにする。
 複数画像メモリ部192では、距離画像Img(9A)が第1発光源9Aを用いて取得された距離画像であることを示す情報とともに、距離画像Img(9A)を記録・保持する。
 次に、距離推定装置500では、第2発光源9Bによる距離画像を取得する。
 制御部195は、発光源制御部190に対して、第2発光源9Bを発光させるための光源切替制御信号を出力する。それとともに、制御部195は、発光源制御部190に対して、光強度変調制御信号を出力する。
 発光源制御部190は、制御部195からの光源切替制御信号に基づき、第2発光源9Bを発光させる。そして、発光源制御部190は、制御部195からの光強度変調制御信号に基づき、第2発光源9Bから発光される光(赤外光)の強度を変調する。
 受光光学系1では、第1発光源9Aから発光され、撮像対象空間に照射され、撮像対象空間で反射された光(反射光S2)を受光する。
 そして、受光した光から、受光素子部2、電荷集積部3、信号演算部5により、前述の実施形態同様に、距離情報Liが取得される。
 複数画像生成部191では、距離情報Liから距離画像Img(9B)が生成される。複数画像生成部191により生成された距離画像Img(9B)は、第2発光源9Bから取得された距離画像として、複数画像保持メモリ部192に出力される。
 複数画像メモリ部192では、距離画像Img(9B)が第2発光源9Bにより取得された距離画像であることを示す情報とともに、距離画像Img(9B)を記録・保持する。
 さらに、距離推定装置500では、第3発光源9C~第N発光源9Nによる距離画像を、上記と同様にして取得する。
 全ての発光源9A~9Nによる距離画像Img(9A)~Img(9N)が取得され、複数画像保持メモリ部192に記録・保持されている状態になった後、対象領域内距離情報抽出部193は、対象領域抽出部14により決定された対象領域内において、距離画像Img(9A)~Img(9N)から距離情報Li(9A)~Li(9N)を抽出する。なお、ここで、距離画像Img(x)から取得した対象領域内の距離情報をLi(x)と表記する。
 そして、対象領域内距離情報抽出部193は、抽出した距離情報Li(9A)~Li(9N)を最適距離画像選択部194に出力する。
 最適距離画像選択部194では、抽出した距離情報Li(9A)~Li(9N)から、複数の発光源9A~9Nの各発光周波数fに対応する対象領域内の距離画像Img(9A)~Img(9N)の階調特性を調べ、最適な距離画像を選択する処理を行う。そして、最適距離画像選択部194は、最適であると判断した距離画像を、複数画像保持メモリ192から取り出し、最適距離画像として出力する。
 図21は、最適距離画像選択部194で最適な距離画像を選択する方法の一例の処理概要を示す図である。図21に示すように、距離推定装置500では、対象領域(図21では、顔領域)における複数の発光源9A~9Nの各発光周波数fに対する距離画像の精度・分解能を比較する。
 その際、最適距離画像選択部194では、例えば、以下の判断基準を用いて、最適距離画像を決定するようにすればよい。
 最適距離画像選択部194では、抽出した距離情報Li(9A)~Li(9N)に基づいて、
(1)対象領域内の距離画像の階調レンジが最大のもの
(2)対象領域内の距離画像の階調特性が線形に近いもの(対象領域内の距離画像の画素値の線形性が良いもの)(例えば、対象領域内の距離画像の画素値において、極端な変化が見られる画像や、画素値が飽和している場合等は、距離画像の画素値の線形性が悪いと判断できる。)
(3)対象領域内の距離画像の画素のコントラスト比の大きいもの(対象画素の値とその隣接する画素の値との差分の絶対値や比、それらの値を正規化したものや、対象画素値と所定の広さにおける周囲画素の平均値との差分の絶対値や比でもよい)
等を求めることで、距離画像Img(9A)~Img(9N)の中から最適距離画像を決定する。例えば、上記(1)の判断基準を用いた場合、最適距離画像選択部194が、対象領域内の距離情報をLi(9C)の階調レンジが最大であると判断したとき、最適距離画像選択部194は、Img(9C)が最適距離画像であると判断する。そして、最適距離画像選択部194は、距離画像Img(9C)を複数画像保持メモリ192から取り出し、最適距離画像として出力する。なお、最適距離画像は、直接、複数画像保持メモリ192から出力するようにしてもよいし、図20に示すように、最適距離画像選択部194が、最適距離画像を複数画像保持メモリ192から読み出し、最適距離画像選択部194から出力するようにしてもよい。
 以上のように、本実施形態の距離推定装置500および距離推定方法では、複数の発光源から発光された光(赤外光)(複数の周波数の光)を用いて生成された距離画像データに対して、それぞれ、カラー画像より抽出された対象領域に相当する距離画像内の画素値分布を求め、求めた画素値分布から適切な画素値分布を示す距離画像データを選択する。つまり、本実施形態の距離推定装置500および距離推定方法では、注目すべき対象領域において環境光の影響を受けにくい発光周波数の照明光の光源による距離画像を最適距離画像として取得することができるので、画像内で注目度の高い領域において、精度の高い距離画像を取得することができる。
 本実施形態の距離推定装置500および距離推定方法では、第2~第4実施形態の距離推定装置や距離推定方法のように、まず、複数の発光源のいずれからも発光のない状態で環境光の影響の少ない最適発光周波数Fbestを決定してから(発光周波数選択モードの処理)、所定の発光源からの照射光による反射光を用いた距離画像を生成する(距離画像取得モードの処理)というモード切替による処理(2つのモードによる処理)を行う必要がないという利点も持つ。
 [他の実施形態]
 前述の実施形態では、複数の発光源を持つ距離推定装置について説明したが、これに限定されることはなく、例えば、発光する光(電磁波)の周波数を可変できる光源を用いてもよい。
 また、前述の実施形態では、スペクトル分析部71におけるスペクトル分析として、フーリエ変換による周波数分析を用いた。しかし、より簡易に反射光S2をプリズムや回折格子等の分光器を通して異なる波長λをもつ光強度に分解し各波長の順に光強度を並べることも可能である(図27参照)。この場合、反射光は赤外光であるため、その波長も赤外光領域(波長が800[nm]から100000[nm]の領域)になる。そして、この波長に対する各光強度の内で、光強度が最小となる波長に近い波長λr1を放出する発光源を、第1発光源9A~第N発光源9NのN個の発光源から選択することとなる。この場合、N個の発光源は、波長が予め設定されていることとなる。そして、選択された波長を出す発光源のみを発光させて、そこからの反射光により距離画像を生成することで環境光の影響をうけにくい距離画像を得るようにしてもよい。なお、この場合、光の速度は固定であるため、各発光源からの波長が異なることは、前述の実施形態で示した各発光源からの周波数が異なることと等価となる。
 また、本願発明により取得された距離画像に基づいて、左目用視差画像(ステレオ画像の左目用視差画像)および右目用視差画像(ステレオ画像の右目用視差画像)を生成し、生成した左目用視差画像および右目用視差画像により3次元表示装置等において、3次元画像(映像)表示を行うようにしてもよい。また、本願発明の距離測定装置と、3次元表示装置と、を備える3次元表示システムにおいて、本願発明の距離測定装置により取得した距離画像に基づいて、左目用視差画像(ステレオ画像の左目用視差画像)および右目用視差画像(ステレオ画像の右目用視差画像)を生成し、生成した左目用視差画像および右目用視差画像により3次元表示装置において、画像(映像)を3次元表示するようにしてもよい。
 また、本願発明の距離測定装置に、3次元画像生成部を追加し、3次元画像生成部において、本願発明の距離測定装置により取得した距離画像に基づいて、左目用視差画像(ステレオ画像の左目用視差画像)および右目用視差画像(ステレオ画像の右目用視差画像)を生成し、生成した左目用視差画像および右目用視差画像を出力するようにしてもよい。これにより、3次元画像生成部を追加した距離測定装置から出力される左目用視差画像および右目用視差画像を用いて、例えば、3次元表示装置により、3次元画像(映像)表示を行うことができる。
 ここで、左目用視差画像(ステレオ画像の左目用視差画像)および右目用視差画像(ステレオ画像の右目用視差画像)は、距離情報が判明している場合、参照とする画像内の画素位置(x,y)における画素p(x,y)の距離情報z(x,y)に応じて、画素pを左右にずらすことにより生成することが可能である。なお、距離情報z(x,y)は所定の基準からの相対距離(奥行き値)でもよい。また、所定の基準点と各画像内の画素の距離情報との関係をもとに、三角測量等の幾何学的手法で対応する画素の視差量を求めることもできる。
 上記実施形態において説明した本発明の距離推定方法および距離推定装置は、例えば、コンピュータ、テレビ、デジタルカメラ、携帯電話、PDA、カーTVなど、画像を取り扱う機器に内臓、あるいは接続して用いられる装置であり、LSIなどの集積回路として実現される。
 より詳しくは、上記各実施形態の距離推定装置は、個別に1チップ化させてもよいし、一部または全てを含むように1チップ化されてもよい。なお、ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。
 また、集積回路の手法にはLSIに限るものではなく、専用回路または汎用プロセッサで実現することも可能である。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用することも可能である。
 さらに、半導体技術の進歩または派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適用等が可能性としてありえる。
 また、上記各実施形態の各機能ブロックの処理は、プログラムにより実現されるものであってもよい。上記各実施形態の各機能ブロックの処理は、例えば、コンピュータにおいて、中央演算装置(CPU)により行われる。また、それぞれの処理を行うためのプログラムは、ハードディスク、ROMなどの記憶装置に格納されており、ROMにおいて、あるいはRAMに読み出されて実行される。
 また、上記実施形態の各処理をハードウェアにより実現してもよいし、ソフトウェアにより実現してもよい。さらに、ソフトウェアおよびハードウェアの混在処理により実現してもよい。なお、上記実施形態に係る距離推定装置をハードウェアにより実現する場合、各処理を行うためのタイミング調整を行う必要があるのは言うまでもない。上記実施形態においては、説明便宜のため、実際のハードウェア設計で生じる各種信号のタイミング調整の詳細については省略している。
 なお、本発明の具体的な構成は、前述の実施形態に限られるものではなく、発明の要旨を逸脱しない範囲で種々の変更および修正が可能である。
 本発明の距離推定装置、距離推定方法、プログラム、集積回路およびカメラは、環境光の影響の受けにくい照射光を用いることで、距離画像の高解像度・高フレームレート化を行うことができるので、映像機器関連産業分野において、有用であり、本発明は、当該分野において実施することができる。
100、200、500 距離推定装置
1 受光光学系
2 受光素子部
3 電荷集積部
4 モード制御部
5 信号演算部
6 画像生成部
7 発光周波数選択部
8 発光源セレクト制御部
9A~9N 発光源
OBJ10 対象物体
S1 照明光
S2 反射光
11 色分解プリズム
7A 領域内発光周波数選択部
10 対象領域内電荷抽出部
12 撮像素子部
13 カラー画像生成部
14 対象領域抽出部
190 発光源制御部
191 複数画像生成部
192 複数画像保存メモリ部
193 対象領域内距離情報抽出部
194 最適距離画像選択部

Claims (17)

  1.  光強度変調された光を対象物に照射し、前記対象物からの反射光を用いて対象物までの距離を推定する距離推定装置であって、
     光強度変調可能な光を照射する光源と、
     前記光源を制御する発光源制御部と、
     前記光源から発光される光の周波数を決定する発光周波数選択部と、
     前記対象物からの光を集光する受光光学系と、
     前記受光光学系で受光した光を電荷に変換する受光素子部と、
     前記受光素子部で取得された電荷を集積し、電荷信号を取得する電荷集積部と、
     前記電荷信号に基づいて、距離情報を算出する信号演算部と、
     前記距離情報に基づいて、距離画像を生成する画像生成部と、
    を備え、
     発光周波数選択モードにおいて、
     前記発光源制御部は、前記光源を発光させない状態に制御し、
     前記発光周波数選択部は、前記電荷集積部により取得された電荷信号の周波数スペクトルを取得し、前記周波数スペクトルにおいて、周波数成分が少ない周波数帯域の所定の周波数を最適発光周波数に決定し、
     前記発光源制御部は、前記光源の発光周波数を前記最適発光周波数に設定し、
     距離画像取得モードにおいて、
     前記発光源制御部は、前記最適周波数を用いて前記光源を発光させ、
     前記電荷集積部は、前記最適周波数を用いて前記光源を発光させた状態で受光した光から前記電荷信号を取得し、
     前記信号演算部は、前記最適周波数を用いて前記光源を発光させた状態で受光した光から取得した前記電荷信号に基づいて、前記距離情報を算出し、
     前記画像生成部は、前記最適周波数を用いて前記光源を発光させた状態で受光した光から取得した前記電荷信号に基づいて算出された前記距離情報に基づいて、前記距離画像を生成する、
     距離推定装置。
  2.  前記光源は、それぞれ、発光周波数の異なる複数の発光源を有し、
     前記発光源制御部は、前記複数の発光源の中から、前記最適発光周波数に最も近い前記発光周波数の発光源を選択し、前記距離画像取得モードにおいて、選択した前記発光源を発光させるように制御する、
     請求項1に記載の距離推定装置。
  3.  前記複数の光源は、赤外領域の周波数の光を発光させる、
     請求項2に記載の距離推定装置。
  4.  前記受光光学系で受光した光を、可視光成分の光と、赤外光成分の光に分解する色分解プリズムと、
     前記色分解プリズムにより分解された前記可視光成分の光を画像生成用電荷信号に変換する撮像素子部と、
     前記撮像素子部により変換された前記画像生成用電荷信号から画像を生成する画像生成部と、
     前記画像生成部により生成された前記画像において、所定の画像領域を対象領域として抽出する対象領域抽出部と、
     前記電荷集積部により取得された前記電荷信号において、前記対象領域内に対応する前記電荷信号のみを抽出する対象領域内電荷抽出部と、
    をさらに備え、
     前記発光周波数選択部は、前記対象領域内電荷抽出部により抽出された前記電荷信号の周波数スペクトルを取得し、前記周波数スペクトルにおいて、周波数成分が少ない周波数帯域の所定の周波数を最適発光周波数に決定する、
     請求項1から3のいずれかに記載の距離推定装置。
  5.  前記対象領域抽出部は、前記対象領域を、顔の画像領域とする、
     請求項4に記載の距離推定装置。
  6.  前記対象領域抽出部は、前記対象領域を、人物の画像領域とする、
     請求項4に記載の距離推定装置。
  7.  前記対象領域抽出部は、前記対象領域を、ユーザが指定した画像領域とする、
     請求項4に記載の距離推定装置。
  8.  前記対象領域抽出部は、前記画像生成部により生成される前記画像に対して、領域分割処理を行い、大きな領域に分割された画像領域を、前記対象領域とする、
     請求項4に記載の距離推定装置。
  9.  前記対象領域抽出部は、輝度、色情報に基づいて、前記画像を形成する各画素のグループ化を行うことで、前記領域分割処理を行う、
     請求項8に記載の距離推定装置。
  10.  前記対象領域抽出部は、前記画像生成部により生成される前記画像において、画像内のブロック分割処理を行い、分割された各画像ブロック内の平均輝度情報または/および平均色情報に基づいて、前記各画像ブロックのグループ化を行うことで前記領域分割処理を行う、
     請求項8に記載の距離推定装置。
  11.  光強度変調された光を対象物に照射し、前記対象物からの反射光を用いて対象物までの距離を推定する距離推定装置であって、
     光強度変調可能な光を照射する光源と、
     前記光源を制御する発光源制御部と、
     前記対象物からの光を集光する受光光学系と、
     前記受光光学系で受光した光を電荷に変換する受光素子部と、
     前記受光素子部で取得された電荷を集積し、電荷信号を取得する電荷集積部と、
     前記電荷信号に基づいて、距離情報を算出する信号演算部と、
     前記距離情報に基づいて、距離画像を生成する画像生成部と、
     前記画像生成部により生成された前記距離画像を複数枚分記憶することができる複数画像保持メモリ部と、
     前記複数画像保持メモリ部に記憶されている複数枚の前記距離画像の中から最適距離画像を選択する最適距離画像選択部と、
     前記受光光学系で受光した光を、可視光成分の光と、赤外光成分の光に分解する色分解プリズムと、
     前記色分解プリズムにより分解された前記可視光成分の光を画像生成用電荷信号に変換する撮像素子部と、
     前記撮像素子部により変換された前記画像生成用電荷信号から画像を生成する画像生成部と、
     前記画像生成部により生成された前記画像において、所定の画像領域を対象領域として抽出する対象領域抽出部と、
     前記電荷集積部により取得された前記電荷信号において、前記対象領域内に対応する前記電荷信号のみを抽出する対象領域内電荷抽出部と、
    を備え、
     前記発光源制御部は、前記光源から発光周波数の異なる光を前記対象物に照射するように制御し、
     前記複数画像保持メモリは、前記光源から発光周波数の異なる光を前記対象物に照射することにより生成された前記距離画像を複数枚記憶し、
     前記最適距離画像選択部は、前記複数画像保持メモリに記憶されている複数枚の前記距離画像において、前記対象領域抽出部により設定された前記対象領域内の画像データを所定の基準により評価することで、複数枚の前記距離画像の中から最適距離画像を選択する、
     距離推定装置。
  12.  前記光源は、それぞれ、発光周波数の異なる複数の発光源を有している、
     請求項11に記載の距離推定装置。
  13.  前記複数の光源は、赤外領域の周波数の光を発光させる、
     請求項12に記載の距離推定装置。
  14.  光強度変調された光を対象物に照射し、前記対象物からの反射光を用いて対象物までの距離を推定する距離推定方法であり、
     光強度変調可能な光を照射する光源と、
     前記対象物からの光を集光する受光光学系と、
     前記受光光学系で受光した光を電荷に変換する受光素子部と、
     前記受光素子部で取得された電荷を集積し、電荷信号を取得する電荷集積部と、
    を備える、距離推定装置に用いられる距離推定方法であって、
     前記光源を制御する発光源制御ステップと、
     前記光源から発光される光の周波数を決定する発光周波数選択ステップと、
     前記電荷信号に基づいて、距離情報を算出する信号演算ステップと、
     前記距離情報に基づいて、距離画像を生成する画像生成ステップと、
    を備え、
     発光周波数選択モードにおいて、
     前記光源を発光させない状態に制御し、
     前記発光周波数選択ステップでは、前記電荷集積部により取得された電荷信号の周波数スペクトルを取得し、前記周波数スペクトルにおいて、周波数成分が少ない周波数帯域の所定の周波数を最適発光周波数に決定し、
     前記発光源制御ステップでは、前記光源の発光周波数を前記最適発光周波数に設定し、
     距離画像取得モードにおいて、
     前記発光源制御ステップでは、前記最適周波数を用いて前記光源を発光させ、
     前記信号演算ステップでは、前記最適周波数を用いて前記光源を発光させた状態で受光した光から取得した前記電荷信号に基づいて、前記距離情報を算出し、
     前記画像生成ステップでは、前記最適周波数を用いて前記光源を発光させた状態で受光した光から取得した前記電荷信号に基づいて算出された前記距離情報に基づいて、前記距離画像を生成する、
     距離推定方法。
  15.  光強度変調された光を対象物に照射し、前記対象物からの反射光を用いて対象物までの距離を推定する距離推定方法であり、
     光強度変調可能な光を照射する光源と、
     前記対象物からの光を集光する受光光学系と、
     前記受光光学系で受光した光を電荷に変換する受光素子部と、
     前記受光素子部で取得された電荷を集積し、電荷信号を取得する電荷集積部と、
    を備える、距離推定装置に用いられる距離推定方法をコンピュータに実行させるプログラムであって、
     前記光源を制御する発光源制御ステップと、
     前記光源から発光される光の周波数を決定する発光周波数選択ステップと、
     前記電荷信号に基づいて、距離情報を算出する信号演算ステップと、
     前記距離情報に基づいて、距離画像を生成する画像生成ステップと、
    を備え、
     発光周波数選択モードにおいて、
     前記光源を発光させない状態に制御し、
     前記発光周波数選択ステップでは、前記電荷集積部により取得された電荷信号の周波数スペクトルを取得し、前記周波数スペクトルにおいて、周波数成分が少ない周波数帯域の所定の周波数を最適発光周波数に決定し、
     前記発光源制御ステップでは、前記光源の発光周波数を前記最適発光周波数に設定し、
     距離画像取得モードにおいて、
     前記発光源制御ステップでは、前記最適周波数を用いて前記光源を発光させ、
     前記信号演算ステップでは、前記最適周波数を用いて前記光源を発光させた状態で受光した光から取得した前記電荷信号に基づいて、前記距離情報を算出し、
     前記画像生成ステップでは、前記最適周波数を用いて前記光源を発光させた状態で受光した光から取得した前記電荷信号に基づいて算出された前記距離情報に基づいて、前記距離画像を生成する、
     距離推定方法をコンピュータに実行させるプログラム。
  16.  光強度変調された光を対象物に照射し、前記対象物からの反射光を用いて対象物までの距離を推定する距離推定装置用の集積回路であって、
     光強度変調可能な光を照射する光源と、
     前記対象物からの光を集光する受光光学系と、
    を備える距離推定装置に用いられる集積回路であって、
     前記光源を制御する発光源制御部と、
     前記光源から発光される光の周波数を決定する発光周波数選択部と、
     前記受光光学系で受光した光を電荷に変換する受光素子部と、
     前記受光素子部で取得された電荷を集積し、電荷信号を取得する電荷集積部と、
     前記電荷信号に基づいて、距離情報を算出する信号演算部と、
     前記距離情報に基づいて、距離画像を生成する画像生成部と、
    を備え、
     発光周波数選択モードにおいて、
     前記発光源制御部は、前記光源を発光させない状態に制御し、
     前記発光周波数選択部は、前記電荷集積部により取得された電荷信号の周波数スペクトルを取得し、前記周波数スペクトルにおいて、周波数成分が少ない周波数帯域の所定の周波数を最適発光周波数に決定し、
     前記発光源制御部は、前記光源の発光周波数を前記最適発光周波数に設定し、
     距離画像取得モードにおいて、
     前記発光源制御部は、前記最適周波数を用いて前記光源を発光させ、
     前記電荷集積部は、前記最適周波数を用いて前記光源を発光させた状態で受光した光から前記電荷信号を取得し、
     前記信号演算部は、前記最適周波数を用いて前記光源を発光させた状態で受光した光から取得した前記電荷信号に基づいて、前記距離情報を算出し、
     前記画像生成部は、前記最適周波数を用いて前記光源を発光させた状態で受光した光から取得した前記電荷信号に基づいて算出された前記距離情報に基づいて、前記距離画像を生成する、
     集積回路。
  17.  請求項1から13のいずれかに記載の距離推定装置を含む、
     カメラ。
PCT/JP2009/003574 2008-08-20 2009-07-29 距離推定装置、距離推定方法、プログラム、集積回路およびカメラ WO2010021090A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US12/922,544 US20110063437A1 (en) 2008-08-20 2009-07-29 Distance estimating device, distance estimating method, program, integrated circuit, and camera
JP2010525573A JPWO2010021090A1 (ja) 2008-08-20 2009-07-29 距離推定装置、距離推定方法、プログラム、集積回路およびカメラ

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008211661 2008-08-20
JP2008-211661 2008-08-20

Publications (1)

Publication Number Publication Date
WO2010021090A1 true WO2010021090A1 (ja) 2010-02-25

Family

ID=41706983

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/003574 WO2010021090A1 (ja) 2008-08-20 2009-07-29 距離推定装置、距離推定方法、プログラム、集積回路およびカメラ

Country Status (3)

Country Link
US (1) US20110063437A1 (ja)
JP (1) JPWO2010021090A1 (ja)
WO (1) WO2010021090A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013195185A (ja) * 2012-03-19 2013-09-30 Nec System Technologies Ltd 物体検出装置、物体検出方法、およびプログラム
WO2019031403A1 (ja) * 2017-08-10 2019-02-14 パイオニア株式会社 光学装置
JP2019144261A (ja) * 2013-06-06 2019-08-29 ヘプタゴン・マイクロ・オプティクス・プライベート・リミテッドHeptagon Micro Optics Pte. Ltd. 撮像システムおよびそれを動作させる方法
JP2020008348A (ja) * 2018-07-04 2020-01-16 Dmg森精機株式会社 測定装置
US10775502B2 (en) 2016-11-10 2020-09-15 Ricoh Company, Ltd Distance-measuring apparatus, mobile object, robot, three-dimensional measuring device, surveillance camera, and distance-measuring method
US10928518B2 (en) 2016-04-19 2021-02-23 Hitachi-Lg Data Storage, Inc. Range image generation apparatus and range image generation method
WO2022185780A1 (ja) 2021-03-03 2022-09-09 ソニーグループ株式会社 情報処理装置、情報処理方法およびプログラム

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101722641B1 (ko) * 2010-12-23 2017-04-04 삼성전자주식회사 3차원 영상 획득 장치 및 상기 3차원 영상 획득 장치에서 깊이 정보를 추출하는 방법
US9819879B2 (en) 2011-07-12 2017-11-14 Samsung Electronics Co., Ltd. Image filtering apparatus and method based on noise prediction using infrared ray (IR) intensity
KR101854188B1 (ko) * 2011-10-25 2018-05-08 삼성전자주식회사 3차원 영상 획득 장치 및 3차원 영상 획득 장치에서 깊이 정보 산출 방법
EP2790032B1 (en) * 2011-12-09 2019-10-16 Furuno Electric Co., Ltd. Image processing apparatus, radar apparatus, image processing method, and image processing program
CN103988490B (zh) * 2011-12-13 2018-05-22 索尼公司 图像处理装置、图像处理方法和记录介质
KR20140025812A (ko) * 2012-08-22 2014-03-05 삼성전기주식회사 졸음 운전 감지 장치 및 방법
KR101938648B1 (ko) 2012-10-23 2019-01-15 삼성전자주식회사 이미지 센서를 포함하는 모바일 기기, 이미지 센서의 구동 방법 및 모바일 기기의 구동 방법
KR102163728B1 (ko) * 2013-12-05 2020-10-08 삼성전자주식회사 거리영상 측정용 카메라 및 이를 이용한 거리영상 측정방법
CN106527761A (zh) * 2015-09-10 2017-03-22 义明科技股份有限公司 非接触式光学感测装置及三维空间物件深度位置感测方法
JP6730150B2 (ja) * 2016-09-16 2020-07-29 株式会社東芝 光検出器、及び距離測定装置
JP7028588B2 (ja) * 2017-09-04 2022-03-02 株式会社日立エルジーデータストレージ 3次元距離測定装置
CN107607957B (zh) * 2017-09-27 2020-05-22 维沃移动通信有限公司 一种深度信息获取系统及方法、摄像模组和电子设备
US10935376B2 (en) 2018-03-30 2021-03-02 Koninklijke Philips N.V. System and method for 3D scanning
CN109116332A (zh) * 2018-09-05 2019-01-01 Oppo广东移动通信有限公司 阵列光源、tof测距方法、摄像头模组及电子设备
JP2021050988A (ja) * 2019-09-25 2021-04-01 ソニーセミコンダクタソリューションズ株式会社 測距装置及び電子機器
TWI734499B (zh) * 2020-05-28 2021-07-21 長庚大學 顯微鏡之結構
US11561281B2 (en) * 2020-06-29 2023-01-24 Waymo Llc Selective deactivation of light emitters for interference mitigation in light detection and ranging (lidar) devices
CN114449247B (zh) * 2022-04-11 2022-07-22 深圳市其域创新科技有限公司 一种多路视频3d叠加方法及其系统

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0571957A (ja) * 1991-09-10 1993-03-23 Nikon Corp アクテイブ測距装置
JPH0682683A (ja) * 1992-09-02 1994-03-25 Seikosha Co Ltd 測距方法
JPH07129898A (ja) * 1993-11-05 1995-05-19 Toyota Central Res & Dev Lab Inc 障害物検出装置
JP2002318104A (ja) * 2001-04-20 2002-10-31 Victor Co Of Japan Ltd 光学撮像装置、光学測距装置
JP2004280451A (ja) * 2003-03-14 2004-10-07 Matsushita Electric Works Ltd 自律移動装置
JP2006046960A (ja) * 2004-07-30 2006-02-16 Matsushita Electric Works Ltd 画像処理装置
JP2006308522A (ja) * 2005-05-02 2006-11-09 Matsushita Electric Works Ltd 空間情報検出装置
JP2008067362A (ja) * 2006-08-10 2008-03-21 Nissan Motor Co Ltd 画像処理装置および画像処理方法
JP2008164538A (ja) * 2006-12-29 2008-07-17 Matsushita Electric Works Ltd 光検出素子、空間情報の検出装置
JP2008164496A (ja) * 2006-12-28 2008-07-17 Toyota Central R&D Labs Inc 計測装置
JP2008209162A (ja) * 2007-02-23 2008-09-11 Matsushita Electric Works Ltd 距離画像センサ
JP2009103464A (ja) * 2007-10-19 2009-05-14 Nissan Motor Co Ltd 距離計測装置、距離計測方法および車両

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58171686A (ja) * 1982-04-01 1983-10-08 Ricoh Co Ltd 検出装置
JP3840341B2 (ja) * 1998-10-15 2006-11-01 浜松ホトニクス株式会社 立体情報検出方法及び装置
JP2002350117A (ja) * 2001-05-29 2002-12-04 Olympus Optical Co Ltd 形状計測装置及び形状計測方法
US7719666B2 (en) * 2004-06-25 2010-05-18 Neubrex Co., Ltd. Distributed optical fiber sensor
EP1668384B1 (en) * 2004-09-17 2008-04-16 Matsushita Electric Works, Ltd. A range image sensor
JP5053731B2 (ja) * 2007-07-03 2012-10-17 キヤノン株式会社 画像表示制御装置及び画像表示制御方法及びプログラム及び記録媒体

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0571957A (ja) * 1991-09-10 1993-03-23 Nikon Corp アクテイブ測距装置
JPH0682683A (ja) * 1992-09-02 1994-03-25 Seikosha Co Ltd 測距方法
JPH07129898A (ja) * 1993-11-05 1995-05-19 Toyota Central Res & Dev Lab Inc 障害物検出装置
JP2002318104A (ja) * 2001-04-20 2002-10-31 Victor Co Of Japan Ltd 光学撮像装置、光学測距装置
JP2004280451A (ja) * 2003-03-14 2004-10-07 Matsushita Electric Works Ltd 自律移動装置
JP2006046960A (ja) * 2004-07-30 2006-02-16 Matsushita Electric Works Ltd 画像処理装置
JP2006308522A (ja) * 2005-05-02 2006-11-09 Matsushita Electric Works Ltd 空間情報検出装置
JP2008067362A (ja) * 2006-08-10 2008-03-21 Nissan Motor Co Ltd 画像処理装置および画像処理方法
JP2008164496A (ja) * 2006-12-28 2008-07-17 Toyota Central R&D Labs Inc 計測装置
JP2008164538A (ja) * 2006-12-29 2008-07-17 Matsushita Electric Works Ltd 光検出素子、空間情報の検出装置
JP2008209162A (ja) * 2007-02-23 2008-09-11 Matsushita Electric Works Ltd 距離画像センサ
JP2009103464A (ja) * 2007-10-19 2009-05-14 Nissan Motor Co Ltd 距離計測装置、距離計測方法および車両

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013195185A (ja) * 2012-03-19 2013-09-30 Nec System Technologies Ltd 物体検出装置、物体検出方法、およびプログラム
JP2019144261A (ja) * 2013-06-06 2019-08-29 ヘプタゴン・マイクロ・オプティクス・プライベート・リミテッドHeptagon Micro Optics Pte. Ltd. 撮像システムおよびそれを動作させる方法
US10928518B2 (en) 2016-04-19 2021-02-23 Hitachi-Lg Data Storage, Inc. Range image generation apparatus and range image generation method
US10775502B2 (en) 2016-11-10 2020-09-15 Ricoh Company, Ltd Distance-measuring apparatus, mobile object, robot, three-dimensional measuring device, surveillance camera, and distance-measuring method
WO2019031403A1 (ja) * 2017-08-10 2019-02-14 パイオニア株式会社 光学装置
JP2020008348A (ja) * 2018-07-04 2020-01-16 Dmg森精機株式会社 測定装置
JP7083282B2 (ja) 2018-07-04 2022-06-10 Dmg森精機株式会社 測定装置
WO2022185780A1 (ja) 2021-03-03 2022-09-09 ソニーグループ株式会社 情報処理装置、情報処理方法およびプログラム
KR20230152661A (ko) 2021-03-03 2023-11-03 소니그룹주식회사 정보 처리 장치, 정보 처리 방법 및 프로그램

Also Published As

Publication number Publication date
JPWO2010021090A1 (ja) 2012-01-26
US20110063437A1 (en) 2011-03-17

Similar Documents

Publication Publication Date Title
WO2010021090A1 (ja) 距離推定装置、距離推定方法、プログラム、集積回路およびカメラ
JP5448617B2 (ja) 距離推定装置、距離推定方法、プログラム、集積回路およびカメラ
JP6480441B2 (ja) 飛行時間型カメラシステム
US9753140B2 (en) Methods and apparatus for imaging in scattering environments
KR102456875B1 (ko) 심도 촬상 장치, 방법 및 응용
US8619128B2 (en) Systems and methods for an imaging system using multiple image sensors
KR20220058947A (ko) 라이다 이미지의 처리
JP6467776B2 (ja) 測距システム、情報処理装置、情報処理方法及びプログラム
US20180260649A1 (en) Multi-channel compressive sensing-based object recognition
KR102112298B1 (ko) 컬러 영상 및 깊이 영상을 생성하는 방법 및 장치
WO2020066637A1 (ja) 奥行取得装置、奥行取得方法およびプログラム
WO2018061508A1 (ja) 撮像素子、画像処理装置、および画像処理方法、並びにプログラム
JP2017138198A (ja) 距離画像装置、撮像装置、および距離画像補正方法
KR102194233B1 (ko) 깊이 영상 생성 장치 및 방법
US10436907B1 (en) Active christiansen effect LIDAR system and method
US9438887B2 (en) Depth measurement apparatus and controlling method thereof
US20220030183A1 (en) Infrared and non-infrared channel blender for depth mapping using structured light
US20220028102A1 (en) Devices and methods for determining confidence in stereo matching using a classifier-based filter
US20230232130A1 (en) Image sensors and sensing methods to obtain time-of-flight and phase detection information
WO2021084907A1 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
US8456619B2 (en) Image processing apparatus and method
Lee et al. Highly precise AMCW time-of-flight scanning sensor based on parallel-phase demodulation
JP2003185412A (ja) 画像取得装置および画像取得方法
CN102176066A (zh) 基于窄带扫描的目标最佳探测谱段成像探测方法
US11627259B2 (en) Device, method and computer program

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09808026

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2010525573

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 12922544

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 09808026

Country of ref document: EP

Kind code of ref document: A1