WO2017159312A1 - 画像処理装置、撮像装置、および画像処理方法、並びにプログラム - Google Patents

画像処理装置、撮像装置、および画像処理方法、並びにプログラム Download PDF

Info

Publication number
WO2017159312A1
WO2017159312A1 PCT/JP2017/007463 JP2017007463W WO2017159312A1 WO 2017159312 A1 WO2017159312 A1 WO 2017159312A1 JP 2017007463 W JP2017007463 W JP 2017007463W WO 2017159312 A1 WO2017159312 A1 WO 2017159312A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
distance
tof
unit
stereo
Prior art date
Application number
PCT/JP2017/007463
Other languages
English (en)
French (fr)
Inventor
昌俊 横川
神尾 和憲
隆浩 永野
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US16/081,749 priority Critical patent/US20210183096A1/en
Priority to JP2018505774A priority patent/JPWO2017159312A1/ja
Publication of WO2017159312A1 publication Critical patent/WO2017159312A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/25Image signal generators using stereoscopic image cameras using two or more image sensors with different characteristics other than in their location or field of view, e.g. having different resolutions or colour pickup characteristics; using image signals from one sensor to control the characteristics of another sensor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/11Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/257Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Definitions

  • the present disclosure relates to an image processing device, an imaging device, an image processing method, and a program.
  • the present invention relates to an image processing apparatus, an imaging apparatus, an image processing method, and a program for measuring a distance to a subject.
  • a TOF (Time of Flight) camera is known as a camera for measuring the distance to a subject.
  • the TOF camera irradiates the subject with infrared light and calculates the distance from the time required for the reflected infrared light to enter the camera.
  • Patent Document 1 Japanese Patent Laid-Open No. 2013-220254
  • Patent Document 2 Japanese Patent Laid-Open No. 2016-006627
  • the present disclosure has been made in view of the above-described problems.
  • an image that enables accurate distance measurement even when accurate distance measurement by the TOF method is difficult. It is an object to provide a processing device, an imaging device, an image processing method, and a program.
  • an object is to provide an image processing device, an imaging device, an image processing method, and a program that generate a high-quality image to which a plurality of images are applied.
  • the first aspect of the present disclosure is: An image processing unit that inputs a first image and a second image, which are captured images from two different viewpoints, and generates distance information indicating a subject distance;
  • the image processing unit A TOF method distance calculation unit that calculates a TOF distance that is a subject distance according to a TOF (Time of Flight) method using an infrared light component of the second image;
  • a stereo distance calculation unit that calculates a stereo distance, which is a subject distance according to a stereo method, using visible light components of the first image and the second image;
  • a TOF distance reliability determination unit that determines the reliability of the TOF distance;
  • the image processing apparatus includes a subject distance information generation unit that generates, as final distance information, the stereo distance or the combined distance information of the TOF distance and the stereo distance for a pixel region having a low reliability of the TOF distance.
  • the second aspect of the present disclosure is: A first imaging unit that captures a first image composed of visible light components; A second imaging unit that captures a second image including a visible light component and an infrared light component; An image processing unit that inputs the first image and the second image and generates distance information indicating a subject distance;
  • the image processing unit A TOF method distance calculation unit that performs subject distance calculation according to the TOF (Time of Flight) method using the second image;
  • a stereo distance calculation unit that calculates a subject distance according to a stereo method using the first image and the second image;
  • a TOF distance reliability determination unit that determines the reliability of the TOF distance that is the subject distance calculated by the TOF method distance calculation unit;
  • a subject distance information generating unit that generates final distance information based on the reliability of the TOF distance;
  • the subject distance information generating unit Imaging that generates, as final distance information, the distance information calculated by combining the stereo distance, which is the subject distance according to the stereo method, or the synthesis process of the TOF distance and
  • the third aspect of the present disclosure is: An image processing unit that inputs a first image and a second image, which are captured images from two different viewpoints, and generates a composite image;
  • the first image is an image composed of a visible light component
  • the second image is an image including a visible light component and an infrared light component
  • the image processing unit An infrared light separation unit for separating the second image into a visible light component image and an infrared light component image
  • the image processing apparatus includes an image composition unit that performs composition processing of the first image and the visible light component image generated by the infrared light separation unit based on the second image.
  • the fourth aspect of the present disclosure is: An image processing method executed in an image processing apparatus,
  • the image processing apparatus includes an image processing unit that inputs a first image and a second image, which are captured images from two different viewpoints, and generates distance information indicating a subject distance;
  • the image processing unit A TOF method distance calculation process for calculating a TOF distance that is a subject distance according to a TOF (Time of Flight) method using an infrared light component of the second image;
  • Stereo method distance calculation processing for calculating a stereo distance, which is a subject distance according to a stereo method, using visible light components of the first image and the second image;
  • a TOF distance reliability determination process for determining the reliability of the TOF distance;
  • the present invention is an image processing method for executing subject distance information generation processing for generating, as final distance information, the stereo distance or the combined distance information of the TOF distance and the stereo distance for a pixel region with low reliability of the TOF distance.
  • the fifth aspect of the present disclosure is: An image processing method executed in an image processing apparatus,
  • the image processing apparatus includes: An image processing unit that inputs a first image and a second image, which are captured images from two different viewpoints, and generates a composite image;
  • the first image is an image composed of a visible light component
  • the second image is an image including a visible light component and an infrared light component
  • the image processing unit An infrared light separation process for separating the second image into a visible light component image and an infrared light component image;
  • a synthesis process of the first image and the visible light component image generated based on the second image is executed.
  • the sixth aspect of the present disclosure is: A program for executing image processing in an image processing apparatus;
  • the image processing apparatus includes an image processing unit that inputs a first image and a second image, which are captured images from two different viewpoints, and generates distance information indicating a subject distance;
  • the program is stored in the image processing unit.
  • a TOF method distance calculation process for calculating a TOF distance that is a subject distance according to a TOF (Time of Flight) method using an infrared light component of the second image; Stereo method distance calculation processing for calculating a stereo distance, which is a subject distance according to a stereo method, using visible light components of the first image and the second image; A TOF distance reliability determination process for determining the reliability of the TOF distance; A program for executing subject distance information generation processing for generating, as final distance information, the stereo distance or the combined distance information of the TOF distance and the stereo distance for a pixel region having a low reliability of the TOF distance.
  • TOF Time of Flight
  • the seventh aspect of the present disclosure is: A program for executing image processing in an image processing apparatus;
  • the image processing apparatus includes: An image processing unit that inputs a first image and a second image, which are captured images from two different viewpoints, and generates a composite image;
  • the first image is an image composed of a visible light component
  • the second image is an image including a visible light component and an infrared light component
  • the program is stored in the image processing unit.
  • An infrared light separation process for separating the second image into a visible light component image and an infrared light component image
  • the program of the present disclosure is a program that can be provided by, for example, a storage medium or a communication medium provided in a computer-readable format to an information processing apparatus or a computer system that can execute various program codes.
  • a program in a computer-readable format, processing corresponding to the program is realized on the information processing apparatus or the computer system.
  • system is a logical set configuration of a plurality of devices, and is not limited to one in which the devices of each configuration are in the same casing.
  • an apparatus and a method for generating accurate distance information of a subject are realized. Specifically, it has an image processing unit that calculates a subject distance by inputting a first image composed of a visible light component and a second image including a visible light component and an infrared light component.
  • Two pieces of distance information are calculated: a TOF distance which is a subject distance calculated according to the TOF method using the second image, and a stereo distance calculated according to the stereo method using the first image and the second image,
  • the TOF distance reliability indicating the reliability of the TOF distance is determined, and the pixel area with the low reliability of the TOF distance is calculated by the stereo distance that is the subject distance according to the stereo system, or the TOF distance and the stereo distance combining process.
  • the obtained distance information is generated as final distance information.
  • FIG. 1 is a block diagram illustrating a configuration of an imaging apparatus that is an example of the image processing apparatus 100 of the present disclosure.
  • the image processing apparatus of the present disclosure is not limited to the imaging apparatus, and includes, for example, an information processing apparatus such as a PC that inputs a captured image of the imaging apparatus and executes image processing.
  • an information processing apparatus such as a PC that inputs a captured image of the imaging apparatus and executes image processing.
  • a configuration and processing of an imaging apparatus will be described as an example of the image processing apparatus 100 of the present disclosure.
  • Image processing other than the imaging processing described in the following embodiments is not limited to the imaging device, and can be executed by an information processing device such as a PC.
  • the image capturing unit 106 includes a first image capturing unit 107 that performs only normal image capturing, and a second image capturing unit 108 that performs infrared light irradiation and captures an image including infrared light and visible light.
  • the first imaging unit 107 includes a first imaging element 111 for performing normal image capturing.
  • the first image sensor 111 is, for example, an RGB pixel array type image sensor that has an RGB color filter having a Bayer array and outputs a signal corresponding to input light of each RGB color in each pixel unit.
  • a black-and-white (WB) sensor type imaging device that captures a monochrome image may be used.
  • the second imaging unit 108 includes an IR (infrared light) irradiation unit 113 that outputs infrared light, and a second imaging element 112.
  • the second imaging unit 108 includes an IR (infrared light) irradiation unit 113 for measuring a subject distance by a TOF (Time of Flight) method, and a second imaging element 112 that receives infrared light and visible light.
  • TOF Time of Flight
  • the TOF (Time of Flight) method is a method of calculating the subject distance from the time required for irradiating the subject with infrared light and for the reflected infrared light to enter the camera.
  • the visible light region received by the second image sensor 112 is preferably the same region as the first image sensor 111.
  • the second image sensor 112 is also an RGB pixel array type image sensor.
  • the first imaging element 111 is a monochrome (WB) sensor type imaging element
  • the second imaging element 112 is also a monochrome (WB) sensor type imaging element.
  • the second image sensor 112 also receives infrared light (IR) in addition to visible light, and the sensor output includes a visible light component and an infrared light (IR) component.
  • the first image capturing unit 107 and the second image capturing unit 108 are two image capturing units set at a predetermined distance from each other, and each captured image is an image from a different viewpoint.
  • the corresponding subject image of two images from different viewpoints that is, the pixel at the same position, is not photographed with the same subject image, and subject displacement corresponding to the parallax occurs.
  • the subject distance is calculated by the stereo method using this positional deviation.
  • the first imaging unit 107 and the second imaging unit 108 capture two still images at the same timing.
  • the shooting frame of each imaging unit is a synchronized shooting frame, that is, a continuous image frame sequentially shot at the same timing. Note that the control of the photographing timing is performed by the control unit 101.
  • the control unit 101 controls various processes executed in the imaging apparatus 100, such as image capturing, signal processing for captured images, image recording processing, and display processing.
  • the control unit 101 includes, for example, a CPU that executes processing according to various processing programs stored in the storage unit 102, and functions as a data processing unit that executes the program.
  • the storage unit 102 includes a captured image storage unit, a processing program executed by the control unit 101, a storage unit for various parameters, and a RAM, a ROM, and the like that function as a work area for data processing.
  • the codec 103 performs encoding and decoding processing such as compression and decompression processing of a captured image.
  • the input unit 104 is a user operation unit, for example, and inputs control information such as shooting start and end, various mode settings, and the like.
  • the output unit 105 includes a display unit, a speaker, and the like, and is used for displaying captured images and through images, outputting sound, and the like.
  • the image processing unit 120 inputs the two images input from the imaging unit 106 and applies the two images to calculate the subject distance (depth). Furthermore, a high-quality image with reduced noise is generated by combining two images.
  • the image processing unit 120 outputs the generated image 151 and distance (depth) information 152. These data are stored in the storage unit 102, for example. Alternatively, the image 151 is output to the display unit constituting the output unit 105. The distance (depth) information 152 is used for various processes executed in the control unit 102.
  • the image processing unit 120 inputs the two images input from the imaging unit 106 and applies the two images to generate the distance (depth) information 152 indicating the subject distance (depth). To do. Furthermore, an image 151 as a high-quality image with reduced noise is generated by combining two images. First, the generation process of the distance (depth) information 152 executed in the image processing unit 120 will be described.
  • FIG. 2 is a block diagram illustrating a partial configuration of the image processing unit 120 of the image processing apparatus 100.
  • FIG. 2 shows a configuration applied to the generation processing of the distance (depth) information 152 in the configuration of the image processing unit 120.
  • the image processing unit 120 includes an infrared light (IR) separation unit 121, a stereo system distance calculation unit 122, a TOF system distance calculation unit 123, a stereo distance reliability determination unit 124, and a TOF distance reliability determination.
  • the image processing unit 120 outputs the distance (depth) information 152 generated by the subject distance information generation unit 126.
  • the distance (depth) information 152 is data having distance information for each pixel regarding the subject included in the captured image.
  • Input signals to the image processing unit 120 are the following signals. (1) a visible light image 200 input from the first imaging unit 107, (2) Visible light + infrared light image 201 input from the second imaging unit 108,
  • the infrared light (IR) separation unit 121 receives the visible light + infrared light image 201 input from the second imaging unit 108, and the infrared light (IR) separation processing of the visible light + infrared light image 201. Execute. A specific example of the infrared light (IR) separation process performed by the infrared light (IR) separation unit 121 will be described with reference to FIG.
  • FIG. 3 is a diagram illustrating each infrared light separation process when the second imaging element 112 of the second imaging unit 108 has the following two configurations.
  • WB monoochrome
  • RGB RGB
  • the second imaging element 112 of the second imaging unit 108 is a WB (monochrome) sensor without IR cut filter.
  • the infrared light separation process in this case will be described.
  • the infrared light (IR) separation unit 121 performs the following processing on the output signal from the second imaging element 112 of the second imaging unit 108 to separate visible light and infrared light.
  • Infrared light (IR) Acquired from black (B)
  • pixel Visible light White (W) pixel output-Black (B) pixel output
  • the infrared light (IR) separation unit 121 performs a matrix operation represented by the following (Equation 1) on the output signal from the second imaging element 112 of the second imaging unit 108 to obtain visible light. And infrared light.
  • Equation 1 ⁇ 11 to ⁇ 32 shown in (Equation 1) are separation parameters determined in accordance with sensor characteristics.
  • the infrared light (IR) separation unit 121 includes the second imaging element 112 of the second imaging unit 108.
  • WB (monochrome) sensor without IR cut filter (2) RGB sensor without IR cut filter.
  • the different processing described with reference to FIG. 3 is executed, and the output signal of the second imaging element 112 of the second imaging unit 108, that is, “visible light + infrared” shown in FIG. Visible light and infrared light are separated from the optical image 201 ".
  • the visible light image 202 generated by the separation process of the infrared light (IR) separation unit 121 is input to the stereo system distance calculation unit 122.
  • the infrared light image 203 generated by the separation process of the infrared light (IR) separation unit 121 is input to the TOF method distance calculation unit 123.
  • the stereo system distance calculation unit 122 inputs the following images. (1) a visible light image 200 that is a captured image of the first imaging unit 107; (2) the visible light image 202 generated from the captured image of the second imaging unit 108,
  • the first image capturing unit 107 and the second image capturing unit 108 are two image capturing units set at a predetermined distance from each other, and each captured image (visible light image 200, visible light image 202). ) Is an image from a different viewpoint. The same subject image is not photographed in the corresponding pixels of the two images from different viewpoints, that is, the visible light image 200 and the visible light image 202, that is, the pixels at the same position, and subject displacement corresponding to parallax occurs.
  • the stereo method distance calculation unit 122 executes subject distance calculation by the stereo method using this positional deviation.
  • a parallax amount is calculated using two image signals of a visible light image 200 input from the first imaging unit 107 and a visible light image 202 input from the second imaging unit 108. Further, the distance to the subject is calculated by triangulation based on the baseline length and the amount of parallax, which are the distance between the first imaging unit 107 and the second imaging unit 108. This distance calculation is executed in units of pixels constituting an image or in units of pixel areas composed of a plurality of pixels.
  • the subject distance information generated by the stereo distance calculation unit 122 is input to the subject distance information generation unit 126 as stereo distance information 204 as shown in FIG.
  • the TOF method distance calculation unit 123 inputs the following image.
  • IR Infrared light
  • the TOF (Time of Flight) method is a method of calculating the subject distance from the time required for irradiating the subject with infrared light and for the reflected infrared light to enter the camera.
  • the TOF method distance calculation unit 123 measures the time from the infrared light irradiation timing of the infrared light (IR) irradiation unit 113 of the second imaging unit 108 to the infrared light reception timing of the second imaging element 112, and the subject Calculate the distance. Note that this subject distance calculation is also executed in units of pixels or in units of pixel areas composed of a predetermined number of pixels, as in the stereo method described above.
  • the subject distance information generated by the TOF method distance calculation unit 123 is input to the subject distance information generation unit 126 as TOF distance information 205 as shown in FIG.
  • the stereo distance reliability determination unit 124 determines whether or not the subject distance information generated by the stereo system distance calculation unit 122 is reliable data, and generates a stereo reliability 206 including the determination information as shown in FIG. And output to the subject distance information generation unit 126.
  • the stereo reliability 206 generated by the stereo distance reliability determination unit 124 includes reliability information for each piece of subject distance information generated by the stereo distance calculation unit 122 in units of pixels or pixel areas.
  • FIG. 4 is a process of determining the reliability using the variance value of the block constituent pixels applied to the block matching process in the corresponding point detection of the two images executed in the stereo distance calculation unit 122.
  • a visible light image 200 that is a captured image of the first imaging unit 107
  • the visible light image 202 generated from the captured image of the second imaging unit 108
  • the pixel block to be used includes a characteristic image such as an edge or texture, matching (association) can be performed correctly. That is, highly accurate block matching is possible, and highly accurate distance calculation is possible. On the other hand, for example, in a flat image region having no features such as sky, correct matching (association) becomes difficult. As a result, highly accurate distance calculation becomes difficult.
  • the example shown in FIG. 4 is an example of stereo distance reliability determination processing using this characteristic.
  • the horizontal axis represents the variance of the block constituent pixels applied to the block matching process
  • the vertical axis represents the stereo distance reliability ⁇ .
  • the stereo distance reliability ⁇ is set in the range of 0 to 1, and the lower the numerical value, the lower the reliability, and the higher the numerical value, the higher the reliability.
  • the variance value of the block is large, it means that the block contains a lot of characteristic images, for example, images such as edges and textures. .
  • the stereo distance reliability ⁇ calculated by the stereo distance calculation unit 122 is a higher value, that is, a value close to 1.
  • the stereo distance reliability ⁇ calculated by the stereo distance calculation unit 122 is a lower value, that is, a value close to 0.
  • the stereo distance reliability determination unit 124 executes the stereo distance reliability ⁇ calculated by the stereo system distance calculation unit 122 in units of blocks, for example, and generates distance information reliability in units of blocks or block constituent pixels. This reliability information is the stereo reliability 206 shown in FIG.
  • the stereo distance reliability determination unit 124 outputs the stereo reliability 206 generated as shown in FIG. 2 to the subject distance information generation unit 126.
  • the TOF distance reliability determination unit 125 determines whether the subject distance information generated by the TOF method distance calculation unit 123 is reliable data, and generates a TOF reliability 207 including determination information as shown in FIG. And output to the subject distance information generation unit 126.
  • the TOF reliability 206 generated by the TOF distance reliability determination unit 125 includes reliability information for each of the subject distance information generated by the TOF method distance calculation unit 123 in units of pixels or pixel areas.
  • FIG. 5 is a process for determining the reliability using the received light amount when infrared light (IR) is not irradiated, which is used in distance measurement according to the TOF method executed in the TOF method distance calculation unit 123. .
  • IR infrared light
  • the TOF method distance calculation unit 123 the time from the infrared light irradiation timing of the infrared light (IR) irradiation unit 113 of the second imaging unit 108 to the infrared light reception timing of the second imaging element 112. And subject distance is calculated.
  • IR infrared light
  • the second imaging element 112 of the second imaging unit 108 is not only the infrared light irradiated by the infrared light (IR) irradiation unit 113 but also red other than the irradiation light of the infrared light (IR) irradiation unit 113. It also receives external light.
  • the second imaging element 112 is irradiated with infrared light (IR) irradiation unit 113. It receives a lot of natural infrared light. In such a situation, the measurement accuracy of the time from the infrared light irradiation timing of the infrared light (IR) irradiation unit 113 to the infrared light reception timing in the second imaging element 112 is lowered. As a result, highly accurate distance calculation becomes difficult.
  • IR infrared light
  • the second imaging element 112 irradiates the infrared light (IR) irradiation unit 113.
  • the possibility of receiving infrared light other than light is reduced.
  • the measurement accuracy of the time from the infrared light irradiation timing of the infrared light (IR) irradiation unit 113 to the infrared light reception timing in the second image sensor 112 is increased, and the distance can be calculated with high accuracy.
  • the example shown in FIG. 5 is an example of TOF distance reliability determination processing using this characteristic.
  • the horizontal axis indicates the received light intensity of the infrared light (IR) by the second image sensor 112 when the infrared light (IR) irradiation unit 113 does not irradiate infrared light
  • the vertical axis indicates the TOF.
  • the distance reliability ⁇ is set in the range of 0 to 1, and the lower the numerical value, the lower the reliability, and the higher the numerical value, the higher the reliability.
  • the infrared light is not irradiated by the infrared light (IR) irradiation unit 113
  • the received light intensity of the infrared light is large, it means that there is a large amount of infrared light such as sunlight, and an accurate TOF distance. It means that measurement becomes difficult.
  • the reliability ⁇ of the TOF distance calculated by the TOF method distance calculation unit 123 is set to a lower value, that is, 0. A close value.
  • the received light intensity when the infrared light (IR) irradiation unit 113 does not irradiate the infrared light is small, it means that the infrared light of external factors such as sunlight is small, and accurate TOF distance measurement is possible.
  • the reliability ⁇ of the TOF distance calculated by the TOF method distance calculation unit 123 is set to a higher value, that is, 1. A close value.
  • the TOF distance reliability determination unit 125 calculates the TOF distance reliability ⁇ calculated by the TOF method distance calculation unit 123, for example, in pixel units or pixel area units. This reliability information is the TOF reliability 207 shown in FIG.
  • the TOF distance reliability determination unit 125 outputs the generated TOF reliability 207 to the subject distance information generation unit 126 as shown in FIG.
  • the subject distance information generation unit 126 inputs the following data.
  • Stereo distance information 204 calculated by the stereo system distance calculation unit 122
  • TOF distance information 205 calculated by the TOF method distance calculation unit 123
  • Stereo reliability 206 generated by the stereo distance reliability determination unit 124
  • TOF reliability 207 generated by the TOF distance reliability determination unit 125
  • the subject distance information generation unit 126 inputs each of these data, and either the stereo distance information 204 calculated by the stereo system distance calculation unit 122, the TOF distance information 205 calculated by the TOF system distance calculation unit 123, or a blend Final distance information generated by the processing is generated and output as distance (depth) information 152.
  • the subject distance information generation unit 126 is based on the stereo reliability 206 or the TOF reliability 207, and is determined to have high reliability, or the final distance information generated by the blending process. Is generated and output as distance (depth) information 152. Note that generation of final distance information based on these reliability determinations is executed in units of pixels or pixel areas.
  • the subject distance information generation unit 126 selects one distance information with high reliability based on the stereo reliability 206 and the TOF reliability 207, or generates final distance information by blend processing. And output as distance (depth) information 152.
  • the example illustrated in FIG. 6 is a processing example in which the TOF distance information 205 calculated by the TOF method distance calculation unit 123 is set to be preferentially selected.
  • the graph shown in FIG. The horizontal axis represents the TOF reliability ⁇ generated by the TOF distance reliability determination unit 125, The vertical axis represents the stereo reliability ⁇ generated by the stereo distance reliability determination unit 124, It is.
  • the reliability ⁇ and ⁇ are both in the range of 0 to 1, with the lowest reliability being 0 and the highest reliability being 1.
  • Region (b) TOF reliability ⁇ ⁇ Th1 Stereo reliability ⁇ ⁇ Th2 This is a region corresponding to these conditions.
  • Region (c) TOF reliability ⁇ ⁇ Th1 Stereo reliability ⁇ ⁇ Th2 This is a region corresponding to these conditions.
  • the subject distance information generation unit 126 (1) Stereo reliability ⁇ generated by the stereo distance reliability determination unit 124, (2) TOF reliability ⁇ generated by the TOF distance reliability determination unit 125, It is determined where the two reliability levels correspond to the regions (a) to (c), and final distance information, that is, subject distance information generation shown in FIG.
  • the distance (depth) information 152 that is the output of the unit 126 is generated.
  • Region (a), ie TOF reliability ⁇ ⁇ Th1 Stereo reliability ⁇ 0 to 1
  • a region corresponding to these conditions is a region where the TOF reliability ⁇ is determined to be relatively high.
  • the subject distance information generation unit 126 uses the TOF distance information 205 calculated by the TOF method distance calculation unit 123 for the pixel corresponding to this region or the pixel region, as the final distance information, that is, the distance (depth) shown in FIG.
  • the configuration data of the information 152 is used.
  • Region (b), ie TOF reliability ⁇ ⁇ Th1 Stereo reliability ⁇ ⁇ Th2 The region corresponding to these conditions is a region where the TOF reliability ⁇ is relatively low and the stereo reliability ⁇ is determined to be relatively high.
  • the subject distance information generation unit 126 uses the stereo distance information 204 calculated by the stereo distance calculation unit 122 for the pixel corresponding to this region or the pixel region, as final distance information, that is, the distance (depth) shown in FIG.
  • the configuration data of the information 152 is used.
  • Region (c), ie TOF reliability ⁇ ⁇ Th1 Stereo reliability ⁇ ⁇ Th2 The region corresponding to these conditions is a region in which it is determined that the TOF reliability ⁇ is relatively low and the stereo reliability ⁇ is also relatively low.
  • the subject distance information generation unit 126 calculates the TOF distance information 205 calculated by the TOF method distance calculation unit 123 and the stereo distance information 204 calculated by the stereo method distance calculation unit 122 for the pixel corresponding to this region or the pixel region.
  • the blending (synthesizing) processing result is the final distance information, that is, the configuration data of the distance (depth) information 152 shown in FIG. A specific example of the blend (synthesis) process will be described later.
  • the processing example shown in FIG. 6 is a processing example in which the TOF distance information 205 calculated by the TOF method distance calculation unit 123 is set to be preferentially selected.
  • a processing example in which the stereo distance information 204 calculated by the stereo system distance calculation unit 122 is set to be preferentially selected will be described with reference to FIG.
  • the graph shown in FIG. 7 is the same as the graph shown in FIG.
  • the horizontal axis represents the TOF reliability ⁇ generated by the TOF distance reliability determination unit 125
  • the vertical axis represents the stereo reliability ⁇ generated by the stereo distance reliability determination unit 124, It is.
  • the reliability ⁇ and ⁇ are both in the range of 0 to 1, with the lowest reliability being 0 and the highest reliability being 1.
  • Region (e) Stereo reliability ⁇ ⁇ Th2 TOF reliability ⁇ ⁇ Th1 This is a region corresponding to these conditions.
  • Region (f) Stereo reliability ⁇ ⁇ Th2 TOF reliability ⁇ ⁇ Th1 This is a region corresponding to these conditions.
  • the subject distance information generation unit 126 (1) Stereo reliability ⁇ generated by the stereo distance reliability determination unit 124, (2) TOF reliability ⁇ generated by the TOF distance reliability determination unit 125, It is determined where these two reliability levels correspond to the regions (d) to (f), and final distance information, that is, subject distance information generation shown in FIG.
  • the distance (depth) information 152 that is the output of the unit 126 is generated.
  • Region (d), ie Stereo reliability ⁇ ⁇ Th2 TOF reliability ⁇ 0 ⁇ 1
  • the region corresponding to these conditions is a region where the stereo reliability ⁇ is determined to be relatively high.
  • the subject distance information generation unit 126 uses the stereo distance information 204 calculated by the stereo distance calculation unit 122 for the pixel corresponding to this region or the pixel region, as final distance information, that is, the distance (depth) shown in FIG.
  • the configuration data of the information 152 is used.
  • Region (e), ie Stereo reliability ⁇ ⁇ Th2 TOF reliability ⁇ ⁇ Th1 The region corresponding to these conditions is a region in which the stereo reliability ⁇ is relatively low and the TOF reliability ⁇ is determined to be relatively high.
  • the subject distance information generation unit 126 uses the TOF distance information 205 calculated by the TOF method distance calculation unit 123 for the pixel corresponding to this region or the pixel region, as the final distance information, that is, the distance (depth) shown in FIG.
  • the configuration data of the information 152 is used.
  • Region (f), ie Stereo reliability ⁇ ⁇ Th2 TOF reliability ⁇ ⁇ Th1 The region corresponding to these conditions is a region in which it is determined that the stereo reliability ⁇ is relatively low and the TOF reliability ⁇ is also relatively low.
  • the subject distance information generation unit 126 calculates the TOF distance information 205 calculated by the TOF method distance calculation unit 123 and the stereo distance information 204 calculated by the stereo method distance calculation unit 122 for the pixel corresponding to this region or the pixel region.
  • the blending (synthesizing) processing result is the final distance information, that is, the configuration data of the distance (depth) information 152 shown in FIG. A specific example of the blend (synthesis) process will be described later.
  • the graph shown in FIG. 8 is similar to the graph shown in FIG.
  • the horizontal axis represents the TOF reliability ⁇ generated by the TOF distance reliability determination unit 125
  • the vertical axis represents the stereo reliability ⁇ generated by the stereo distance reliability determination unit 124, It is.
  • the reliability ⁇ and ⁇ are both in the range of 0 to 1, with the lowest reliability being 0 and the highest reliability being 1.
  • Region (h) Stereo reliability ⁇ ⁇ Th2 TOF reliability ⁇ ⁇ Th1 This is a region corresponding to these conditions.
  • the subject distance information generation unit 126 (1) Stereo reliability ⁇ generated by the stereo distance reliability determination unit 124, (2) TOF reliability ⁇ generated by the TOF distance reliability determination unit 125, It is determined where these two reliability levels correspond to the regions (g) to (h), and final distance information, that is, subject distance information generation shown in FIG.
  • the distance (depth) information 152 that is the output of the unit 126 is generated.
  • the subject distance information generation unit 126 uses the stereo distance information 204 calculated by the stereo distance calculation unit 122 for the pixel corresponding to this region or the pixel region, as final distance information, that is, the distance (depth) shown in FIG.
  • the configuration data of the information 152 is used.
  • Region (h), ie Stereo reliability ⁇ ⁇ Th2 TOF reliability ⁇ ⁇ Th1 The region corresponding to these conditions is a region in which the stereo reliability ⁇ is relatively low and the TOF reliability ⁇ is determined to be relatively high.
  • the subject distance information generation unit 126 calculates the TOF distance information 205 calculated by the TOF method distance calculation unit 123 and the stereo distance information 204 calculated by the stereo method distance calculation unit 122 for the pixel corresponding to this region or the pixel region.
  • the blending (synthesizing) processing result is the final distance information, that is, the configuration data of the distance (depth) information 152 shown in FIG. A specific example of the blend (synthesis) process will be described later.
  • the subject distance information generation unit 126 (1) Stereo reliability ⁇ generated by the stereo distance reliability determination unit 124, (2) TOF reliability ⁇ generated by the TOF distance reliability determination unit 125, It is determined where these two reliability levels correspond to a predetermined reliability classification area, and final distance information, that is, a subject distance information generation unit shown in FIG.
  • the distance (depth) information 152 which is the output of 126 is generated.
  • FIG. 9 shows a processing example of the subject distance information generation unit 126 similar to the processing example described with reference to FIG.
  • FIG. 9A shows a processing example when the TOF distance reliability is estimated to be relatively high (Th1 ⁇ TOF reliability ⁇ ). This corresponds to the region of the right half (Th1 ⁇ TOF reliability ⁇ ) of the graph of FIG.
  • FIG. 9 (h) corresponds to the area of FIG. 8 (h), performs a blend process of stereo distance information and TOF distance information, and sets the blend (synthesis) process result as final distance information.
  • FIG. 9G1 corresponds to the region on the right side (Th1 ⁇ TOF reliability ⁇ ) of FIG. In this region, since the stereo reliability ⁇ of the stereo distance information is sufficiently high, the stereo distance information is used as final distance information.
  • FIG. 9B shows a processing example when the TOF distance reliability is estimated to be relatively low (TOF reliability ⁇ ⁇ Th1). This corresponds to the region of the left half (TOF reliability ⁇ ⁇ Th1) of the graph of FIG.
  • FIG. 9 (g2) corresponds to the region on the left side (TOF reliability ⁇ ⁇ Th1) of FIG. 8 (g). In this region, since the TOF reliability ⁇ of the TOF distance information is low, the stereo distance information is used as final distance information.
  • FIG. 9 (1) shows a specific processing example of the blend processing of stereo distance information and TOF distance information.
  • Various processes are possible for the blending process of the stereo distance information and the TOF distance information. The following three blend processing examples will be described.
  • the final distance information [depth] by these three types of blend processing is
  • the stereo distance information 204 generated by the stereo distance calculation unit 122 is represented by [depth stereo ]
  • the TOF distance information 205 generated by the TOF method distance calculation unit 123 is changed to [depth TOF ], Is calculated by the following (Expression 2a) to (Expression 2c).
  • FIGS. 10 to 12 are flowcharts for explaining three different types of distance information calculation processing sequences executed by the image processing apparatus 100. Specifically, each corresponds to a distance information calculation processing sequence of the following mode. (1) Processing sequence using two pieces of reliability information of stereo distance reliability and TOF distance reliability (FIG. 10) (2) Processing sequence using only one piece of reliability information of TOF distance reliability (FIG. 11) (3) A processing sequence using only one piece of reliability information of TOF distance reliability and selecting either stereo distance information or TOF distance information in units of pixels to obtain final distance information (FIG. 12).
  • control unit data processing unit
  • CPU central processing unit
  • processing program stored in the storage unit
  • Steps S101a and 101b are image photographing processing. Two images are taken by the first imaging unit 107 and the second imaging unit 108 shown in FIGS. 1 and 2. Step S101a is a photographing process of the visible light image 200 in the first imaging unit 107 shown in FIG. Step S101b is a photographing process of the visible light + infrared light image 201 in the second imaging unit 108 shown in FIG.
  • Step S102 is a process executed by the infrared light (IR) separator 121 shown in FIG.
  • the infrared light (IR) separation unit 121 inputs the visible light + infrared light image 201 captured by the second imaging unit 108 in step S101b, and executes infrared light (IR) separation processing.
  • a visible light image 202 and an infrared light image 203 shown in FIG. 2 are generated.
  • This infrared light (IR) separation process is the process described above with reference to FIG.
  • Step S103 The process of the next step S103 is a process executed by the TOF method distance calculation unit 123 shown in FIG.
  • the TOF method distance calculation unit 123 executes subject distance calculation processing according to the TOF (Time of Flight) method.
  • the TOF method distance calculation unit 123 uses the infrared light image 203 generated by the infrared light (IR) separation unit 121 in step S102 to irradiate infrared light (IR) of the second imaging unit 108 shown in FIG.
  • the time from the infrared light irradiation timing of the unit 113 to the infrared light receiving timing in the second image sensor 112 is measured, and the subject distance is calculated.
  • This subject distance calculation is executed in units of pixels or in units of pixel areas composed of a predetermined number of pixels.
  • Step S104 The process of the next step S104 is a process executed by the stereo distance calculating unit 122 shown in FIG.
  • the stereo system distance calculation unit 122 executes subject distance calculation processing according to the stereo system.
  • the distance to the subject is calculated by triangulation based on the amount of parallax calculated by using and the baseline length that is the interval between the first imaging unit 107 and the second imaging unit 108. This distance calculation is executed in units of pixels constituting an image or in units of pixel areas composed of a plurality of pixels.
  • Step S105 The process of the next step S105 is a process executed by the stereo distance reliability determination unit 124 shown in FIG.
  • the stereo distance reliability determination unit 124 determines whether or not the subject distance information generated by the stereo system distance calculation unit 122 is reliable data, and the stereo reliability including the determination information as illustrated in FIG. A degree 206 is generated and output to the subject distance information generation unit 126.
  • the stereo reliability 206 generated by the stereo distance reliability determination unit 124 includes reliability information for each piece of subject distance information generated by the stereo distance calculation unit 122 in units of pixels or pixel areas.
  • the stereo distance reliability determination unit 124 determines the reliability using, for example, the variance values of the block configuration pixels applied to the block matching process in the stereo distance calculation unit 122. .
  • the stereo distance reliability ⁇ is a higher value, that is, a value close to 1.
  • the stereo distance reliability ⁇ is a lower value, that is, a value close to 0.
  • Step S106 The process of the next step S106 is a process executed by the TOF distance reliability determination unit 125 shown in FIG.
  • the TOF distance reliability determination unit 125 determines whether or not the subject distance information generated by the TOF method distance calculation unit 123 is reliable data, and as shown in FIG. A degree 207 is generated and output to the subject distance information generation unit 126.
  • the TOF reliability 206 generated by the TOF distance reliability determination unit 125 includes reliability information for each of the subject distance information generated by the TOF method distance calculation unit 123 in units of pixels or pixel areas.
  • the reliability determination process executed by the TOF distance reliability determination unit 125 is, for example, the process described above with reference to FIG. That is, the reliability is determined according to both external infrared light input to the light receiving element when the infrared light (IR) irradiation unit 113 is not irradiated with infrared light.
  • IR infrared light
  • the infrared light is not irradiated by the infrared light (IR) irradiation unit 113
  • the received light intensity of the infrared light is large, it means that there is a large amount of infrared light such as sunlight, and an accurate TOF distance. It means that measurement becomes difficult.
  • the reliability ⁇ of the TOF distance calculated by the TOF method distance calculation unit 123 is set to a lower value, that is, 0. A close value.
  • the received light intensity when the infrared light (IR) irradiation unit 113 does not irradiate the infrared light is small, it means that the infrared light of external factors such as sunlight is small, and accurate TOF distance measurement is possible.
  • the reliability ⁇ of the TOF distance calculated by the TOF method distance calculation unit 123 is set to a higher value, that is, 1. A close value.
  • the TOF distance reliability determination unit 125 calculates the TOF distance reliability ⁇ calculated by the TOF method distance calculation unit 123, for example, in pixel units or pixel area units. This reliability information is the TOF reliability 207 shown in FIG.
  • the TOF distance reliability determination unit 125 outputs the generated TOF reliability 207 to the subject distance information generation unit 126 as shown in FIG.
  • Step S107 The process of step S107 is a process executed by the subject distance information generation unit 126 shown in FIG.
  • the subject distance information generation unit 126 confirms the reliability of the stereo distance information 204 and the TOF distance information 205 based on the stereo distance reliability 206 and the TOF distance reliability 207, and selects either distance information or 2 A result of combining two pieces of distance information is generated and generated as final output distance information.
  • This process is executed in units of pixels or in units of pixel areas composed of a predetermined number of pixels.
  • the subject distance information generation unit 126 selects one of distance information determined to have high reliability based on the stereo reliability 206 and the TOF reliability 207, or generates new distance information by blend processing. Any of these is output as final distance information, that is, distance (depth) information 152.
  • This specific processing example is as described with reference to FIGS.
  • Step S108 it is determined whether or not final distance information generation has been completed for all pixels. If there is a pixel that has not been completed, the process returns to step S105, and the processing from step S105 onward is executed for the unprocessed pixel.
  • step S108 If it is determined in step S108 that the generation of final distance information has been completed for all pixels, the process ends. At this point, the distance (depth) information 152 shown in FIG.
  • This distance (depth) information 152 is (A) Stereo distance information, (B) TOF distance information, (C) Composite distance information of stereo distance information and TOF distance information; Any one of the distance information (a) to (c) is distance (depth) information set in pixel units or pixel area units. As the distance information associated with each pixel, distance information with high reliability is selected, and highly accurate distance information is output for the entire image.
  • Steps S101 to S104 The processing in steps S101 to S104 is similar to the processing in steps S101 to S104 described above with reference to the flowchart of FIG.
  • Step S101a is a photographing process of the visible light image 200 in the first imaging unit 107 shown in FIG.
  • Step S101b is a photographing process of the visible light + infrared light image 201 in the second imaging unit 108 shown in FIG.
  • Step S102 is a process executed by the infrared light (IR) separation unit 121 shown in FIG.
  • a separation process is executed to generate a visible light image 202 and an infrared light image 203 shown in FIG.
  • the processing in step S103 is subject distance calculation processing according to the TOF (Time of Flight) method executed by the TOF method distance calculation unit 123 shown in FIG.
  • a subject distance (TOF distance) is calculated using the infrared light image 203 generated by the infrared light (IR) separator 121.
  • the process of step S104 is a process executed by the stereo distance calculation unit 122 shown in FIG.
  • the stereo distance calculation unit 122 uses the two image signals of the visible light image 200 captured by the first image capturing unit 107 and the visible light image 202 obtained from the captured image by the second image capturing unit 108, and uses the subject distance (stereo). Distance). This distance calculation is executed in units of pixels constituting an image or in units of pixel areas composed of a plurality of pixels.
  • Step S151 The process of the next step S151 is a process executed by the TOF distance reliability determination unit 125 shown in FIG.
  • the TOF distance reliability determination unit 125 determines whether or not the subject distance information generated by the TOF method distance calculation unit 123 is reliable data, and as shown in FIG. A degree 207 is generated and output to the subject distance information generation unit 126.
  • the TOF reliability 206 generated by the TOF distance reliability determination unit 125 includes reliability information for each of the subject distance information generated by the TOF method distance calculation unit 123 in units of pixels or pixel areas.
  • the reliability determination process executed by the TOF distance reliability determination unit 125 is, for example, the process described above with reference to FIG. That is, the reliability is determined according to both external infrared light input to the light receiving element when the infrared light (IR) irradiation unit 113 is not irradiated with infrared light.
  • IR infrared light
  • the infrared light is not irradiated by the infrared light (IR) irradiation unit 113
  • the received light intensity of the infrared light is large, it means that there is a large amount of infrared light such as sunlight, and an accurate TOF distance. It means that measurement becomes difficult.
  • the reliability ⁇ of the TOF distance calculated by the TOF method distance calculation unit 123 is set to a lower value, that is, 0. A close value.
  • the received light intensity when the infrared light (IR) irradiation unit 113 does not irradiate the infrared light is small, it means that the infrared light of external factors such as sunlight is small, and accurate TOF distance measurement is possible.
  • the reliability ⁇ of the TOF distance calculated by the TOF method distance calculation unit 123 is set to a higher value, that is, 1. A close value.
  • the TOF distance reliability determination unit 125 calculates the TOF distance reliability ⁇ calculated by the TOF method distance calculation unit 123, for example, in pixel units or pixel area units. This reliability information is the TOF reliability 207 shown in FIG.
  • the TOF distance reliability determination unit 125 outputs the generated TOF reliability 207 to the subject distance information generation unit 126 as shown in FIG.
  • Step S152 The process of step S152 is a process executed by the subject distance information generation unit 126 shown in FIG.
  • the subject distance information generation unit 126 is based on the TOF distance reliability 207.
  • This process is executed in units of pixels or in units of pixel areas composed of a predetermined number of pixels.
  • the stereo reliability 206 is not used, output information is generated based only on the TOF reliability 207, and is output as distance (depth) information 152.
  • Step S153 it is determined whether or not final distance information generation has been completed for all pixels. If there is a pixel that has not been completed, the process returns to step S151, and the process from step S151 onward is executed for the unprocessed pixel.
  • step S153 If it is determined in step S153 that the generation of final distance information has been completed for all pixels, the process ends. At this point, the distance (depth) information 152 shown in FIG.
  • This distance (depth) information 152 is (A) Stereo distance information, (B) TOF distance information, (C) Composite distance information of stereo distance information and TOF distance information; Any one of the distance information (a) to (c) is distance (depth) information set in pixel units or pixel area units. As the distance information associated with each pixel, distance information with high reliability is selected, and highly accurate distance information is output for the entire image.
  • Steps S101 to S104 The processing in steps S101 to S104 is similar to the processing in steps S101 to S104 described above with reference to the flowchart of FIG.
  • Step S101a is a photographing process of the visible light image 200 in the first imaging unit 107 shown in FIG.
  • Step S101b is a photographing process of the visible light + infrared light image 201 in the second imaging unit 108 shown in FIG.
  • Step S102 is a process executed by the infrared light (IR) separation unit 121 shown in FIG. 2.
  • the visible light + infrared light image 201 captured by the second imaging unit 108 is input, and infrared light (IR) is input.
  • a separation process is executed to generate a visible light image 202 and an infrared light image 203 shown in FIG.
  • the processing in step S103 is subject distance calculation processing according to the TOF (Time of Flight) method executed by the TOF method distance calculation unit 123 shown in FIG.
  • a subject distance (TOF distance) is calculated using the infrared light image 203 generated by the infrared light (IR) separator 121.
  • the process of step S104 is a process executed by the stereo distance calculation unit 122 shown in FIG.
  • the stereo distance calculation unit 122 uses the two image signals of the visible light image 200 captured by the first image capturing unit 107 and the visible light image 202 obtained from the captured image by the second image capturing unit 108, and uses the subject distance (stereo). Distance). This distance calculation is executed in units of pixels constituting an image or in units of pixel areas composed of a plurality of pixels.
  • Step S181 The process of the next step S181 is a process executed by the TOF distance reliability determination unit 125 shown in FIG.
  • the TOF distance reliability determination unit 125 determines whether or not the subject distance information generated by the TOF method distance calculation unit 123 is reliable data, and the TOF reliability including the determination information as illustrated in FIG. A degree 207 is generated and output to the subject distance information generation unit 126.
  • the TOF reliability 206 generated by the TOF distance reliability determination unit 125 includes reliability information for each of the subject distance information generated by the TOF method distance calculation unit 123 in units of pixels or pixel areas.
  • the reliability determination process executed by the TOF distance reliability determination unit 125 is, for example, the process described above with reference to FIG. That is, the reliability is determined according to both external infrared light input to the light receiving element when the infrared light (IR) irradiation unit 113 is not irradiated with infrared light.
  • IR infrared light
  • the infrared light is not irradiated by the infrared light (IR) irradiation unit 113
  • the received light intensity of the infrared light is large, it means that there is a large amount of infrared light such as sunlight, and an accurate TOF distance. It means that measurement becomes difficult.
  • the reliability ⁇ of the TOF distance calculated by the TOF method distance calculation unit 123 is set to a lower value, that is, 0. A close value.
  • the received light intensity when the infrared light (IR) irradiation unit 113 does not irradiate the infrared light is small, it means that the infrared light of external factors such as sunlight is small, and accurate TOF distance measurement is possible.
  • the reliability ⁇ of the TOF distance calculated by the TOF method distance calculation unit 123 is set to a higher value, that is, 1. A close value.
  • the TOF distance reliability determination unit 125 calculates the TOF distance reliability ⁇ calculated by the TOF method distance calculation unit 123, for example, in pixel units or pixel area units. This reliability information is the TOF reliability 207 shown in FIG.
  • the TOF distance reliability determination unit 125 outputs the generated TOF reliability 207 to the subject distance information generation unit 126 as shown in FIG.
  • Step S182 The processes in steps S182 to S184 are executed by the subject distance information generation unit 126 shown in FIG.
  • the subject distance information generation unit 126 is based on the TOF distance reliability 207.
  • the process of synthesizing the stereo distance information and the TOF distance information is not executed, and either the stereo distance information or the TOF distance information is selected for each pixel as final output distance information.
  • step S182 it is determined whether or not the TOF reliability 207 is low, that is, less than a predetermined threshold value. If it is determined that the TOF reliability 207 is lower than the predetermined threshold value and the TOF reliability 207 is low, the process proceeds to step S183. On the other hand, if it is determined that the TOF reliability 207 is not low, that is, is equal to or higher than the predetermined threshold value, and it is determined that the TOF reliability 207 is high, the process proceeds to step S184.
  • Step S183 If it is determined in step S182 that the TOF reliability 207 is low, the subject distance information generation unit 126 selects stereo distance information as final output distance information in step S183.
  • Step S184 On the other hand, if it is determined in step S182 that the TOF reliability 207 is not low, the subject distance information generation unit 126 selects TOF distance information as final output distance information in step S184.
  • Step S185 it is determined whether or not final distance information generation has been completed for all pixels. If there is a pixel that has not been completed, the process returns to step S181, and the process from step S181 onward is executed for the unprocessed pixel.
  • step S185 If it is determined in step S185 that the generation of final distance information has been completed for all pixels, the process ends. At this point, the distance (depth) information 152 shown in FIG.
  • This distance (depth) information 152 is (A) Stereo distance information, (B) TOF distance information, Any one of the distance information (a) to (b) is distance information set in units of pixels or in units of pixel areas. As the distance information associated with each pixel, distance information with high reliability is selected, and highly accurate distance information is output for the entire image.
  • the image processing unit 120 inputs the two images input from the imaging unit 106 and applies the two images to generate the distance (depth) information 152 indicating the subject distance (depth).
  • the image 151 is generated as a high-quality image with reduced noise by combining the two images.
  • FIG. 13 is a block diagram illustrating a partial configuration of the image processing unit 120 of the image processing apparatus 100.
  • FIG. 13 illustrates a configuration applied to the generation process of the composite image 410 in the configuration of the image processing unit 120.
  • the image processing unit 120 includes an infrared light (IR) separation unit 121 and an image composition unit 300.
  • IR infrared light
  • Input signals to the image processing unit 120 are the following signals. (1) a visible light image 200 input from the first imaging unit 107, (2) Visible light + infrared light image 201 input from the second imaging unit 108,
  • the infrared light (IR) separation unit 121 receives the visible light + infrared light image 201 input from the second imaging unit 108, and the infrared light (IR) separation processing of the visible light + infrared light image 201. Execute.
  • the infrared light (IR) separation processing executed by the infrared light (IR) separation unit 121 is the processing described above with reference to FIG.
  • the following image is input to the image composition unit 300.
  • a visible light image 200 that is a captured image of the first imaging unit 107;
  • the visible light image 202 generated from the captured image of the second imaging unit 108,
  • the image composition unit 300 includes an image shift detection unit 301, a blend rate calculation unit 302, and a blend execution unit 303.
  • the image shift detection unit 301 inputs the following two images. (1) a visible light image 200 that is a captured image of the first imaging unit 107; (2) the visible light image 202 generated from the captured image of the second imaging unit 108,
  • the image misalignment detection unit 301 detects image misregistration for these two images. A positional shift amount in pixel units is calculated, and shift information 311 including shift amount data in pixel units is generated and output to the blend rate calculation unit 302.
  • the blend rate calculation unit 302 has two images based on “deviation information 311” input from the image deviation detection unit 301, that is, the deviation amount in pixel units, that is, (1) a visible light image 200 that is a captured image of the first imaging unit 107; (2) the visible light image 202 generated from the captured image of the second imaging unit 108, The blending rate between the corresponding positions of these two images, that is, the pixels at the same coordinate position is calculated.
  • the blend rate is set high for pixels with a small shift amount, and the blend rate is set small for pixels with a large shift amount.
  • the blending ratio is determined by setting as shown in the graph of FIG. In the graph shown in FIG. 15, the horizontal axis indicates the positional deviation amount of the corresponding pixels of the two images, and the vertical axis indicates the blend rate.
  • the blend rate calculation unit 302 blends the corresponding positions of two images based on the “deviation information 311” input from the image deviation detection unit 301, that is, the pixel-based deviation amount, that is, the pixels at the same coordinate position. Calculate the rate. As shown in FIG. 14, the calculated blend rate 312 is output to the blend execution unit 303.
  • the blend execution unit 303 executes the blending process between the corresponding positions of the two images, that is, the pixels at the same coordinate position, based on the “deviation information 311” input from the blend ratio calculation unit 302, that is, the deviation amount in pixel units.
  • a composite image 410 is generated and output.
  • the composite image 410 becomes a high-quality image with reduced noise by combining the two images. Note that the level of image quality improvement expected by this composition processing varies depending on the configuration of the imaging element of the imaging unit that captures an image.
  • FIG. 16 shows a case where the first image pickup unit and the second image pickup unit have a Bayer array, that is, an RGB pixel array, a white array, that is, a WB pixel array, and a combination of these four types.
  • FIG. 5 shows an image quality improvement mode realized by the above-described two image synthesis processing.
  • both of the two imaging units are in a Bayer array, a noise reduction effect can be obtained for both the luminance signal and the chroma signal (color, saturation). Further, when at least one of the imaging elements is a white array, a noise reduction effect can be obtained only for the luminance signal.
  • Step S201a is a photographing process of the visible light image 200 in the first imaging unit 107 shown in FIG.
  • Step S201b is a photographing process of the visible light + infrared light image 201 in the second imaging unit 108 shown in FIG.
  • Step S202 is processing executed by the infrared light (IR) separation unit 121 illustrated in FIG. 2.
  • the visible light + infrared light image 201 captured by the second imaging unit 108 is input, and infrared light (IR) is input.
  • a separation process is executed to generate a visible light image 202 and an infrared light image 203 shown in FIG. As shown in FIGS. 13 and 14, the following image is input to the image composition unit 300. (1) a visible light image 200 that is a captured image of the first imaging unit 107; (2) the visible light image 202 generated from the captured image of the second imaging unit 108,
  • Step S203 The process of step S203 is a process executed by the image shift detection unit 301 of the image composition unit 300 shown in FIG.
  • the image shift detection unit 301 inputs the following two images. (1) a visible light image 200 that is a captured image of the first imaging unit 107; (2) the visible light image 202 generated from the captured image of the second imaging unit 108,
  • the image misalignment detection unit 301 detects image misregistration for these two images. A positional shift amount in pixel units is calculated, and shift information 311 including shift amount data in pixel units is generated and output to the blend rate calculation unit 302.
  • Step S204 The process of step S204 is a process executed by the blend rate calculation unit 302 of the image composition unit 300 shown in FIG.
  • the blend rate calculation unit 302 has two images based on “deviation information 311” input from the image deviation detection unit 301, that is, the deviation amount in pixel units, that is, (1) a visible light image 200 that is a captured image of the first imaging unit 107; (2) the visible light image 202 generated from the captured image of the second imaging unit 108, The blending rate between the corresponding positions of these two images, that is, the pixels at the same coordinate position is calculated.
  • the blend rate is set high for pixels with a small deviation amount, and the blend rate is set low for pixels with a large deviation amount.
  • the calculated blend rate 312 is output to the blend execution unit 303.
  • Step S205 The process of step S205 is a process executed by the blend execution unit 303 of the image composition unit 300 shown in FIG.
  • the blend execution unit 303 executes the blending process between the corresponding positions of the two images, that is, the pixels at the same coordinate position, based on the “deviation information 311” input from the blend ratio calculation unit 302, that is, the deviation amount in pixel units. A corrected pixel value for each pixel is calculated.
  • Step S206 it is determined whether correction pixel value calculation has been completed for all pixels. If there is a pixel that has not been completed, the process returns to step S203, and the process from step S203 onward is executed for the unprocessed pixel.
  • step S206 If it is determined in step S206 that correction pixel value calculation has been completed for all pixels, the process proceeds to step S207.
  • Step S207 When the correction pixel value calculation is completed for all pixels, the blend execution unit 303 of the image composition unit 300 illustrated in FIG. 14 generates and outputs a composite image 410 in which the correction pixel value is set.
  • the composite image 410 becomes a high-quality image with reduced noise by combining the two images.
  • the technology disclosed in this specification can take the following configurations. (1) having an image processing unit that inputs a first image and a second image, which are captured images from two different viewpoints, and generates distance information indicating a subject distance;
  • the image processing unit A TOF method distance calculation unit that calculates a TOF distance that is a subject distance according to a TOF (Time of Flight) method using an infrared light component of the second image;
  • a stereo distance calculation unit that calculates a stereo distance, which is a subject distance according to a stereo method, using visible light components of the first image and the second image;
  • a TOF distance reliability determination unit that determines the reliability of the TOF distance;
  • An image processing apparatus comprising: a subject distance information generation unit that generates, as final distance information, the stereo distance or the combined distance information of the TOF distance and the stereo distance for a pixel region having a low reliability of the TOF distance.
  • the image processing apparatus includes: An infrared light separating unit for separating the second image into a visible light component image and an infrared light component image;
  • the TOF method distance calculation unit executes subject distance calculation processing using the infrared light component image generated by the infrared light separation unit,
  • the TOF distance reliability determination unit The reliability of the TOF distance is determined according to the amount of the infrared light component included in the second image that is a captured image of the second imaging unit at the time of non-irradiation with infrared light (1) or (2) Image processing apparatus.
  • the image processing apparatus further includes: A stereo distance reliability determination unit that determines the reliability of the stereo distance that is the subject distance calculated by the stereo method distance calculation unit; The subject distance information generating unit For the pixel region having a low stereo distance reliability, the TOF distance or the distance information calculated by combining the TOF distance and the stereo distance is generated as final distance information (1) to (3) The image processing apparatus described.
  • the stereo distance reliability determination unit includes: The image processing apparatus according to (4), wherein the reliability of the stereo distance is determined according to a variance value of pixel values of block configuration pixels applied to the block matching process in the stereo system distance calculation unit.
  • the subject distance information generation unit According to the reliability of the TOF distance in units of pixels or pixel areas, in units of pixels or pixel areas, (A) stereo distance, (B) TOF distance, (C) the combined distance of the stereo distance and the TOF distance;
  • the image processing apparatus according to any one of (1) to (5), wherein the distance information of any one of (a) to (c) is generated as final distance information.
  • the subject distance information generation unit Depending on the reliability of the stereo distance in pixels or pixel area units, in pixel or pixel area units, (A) stereo distance, (B) TOF distance, (C) the combined distance of the stereo distance and the TOF distance;
  • the image processing apparatus according to any one of (1) to (6), wherein the distance information of any one of (a) to (c) is generated as final distance information.
  • a first imaging unit that captures a first image composed of visible light components
  • a second imaging unit that captures a second image including a visible light component and an infrared light component
  • An image processing unit that inputs the first image and the second image and generates distance information indicating a subject distance
  • the image processing unit A TOF method distance calculation unit that performs subject distance calculation according to the TOF (Time of Flight) method using the second image;
  • a stereo distance calculation unit that calculates a subject distance according to a stereo method using the first image and the second image;
  • a TOF distance reliability determination unit that determines the reliability of the TOF distance that is the subject distance calculated by the TOF method distance calculation unit;
  • a subject distance information generating unit that generates final distance information based on the reliability of the TOF distance;
  • the subject distance information generating unit Imaging that generates, as final distance information, the distance information calculated by combining the stereo distance, which is the subject distance according to the stereo method, or the synthesis process of the TOF distance and the stereo distance, with respect to
  • An image processing unit that generates a composite image by inputting a first image and a second image that are captured images from two different viewpoints;
  • the first image is an image composed of a visible light component
  • the second image is an image including a visible light component and an infrared light component
  • the image processing unit An infrared light separation unit for separating the second image into a visible light component image and an infrared light component image;
  • An image processing apparatus comprising: an image composition unit that performs composition processing of the first image and the visible light component image generated by the infrared light separation unit based on the second image.
  • the image composition unit An image shift calculation unit that calculates a positional shift amount in pixel units between the first image and the visible light component image generated by the infrared light separation unit based on the second image; A blend ratio in units of pixels between the first image and the visible light component image generated based on the second image by the infrared light separation unit is calculated according to the amount of positional shift calculated by the image shift calculation unit.
  • a blend rate calculator In accordance with the blending ratio calculated by the blending ratio calculating unit, blending is performed in which the first image and the visible light component image generated by the infrared light separation unit based on the second image are subjected to a pixel unit blending process.
  • the image processing apparatus according to (9), further including a unit.
  • the image processing apparatus further includes: The image processing apparatus according to (9) or (10), further including a TOF method distance calculation unit that performs subject distance calculation according to a TOF (Time of Flight) method using the second image.
  • a TOF method distance calculation unit that performs subject distance calculation according to a TOF (Time of Flight) method using the second image.
  • the image processing apparatus further includes: The image processing apparatus according to any one of (9) to (11), further including a stereo distance calculation unit that performs subject distance calculation according to a stereo method using the first image and the second image.
  • the image processing apparatus includes an image processing unit that inputs a first image and a second image, which are captured images from two different viewpoints, and generates distance information indicating a subject distance;
  • the image processing unit A TOF method distance calculation process for calculating a TOF distance that is a subject distance according to a TOF (Time of Flight) method using an infrared light component of the second image;
  • Stereo method distance calculation processing for calculating a stereo distance, which is a subject distance according to a stereo method, using visible light components of the first image and the second image;
  • a TOF distance reliability determination process for determining the reliability of the TOF distance;
  • An image processing method for executing subject distance information generation processing for generating, as final distance information, the stereo distance or the combined distance information of the TOF distance and the stereo distance for a pixel region having a low reliability of the TOF distance.
  • An image processing method executed in the image processing apparatus includes: An image processing unit that inputs a first image and a second image, which are captured images from two different viewpoints, and generates a composite image;
  • the first image is an image composed of a visible light component
  • the second image is an image including a visible light component and an infrared light component
  • the image processing unit An infrared light separation process for separating the second image into a visible light component image and an infrared light component image;
  • An image processing method for executing synthesis processing of the first image and a visible light component image generated based on the second image.
  • a program for executing image processing in an image processing apparatus includes an image processing unit that inputs a first image and a second image, which are captured images from two different viewpoints, and generates distance information indicating a subject distance;
  • the program is stored in the image processing unit.
  • a TOF method distance calculation process for calculating a TOF distance that is a subject distance according to a TOF (Time of Flight) method using an infrared light component of the second image; Stereo method distance calculation processing for calculating a stereo distance, which is a subject distance according to a stereo method, using visible light components of the first image and the second image; A TOF distance reliability determination process for determining the reliability of the TOF distance; A program for executing subject distance information generation processing for generating, as final distance information, the stereo distance or the combined distance information of the TOF distance and the stereo distance for a pixel region with low reliability of the TOF distance.
  • TOF Time of Flight
  • a program for executing image processing in an image processing apparatus includes: An image processing unit that inputs a first image and a second image, which are captured images from two different viewpoints, and generates a composite image;
  • the first image is an image composed of a visible light component
  • the second image is an image including a visible light component and an infrared light component
  • the program is stored in the image processing unit.
  • An infrared light separation process for separating the second image into a visible light component image and an infrared light component image
  • the series of processes described in the specification can be executed by hardware, software, or a combined configuration of both.
  • the program recording the processing sequence is installed in a memory in a computer incorporated in dedicated hardware and executed, or the program is executed on a general-purpose computer capable of executing various processing. It can be installed and run.
  • the program can be recorded in advance on a recording medium.
  • the program can be received via a network such as a LAN (Local Area Network) or the Internet and installed on a recording medium such as a built-in hard disk.
  • the various processes described in the specification are not only executed in time series according to the description, but may be executed in parallel or individually according to the processing capability of the apparatus that executes the processes or as necessary.
  • the system is a logical set configuration of a plurality of devices, and the devices of each configuration are not limited to being in the same casing.
  • an apparatus and a method for generating accurate distance information of a subject are realized. Specifically, it has an image processing unit that calculates a subject distance by inputting a first image composed of a visible light component and a second image including a visible light component and an infrared light component.
  • Two pieces of distance information are calculated: a TOF distance which is a subject distance calculated according to the TOF method using the second image, and a stereo distance calculated according to the stereo method using the first image and the second image,
  • the TOF distance reliability indicating the reliability of the TOF distance is determined, and the pixel area with the low reliability of the TOF distance is calculated by the stereo distance that is the subject distance according to the stereo system, or the TOF distance and the stereo distance combining process.
  • the obtained distance information is generated as final distance information.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Electromagnetism (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Measurement Of Optical Distance (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

被写体の正確な距離情報の生成を行う装置、方法を提供する。可視光成分から構成される第1画像と、可視光成分と赤外光成分を含む第2画像を入力して被写体距離を算出する画像処理部を有し、画像処理部は、第2画像を利用してTOF方式に従って算出される被写体距離であるTOF距離と、第1画像と第2画像を利用してステレオ方式に従って算出されるステレオ距離の2つの距離情報を算出し、TOF距離の信頼度を示すTOF距離信頼度を判定し、TOF距離の信頼度が低い画素領域について、ステレオ方式に従った被写体距離であるステレオ距離、または、TOF距離とステレオ距離の合成処理によって算出した距離情報を最終的な距離情報として生成する。

Description

画像処理装置、撮像装置、および画像処理方法、並びにプログラム
 本開示は、画像処理装置、撮像装置、および画像処理方法、並びにプログラムに関する。特に、被写体までの距離計測を行う画像処理装置、撮像装置、および画像処理方法、並びにプログラムに関する。
 被写体までの距離を計測するカメラとして、TOF(Time of Flight)カメラが知られている。
 TOFカメラは、赤外光を被写体に照射して、反射した赤外光がカメラに入射されるまでに要した時間から距離を算出する。
 なお、TOF方式について開示した従来技術として、例えば特許文献1(特開2013-220254号)、特許文献2(特開2016-006627号公報)等がある。
 しかし、このような赤外光を利用した距離計測方式では、例えば太陽光が強い屋外や、照射した赤外光が届かない遠方の被写体の距離測定が困難となるという問題がある。
特開2013-220254号 特開2016-006627号公報
 本開示は、例えば、上記の問題点に鑑みてなされたものであり、本開示の一実施例においては、TOF方式による正確な距離測定が困難な場合でも、正確な距離測定を可能とする画像処理装置、撮像装置、および画像処理方法、並びにプログラムを提供することを目的とする。
 また、本開示の一実施例においては、複数の画像を適用した高画質画像を生成する画像処理装置、撮像装置、および画像処理方法、並びにプログラムを提供することを目的とする。
 本開示の第1の側面は、
 2つの異なる視点からの撮影画像である第1画像と第2画像を入力して、被写体距離を示す距離情報を生成する画像処理部を有し、
 前記画像処理部は、
 前記第2画像の赤外光成分を利用してTOF(Time of Flight)方式に従った被写体距離であるTOF距離を算出するTOF方式距離算出部と、
 前記第1画像と前記第2画像の可視光成分を利用してステレオ方式に従った被写体距離であるステレオ距離を算出するステレオ方式距離算出部と、
 前記TOF距離の信頼度を判定するTOF距離信頼度判定部と、
 前記TOF距離の信頼度が低い画素領域について、前記ステレオ距離、または、TOF距離とステレオ距離の合成距離情報を最終的な距離情報として生成する被写体距離情報生成部を有する画像処理装置にある。
 さらに、本開示の第2の側面は、
 可視光成分から構成される第1画像を撮影する第1撮像部と、
 可視光成分と赤外光成分を含む第2画像を撮影する第2撮像部と、
 前記第1画像と前記第2画像を入力して、被写体距離を示す距離情報を生成する画像処理部を有し、
 前記画像処理部は、
 前記第2画像を利用してTOF(Time of Flight)方式に従った被写体距離算出を実行するTOF方式距離算出部と、
 前記第1画像と前記第2画像を利用してステレオ方式に従った被写体距離算出を実行するステレオ方式距離算出部と、
 前記TOF方式距離算出部の算出した被写体距離であるTOF距離の信頼度を判定するTOF距離信頼度判定部と、
 前記TOF距離の信頼度に基づいて、最終的な距離情報を生成する被写体距離情報生成部を有し、
 前記被写体距離情報生成部は、
 前記TOF距離の信頼度が低い画素領域について、前記ステレオ方式に従った被写体距離であるステレオ距離、または、TOF距離とステレオ距離の合成処理によって算出した距離情報を最終的な距離情報として生成する撮像装置にある。
 さらに、本開示の第3の側面は、
 2つの異なる視点からの撮影画像である第1画像と第2画像を入力して、合成画像を生成する画像処理部を有し、
 前記第1画像は可視光成分から構成される画像であり、前記第2画像は可視光成分と赤外光成分を含む画像であり、
 前記画像処理部は、
 前記第2画像を可視光成分画像と赤外光成分画像に分離する赤外光分離部と、
 前記第1画像と、前記赤外光分離部が前記第2画像に基づいて生成した可視光成分画像との合成処理を実行する画像合成部を有する画像処理装置にある。
 さらに、本開示の第4の側面は、
 画像処理装置において実行する画像処理方法であり、
 前記画像処理装置は、2つの異なる視点からの撮影画像である第1画像と第2画像を入力して、被写体距離を示す距離情報を生成する画像処理部を有し、
 前記画像処理部が、
 前記第2画像の赤外光成分を利用してTOF(Time of Flight)方式に従った被写体距離であるTOF距離を算出するTOF方式距離算出処理と、
 前記第1画像と前記第2画像の可視光成分を利用してステレオ方式に従った被写体距離であるステレオ距離を算出するステレオ方式距離算出処理と、
 前記TOF距離の信頼度を判定するTOF距離信頼度判定処理と、
 前記TOF距離の信頼度が低い画素領域について、前記ステレオ距離、または、TOF距離とステレオ距離の合成距離情報を最終的な距離情報として生成する被写体距離情報生成処理を実行する画像処理方法にある。
 さらに、本開示の第5の側面は、
 画像処理装置において実行する画像処理方法であり、
 前記画像処理装置は、
 2つの異なる視点からの撮影画像である第1画像と第2画像を入力して、合成画像を生成する画像処理部を有し、
 前記第1画像は可視光成分から構成される画像であり、前記第2画像は可視光成分と赤外光成分を含む画像であり、
 前記画像処理部が、
 前記第2画像を可視光成分画像と赤外光成分画像に分離する赤外光分離処理と、
 前記第1画像と、前記第2画像に基づいて生成した可視光成分画像との合成処理を実行する画像処理方法にある。
 さらに、本開示の第6の側面は、
 画像処理装置において画像処理を実行させるプログラムであり、
 前記画像処理装置は、2つの異なる視点からの撮影画像である第1画像と第2画像を入力して、被写体距離を示す距離情報を生成する画像処理部を有し、
 前記プログラムは、前記画像処理部に、
 前記第2画像の赤外光成分を利用してTOF(Time of Flight)方式に従った被写体距離であるTOF距離を算出するTOF方式距離算出処理と、
 前記第1画像と前記第2画像の可視光成分を利用してステレオ方式に従った被写体距離であるステレオ距離を算出するステレオ方式距離算出処理と、
 前記TOF距離の信頼度を判定するTOF距離信頼度判定処理と、
 前記TOF距離の信頼度が低い画素領域について、前記ステレオ距離、または、TOF距離とステレオ距離の合成距離情報を最終的な距離情報として生成する被写体距離情報生成処理を実行させるプログラムにある。
 さらに、本開示の第7の側面は、
 画像処理装置において画像処理を実行させるプログラムであり、
 前記画像処理装置は、
 2つの異なる視点からの撮影画像である第1画像と第2画像を入力して、合成画像を生成する画像処理部を有し、
 前記第1画像は可視光成分から構成される画像であり、前記第2画像は可視光成分と赤外光成分を含む画像であり、
 前記プログラムは、前記画像処理部に、
 前記第2画像を可視光成分画像と赤外光成分画像に分離する赤外光分離処理と、
 前記第1画像と、前記第2画像に基づいて生成した可視光成分画像との合成処理を実行させるプログラムにある。
 なお、本開示のプログラムは、例えば、様々なプログラム・コードを実行可能な情報処理装置やコンピュータ・システムに対して、コンピュータ可読な形式で提供する記憶媒体、通信媒体によって提供可能なプログラムである。このようなプログラムをコンピュータ可読な形式で提供することにより、情報処理装置やコンピュータ・システム上でプログラムに応じた処理が実現される。
 本開示のさらに他の目的、特徴や利点は、後述する本開示の実施例や添付する図面に基づくより詳細な説明によって明らかになるであろう。なお、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
 本開示の一実施例の構成によれば、被写体の正確な距離情報の生成を行う装置、方法が実現される。
 具体的には、可視光成分から構成される第1画像と、可視光成分と赤外光成分を含む第2画像を入力して被写体距離を算出する画像処理部を有し、画像処理部は、第2画像を利用してTOF方式に従って算出される被写体距離であるTOF距離と、第1画像と第2画像を利用してステレオ方式に従って算出されるステレオ距離の2つの距離情報を算出し、TOF距離の信頼度を示すTOF距離信頼度を判定し、TOF距離の信頼度が低い画素領域について、ステレオ方式に従った被写体距離であるステレオ距離、または、TOF距離とステレオ距離の合成処理によって算出した距離情報を最終的な距離情報として生成する。
 これらの処理により、被写体の正確な距離情報の生成を行う装置、方法が実現される。
 なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、また付加的な効果があってもよい。
画像処理装置の構成例について説明する図である。 画像処理部の構成と処理について説明する図である。 赤外光分離処理について説明する図である。 ステレオ距離信頼度判定部の処理について説明する図である。 TOF距離信頼度判定部の処理について説明する図である。 被写体距離情報生成部の実行する処理の一例について説明する図である。 被写体距離情報生成部の実行する処理の一例について説明する図である。 被写体距離情報生成部の実行する処理の一例について説明する図である。 被写体距離情報生成部の実行する処理の一例について説明する図である。 距離情報生成処理シーケンスについて説明するフローチャートを示す図である。 距離情報生成処理シーケンスについて説明するフローチャートを示す図である。 距離情報生成処理シーケンスについて説明するフローチャートを示す図である。 画像処理部の構成と処理について説明する図である。 画像合成部の構成と処理について説明する図である。 ブレンド実行部の実行する処理について説明する図である。 ブレンド処理の効果について説明する図である。 合成画像生成処理シーケンスについて説明するフローチャートを示す図である。
 以下、図面を参照しながら本開示の画像処理装置、撮像装置、および画像処理方法、並びにプログラムの詳細について説明する。なお、説明は以下の項目に従って行う。
 1.本開示の画像処理装置の構成と処理について
 2.距離(デプス)情報を生成する画像処理部の構成と処理について
 3.画像処理装置の実行する距離情報算出処理シーケンスについて
 3-1.ステレオ距離信頼度と、TOF距離信頼度の2つの信頼度情報を用いた処理シーケンスについて
 3-2.TOF距離信頼度のみの1つの信頼度情報を用いた処理シーケンスについて
 3-3.TOF距離信頼度のみの1つの信頼度情報を用い、ステレオ距離情報、またはTOF距離情報のいずれかを、画素単位で選択して最終距離情報とする処理シーケンスについて
 4.画質を向上させた合成画像を生成する画像処理部の構成と処理について
 5.画像処理装置の実行する合成画像生成処理シーケンスについて
 6.本開示の構成のまとめ
  [1.本開示の画像処理装置の構成と処理について]
 図1以下を参照して本開示の画像処理装置の構成と処理について説明する。
 図1は、本開示の画像処理装置100の一例である撮像装置の構成を示すブロック図である。
 なお、本開示の画像処理装置は、撮像装置に限らず、例えば撮像装置の撮影画像を入力して画像処理を実行するPC等の情報処理装置も含まれる。
 以下では、本開示の画像処理装置100の一例として、撮像装置の構成と処理について説明する。
 以下の実施例において説明する撮影処理以外の画像処理は、撮像装置に限らず、PC等の情報処理装置において実行することも可能である。
 図1に示す撮像装置としての画像処理装置100は、制御部101、記憶部102、コーデック103、入力部104、出力部105、撮像部106、画像処理部120を有する。
 撮像部106は、通常の画像撮影のみを行う第1に撮像部107と、赤外光照射を行い、赤外光と可視光を含む画像の撮影を行う第2撮像部108を有する。
 第1撮像部107は、通常の画像撮影を行うための第1撮像素子111を有する。第1撮像素子111は、例えば、ベイヤ配列からなるRGBカラーフィルタを有し、各画素単位でRGB各色の入力光対応の信号を出力するRGB画素配列型の撮像素子である。あるいはモノクロ画像を撮影する白黒(WB)センサ型の撮像素子としてもよい。
 第2撮像部108は、赤外光を出力するIR(赤外光)照射部113と、第2撮像素子112を有する。
 第2撮像部108は、TOF(Time of Flight)方式による被写体距離を計測するためのIR(赤外光)照射部113と、赤外光と可視光を受光する第2撮像素子112を有する。
 TOF(Time of Flight)方式は、赤外光を被写体に照射して、反射した赤外光がカメラに入射されるまでに要した時間から被写体距離を算出する方式である。
 なお、第2撮像素子112の受光する可視光領域は、第1撮像素子111と同様の領域とすることが好ましい。例えば、第1撮像素子111がRGB画素配列型の撮像素子である場合は、第2撮像素子112もRGB画素配列型の撮像素子とする。第1撮像素子111が白黒(WB)センサ型の撮像素子である場合は、第2撮像素子112も白黒(WB)センサ型の撮像素子とする。
 ただし、第2撮像素子112は可視光に併せて赤外光(IR)も受光し、センサ出力には、可視光成分と赤外光(IR)成分が含まれる。
 第1撮像部107と、第2撮像部108は、所定間隔、離れた位置に設定される2つの撮像部であり、それぞれの撮影画像は異なる視点からの画像となる。
 異なる視点からの2つの画像の対応画素、すなわち同一位置の画素には同一の被写体画像が撮影されず、視差に応じた被写体ずれが発生する。
 この位置ずれを利用してステレオ方式による被写体距離算出が行われる。
 第1撮像部107と、第2撮像部108は、撮影画像が静止画である場合は、同一タイミングで2枚の静止画を撮影する。動画を撮影する場合は、各撮像部の撮影フレームは、同期した撮影フレーム、すなわち同一タイミングで順次撮影される連続した画像フレームとなる。
 なお、これらの撮影タイミングの制御は制御部101によって行われる。
 制御部101は、画像の撮影、撮影画像に対する信号処理、画像の記録処理、表示処理等、撮像装置100において実行する各種の処理を制御する。制御部101は、例えば記憶部102に格納された様々な処理プログラムに従った処理を実行するCPU等を備え、プログラムを実行するデータ処理部として機能する。
 記憶部102は、撮影画像の格納部、さらに、制御部101において実行する処理プログラムや、各種パラメータの記憶部、さらにデータ処理時のワークエリアとして機能するRAM,ROM等によって構成される。
 コーデック103は、撮影画像の圧縮、伸長処理等の符号化、復号処理を実行する。
 入力部104は、例えばユーザ操作部であり、撮影開始、終了、様々なモード設定等の制御情報を入力する。
 出力部105は表示部、スピーカ等によって構成され、撮影画像、スルー画等の表示、音声出力等に利用される。
 画像処理部120は、撮像部106から入力する2枚の画像を入力し、これら2枚の画像を適用して、被写体距離(デプス)を算出する。さらに、2枚の画像を合成することでノイズを低減させた高画質画像を生成する。
 画像処理部120は、生成した画像151、距離(デプス)情報152を出力する。
 これらのデータは、例えば、記憶部102に格納される。あるいは画像151は出力部105を構成する表示部に出力される。
 また、距離(デプス)情報152は、制御部102において実行される様々な処理に利用される。
  [2.距離(デプス)情報を生成する画像処理部の構成と処理について]
 次に、図2以下を参照して、図1に示す画像処理装置100の画像処理部120の構成と処理について説明する。
 前述したように、画像処理部120は、撮像部106から入力する2枚の画像を入力し、これら2枚の画像を適用して、被写体距離(デプス)を示す距離(デプス)情報152を生成する。さらに、2枚の画像を合成することでノイズを低減させた高画質画像としての画像151を生成する。
 まず、画像処理部120において実行する距離(デプス)情報152の生成処理について説明する。
 図2は、画像処理装置100の画像処理部120の一部構成を示すブロック図である。
 図2には、画像処理部120の構成中、距離(デプス)情報152の生成処理に適用する構成を示している。
 図2に示ように、画像処理部120は、赤外光(IR)分離部121、ステレオ方式距離算出部122、TOF方式距離算出部123、ステレオ距離信頼度判定部124、TOF距離信頼度判定部125、被写体距離情報生成部126を有する。
 画像処理部120は、被写体距離情報生成部126の生成した距離(デプス)情報152を出力する。
 距離(デプス)情報152は、撮影画像に含まれる被写体について、各画素単位の距離情報を有するデータである。
 画像処理部120に対する入力信号は、以下の各信号である。
 (1)第1撮像部107から入力する可視光画像200、
 (2)第2撮像部108から入力する可視光+赤外光画像201、
 まず、赤外光(IR)分離部121が、第2撮像部108から入力する可視光+赤外光画像201を入力し、可視光+赤外光画像201の赤外光(IR)分離処理を実行する。
 赤外光(IR)分離部121の実行する赤外光(IR)分離処理の具体例について、図3を参照して説明する。
 図3は、第2撮像部108の第2撮像素子112が、以下の2つの構成である場合の各々の赤外光分離処理について説明する図である。
 (1)IRカットフィルタなしWB(白黒)センサ利用例
 (2)IRカットフィルタなしRGBセンサ利用例
 まず、図3の「(1)IRカットフィルタなしWB(白黒)センサ利用例」を参照して、第2撮像部108の第2撮像素子112が、IRカットフィルタなしWB(白黒)センサである場合の赤外光分離処理について説明する。
 この場合、赤外光(IR)分離部121は、第2撮像部108の第2撮像素子112からの出力信号に対して、以下の処理を実行して、可視光と赤外光を分離する。
 赤外光(IR)=黒(B)画素から取得
 可視光=白(W)画素出力-黒(B)画素出力
 ただし、可視光については、位相合わせのため、所定領域単位の画素領域単位で、白(W)画素出力と、黒(B)画素出力の平均値(Ave)を算出して、算出平均値の差分を可視光出力信号として算出することが好ましい。すなわち、以下の式に従って、可視光画像出力を得る。
 可視光画像=Ave(白(W)画素出力)-Ave(黒(B)画素出力)
 次に、図3に示す「(2)IRカットフィルタなしRGBセンサ利用例」を参照して、第2撮像部108の第2撮像素子112が、IRカットフィルタなしRGBセンサである場合の赤外光分離処理について説明する。
 この場合、赤外光(IR)分離部121は、第2撮像部108の第2撮像素子112からの出力信号に対して、以下の(式1)に示すマトリックス演算を実行して、可視光と赤外光を分離する。
Figure JPOXMLDOC01-appb-M000001
 上記(式1)に示すα11~α32は、センサ特性に応じて決定される分離パラメータである。
 このように、赤外光(IR)分離部121は、第2撮像部108の第2撮像素子112が、
 (1)IRカットフィルタなしWB(白黒)センサ、
 (2)IRカットフィルタなしRGBセンサ。
 上記のいずれであるかによって、図3を参照して説明した異なる処理を実行して、第2撮像部108の第2撮像素子112の出力信号、すなわち、図2に示す「可視光+赤外光画像201」から可視光と赤外光を分離する。
 図2に示すように、赤外光(IR)分離部121の分離処理によって生成された可視光画像202は、ステレオ方式距離算出部122に入力される。
 また、赤外光(IR)分離部121の分離処理によって生成された赤外光画像203は、TOF方式距離算出部123に入力される。
 次に、ステレオ方式距離算出部122の処理について説明する。
 ステレオ方式距離算出部122は、以下の画像を入力する。
 (1)第1撮像部107の撮影画像である可視光画像200、
 (2)第2撮像部108撮影画像から生成された可視光画像202、
 前述したように、第1撮像部107と、第2撮像部108は、所定間隔、離れた位置に設定される2つの撮像部であり、それぞれの撮影画像(可視光画像200、可視光画像202)は異なる視点からの画像となる。
 異なる視点からの2つの画像、すなわち可視光画像200と、可視光画像202との対応画素、すなわち同一位置の画素には同一の被写体画像が撮影されず、視差に応じた被写体ずれが発生する。
 ステレオ方式距離算出部122は、この位置ずれを利用してステレオ方式による被写体距離算出を実行する。
 具体的には、まず、第1撮像部107から入力する可視光画像200と、第2撮像部108から入力する可視光画像202の2つの画像信号を用いて視差量を算出する。さらに、第1撮像部107と第2撮像部108との間隔である基線長と視差量に基づき三角測量によって被写体までの距離を算出する。
 なお、この距離算出は、画像を構成する画素単位、あるいは複数画素からなる画素領域単位で実行される。
 ステレオ方式距離算出部122の生成した被写体距離情報は、図2に示すようにステレオ距離情報204として、被写体距離情報生成部126に入力される。
 次に、TOF方式距離算出部123の処理について説明する。
 TOF方式距離算出部123は、以下の画像を入力する。
 (1)第2撮像部108撮影画像から生成された赤外光(IR)画像203、
 前述したように、TOF(Time of Flight)方式は、赤外光を被写体に照射して、反射した赤外光がカメラに入射されるまでに要した時間から被写体距離を算出する方式である。
 TOF方式距離算出部123は、第2撮像部108の赤外光(IR)照射部113の赤外光照射タイミングから、第2撮像素子112における赤外光受光タイミングまでの時間を計測し、被写体距離を算出する。
 なお、この被写体距離算出も、前述のステレオ方式と同様、画素単位、または所定数の画素からなる画素領域単位で実行される。
 しかし、このような赤外光を利用した距離計測方式では、例えば太陽光が強い屋外や、照射した赤外光が届かない遠方の被写体の距離測定が困難となるという問題がある。
 TOF方式距離算出部123の生成した被写体距離情報は、図2に示すようにTOF距離情報205として、被写体距離情報生成部126に入力される。
 次に、ステレオ距離信頼度判定部124の実行する処理について説明する。
 ステレオ距離信頼度判定部124は、ステレオ方式距離算出部122の生成した被写体距離情報が信頼できるデータであるか否かを判定し、図2に示すように判定情報からなるステレオ信頼度206を生成して被写体距離情報生成部126に出力する。
 なお、ステレオ距離信頼度判定部124の生成するステレオ信頼度206には、ステレオ方式距離算出部122の生成した画素単位または画素領域単位の被写体距離情報各々についての信頼度情報が含まれる。
 ステレオ距離信頼度判定部124の実行する信頼度判定処理の具体例について、図4を参照して説明する。
 図4に示す例は、ステレオ方式距離算出部122において実行する2つの画像の対応点検出におけるブロックマッチング処理に適用したブロック構成画素の分散値を用いて信頼度を判定する処理である。
 ステレオ方式距離算出部122では、2つの異なる視点から撮影された画像、すなわち、
 (1)第1撮像部107の撮影画像である可視光画像200、
 (2)第2撮像部108撮影画像から生成された可視光画像202、
 これらの画像間の対応する画素ブロック、すなわち同一被写体が撮影されていると推定される画素ブロックを検出する、いわゆるブロックマッチング処理を実行する。
 このブロックマッチングでは、利用する画素ブロックにエッジやテクスチャ等の特徴的な画像が含まれていれば、マッチング(対応付け)を正しく行なうことができる。すなわち高精度なブロックマッチングが可能となり、高精度な距離算出が可能となる。一方、例えば空のように特徴のない平坦な画像領域では、正しいマッチング(対応付け)が困難となる。結果として高精度な距離算出が難しくなる。
 図4に示す例は、この特性を利用したステレオ距離の信頼度判定処理例である。
 図4に示すグラフは、横軸が、ブロックマッチング処理に適用したブロック構成画素の分散値、縦軸が、ステレオ距離の信頼度βである。
 なお、ステレオ距離の信頼度βは、0~1の範囲の設定であり、数値が低いほど低信頼度であり、数値が高いほど高高信頼度であることを示す。
 ブロックの分散値が大きい場合、ブロックに特徴的な画像、例えばエッジ部分やテクスチャ等の画像が多く含まれていることを意味し、ブロックマッチングの精度が高まる特徴的なブロックであることを意味する。
 このようにブロック分散値が大である場合、ステレオ方式距離算出部122が算出したステレオ距離の信頼度βは、より高い値、すなわち1に近い値となる。
 一方、ブロックの分散値が小さい場合、ブロックは、エッジ部分やテクスチャ等の画像が少なく、例えば空等の画素値の変化の少ない平坦な画像によって構成されるブロックであることを意味し、ブロックマッチングの精度が低下するブロックであることを意味する。
 このようにブロック分散値が小である場合、ステレオ方式距離算出部122が算出したステレオ距離の信頼度βは、より低い値、すなわち0に近い値となる。
 ステレオ距離信頼度判定部124は、ステレオ方式距離算出部122が算出したステレオ距離の信頼度βを、例えばブロック単位で実行し、ブロック単位、またはブロック構成画素単位の距離情報信頼度を生成する。
 この信頼度情報が図2に示すステレオ信頼度206である。
 ステレオ距離信頼度判定部124は、図2に示すように生成したステレオ信頼度206を被写体距離情報生成部126に出力する。
 次に、TOF距離信頼度判定部125の実行する処理について説明する。
 TOF距離信頼度判定部125は、TOF方式距離算出部123の生成した被写体距離情報が信頼できるデータであるか否かを判定し、図2に示すように判定情報からなるTOF信頼度207を生成して被写体距離情報生成部126に出力する。
 なお、TOF距離信頼度判定部125の生成するTOF信頼度206には、TOF方式距離算出部123の生成した画素単位または画素領域単位の被写体距離情報各々についての信頼度情報が含まれる。
 TOF距離信頼度判定部125の実行する信頼度判定処理の具体例について、図5を参照して説明する。
 図5に示す例は、TOF方式距離算出部123において実行するTOF方式に従った距離計測で利用する赤外光(IR)の非照射時の受光量を用いて信頼度を判定する処理である。
 前述したように、TOF方式距離算出部123では、第2撮像部108の赤外光(IR)照射部113の赤外光照射タイミングから、第2撮像素子112における赤外光受光タイミングまでの時間を計測し、被写体距離を算出する。
 しかし、自然界にも赤外光は、存在し、特に太陽光には多くの赤外光成分が含まれる。
 第2撮像部108の第2撮像素子112は、赤外光(IR)照射部113の照射する赤外光のみならず、このような赤外光(IR)照射部113の照射光以外の赤外光も受光する。
 例えば晴れた日の屋外等、赤外光成分を含む太陽光の下で画像撮影を行った場合には、第2撮像素子112が、赤外光(IR)照射部113が照射した赤外光以外の自然界の赤外光を多く受光してしまう。このような状況では、赤外光(IR)照射部113の赤外光照射タイミングから、第2撮像素子112における赤外光受光タイミングまでの時間の計測精度が低下する。結果として高精度な距離算出が難しくなる。
 一方、夜間や、室内等、赤外光成分を含む太陽光の影響の少ない環境で画像撮影を行った場合等には、第2撮像素子112が、赤外光(IR)照射部113の照射光以外の赤外光を受光する可能性が低減する。この結果、赤外光(IR)照射部113の赤外光照射タイミングから、第2撮像素子112における赤外光受光タイミングまでの時間の計測精度が高くなり高精度な距離算出が可能となる。
 図5に示す例は、この特性を利用したTOF距離の信頼度判定処理例である。
 図5に示すグラフは、横軸が、赤外光(IR)照射部113による赤外光の非照射時の第2撮像素子112による赤外光(IR)の受光強度、縦軸が、TOF距離の信頼度αである。
 なお、TOF距離の信頼度αは、0~1の範囲の設定であり、数値が低いほど低信頼度であり、数値が高いほど高信頼度であることを示す。
 赤外光(IR)照射部113による赤外光の非照射時に、赤外光の受光強度が大きい場合、太陽光等、外的要因の赤外光が多いことを意味し、正確なTOF距離計測が困難となることを意味する。
 このように赤外光(IR)照射部113による赤外光非照射時の受光強度が大きい場合、TOF方式距離算出部123が算出したTOF距離の信頼度αは、より低い値、すなわち0に近い値となる。
 一方、赤外光(IR)照射部113による赤外光非照射時の受光強度が小さい場合、太陽光等、外的要因の赤外光が少ないことを意味し、正確なTOF距離計測が可能となることを意味する。
 このように赤外光(IR)照射部113による赤外光非照射時の受光強度が小さい場合、TOF方式距離算出部123が算出したTOF距離の信頼度αは、より高い値、すなわち1に近い値となる。
 TOF距離信頼度判定部125は、TOF方式距離算出部123が算出したTOF距離の信頼度αを、例えば画素単位、または画素領域単位で算出する。
 この信頼度情報が図2に示すTOF信頼度207である。
 TOF距離信頼度判定部125は、図2に示すように生成したTOF信頼度207を被写体距離情報生成部126に出力する。
 次に、被写体距離情報生成部126の実行する被写体距離情報生成処理について説明する。
 図2に示すように、被写体距離情報生成部126は、以下の各データを入力する。
 (1)ステレオ方式距離算出部122の算出したステレオ距離情報204、
 (2)TOF方式距離算出部123の算出したTOF距離情報205、
 (3)ステレオ距離信頼度判定部124の生成したステレオ信頼度206、
 (4)TOF距離信頼度判定部125の生成したTOF信頼度207
 被写体距離情報生成部126は、これらの各データを入力し、ステレオ方式距離算出部122の算出したステレオ距離情報204と、TOF方式距離算出部123の算出したTOF距離情報205のいずれか、あるいはブレンド処理によって生成した最終的な距離情報を生成して、距離(デプス)情報152として出力する。
 なお、被写体距離情報生成部126は、ステレオ信頼度206や、TOF信頼度207に基づいて、信頼度の高いと判定されるいずれか一方の距離情報、あるいはブレンド処理によって生成した最終的な距離情報を生成して、距離(デプス)情報152として出力する。
 なお、これらの信頼度判定に基づく最終的な距離情報の生成は、画素単位、または画素領域単位で実行される。
 被写体距離情報生成部126の実行する具体的な処理例について、図6以下を参照して説明する。
 被写体距離情報生成部126は、上述したように、ステレオ信頼度206と、TOF信頼度207に基づいて、信頼度の高い一方の距離情報を選択、あるいはブレンド処理によって最終的な距離情報を生成して、距離(デプス)情報152として出力する。
 図6に示す例は、TOF方式距離算出部123の算出したTOF距離情報205を優先的に選択する設定とした処理例である。
 図6に示すグラフは、
 横軸が、TOF距離信頼度判定部125の生成したTOF信頼度α、
 縦軸が、ステレオ距離信頼度判定部124の生成したステレオ信頼度β、
 である。
 信頼度α、βはいずれも0~1の範囲の値であり、最低の信頼度が0、最高の信頼度が1となる。
 図6に示すグラフは、(a),(b),(c)の3つの領域に分割されている。
 領域(a)は、
 TOF信頼度α≧Th1
 ステレオ信頼度β=0~1
 これらの条件に該当する領域である。
 なお、Th1は信頼度しきい値であり、例えば、Th1=0.5である。
 領域(b)は、
 TOF信頼度α<Th1
 ステレオ信頼度β≧Th2
 これらの条件に該当する領域である。
 なお、Th2も信頼度しきい値であり、例えば、Th2=0.5である。
 領域(c)は、
 TOF信頼度α<Th1
 ステレオ信頼度β<Th2
 これらの条件に該当する領域である。
 被写体距離情報生成部126は、
 (1)ステレオ距離信頼度判定部124の生成したステレオ信頼度β、
 (2)TOF距離信頼度判定部125の生成したTOF信頼度α、
 これらの2つの信頼度が、領域(a)~(c)のどこに該当するかを判定し、各領域に応じて以下のように、最終的な距離情報、すなわち図2に示す被写体距離情報生成部126の出力である距離(デプス)情報152を生成する。
 領域(a)、すなわち、
 TOF信頼度α≧Th1
 ステレオ信頼度β=0~1
 これらの条件に該当する領域は、TOF信頼度αが比較的高いと判定される領域である。
 被写体距離情報生成部126は、この領域に対応する画素、または画素領域について、TOF方式距離算出部123の算出したTOF距離情報205を、最終的な距離情報、すなわち図2に示す距離(デプス)情報152の構成データとする。
 領域(b)、すなわち、
 TOF信頼度α<Th1
 ステレオ信頼度β≧Th2
 これらの条件に該当する領域は、TOF信頼度αが比較的低く、ステレオ信頼度βが比較的高いと判定される領域である。
 被写体距離情報生成部126は、この領域に対応する画素、または画素領域について、ステレオ方式距離算出部122の算出したステレオ距離情報204を、最終的な距離情報、すなわち図2に示す距離(デプス)情報152の構成データとする。
 領域(c)、すなわち、
 TOF信頼度α<Th1
 ステレオ信頼度β<Th2
 これらの条件に該当する領域は、TOF信頼度αが比較的低く、ステレオ信頼度βも比較的低いと判定される領域である。
 被写体距離情報生成部126は、この領域に対応する画素、または画素領域について、TOF方式距離算出部123の算出したTOF距離情報205と、ステレオ方式距離算出部122の算出したステレオ距離情報204とのブレンド(合成)処理結果を、最終的な距離情報、すなわち図2に示す距離(デプス)情報152の構成データとする。
 なお、ブレンド(合成)処理の具体例については後述する。
 図6に示す処理例は、TOF方式距離算出部123の算出したTOF距離情報205を優先的に選択する設定とした処理例である。
 次に、図7を参照して、ステレオ方式距離算出部122の算出したステレオ距離情報204を優先的に選択する設定とした処理例について説明する。
 図7に示すグラフは、図6に示すグラフと同様、
 横軸が、TOF距離信頼度判定部125の生成したTOF信頼度α、
 縦軸が、ステレオ距離信頼度判定部124の生成したステレオ信頼度β、
 である。
 信頼度α、βはいずれも0~1の範囲の値であり、最低の信頼度が0、最高の信頼度が1となる。
 図7に示すグラフは、(d),(e),(f)の3つの領域に分割されている。
 領域(d)は、
 ステレオ信頼度β≧Th2
 TOF信頼度α=0~1
 これらの条件に該当する領域である。
 なお、Th2は信頼度しきい値であり、例えば、Th2=0.5である。
 領域(e)は、
 ステレオ信頼度β<Th2
 TOF信頼度α≧Th1
 これらの条件に該当する領域である。
 なお、Th1も信頼度しきい値であり、例えば、Th1=0.5である。
 領域(f)は、
 ステレオ信頼度β<Th2
 TOF信頼度α<Th1
 これらの条件に該当する領域である。
 被写体距離情報生成部126は、
 (1)ステレオ距離信頼度判定部124の生成したステレオ信頼度β、
 (2)TOF距離信頼度判定部125の生成したTOF信頼度α、
 これらの2つの信頼度が、領域(d)~(f)のどこに該当するかを判定し、各領域に応じて以下のように、最終的な距離情報、すなわち図2に示す被写体距離情報生成部126の出力である距離(デプス)情報152を生成する。
 領域(d)、すなわち、
 ステレオ信頼度β≧Th2
 TOF信頼度α=0~1
 これらの条件に該当する領域は、ステレオ信頼度βが比較的高いと判定される領域である。
 被写体距離情報生成部126は、この領域に対応する画素、または画素領域について、ステレオ方式距離算出部122の算出したステレオ距離情報204を、最終的な距離情報、すなわち図2に示す距離(デプス)情報152の構成データとする。
 領域(e)、すなわち、
 ステレオ信頼度β<Th2
 TOF信頼度α≧Th1
 これらの条件に該当する領域は、ステレオ信頼度βが比較的低く、TOF信頼度αが比較的高いと判定される領域である。
 被写体距離情報生成部126は、この領域に対応する画素、または画素領域について、TOF方式距離算出部123の算出したTOF距離情報205を、最終的な距離情報、すなわち図2に示す距離(デプス)情報152の構成データとする。
 領域(f)、すなわち、
 ステレオ信頼度β<Th2
 TOF信頼度α<Th1
 これらの条件に該当する領域は、ステレオ信頼度βが比較的低く、TOF信頼度αも比較的低いと判定される領域である。
 被写体距離情報生成部126は、この領域に対応する画素、または画素領域について、TOF方式距離算出部123の算出したTOF距離情報205と、ステレオ方式距離算出部122の算出したステレオ距離情報204とのブレンド(合成)処理結果を、最終的な距離情報、すなわち図2に示す距離(デプス)情報152の構成データとする。
 なお、ブレンド(合成)処理の具体例については後述する。
 さらに、図8を参照して、ステレオ方式距離算出部122の算出したステレオ距離情報204を優先的に選択する設定としたもう1つの処理例について説明する。
 図8に示すグラフは、図6に示すグラフと同様、
 横軸が、TOF距離信頼度判定部125の生成したTOF信頼度α、
 縦軸が、ステレオ距離信頼度判定部124の生成したステレオ信頼度β、
 である。
 信頼度α、βはいずれも0~1の範囲の値であり、最低の信頼度が0、最高の信頼度が1となる。
 図8に示すグラフは、(g),(h)の2つの領域に分割されている。
 領域(g)は、
 ステレオ信頼度β≧Th2
 TOF信頼度α=0~1、
 または、
 ステレオ信頼度β<Th2
 TOF信頼度α<Th1、
 これら、いずれかの条件に該当する領域である。
 なお、Th1,Th2は信頼度しきい値であり、例えば、Th1=0.5,Th2=0.5である。
 領域(h)は、
 ステレオ信頼度β<Th2
 TOF信頼度α≧Th1
 これらの条件に該当する領域である。
 被写体距離情報生成部126は、
 (1)ステレオ距離信頼度判定部124の生成したステレオ信頼度β、
 (2)TOF距離信頼度判定部125の生成したTOF信頼度α、
 これらの2つの信頼度が、領域(g)~(h)のどこに該当するかを判定し、各領域に応じて以下のように、最終的な距離情報、すなわち図2に示す被写体距離情報生成部126の出力である距離(デプス)情報152を生成する。
 領域(g)、すなわち、
 ステレオ信頼度β≧Th2
 TOF信頼度α=0~1、
 または、
 ステレオ信頼度β<Th2
 TOF信頼度α<Th1、
 これら、いずれかの条件に該当する領域は、
 ステレオ信頼度βが比較的高い領域、または、
 ステレオ信頼度β、TOF信頼度αの双方が比較的低い領域、
 これらのいずれかの領域である。
 被写体距離情報生成部126は、この領域に対応する画素、または画素領域について、ステレオ方式距離算出部122の算出したステレオ距離情報204を、最終的な距離情報、すなわち図2に示す距離(デプス)情報152の構成データとする。
 領域(h)、すなわち、
 ステレオ信頼度β<Th2
 TOF信頼度α≧Th1
 これらの条件に該当する領域は、ステレオ信頼度βが比較的低く、TOF信頼度αが比較的高いと判定される領域である。
 被写体距離情報生成部126は、この領域に対応する画素、または画素領域について、TOF方式距離算出部123の算出したTOF距離情報205と、ステレオ方式距離算出部122の算出したステレオ距離情報204とのブレンド(合成)処理結果を、最終的な距離情報、すなわち図2に示す距離(デプス)情報152の構成データとする。
 なお、ブレンド(合成)処理の具体例については後述する。
 図6、図7、図8を参照して説明したように、被写体距離情報生成部126は、
 (1)ステレオ距離信頼度判定部124の生成したステレオ信頼度β、
 (2)TOF距離信頼度判定部125の生成したTOF信頼度α、
 これらの2つの信頼度が、予め規定した信頼度区分領域のどこに該当するかを判定し、各領域に応じて以下のように、最終的な距離情報、すなわち図2に示す被写体距離情報生成部126の出力である距離(デプス)情報152を生成する。
 被写体距離情報生成部126の実行する2つの距離情報のブレンド(合成)処理の具体例について説明する。
 図9には、図8を参照して説明した処理例と同様の被写体距離情報生成部126の処理例を示している。
 図9(1)は、TOF距離信頼度が、比較的高いと推定される場合(Th1≦TOF信頼度α)の処理例を示している。
 図8のグラフの右半分(Th1≦TOF信頼度α)の領域に対応する。
 図9(h)は、図8(h)の領域に対応し、ステレオ距離情報とTOF距離情報のブレンド処理を行ない、ブレンド(合成)処理結果を最終的な距離情報とする。
 図9(g1)は、図8(g)の右側(Th1≦TOF信頼度α)の領域に対応する。
 この領域では、ステレオ距離情報のステレオ信頼度βが十分高いため、ステレオ距離情報を最終的な距離情報とする。
 図9(2)は、TOF距離信頼度が、比較的低いと推定される場合(TOF信頼度α<Th1)の処理例を示している。
 図8のグラフの左半分(TOF信頼度α<Th1)の領域に対応する。
 図9(g2)は、図8(g)の左側(TOF信頼度α<Th1)の領域に対応する。
 この領域では、TOF距離情報のTOF信頼度αが低いため、ステレオ距離情報を最終的な距離情報とする。
 図9(1)には、ステレオ距離情報とTOF距離情報のブレンド処理の具体的な処理例について示している。
 ステレオ距離情報とTOF距離情報のブレンド処理は、様々な処理が可能である。
 以下の、3つのブレンド処理例について説明する。
 (a)平均化によるブレンド処理
 (b)TOF信頼度αをブレンド率設定パラメータとして適用したブレンド処理
 (c)ステレオ信頼度βをブレンド率設定パラメータとして適用したブレンド処理
 これらの3種類のブレンド処理による最終的な距離情報[depth]は、
 ステレオ方式距離算出部122の生成したステレオ距離情報204を[depthstereo]、
 TOF方式距離算出部123の生成したTOF距離情報205を[depthTOF]、
 としたとき、以下の(式2a)~(式2c)で算出される。
Figure JPOXMLDOC01-appb-M000002
 なお、上記(式2a)~(式2c)は距離情報のブレンド処理の一例であり、そのたの様々な態様によるブレンド処理が適用可能である。
  [3.画像処理装置の実行する距離情報算出処理シーケンスについて]
 次に、図10以下のフローチャートを参照して、画像処理装置の実行する距離情報算出処理シーケンスについて説明する。
 図10~図12に示すフローチャートは、画像処理装置100の実行する3種類の異なる距離情報算出処理シーケンスを説明するフローチャートである。
 具体的には、それぞれ以下の態様の距離情報算出処理シーケンスに対応する。
 (1)ステレオ距離信頼度と、TOF距離信頼度の2つの信頼度情報を用いた処理シーケンス(図10)
 (2)TOF距離信頼度のみの1つの信頼度情報を用いた処理シーケンス(図11)
 (3)TOF距離信頼度のみの1つの信頼度情報を用い、ステレオ距離情報、またはTOF距離情報のいずれかを、画素単位で選択して最終距離情報とする処理シーケンス(図12)
 なお、図10以下に示すフローチャートは、例えば記憶部に格納された処理プログラムに従った処理を実行するCPU等を備えた制御部(データ処理部)の制御の下で実行される。
 以下、図10に示すフローチャートの各ステップの処理について、順次、説明する。
  [3-1.ステレオ距離信頼度と、TOF距離信頼度の2つの信頼度情報を用いた処理シーケンスについて]
 まず、図10に示すフローチャートを参照して、ステレオ距離信頼度と、TOF距離信頼度の2つの信頼度情報を用いた処理シーケンスについて説明する。
 以下、各ステップの処理について、順次、説明する。
  (ステップS101a,101b)
 ステップS101a,101bは、画像撮影処理である。
 図1、図2に示す第1撮像部107と、第2撮像部108において2枚の画像が撮影される。
 ステップS101aは、図2に示す第1撮像部107における可視光画像200の撮影処理である。
 ステップS101bは、図2に示す第2撮像部108における可視光+赤外光画像201の撮影処理である。
  (ステップS102)
 ステップS102は、図2に示す赤外光(IR)分離部121の実行する処理である。
 赤外光(IR)分離部121は、ステップS102において、ステップS101bで第2撮像部108が撮影した可視光+赤外光画像201を入力し、赤外光(IR)分離処理を実行し、図2に示す可視光画像202と、赤外光画像203を生成する。
 この赤外光(IR)分離処理は、先に図3を参照して説明した処理である。
  (ステップS103)
 次のステップS103の処理は、図2に示すTOF方式距離算出部123の実行する処理である。
 TOF方式距離算出部123は、ステップS103において、TOF(Time of Flight)方式に従った被写体距離算出処理を実行する。
 TOF方式距離算出部123は、ステップS102において赤外光(IR)分離部121の生成した赤外光画像203を利用して、図2に示す第2撮像部108の赤外光(IR)照射部113の赤外光照射タイミングから、第2撮像素子112における赤外光受光タイミングまでの時間を計測し、被写体距離を算出する。
 なお、この被写体距離算出は、画素単位、または所定数の画素からなる画素領域単位で実行される。
  (ステップS104)
 次のステップS104の処理は、図2に示すステレオ方式距離算出部122の実行する処理である。
 ステレオ方式距離算出部122は、ステップS104において、ステレオ方式に従った被写体距離算出処理を実行する。
 具体的には、ステップS101aにおいて、第1撮像部107が撮影した可視光画像200と、ステップS101bにおいて第2撮像部108が撮影し、ステップS102において生成された可視光画像202の2つの画像信号を用いて算出した視差量と、第1撮像部107と第2撮像部108との間隔である基線長とに基づく三角測量によって被写体までの距離を算出する。
 なお、この距離算出は、画像を構成する画素単位、あるいは複数画素からなる画素領域単位で実行される。
  (ステップS105)
 次のステップS105の処理は、図2に示すステレオ距離信頼度判定部124の実行する処理である。
 ステレオ距離信頼度判定部124は、ステップS105において、ステレオ方式距離算出部122の生成した被写体距離情報が信頼できるデータであるか否かを判定し、図2に示すように判定情報からなるステレオ信頼度206を生成して被写体距離情報生成部126に出力する。
 なお、ステレオ距離信頼度判定部124の生成するステレオ信頼度206には、ステレオ方式距離算出部122の生成した画素単位または画素領域単位の被写体距離情報各々についての信頼度情報が含まれる。
 ステレオ距離信頼度判定部124は、先に図4を参照して説明したように、例えばステレオ方式距離算出部122におけるブロックマッチング処理に適用したブロック構成画素の分散値を用いて信頼度を判定する。
 ブロック分散値が大である場合、ステレオ距離信頼度βは、より高い値、すなわち1に近い値となる。一方、ブロックの分散値が小さい場合、ステレオ距離信頼度βは、より低い値、すなわち0に近い値となる。
  (ステップS106)
 次のステップS106の処理は、図2に示すTOF距離信頼度判定部125の実行する処理である。
 TOF距離信頼度判定部125は、ステップS106において、TOF方式距離算出部123の生成した被写体距離情報が信頼できるデータであるか否かを判定し、図2に示すように判定情報からなるTOF信頼度207を生成して被写体距離情報生成部126に出力する。
 なお、TOF距離信頼度判定部125の生成するTOF信頼度206には、TOF方式距離算出部123の生成した画素単位または画素領域単位の被写体距離情報各々についての信頼度情報が含まれる。
 TOF距離信頼度判定部125の実行する信頼度判定処理は、例えば先に図5を参照して説明した処理である。
 すなわち、赤外光(IR)照射部113による赤外光の非照射時における受光素子に対する外的な赤外光の入力両に応じて信頼度を判定する。
 赤外光(IR)照射部113による赤外光の非照射時に、赤外光の受光強度が大きい場合、太陽光等、外的要因の赤外光が多いことを意味し、正確なTOF距離計測が困難となることを意味する。
 このように赤外光(IR)照射部113による赤外光非照射時の受光強度が大きい場合、TOF方式距離算出部123が算出したTOF距離の信頼度αは、より低い値、すなわち0に近い値となる。
 一方、赤外光(IR)照射部113による赤外光非照射時の受光強度が小さい場合、太陽光等、外的要因の赤外光が少ないことを意味し、正確なTOF距離計測が可能となることを意味する。
 このように赤外光(IR)照射部113による赤外光非照射時の受光強度が小さい場合、TOF方式距離算出部123が算出したTOF距離の信頼度αは、より高い値、すなわち1に近い値となる。
 TOF距離信頼度判定部125は、TOF方式距離算出部123が算出したTOF距離の信頼度αを、例えば画素単位、または画素領域単位で算出する。
 この信頼度情報が図2に示すTOF信頼度207である。
 TOF距離信頼度判定部125は、図2に示すように生成したTOF信頼度207を被写体距離情報生成部126に出力する。
  (ステップS107)
 ステップS107の処理は、図2に示す被写体距離情報生成部126の実行する処理である。
 被写体距離情報生成部126は、ステレオ距離信頼度206、およびTOF距離信頼度207に基づいて、ステレオ距離情報204、TOF距離情報205の信頼度を確認し、いずれかの距離情報を選択、または2つの距離情報の合成結果を生成して最終出力距離情報として生成する。
 なお、この処理は、画素単位、または所定数の画素から構成される画素領域単位で実行される。
 被写体距離情報生成部126は、ステレオ信頼度206や、TOF信頼度207に基づいて、信頼度の高いと判定されるいずれか一方の距離情報を選択、あるいはブレンド処理によって新たな距離情報を生成し、これらのいずれかを最終的な距離情報、すなわち距離(デプス)情報152として出力する。
 この具体的な処理例については、図6~図9を参照して説明した通りである。
  (ステップS108)
 次に、ステップS108において、最終的な距離情報の生成が、全画素について完了したか否かを判定する。
 完了していない画素がある場合は、ステップS105に戻り、未処理画素について、ステップS105以下の処理を実行する。
 ステップS108において、最終的な距離情報の生成が全画素について完了したと判定すると、処理を終了する。
 この時点で、図2に示す距離(デプス)情報152が画像処理部120から出力される。
 この距離(デプス)情報152は、
 (a)ステレオ距離情報、
 (b)TOF距離情報、
 (c)ステレオ距離情報とTOF距離情報の合成距離情報、
 上記(a)~(c)いずれかの距離情報が画素単位、または画素領域単位で設定された距離(デプス)情報である。
 各画素に対応付けられた距離情報は、信頼度の高い距離情報が選択されており、画像全体について、高精度な距離情報が出力されることになる。
  [3-2.TOF距離信頼度のみの1つの信頼度情報を用いた処理シーケンスについて]
 次に、図11に示すフローチャートを参照して、TOF距離信頼度のみの1つの信頼度情報を用いた処理シーケンスについて説明する。
 以下、各ステップの処理について、順次、説明する。
  (ステップS101~S104)
 ステップS101~S104の処理は、先に図10のフローチャートを参照して説明したステップS101~S104の処理と同様の処理である。
 ステップS101aは、図2に示す第1撮像部107における可視光画像200の撮影処理である。
 ステップS101bは、図2に示す第2撮像部108における可視光+赤外光画像201の撮影処理である。
 ステップS102は、図2に示す赤外光(IR)分離部121の実行する処理であり、第2撮像部108が撮影した可視光+赤外光画像201を入力し、赤外光(IR)分離処理を実行し、図2に示す可視光画像202と、赤外光画像203を生成する。
 ステップS103の処理は、図2に示すTOF方式距離算出部123の実行するTOF(Time of Flight)方式に従った被写体距離算出処理である。赤外光(IR)分離部121の生成した赤外光画像203を利用して、被写体距離(TOF距離)を算出する。
 ステップS104の処理は、図2に示すステレオ方式距離算出部122の実行する処理である。ステレオ方式距離算出部122は、第1撮像部107が撮影した可視光画像200と、第2撮像部108が撮影画像から得られた可視光画像202の2つの画像信号を用いて被写体距離(ステレオ距離)を算出する。
 なお、この距離算出は、画像を構成する画素単位、あるいは複数画素からなる画素領域単位で実行される。
  (ステップS151)
 次のステップS151の処理は、図2に示すTOF距離信頼度判定部125の実行する処理である。
 TOF距離信頼度判定部125は、ステップS151において、TOF方式距離算出部123の生成した被写体距離情報が信頼できるデータであるか否かを判定し、図2に示すように判定情報からなるTOF信頼度207を生成して被写体距離情報生成部126に出力する。
 なお、TOF距離信頼度判定部125の生成するTOF信頼度206には、TOF方式距離算出部123の生成した画素単位または画素領域単位の被写体距離情報各々についての信頼度情報が含まれる。
 TOF距離信頼度判定部125の実行する信頼度判定処理は、例えば先に図5を参照して説明した処理である。
 すなわち、赤外光(IR)照射部113による赤外光の非照射時における受光素子に対する外的な赤外光の入力両に応じて信頼度を判定する。
 赤外光(IR)照射部113による赤外光の非照射時に、赤外光の受光強度が大きい場合、太陽光等、外的要因の赤外光が多いことを意味し、正確なTOF距離計測が困難となることを意味する。
 このように赤外光(IR)照射部113による赤外光非照射時の受光強度が大きい場合、TOF方式距離算出部123が算出したTOF距離の信頼度αは、より低い値、すなわち0に近い値となる。
 一方、赤外光(IR)照射部113による赤外光非照射時の受光強度が小さい場合、太陽光等、外的要因の赤外光が少ないことを意味し、正確なTOF距離計測が可能となることを意味する。
 このように赤外光(IR)照射部113による赤外光非照射時の受光強度が小さい場合、TOF方式距離算出部123が算出したTOF距離の信頼度αは、より高い値、すなわち1に近い値となる。
 TOF距離信頼度判定部125は、TOF方式距離算出部123が算出したTOF距離の信頼度αを、例えば画素単位、または画素領域単位で算出する。
 この信頼度情報が図2に示すTOF信頼度207である。
 TOF距離信頼度判定部125は、図2に示すように生成したTOF信頼度207を被写体距離情報生成部126に出力する。
  (ステップS152)
 ステップS152の処理は、図2に示す被写体距離情報生成部126の実行する処理である。
 被写体距離情報生成部126は、TOF距離信頼度207に基づいて、
 (a)ステレオ距離情報、
 (b)TOF距離情報、
 (c)ステレオ距離情報とTOF距離情報の合成距離情報、
 これらのいずれかの距離情報を最終出力距離情報として生成する。
 なお、この処理は、画素単位、または所定数の画素から構成される画素領域単位で実行される。
 本例では、ステレオ信頼度206は用いず、TOF信頼度207のみに基づいて出力情報を生成して、距離(デプス)情報152として出力する。
  (ステップS153)
 次に、ステップS153において、最終的な距離情報の生成が、全画素について完了したか否かを判定する。
 完了していない画素がある場合は、ステップS151に戻り、未処理画素について、ステップS151以下の処理を実行する。
 ステップS153において、最終的な距離情報の生成が全画素について完了したと判定すると、処理を終了する。
 この時点で、図2に示す距離(デプス)情報152が画像処理部120から出力される。
 この距離(デプス)情報152は、
 (a)ステレオ距離情報、
 (b)TOF距離情報、
 (c)ステレオ距離情報とTOF距離情報の合成距離情報、
 上記(a)~(c)いずれかの距離情報が画素単位、または画素領域単位で設定された距離(デプス)情報である。
 各画素に対応付けられた距離情報は、信頼度の高い距離情報が選択されており、画像全体について、高精度な距離情報が出力されることになる。
  [3-3.TOF距離信頼度のみの1つの信頼度情報を用い、ステレオ距離情報、またはTOF距離情報のいずれかを、画素単位で選択して最終距離情報とする処理シーケンスについて]
 次に、図12に示すフローチャートを参照して、TOF距離信頼度のみの1つの信頼度情報を用い、ステレオ距離情報、またはTOF距離情報のいずれかを、画素単位で選択して最終距離情報とする処理シーケンスについて説明する。
 以下、各ステップの処理について、順次、説明する。
  (ステップS101~S104)
 ステップS101~S104の処理は、先に図10のフローチャートを参照して説明したステップS101~S104の処理と同様の処理である。
 ステップS101aは、図2に示す第1撮像部107における可視光画像200の撮影処理である。
 ステップS101bは、図2に示す第2撮像部108における可視光+赤外光画像201の撮影処理である。
 ステップS102は、図2に示す赤外光(IR)分離部121の実行する処理であり、第2撮像部108が撮影した可視光+赤外光画像201を入力し、赤外光(IR)分離処理を実行し、図2に示す可視光画像202と、赤外光画像203を生成する。
 ステップS103の処理は、図2に示すTOF方式距離算出部123の実行するTOF(Time of Flight)方式に従った被写体距離算出処理である。赤外光(IR)分離部121の生成した赤外光画像203を利用して、被写体距離(TOF距離)を算出する。
 ステップS104の処理は、図2に示すステレオ方式距離算出部122の実行する処理である。ステレオ方式距離算出部122は、第1撮像部107が撮影した可視光画像200と、第2撮像部108が撮影画像から得られた可視光画像202の2つの画像信号を用いて被写体距離(ステレオ距離)を算出する。
 なお、この距離算出は、画像を構成する画素単位、あるいは複数画素からなる画素領域単位で実行される。
  (ステップS181)
 次のステップS181の処理は、図2に示すTOF距離信頼度判定部125の実行する処理である。
 TOF距離信頼度判定部125は、ステップS181において、TOF方式距離算出部123の生成した被写体距離情報が信頼できるデータであるか否かを判定し、図2に示すように判定情報からなるTOF信頼度207を生成して被写体距離情報生成部126に出力する。
 なお、TOF距離信頼度判定部125の生成するTOF信頼度206には、TOF方式距離算出部123の生成した画素単位または画素領域単位の被写体距離情報各々についての信頼度情報が含まれる。
 TOF距離信頼度判定部125の実行する信頼度判定処理は、例えば先に図5を参照して説明した処理である。
 すなわち、赤外光(IR)照射部113による赤外光の非照射時における受光素子に対する外的な赤外光の入力両に応じて信頼度を判定する。
 赤外光(IR)照射部113による赤外光の非照射時に、赤外光の受光強度が大きい場合、太陽光等、外的要因の赤外光が多いことを意味し、正確なTOF距離計測が困難となることを意味する。
 このように赤外光(IR)照射部113による赤外光非照射時の受光強度が大きい場合、TOF方式距離算出部123が算出したTOF距離の信頼度αは、より低い値、すなわち0に近い値となる。
 一方、赤外光(IR)照射部113による赤外光非照射時の受光強度が小さい場合、太陽光等、外的要因の赤外光が少ないことを意味し、正確なTOF距離計測が可能となることを意味する。
 このように赤外光(IR)照射部113による赤外光非照射時の受光強度が小さい場合、TOF方式距離算出部123が算出したTOF距離の信頼度αは、より高い値、すなわち1に近い値となる。
 TOF距離信頼度判定部125は、TOF方式距離算出部123が算出したTOF距離の信頼度αを、例えば画素単位、または画素領域単位で算出する。
 この信頼度情報が図2に示すTOF信頼度207である。
 TOF距離信頼度判定部125は、図2に示すように生成したTOF信頼度207を被写体距離情報生成部126に出力する。
  (ステップS182)
 ステップS182~S184の処理は、図2に示す被写体距離情報生成部126の実行する処理である。
 被写体距離情報生成部126は、TOF距離信頼度207に基づいて、
 (a)ステレオ距離情報、
 (b)TOF距離情報、
 これらのいずれかの距離情報を最終出力距離情報として生成する。
 なお、この処理は、画素単位、または所定数の画素から構成される画素領域単位で実行される。
 本例では、ステレオ距離情報とTOF距離情報を合成する処理を実行せず、ステレオ距離情報、TOF距離情報のいずれかを画素単位で選択して最終出力距離情報とする。
 ステップS182において、TOF信頼度207が低い、すなわち既定しきい値未満であるか否かを判定し、既定しきい値未満でありTOF信頼度207が低いと判定した場合は、ステップS183に進む。
 一方、TOF信頼度207が低くない、すなわち既定しきい値以上であると判定し、TOF信頼度207が高いと判定した場合は、ステップS184に進む。
  (ステップS183)
 ステップS182において、TOF信頼度207が低いと判定した場合は、被写体距離情報生成部126は、ステップS183において、最終出力距離情報としてステレオ距離情報を選択する。
  (ステップS184)
 一方、ステップS182において、TOF信頼度207が低くないと判定した場合は、被写体距離情報生成部126は、ステップS184において、最終出力距離情報としてTOF距離情報を選択する。
  (ステップS185)
 次に、ステップS185において、最終的な距離情報の生成が、全画素について完了したか否かを判定する。
 完了していない画素がある場合は、ステップS181に戻り、未処理画素について、ステップS181以下の処理を実行する。
 ステップS185において、最終的な距離情報の生成が全画素について完了したと判定すると、処理を終了する。
 この時点で、図2に示す距離(デプス)情報152が画像処理部120から出力される。
 この距離(デプス)情報152は、
 (a)ステレオ距離情報、
 (b)TOF距離情報、
 上記(a)~(b)いずれかの距離情報が画素単位、または画素領域単位で設定された距離(デプス)情報である。
 各画素に対応付けられた距離情報は、信頼度の高い距離情報が選択されており、画像全体について、高精度な距離情報が出力されることになる。
  [4.画質を向上させた合成画像を生成する画像処理部の構成と処理について]
 次に、図13以下を参照して、画質を向上させた合成画像を生成する画像処理部の構成と処理について説明する。
 前述したように、画像処理部120は、撮像部106から入力する2枚の画像を入力し、これら2枚の画像を適用して、被写体距離(デプス)を示す距離(デプス)情報152を生成するとともに、2枚の画像を合成することでノイズを低減させた高画質画像としての画像151を生成する。
 以下、画像処理部120における画質を向上させた合成画像の生成処理について説明する。
 図13は、画像処理装置100の画像処理部120の一部構成を示すブロック図である。
 図13には、画像処理部120の構成中、合成画像410の生成処理に適用する構成を示している。
 図13に示ように、画像処理部120は、赤外光(IR)分離部121、画像合成部300を有する。
 画像処理部120に対する入力信号は、以下の各信号である。
 (1)第1撮像部107から入力する可視光画像200、
 (2)第2撮像部108から入力する可視光+赤外光画像201、
 まず、赤外光(IR)分離部121が、第2撮像部108から入力する可視光+赤外光画像201を入力し、可視光+赤外光画像201の赤外光(IR)分離処理を実行する。
 赤外光(IR)分離部121の実行する赤外光(IR)分離処理は、先に図3を参照して説明した処理である。
 画像合成部300には、以下の画像が入力される。
 (1)第1撮像部107の撮影画像である可視光画像200、
 (2)第2撮像部108撮影画像から生成された可視光画像202、
 画像合成部300の構成と処理例について、図14を参照して説明する。
 図14に示すように、画像合成部300は、画像ずれ検出部301、ブレンド率算出部302、ブレンド実行部303を有する。
 画像ずれ検出部301は、以下の2つの画像を入力する。
 (1)第1撮像部107の撮影画像である可視光画像200、
 (2)第2撮像部108撮影画像から生成された可視光画像202、
 画像ずれ検出部301は、これら2つの画像について、画像の位置ずれを検出するる。画素単位の位置ずれ量を算出し、画素単位のずれ量データからなるずれ情報311を生成してブレンド率算出部302に出力する。
 ブレンド率算出部302は、画像ずれ検出部301から入力する「ずれ情報311」、すなわち画素単位のずれ量に基づいて2つの画像、すなわち、
 (1)第1撮像部107の撮影画像である可視光画像200、
 (2)第2撮像部108撮影画像から生成された可視光画像202、
 これら2つの画像の対応位置、すなわち同一座標位置の画素同士のブレンド率を算出する。
 具体的には、ずれ量が小さい画素については、ブレンド率を高く設定し、ずれ量の大きい画素についてはブレンド率を小さく設定する。
 例えば図15に示すグラフのような設定でブレンド率を決定する。
 図15に示すグラフは、横軸が、2つの画像の対応画素の位置ずれ量、縦軸がブレンド率を示す。
 ブレント率=1は、2つの画像の対応位置の画素を1:1でブレンド(合成)することを示す。ブレンド率=0は、ブレンドせず、一方の画像の画素値をそのまま出力することを意味する。
 ブレンド率算出部302は、このように、画像ずれ検出部301から入力する「ずれ情報311」、すなわち画素単位のずれ量に基づいて2つの画像の対応位置、すなわち同一座標位置の画素同士のブレンド率を算出する。
 図14に示すように、算出したブレンド率312は、ブレンド実行部303に出力される。
 ブレンド実行部303は、ブレンド率算出部302から入力した「ずれ情報311」、すなわち画素単位のずれ量に基づいて2つの画像の対応位置、すなわち同一座標位置の画素同士のブレンド処理を実行し、合成画像410を生成して出力する。
 合成画像410は、2つの画像の合成により、ノイズの低減された高品質な画像となる。
 なお、この合成処理によって期待される画質向上のレベルは、画像を撮影する撮像部の撮像素子の構成によって異なる。
 撮像素子構成と期待される画質向上態様の対応関係について、図16を参照して説明する。
 図16には、第1撮像部と第2撮像部が、各々、ベイヤ配列、すなわちRGB画素配列である場合と、ホワイト配列、すなわちWB画素配列である場合、これらの4通りの組み合わせとした場合、上述した2つの画像の合成処理によって実現される画質向上態様を示している。
 2つの撮像部がいずれもベイヤ配列である場合、輝度信号と、クロマ信号(色、彩度)のいずれの信号についてもノイズ低減効果が得られる。
 また、少なくともいずれか一方がホワイト配列の撮像素子である場合は、輝度信号のみについてノイズ低減効果が得られる。
  [5.画像処理装置の実行する合成画像生成処理シーケンスについて]
 次に、図17に示すフローチャートを参照して、画像処理装置の実行する画質を向上させた合成画像の生成処理シーケンスについて説明する。
 以下、各ステップの処理について、順次、説明する。
  (ステップS201)
 ステップS201aは、図2に示す第1撮像部107における可視光画像200の撮影処理である。
 ステップS201bは、図2に示す第2撮像部108における可視光+赤外光画像201の撮影処理である。
  (ステップS202)
 ステップS202は、図2に示す赤外光(IR)分離部121の実行する処理であり、第2撮像部108が撮影した可視光+赤外光画像201を入力し、赤外光(IR)分離処理を実行し、図2に示す可視光画像202と、赤外光画像203を生成する。
 図13、図14に示すように、画像合成部300には、以下の画像が入力される。
 (1)第1撮像部107の撮影画像である可視光画像200、
 (2)第2撮像部108撮影画像から生成された可視光画像202、
  (ステップS203)
 ステップS203の処理は、図14に示す画像合成部300の画像ずれ検出部301の実行する処理である。
 画像ずれ検出部301は、以下の2つの画像を入力する。
 (1)第1撮像部107の撮影画像である可視光画像200、
 (2)第2撮像部108撮影画像から生成された可視光画像202、
 画像ずれ検出部301は、これら2つの画像について、画像の位置ずれを検出するる。画素単位の位置ずれ量を算出し、画素単位のずれ量データからなるずれ情報311を生成してブレンド率算出部302に出力する。
  (ステップS204)
 ステップS204の処理は、図14に示す画像合成部300のブレンド率算出部302の実行する処理である。
 ブレンド率算出部302は、画像ずれ検出部301から入力する「ずれ情報311」、すなわち画素単位のずれ量に基づいて2つの画像、すなわち、
 (1)第1撮像部107の撮影画像である可視光画像200、
 (2)第2撮像部108撮影画像から生成された可視光画像202、
 これら2つの画像の対応位置、すなわち同一座標位置の画素同士のブレンド率を算出する。
 具体的には、ずれ量が小さい画素については、ブレンド率を高く設定し、ずれ量の大きい画素についてはブレンド率を小さく設定する。算出したブレンド率312は、ブレンド実行部303に出力される。
  (ステップS205)
 ステップS205の処理は、図14に示す画像合成部300のブレンド実行部303の実行する処理である。
 ブレンド実行部303は、ブレンド率算出部302から入力した「ずれ情報311」、すなわち画素単位のずれ量に基づいて2つの画像の対応位置、すなわち同一座標位置の画素同士のブレンド処理を実行し、各画素の補正画素値を算出する。
  (ステップS206)
 次に、ステップS206において、補正画素値算出が全画素について完了したか否かを判定する。
 完了していない画素がある場合は、ステップS203戻り、未処理画素について、ステップS203以下の処理を実行する。
 ステップS206において、補正画素値算出が全画素について完了したと判定すると、ステップS207に進む。
  (ステップS207)
 図14に示す画像合成部300のブレンド実行部303は、補正画素値算出が全画素について完了すると、補正画素値を設定した合成画像410をむ生成して出力する。
 合成画像410は、2つの画像の合成により、ノイズの低減された高品質な画像となる。
  [6.本開示の構成のまとめ]
 以上、特定の実施例を参照しながら、本開示の実施例について詳解してきた。しかしながら、本開示の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本開示の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。
 なお、本明細書において開示した技術は、以下のような構成をとることができる。
 (1) 2つの異なる視点からの撮影画像である第1画像と第2画像を入力して、被写体距離を示す距離情報を生成する画像処理部を有し、
 前記画像処理部は、
 前記第2画像の赤外光成分を利用してTOF(Time of Flight)方式に従った被写体距離であるTOF距離を算出するTOF方式距離算出部と、
 前記第1画像と前記第2画像の可視光成分を利用してステレオ方式に従った被写体距離であるステレオ距離を算出するステレオ方式距離算出部と、
 前記TOF距離の信頼度を判定するTOF距離信頼度判定部と、
 前記TOF距離の信頼度が低い画素領域について、前記ステレオ距離、または、TOF距離とステレオ距離の合成距離情報を最終的な距離情報として生成する被写体距離情報生成部を有する画像処理装置。
 (2) 前記画像処理装置は、
 前記第2画像を可視光成分画像と赤外光成分画像に分離する赤外光分離部を有し、
 前記TOF方式距離算出部は、前記赤外光分離部の生成した赤外光成分画像を利用した被写体距離算出処理を実行し、
 前記ステレオ方式距離算出部は、前記赤外光分離部の生成した可視光成分画像を利用した被写体距離算出処理を実行する(1)に記載の画像処理装置。
 (3) 前記TOF距離信頼度判定部は、
 赤外光非照射時における前記第2撮像部の撮影画像である前記第2画像に含まれる赤外光成分の量に応じてTOF距離の信頼度を判定する(1)または(2)に記載の画像処理装置。
 (4) 前記画像処理装置は、さらに、
 前記ステレオ方式距離算出部の算出した被写体距離であるステレオ距離の信頼度を判定するステレオ距離信頼度判定部を有し、
 前記被写体距離情報生成部は、
 前記ステレオ距離の信頼度が低い画素領域について、前記TOF距離、または、TOF距離とステレオ距離の合成処理によって算出した距離情報を最終的な距離情報として生成する(1)~(3)いずれかに記載の画像処理装置。
 (5) 前記ステレオ距離信頼度判定部は、
 前記ステレオ方式距離算出部におけるブロックマッチング処理に適用したブロック構成画素の画素値の分散値に応じてステレオ距離の信頼度を判定する(4)に記載の画像処理装置。
 (6) 前記被写体距離情報生成部は、
 画素または画素領域単位の前記TOF距離の信頼度に応じて、画素または画素領域単位で、
 (a)ステレオ距離、
 (b)TOF距離、
 (c)ステレオ距離とTOF距離の合成距離、
 上記(a)~(c)いずれかの距離情報を最終的な距離情報として生成する(1)~(5)いずれかに記載の画像処理装置。
 (7) 前記被写体距離情報生成部は、
 画素または画素領域単位の前記ステレオ距離の信頼度に応じて、画素または画素領域単位で、
 (a)ステレオ距離、
 (b)TOF距離、
 (c)ステレオ距離とTOF距離の合成距離、
 上記(a)~(c)いずれかの距離情報を最終的な距離情報として生成する(1)~(6)いずれかに記載の画像処理装置。
 (8) 可視光成分から構成される第1画像を撮影する第1撮像部と、
 可視光成分と赤外光成分を含む第2画像を撮影する第2撮像部と、
 前記第1画像と前記第2画像を入力して、被写体距離を示す距離情報を生成する画像処理部を有し、
 前記画像処理部は、
 前記第2画像を利用してTOF(Time of Flight)方式に従った被写体距離算出を実行するTOF方式距離算出部と、
 前記第1画像と前記第2画像を利用してステレオ方式に従った被写体距離算出を実行するステレオ方式距離算出部と、
 前記TOF方式距離算出部の算出した被写体距離であるTOF距離の信頼度を判定するTOF距離信頼度判定部と、
 前記TOF距離の信頼度に基づいて、最終的な距離情報を生成する被写体距離情報生成部を有し、
 前記被写体距離情報生成部は、
 前記TOF距離の信頼度が低い画素領域について、前記ステレオ方式に従った被写体距離であるステレオ距離、または、TOF距離とステレオ距離の合成処理によって算出した距離情報を最終的な距離情報として生成する撮像装置。
 (9) 2つの異なる視点からの撮影画像である第1画像と第2画像を入力して、合成画像を生成する画像処理部を有し、
 前記第1画像は可視光成分から構成される画像であり、前記第2画像は可視光成分と赤外光成分を含む画像であり、
 前記画像処理部は、
 前記第2画像を可視光成分画像と赤外光成分画像に分離する赤外光分離部と、
 前記第1画像と、前記赤外光分離部が前記第2画像に基づいて生成した可視光成分画像との合成処理を実行する画像合成部を有する画像処理装置。
 (10) 前記画像合成部は、
 前記第1画像と、前記赤外光分離部が前記第2画像に基づいて生成した可視光成分画像との画素単位の位置ずれ量を算出する画像ずれ算出部と、
 前記画像ずれ算出部の算出した位置ずれ量に応じて前記第1画像と、前記赤外光分離部が前記第2画像に基づいて生成した可視光成分画像との画素単位のブレンド率を算出するブレンド率算出部と、
 前記ブレンド率算出部の算出したブレンド率に従って、前記第1画像と、前記赤外光分離部が前記第2画像に基づいて生成した可視光成分画像との画素単位のブレンド処理を実行するブレンド実行部を有する(9)に記載の画像処理装置。
 (11) 前記画像処理装置は、さらに、
 前記第2画像を利用してTOF(Time of Flight)方式に従った被写体距離算出を実行するTOF方式距離算出部を有する(9)または(10)に記載の画像処理装置。
 (12) 前記画像処理装置は、さらに、
 前記第1画像と前記第2画像を利用してステレオ方式に従った被写体距離算出を実行するステレオ方式距離算出部を有する(9)~(11)いずれかに記載の画像処理装置。
 (13) 画像処理装置において実行する画像処理方法であり、
 前記画像処理装置は、2つの異なる視点からの撮影画像である第1画像と第2画像を入力して、被写体距離を示す距離情報を生成する画像処理部を有し、
 前記画像処理部が、
 前記第2画像の赤外光成分を利用してTOF(Time of Flight)方式に従った被写体距離であるTOF距離を算出するTOF方式距離算出処理と、
 前記第1画像と前記第2画像の可視光成分を利用してステレオ方式に従った被写体距離であるステレオ距離を算出するステレオ方式距離算出処理と、
 前記TOF距離の信頼度を判定するTOF距離信頼度判定処理と、
 前記TOF距離の信頼度が低い画素領域について、前記ステレオ距離、または、TOF距離とステレオ距離の合成距離情報を最終的な距離情報として生成する被写体距離情報生成処理を実行する画像処理方法。
 (14) 画像処理装置において実行する画像処理方法であり、
 前記画像処理装置は、
 2つの異なる視点からの撮影画像である第1画像と第2画像を入力して、合成画像を生成する画像処理部を有し、
 前記第1画像は可視光成分から構成される画像であり、前記第2画像は可視光成分と赤外光成分を含む画像であり、
 前記画像処理部が、
 前記第2画像を可視光成分画像と赤外光成分画像に分離する赤外光分離処理と、
 前記第1画像と、前記第2画像に基づいて生成した可視光成分画像との合成処理を実行する画像処理方法。
 (15) 画像処理装置において画像処理を実行させるプログラムであり、
 前記画像処理装置は、2つの異なる視点からの撮影画像である第1画像と第2画像を入力して、被写体距離を示す距離情報を生成する画像処理部を有し、
 前記プログラムは、前記画像処理部に、
 前記第2画像の赤外光成分を利用してTOF(Time of Flight)方式に従った被写体距離であるTOF距離を算出するTOF方式距離算出処理と、
 前記第1画像と前記第2画像の可視光成分を利用してステレオ方式に従った被写体距離であるステレオ距離を算出するステレオ方式距離算出処理と、
 前記TOF距離の信頼度を判定するTOF距離信頼度判定処理と、
 前記TOF距離の信頼度が低い画素領域について、前記ステレオ距離、または、TOF距離とステレオ距離の合成距離情報を最終的な距離情報として生成する被写体距離情報生成処理を実行させるプログラム。
 (16) 画像処理装置において画像処理を実行させるプログラムであり、
 前記画像処理装置は、
 2つの異なる視点からの撮影画像である第1画像と第2画像を入力して、合成画像を生成する画像処理部を有し、
 前記第1画像は可視光成分から構成される画像であり、前記第2画像は可視光成分と赤外光成分を含む画像であり、
 前記プログラムは、前記画像処理部に、
 前記第2画像を可視光成分画像と赤外光成分画像に分離する赤外光分離処理と、
 前記第1画像と、前記第2画像に基づいて生成した可視光成分画像との合成処理を実行させるプログラム。
 また、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。例えば、プログラムは記録媒体に予め記録しておくことができる。記録媒体からコンピュータにインストールする他、LAN(Local Area Network)、インターネットといったネットワークを介してプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。
 なお、明細書に記載された各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。また、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
 以上、説明したように、本開示の一実施例の構成によれば、被写体の正確な距離情報の生成を行う装置、方法が実現される。
 具体的には、可視光成分から構成される第1画像と、可視光成分と赤外光成分を含む第2画像を入力して被写体距離を算出する画像処理部を有し、画像処理部は、第2画像を利用してTOF方式に従って算出される被写体距離であるTOF距離と、第1画像と第2画像を利用してステレオ方式に従って算出されるステレオ距離の2つの距離情報を算出し、TOF距離の信頼度を示すTOF距離信頼度を判定し、TOF距離の信頼度が低い画素領域について、ステレオ方式に従った被写体距離であるステレオ距離、または、TOF距離とステレオ距離の合成処理によって算出した距離情報を最終的な距離情報として生成する。
 これらの処理により、被写体の正確な距離情報の生成を行う装置、方法が実現される。
 100 画像処理装置
 101 制御部
 102 記憶部
 103 コーデック
 104 入力部
 105 出力部
 106 撮像部
 107 第1撮像部
 108 第2撮像部
 111 第1撮像素子
 112 第2撮像素子
 113 赤外光(IR)照射部
 120 画像処理部
 121 赤外光(IR)分離部
 122 ステレオ方式距離算出部
 123 TOF方式距離算出部
 124 ステレオ距離信頼度判定部
 125 TOF距離信頼度判定部
 126 被写体距離情報生成部
 151 画像
 152 距離(デプス)情報
 300 画像合成部
 301 画像ずれ検出部
 302 ブレンド率算出部
 303 ブレンド実行部
 410 合成画像

Claims (16)

  1.  2つの異なる視点からの撮影画像である第1画像と第2画像を入力して、被写体距離を示す距離情報を生成する画像処理部を有し、
     前記画像処理部は、
     前記第2画像の赤外光成分を利用してTOF(Time of Flight)方式に従った被写体距離であるTOF距離を算出するTOF方式距離算出部と、
     前記第1画像と前記第2画像の可視光成分を利用してステレオ方式に従った被写体距離であるステレオ距離を算出するステレオ方式距離算出部と、
     前記TOF距離の信頼度を判定するTOF距離信頼度判定部と、
     前記TOF距離の信頼度が低い画素領域について、前記ステレオ距離、または、TOF距離とステレオ距離の合成距離情報を最終的な距離情報として生成する被写体距離情報生成部を有する画像処理装置。
  2.  前記画像処理装置は、
     前記第2画像を可視光成分画像と赤外光成分画像に分離する赤外光分離部を有し、
     前記TOF方式距離算出部は、前記赤外光分離部の生成した赤外光成分画像を利用した被写体距離算出処理を実行し、
     前記ステレオ方式距離算出部は、前記赤外光分離部の生成した可視光成分画像を利用した被写体距離算出処理を実行する請求項1に記載の画像処理装置。
  3.  前記TOF距離信頼度判定部は、
     赤外光非照射時における前記第2撮像部の撮影画像である前記第2画像に含まれる赤外光成分の量に応じてTOF距離の信頼度を判定する請求項1に記載の画像処理装置。
  4.  前記画像処理装置は、さらに、
     前記ステレオ方式距離算出部の算出した被写体距離であるステレオ距離の信頼度を判定するステレオ距離信頼度判定部を有し、
     前記被写体距離情報生成部は、
     前記ステレオ距離の信頼度が低い画素領域について、前記TOF距離、または、TOF距離とステレオ距離の合成処理によって算出した距離情報を最終的な距離情報として生成する請求項1に記載の画像処理装置。
  5.  前記ステレオ距離信頼度判定部は、
     前記ステレオ方式距離算出部におけるブロックマッチング処理に適用したブロック構成画素の画素値の分散値に応じてステレオ距離の信頼度を判定する請求項4に記載の画像処理装置。
  6.  前記被写体距離情報生成部は、
     画素または画素領域単位の前記TOF距離の信頼度に応じて、画素または画素領域単位で、
     (a)ステレオ距離、
     (b)TOF距離、
     (c)ステレオ距離とTOF距離の合成距離、
     上記(a)~(c)いずれかの距離情報を最終的な距離情報として生成する請求項1に記載の画像処理装置。
  7.  前記被写体距離情報生成部は、
     画素または画素領域単位の前記ステレオ距離の信頼度に応じて、画素または画素領域単位で、
     (a)ステレオ距離、
     (b)TOF距離、
     (c)ステレオ距離とTOF距離の合成距離、
     上記(a)~(c)いずれかの距離情報を最終的な距離情報として生成する請求項4に記載の画像処理装置。
  8.  可視光成分から構成される第1画像を撮影する第1撮像部と、
     可視光成分と赤外光成分を含む第2画像を撮影する第2撮像部と、
     前記第1画像と前記第2画像を入力して、被写体距離を示す距離情報を生成する画像処理部を有し、
     前記画像処理部は、
     前記第2画像を利用してTOF(Time of Flight)方式に従った被写体距離算出を実行するTOF方式距離算出部と、
     前記第1画像と前記第2画像を利用してステレオ方式に従った被写体距離算出を実行するステレオ方式距離算出部と、
     前記TOF方式距離算出部の算出した被写体距離であるTOF距離の信頼度を判定するTOF距離信頼度判定部と、
     前記TOF距離の信頼度に基づいて、最終的な距離情報を生成する被写体距離情報生成部を有し、
     前記被写体距離情報生成部は、
     前記TOF距離の信頼度が低い画素領域について、前記ステレオ方式に従った被写体距離であるステレオ距離、または、TOF距離とステレオ距離の合成処理によって算出した距離情報を最終的な距離情報として生成する撮像装置。
  9.  2つの異なる視点からの撮影画像である第1画像と第2画像を入力して、合成画像を生成する画像処理部を有し、
     前記第1画像は可視光成分から構成される画像であり、前記第2画像は可視光成分と赤外光成分を含む画像であり、
     前記画像処理部は、
     前記第2画像を可視光成分画像と赤外光成分画像に分離する赤外光分離部と、
     前記第1画像と、前記赤外光分離部が前記第2画像に基づいて生成した可視光成分画像との合成処理を実行する画像合成部を有する画像処理装置。
  10.  前記画像合成部は、
     前記第1画像と、前記赤外光分離部が前記第2画像に基づいて生成した可視光成分画像との画素単位の位置ずれ量を算出する画像ずれ算出部と、
     前記画像ずれ算出部の算出した位置ずれ量に応じて前記第1画像と、前記赤外光分離部が前記第2画像に基づいて生成した可視光成分画像との画素単位のブレンド率を算出するブレンド率算出部と、
     前記ブレンド率算出部の算出したブレンド率に従って、前記第1画像と、前記赤外光分離部が前記第2画像に基づいて生成した可視光成分画像との画素単位のブレンド処理を実行するブレンド実行部を有する請求項9に記載の画像処理装置。
  11.  前記画像処理装置は、さらに、
     前記第2画像を利用してTOF(Time of Flight)方式に従った被写体距離算出を実行するTOF方式距離算出部を有する請求項9に記載の画像処理装置。
  12.  前記画像処理装置は、さらに、
     前記第1画像と前記第2画像を利用してステレオ方式に従った被写体距離算出を実行するステレオ方式距離算出部を有する請求項9に記載の画像処理装置。
  13.  画像処理装置において実行する画像処理方法であり、
     前記画像処理装置は、2つの異なる視点からの撮影画像である第1画像と第2画像を入力して、被写体距離を示す距離情報を生成する画像処理部を有し、
     前記画像処理部が、
     前記第2画像の赤外光成分を利用してTOF(Time of Flight)方式に従った被写体距離であるTOF距離を算出するTOF方式距離算出処理と、
     前記第1画像と前記第2画像の可視光成分を利用してステレオ方式に従った被写体距離であるステレオ距離を算出するステレオ方式距離算出処理と、
     前記TOF距離の信頼度を判定するTOF距離信頼度判定処理と、
     前記TOF距離の信頼度が低い画素領域について、前記ステレオ距離、または、TOF距離とステレオ距離の合成距離情報を最終的な距離情報として生成する被写体距離情報生成処理を実行する画像処理方法。
  14.  画像処理装置において実行する画像処理方法であり、
     前記画像処理装置は、
     2つの異なる視点からの撮影画像である第1画像と第2画像を入力して、合成画像を生成する画像処理部を有し、
     前記第1画像は可視光成分から構成される画像であり、前記第2画像は可視光成分と赤外光成分を含む画像であり、
     前記画像処理部が、
     前記第2画像を可視光成分画像と赤外光成分画像に分離する赤外光分離処理と、
     前記第1画像と、前記第2画像に基づいて生成した可視光成分画像との合成処理を実行する画像処理方法。
  15.  画像処理装置において画像処理を実行させるプログラムであり、
     前記画像処理装置は、2つの異なる視点からの撮影画像である第1画像と第2画像を入力して、被写体距離を示す距離情報を生成する画像処理部を有し、
     前記プログラムは、前記画像処理部に、
     前記第2画像の赤外光成分を利用してTOF(Time of Flight)方式に従った被写体距離であるTOF距離を算出するTOF方式距離算出処理と、
     前記第1画像と前記第2画像の可視光成分を利用してステレオ方式に従った被写体距離であるステレオ距離を算出するステレオ方式距離算出処理と、
     前記TOF距離の信頼度を判定するTOF距離信頼度判定処理と、
     前記TOF距離の信頼度が低い画素領域について、前記ステレオ距離、または、TOF距離とステレオ距離の合成距離情報を最終的な距離情報として生成する被写体距離情報生成処理を実行させるプログラム。
  16.  画像処理装置において画像処理を実行させるプログラムであり、
     前記画像処理装置は、
     2つの異なる視点からの撮影画像である第1画像と第2画像を入力して、合成画像を生成する画像処理部を有し、
     前記第1画像は可視光成分から構成される画像であり、前記第2画像は可視光成分と赤外光成分を含む画像であり、
     前記プログラムは、前記画像処理部に、
     前記第2画像を可視光成分画像と赤外光成分画像に分離する赤外光分離処理と、
     前記第1画像と、前記第2画像に基づいて生成した可視光成分画像との合成処理を実行させるプログラム。
PCT/JP2017/007463 2016-03-15 2017-02-27 画像処理装置、撮像装置、および画像処理方法、並びにプログラム WO2017159312A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US16/081,749 US20210183096A1 (en) 2016-03-15 2017-02-27 Image processing apparatus, imaging apparatus, image processing method and program
JP2018505774A JPWO2017159312A1 (ja) 2016-03-15 2017-02-27 画像処理装置、撮像装置、および画像処理方法、並びにプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-050426 2016-03-15
JP2016050426 2016-03-15

Publications (1)

Publication Number Publication Date
WO2017159312A1 true WO2017159312A1 (ja) 2017-09-21

Family

ID=59851557

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/007463 WO2017159312A1 (ja) 2016-03-15 2017-02-27 画像処理装置、撮像装置、および画像処理方法、並びにプログラム

Country Status (3)

Country Link
US (1) US20210183096A1 (ja)
JP (1) JPWO2017159312A1 (ja)
WO (1) WO2017159312A1 (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2018042801A1 (ja) * 2016-09-01 2019-06-24 ソニーセミコンダクタソリューションズ株式会社 撮像装置
JP2019179463A (ja) * 2018-03-30 2019-10-17 キヤノン株式会社 画像処理装置、その制御方法、プログラム、記録媒体
CN110428381A (zh) * 2019-07-31 2019-11-08 Oppo广东移动通信有限公司 图像处理方法、图像处理装置、移动终端及存储介质
WO2020021914A1 (ja) * 2018-07-23 2020-01-30 パナソニックIpマネジメント株式会社 距離測定装置および信頼性判定方法
WO2020209079A1 (ja) * 2019-04-09 2020-10-15 ソニーセミコンダクタソリューションズ株式会社 測距センサ、信号処理方法、および、測距モジュール
CN111835959A (zh) * 2019-04-17 2020-10-27 杭州海康微影传感科技有限公司 用于双光融合的方法和装置
JP2022041219A (ja) * 2020-08-31 2022-03-11 エスゼット ディージェイアイ テクノロジー カンパニー リミテッド 制御装置、測距センサ、撮像装置、制御方法、及びプログラム
US11348335B2 (en) * 2018-04-05 2022-05-31 Efficiency Matrix Pty Ltd Computer implemented structural thermal audit systems and methods
JP2022143955A (ja) * 2021-03-18 2022-10-03 株式会社東芝 距離推定装置及び距離推定方法
JP7430886B2 (ja) 2021-02-22 2024-02-14 深▲セン▼市歓創科技股▲フン▼有限公司 距離測定装置、レーザレーダ及び移動ロボット
JP7450668B2 (ja) 2022-06-30 2024-03-15 維沃移動通信有限公司 顔認識方法、装置、システム、電子機器および読み取り可能記憶媒体
JP7505312B2 (ja) 2020-07-29 2024-06-25 株式会社リコー 光投射装置、物体検出装置、及び移動体

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11659290B2 (en) * 2020-07-21 2023-05-23 Canon Kabushiki Kaisha Light detection system

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06230115A (ja) * 1993-02-01 1994-08-19 Toyota Motor Corp 車間距離検出装置
JPH10250506A (ja) * 1997-03-07 1998-09-22 Calsonic Corp 乗物用距離測定装置および外乱検出方法
JP2003269917A (ja) * 2002-03-15 2003-09-25 Sony Corp 距離計測方法、その装置、そのプログラム、その記録媒体及び距離計測装置搭載型ロボット装置
JP2008116308A (ja) * 2006-11-02 2008-05-22 Fujifilm Corp 距離画像生成方法及びその装置
US20100328644A1 (en) * 2007-11-07 2010-12-30 Yuesheng Lu Object Detection and Tracking System
JP2012073702A (ja) * 2010-09-28 2012-04-12 Sharp Corp 画像処理装置、画像処理方法、プログラム及び記録媒体
JP2012138787A (ja) * 2010-12-27 2012-07-19 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
JP2013070274A (ja) * 2011-09-22 2013-04-18 Sharp Corp 画像処理装置、画像処理方法、画像処理プログラム、及び撮像装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06230115A (ja) * 1993-02-01 1994-08-19 Toyota Motor Corp 車間距離検出装置
JPH10250506A (ja) * 1997-03-07 1998-09-22 Calsonic Corp 乗物用距離測定装置および外乱検出方法
JP2003269917A (ja) * 2002-03-15 2003-09-25 Sony Corp 距離計測方法、その装置、そのプログラム、その記録媒体及び距離計測装置搭載型ロボット装置
JP2008116308A (ja) * 2006-11-02 2008-05-22 Fujifilm Corp 距離画像生成方法及びその装置
US20100328644A1 (en) * 2007-11-07 2010-12-30 Yuesheng Lu Object Detection and Tracking System
JP2012073702A (ja) * 2010-09-28 2012-04-12 Sharp Corp 画像処理装置、画像処理方法、プログラム及び記録媒体
JP2012138787A (ja) * 2010-12-27 2012-07-19 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
JP2013070274A (ja) * 2011-09-22 2013-04-18 Sharp Corp 画像処理装置、画像処理方法、画像処理プログラム、及び撮像装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ZHANG, JING ET AL.: "High Quality Depth Maps from Stereo Matching and ToF Camera", 2011 INTERNATIONAL CONFERENCE OF SOFT COMPUTING AND PATTERN RECOGNITION, 14 October 2011 (2011-10-14), pages 68 - 72, XP032028176, ISBN: 978-1-4577-1195-4, [retrieved on 20170426] *

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2018042801A1 (ja) * 2016-09-01 2019-06-24 ソニーセミコンダクタソリューションズ株式会社 撮像装置
JP7022057B2 (ja) 2016-09-01 2022-02-17 ソニーセミコンダクタソリューションズ株式会社 撮像装置
JP7059076B2 (ja) 2018-03-30 2022-04-25 キヤノン株式会社 画像処理装置、その制御方法、プログラム、記録媒体
JP2019179463A (ja) * 2018-03-30 2019-10-17 キヤノン株式会社 画像処理装置、その制御方法、プログラム、記録媒体
US11348335B2 (en) * 2018-04-05 2022-05-31 Efficiency Matrix Pty Ltd Computer implemented structural thermal audit systems and methods
JP7402160B2 (ja) 2018-07-23 2023-12-20 ヌヴォトンテクノロジージャパン株式会社 距離測定装置および信頼性判定方法
WO2020021914A1 (ja) * 2018-07-23 2020-01-30 パナソニックIpマネジメント株式会社 距離測定装置および信頼性判定方法
JPWO2020021914A1 (ja) * 2018-07-23 2021-09-24 ヌヴォトンテクノロジージャパン株式会社 距離測定装置および信頼性判定方法
WO2020209079A1 (ja) * 2019-04-09 2020-10-15 ソニーセミコンダクタソリューションズ株式会社 測距センサ、信号処理方法、および、測距モジュール
CN111835959B (zh) * 2019-04-17 2022-03-01 杭州海康微影传感科技有限公司 用于双光融合的方法和装置
CN111835959A (zh) * 2019-04-17 2020-10-27 杭州海康微影传感科技有限公司 用于双光融合的方法和装置
CN110428381B (zh) * 2019-07-31 2022-05-06 Oppo广东移动通信有限公司 图像处理方法、图像处理装置、移动终端及存储介质
CN110428381A (zh) * 2019-07-31 2019-11-08 Oppo广东移动通信有限公司 图像处理方法、图像处理装置、移动终端及存储介质
JP7505312B2 (ja) 2020-07-29 2024-06-25 株式会社リコー 光投射装置、物体検出装置、及び移動体
JP2022041219A (ja) * 2020-08-31 2022-03-11 エスゼット ディージェイアイ テクノロジー カンパニー リミテッド 制御装置、測距センサ、撮像装置、制御方法、及びプログラム
JP7430886B2 (ja) 2021-02-22 2024-02-14 深▲セン▼市歓創科技股▲フン▼有限公司 距離測定装置、レーザレーダ及び移動ロボット
JP2022143955A (ja) * 2021-03-18 2022-10-03 株式会社東芝 距離推定装置及び距離推定方法
JP7439006B2 (ja) 2021-03-18 2024-02-27 株式会社東芝 距離推定装置及び距離推定方法
JP7450668B2 (ja) 2022-06-30 2024-03-15 維沃移動通信有限公司 顔認識方法、装置、システム、電子機器および読み取り可能記憶媒体

Also Published As

Publication number Publication date
US20210183096A1 (en) 2021-06-17
JPWO2017159312A1 (ja) 2019-01-24

Similar Documents

Publication Publication Date Title
WO2017159312A1 (ja) 画像処理装置、撮像装置、および画像処理方法、並びにプログラム
US10306141B2 (en) Image processing apparatus and method therefor
US8619128B2 (en) Systems and methods for an imaging system using multiple image sensors
US9237252B2 (en) Signal intensity matching of image sensors
JP5329677B2 (ja) 奥行き及びビデオのコプロセッシング
JP2012239103A (ja) 画像処理装置、および画像処理方法、並びにプログラム
WO2013094635A1 (ja) 画像処理装置、撮像装置および表示装置
WO2013031367A1 (ja) 画像処理装置、および画像処理方法、並びにプログラム
TWI767985B (zh) 用於處理影像性質圖的方法及裝置
JP4346634B2 (ja) 目標物検出装置
WO2017098897A1 (ja) 撮像装置、撮像制御方法、および、プログラム
US9432641B2 (en) Image processing device and program
JP2015231103A (ja) 画像処理装置、画像処理システム、撮像装置、および画像処理方法
JP5303692B1 (ja) 立体画像処理装置及び立体画像処理方法
US20160267686A1 (en) Image processing apparatus and image processing method for color correction based on pixel proximity and color similarity
KR20110016505A (ko) 컬러 조정
JP6825617B2 (ja) 画像処理装置、撮像装置、および画像処理方法、並びにプログラム
JP6624785B2 (ja) 画像処理方法、画像処理装置、撮像装置、プログラム、および、記憶媒体
JP2017050857A (ja) 画像処理装置、画像処理方法およびプログラム
JP6415094B2 (ja) 画像処理装置、撮像装置、画像処理方法およびプログラム
JP5881005B2 (ja) 画像処理装置、画像撮像装置、画像表示装置、画像処理方法およびプログラム
JP5743456B2 (ja) 画像処理装置、画像処理方法及び撮像装置
JP2012044560A5 (ja)
JP6332982B2 (ja) 画像処理装置およびその方法
KR101346982B1 (ko) 텍스쳐 영상과 깊이 영상을 추출하는 장치 및 방법

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2018505774

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17766316

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 17766316

Country of ref document: EP

Kind code of ref document: A1