WO2016035570A1 - 画像処理装置および画像処理方法、並びに固体撮像装置 - Google Patents

画像処理装置および画像処理方法、並びに固体撮像装置 Download PDF

Info

Publication number
WO2016035570A1
WO2016035570A1 PCT/JP2015/073467 JP2015073467W WO2016035570A1 WO 2016035570 A1 WO2016035570 A1 WO 2016035570A1 JP 2015073467 W JP2015073467 W JP 2015073467W WO 2016035570 A1 WO2016035570 A1 WO 2016035570A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
unit
difference information
motion vector
difference
Prior art date
Application number
PCT/JP2015/073467
Other languages
English (en)
French (fr)
Inventor
英史 山田
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US15/505,474 priority Critical patent/US10002436B2/en
Publication of WO2016035570A1 publication Critical patent/WO2016035570A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/285Analysis of motion using a sequence of stereo image pairs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/92Dynamic range modification of images or parts thereof based on global image properties
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/223Analysis of motion using block-matching
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/11Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6811Motion detection based on the image signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/683Vibration or motion blur correction performed by a processor, e.g. controlling the readout of an image memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/57Control of the dynamic range
    • H04N25/58Control of the dynamic range involving two or more exposures
    • H04N25/581Control of the dynamic range involving two or more exposures acquired simultaneously
    • H04N25/583Control of the dynamic range involving two or more exposures acquired simultaneously with different integration times
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10144Varying exposure
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20208High dynamic range [HDR] image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Definitions

  • the present disclosure relates to an image processing device, an image processing method, and a solid-state imaging device, and in particular, an image processing device and an image processing method that can detect image information with high accuracy using images with different shooting conditions. And a solid-state imaging device.
  • an imaging device such as a digital camera that shoots a moving image of a subject and detects a motion vector between frames of the moving image to detect a motion of the subject or estimate a motion amount of the entire screen.
  • an imaging apparatus by using a finger as a subject, a gesture UI (User Interface) function for operating an electronic device by the movement of the finger is realized, or a function for correcting camera shake using a motion vector of the entire screen is provided. Can be realized.
  • a gesture UI User Interface
  • the block matching method is a method for detecting, as a motion vector, a vector connecting positions on the screen of blocks of two-frame images that minimize the difference. Therefore, in the block matching method, when the images for which the difference is obtained change due to factors other than motion, the motion vector detection accuracy decreases. For example, when the moving speed of the subject changes with time and the amount of blurring of the subject differs between the images of two frames, the difference between the blocks of the same subject increases and the motion vector detection accuracy decreases. .
  • the present disclosure has been made in view of such a situation, and makes it possible to detect image information with high accuracy using images with different shooting conditions.
  • An image processing apparatus includes a first difference detection unit that detects difference information between first images of first and second frames that are captured under a first imaging condition, A second difference detector for detecting difference information of the second images of the first and second frames photographed under the photographing condition; and the first or second image based on the first image.
  • the difference information of the first image detected by the difference detection unit and the difference information of the second image detected by the second difference detection unit are combined, and based on the combined difference information,
  • An image processing apparatus comprising: a synthesis unit that generates a motion vector of the first frame.
  • the image processing method according to the first aspect of the present disclosure corresponds to the image processing apparatus according to the first aspect of the present disclosure.
  • difference information between the first images of the first and second frames captured under the first imaging condition is detected, and the first image captured under the second imaging condition is detected.
  • difference information of the second image of the second frame is detected, and the difference information of the first image and the difference information of the second image are synthesized based on the first or second image.
  • the motion vector of the first frame is generated.
  • a solid-state imaging device includes an imaging unit that performs imaging under first and second imaging conditions, and first and second frames that are captured under the first imaging condition by the imaging unit.
  • a first difference detection unit that detects difference information of the first image of the first image, and difference information of the second image of the first and second frames imaged by the imaging unit under the second imaging condition.
  • a second difference detection unit to detect, difference information of the first image detected by the first difference detection unit based on the first or second image, and the second difference detection unit
  • a solid-state imaging device comprising: a synthesis unit that synthesizes the difference information of the second image detected in step (b) and generates a motion vector of the first frame based on the synthesized difference information.
  • photographing is performed under the first and second photographing conditions, and difference information of the first images of the first and second frames photographed under the first photographing condition is obtained.
  • Difference information of the second image of the first and second frames detected and detected under the second imaging condition is detected, and the first image is based on the first or second image.
  • the difference information of the second image are combined, and the motion vector of the first frame is generated based on the combined difference information.
  • An image processing apparatus includes a first difference detection unit that detects difference information between an image for the left eye and an image for the right eye that are captured under the first imaging condition, and a second imaging condition
  • a second difference detection unit that detects difference information between the image for the left eye and the image for the right eye photographed in Step 1, and the image for the left eye photographed under the first or second photographing condition, or the first Based on the image for the right eye photographed under the first or second photographing condition, the difference information of the first photographing condition detected by the first difference detector, and the second difference detector
  • the image processing apparatus includes a combining unit that combines the detected difference information of the second imaging condition and generates the combined difference information as a depth value.
  • the image processing method according to the third aspect of the present disclosure corresponds to the image processing device according to the third aspect of the present disclosure.
  • difference information between the image for the left eye and the image for the right eye photographed under the first photographing condition is detected, and the image for the left eye and the right eye photographed under the second photographing condition are detected.
  • Image difference information is detected, and the left-eye image captured under the first or second imaging condition or the right-eye image captured under the first or second imaging condition Based on this, the difference information of the first shooting condition and the difference information of the second shooting condition are combined, and the combined difference information is generated as a depth value.
  • a solid-state imaging device includes a photographing unit that photographs a left-eye image and a right-eye image under first and second photographing conditions, and photographing under the first photographing condition by the photographing unit.
  • a first difference detection unit that detects difference information between the left-eye image and the right-eye image, and the left-eye image and the right-eye image captured by the imaging unit under the second imaging condition.
  • a second difference detection unit that detects difference information of the image of the image, and the image for the left eye photographed under the first or second photographing condition, or photographed under the first or second photographing condition.
  • the difference information of the first imaging condition detected by the first difference detection unit and the difference of the second imaging condition detected by the second difference detection unit Information and the difference information after synthesis is generated as a depth value.
  • the image processing apparatuses according to the first and third aspects can be realized by causing a computer to execute a program.
  • a program to be executed by a computer can be provided by being transmitted via a transmission medium or by being recorded on a recording medium.
  • image processing can be performed. Further, according to the first to fourth aspects of the present disclosure, it is possible to detect image information with high accuracy using images with different shooting conditions.
  • FIG. 10 is a flowchart illustrating details of motion vector detection processing in FIG. 9. It is a block diagram which shows the structural example of 2nd Embodiment of the digital camera as a solid-state imaging device to which this indication is applied. It is a block diagram which shows the structural example of the motion vector detection part of FIG. It is a block diagram which shows the structural example of the synthetic
  • FIG. 20 is a flowchart for describing photographing processing of the digital camera of FIG. 19.
  • FIG. 20 is a flowchart explaining the detail of the depth map detection process of FIG. It is a block diagram which shows the structural example of the hardware of a computer.
  • First embodiment Digital camera (FIGS. 1 to 10) 2.
  • Second Embodiment Digital Camera (FIGS. 11 and 15) 3.
  • Third Embodiment Digital Camera (FIGS. 16 to 18) 4).
  • Fourth Embodiment Digital Camera (FIGS. 19 to 23) 5.
  • Fifth embodiment computer (FIG. 24)
  • FIG. 1 is a block diagram illustrating a configuration example of a first embodiment of a digital camera as a solid-state imaging device to which the present disclosure is applied.
  • the digital camera 11 shoots with a relatively short exposure time (hereinafter referred to as short exposure time) and shoots with a relatively long exposure time (hereinafter referred to as long exposure time).
  • the operation unit 21 includes, for example, a release switch 31 and a touch panel (not shown) superimposed on a display unit 61 described later, and is operated by a user.
  • the operation unit 21 supplies an operation signal corresponding to a user operation to a necessary block of the digital camera 11.
  • the imaging unit 41 includes an imaging lens 51, an imaging element 52, and a camera signal processing unit 53.
  • the imaging lens 51 of the imaging unit 41 forms an image of a subject on the light receiving surface of the imaging element 52.
  • the image sensor 52 is configured by, for example, a CCD (Charge-Coupled Device) sensor, a CMOS (Complementary Metal-Oxide Semiconductor) sensor, or the like.
  • the image sensor 52 photoelectrically converts an object image (light) imaged on the light receiving surface in units of pixels, and accumulates electric charges obtained as a result.
  • the exposure time of a part of the pixels of the image sensor 52 is a short exposure time
  • the exposure time of the remaining pixels is a long accumulation exposure time.
  • the image sensor 52 reads, for each frame, an electrical signal of charges accumulated in a short exposure time in a pixel whose exposure time is a short exposure time (hereinafter referred to as a short accumulation pixel) as a pixel signal, thereby realizing a short exposure time.
  • the image pickup device 52 reads, for each frame, a charge electric signal accumulated in a long exposure time in a pixel whose exposure time is a long exposure time (hereinafter referred to as a long accumulation pixel) as a pixel signal.
  • a charge electric signal accumulated in a long exposure time in a pixel whose exposure time is a long exposure time hereinafter referred to as a long accumulation pixel
  • the image sensor 52 supplies the pixel signal of the short accumulation pixel and the long accumulation pixel in the frame unit read out as a result of photographing to the camera signal processing unit 53 as an image signal.
  • the camera signal processing unit 53 performs, for example, gamma correction processing or white balance processing on the analog image signal supplied from the image sensor 52.
  • the camera signal processing unit 53 A / D Analog / Digital converts the resulting analog image signal to generate a digital image signal, and supplies the image signal to the SDRAM 54 as a long / short exposure image in frame units. To do.
  • the SDRAM 54 stores long and short exposure images in frame units supplied from the camera signal processing unit 53.
  • the motion vector detection unit 55 (image processing apparatus) reads out a long / short exposure image of a frame to be processed from the SDRAM 54.
  • the motion vector detection unit 55 detects the motion vector of the processing target frame based on the long and short exposure images of the processing target frame read from the SDRAM 54.
  • the motion vector detection unit 55 supplies the detected motion vector to the correction unit 57.
  • the correction unit 57 reads out the long / short exposure image of the processing target frame from the SDRAM 54.
  • the correction unit 57 generates a captured image with a wide dynamic range using the read long and short exposure images.
  • the correction unit 57 corrects the generated captured image based on the motion vector supplied from the motion vector detection unit 55 and supplies the corrected captured image to the display control unit 60.
  • the display control unit 60 supplies the captured image supplied from the correction unit 57 to the display unit 61 for display.
  • the display unit 61 displays a captured image and the like according to the control of the display control unit 60.
  • the display unit 61 for example, an LCD (Liquid Crystal Display) or the like can be employed.
  • FIG. 2 is a diagram illustrating an arrangement example of short accumulation pixels and long accumulation pixels.
  • squares represent pixels.
  • L in the square indicates that the pixel represented by the square is a long accumulation pixel, and the number next to L is a value indicating the position of the long accumulation pixel.
  • s in the square indicates that the pixel represented by the square is a short accumulation pixel, and the number next to s is a value indicating the position of the short accumulation pixel.
  • only 5 ⁇ 5 pixels among the pixels of the image sensor 52 are illustrated for convenience of explanation.
  • the long accumulation pixels and the short accumulation pixels are regularly arranged.
  • long accumulation pixels and short accumulation pixels are alternately arranged in the horizontal direction and the vertical direction.
  • FIG. 3 is a block diagram illustrating a configuration example of the motion vector detection unit 55 of FIG.
  • 3 includes a separating unit 81, a frame memory 82, a difference detecting unit 83, a difference detecting unit 84, and a synthesizing unit 85.
  • the separation unit 81 of the motion vector detection unit 55 reads the long / short exposure image #i, which is the long / short exposure image of the i-th frame, from the SDRAM 54 using the i-th frame as a processing target frame (first frame).
  • the separation unit 81 separates the pixel value of the short accumulation pixel and the pixel value of the long accumulation pixel from the read long / short exposure image #i.
  • the separation unit 81 supplies the short-exposure image #i composed of the pixel values of the separated short accumulation pixels to the frame memory 82 and the difference detection unit 83. Further, the separation unit 81 supplies the long exposure image #i composed of the pixel values of the separated long accumulation pixels to the frame memory 82 and the difference detection unit 84.
  • the separation unit 81 since the separation unit 81 generates the short exposure image #i using the pixel value of the separated short accumulation pixel as it is, the resolution of the short exposure image #i is higher than the resolution of the long and short exposure image #i. Get smaller. That is, since there is no pixel value at the position of the long accumulation pixel in the short exposure image #i, for example, when the short accumulation pixel and the long accumulation pixel are arranged as shown in FIG. 2, the resolution of the short exposure image #i Is half the resolution of the long / short exposure image #i.
  • the separation unit 81 bilinearly interpolates the pixel value at the position of the long accumulation pixel using the pixel value of the surrounding short accumulation pixel, and the like, thereby the short exposure image #i having the same resolution as the long and short exposure image #i. May be generated. The same applies to the long exposure image #i.
  • the frame memory 82 includes a short-exposure image # i-1 that is a short-exposure image of the i-1th frame supplied from the separation unit 81 when the i-1th frame is a processing target frame, A long exposure image # i-1 that is a long exposure image is held. Further, the frame memory 82 holds the motion vector # i ⁇ 1 of the i ⁇ 1th frame supplied from the synthesis unit 85 when the i ⁇ 1th frame is the processing target frame.
  • the frame memory 82 holds the short exposure image #i and the long exposure image #i supplied from the separation unit 81.
  • the short exposure image #i and the long exposure image #i are read and used when the processing target frame is the (i + 1) th frame.
  • the difference detection unit 83 receives from the frame memory 82 the short-exposure image # i ⁇ of the i ⁇ 1th frame which is a frame one frame before the processing target frame (hereinafter referred to as a past frame (second frame)). 1 is read.
  • the difference detection unit 83 generates an SAD table according to the block matching method using the read short exposure image # i ⁇ 1 and the short exposure image #i supplied from the separation unit 81.
  • the difference detection unit 83 divides the short-exposure image #i into blocks of a predetermined size and uses them as reference image blocks. Further, the difference detection unit 83 divides the short-exposure image # i-1 into blocks having the same size as the size of the standard image block, and sets it as a reference image block. For each reference image block, the difference detection unit 83 sets a rectangular area centered on the center of the reference image block as a search range. The difference detection unit 83 (first difference detection unit) for each reference image block, the difference for each pixel between the reference image block and each of a plurality of reference image blocks whose centers exist within the search range of the reference image block. The sum of absolute values (SAD value) is detected as difference information. For each standard image block, the difference detection unit 83 generates a SAD table in which a vector representing the relative position of each pair of the standard image block and each reference image block within the search range is associated with the difference information of the pair. .
  • the difference detection unit 83 supplies the reference image block and the SAD table to the combining unit 85 for each reference image block.
  • the difference detection unit 84 reads the long exposure image # i-1 of the past frame from the frame memory 82.
  • the difference detection unit 84 uses the read long exposure image # i-1 and the long exposure image #i supplied from the separation unit 81 to perform the reference according to the block matching method in the same manner as the difference detection unit 83.
  • a SAD table for each image block is generated.
  • the difference detection unit 84 supplies the reference image block and the SAD table to the combining unit 85 for each reference image block.
  • the synthesizing unit 85 reads the motion vector # i-1 of the past frame from the frame memory 82. For each reference image block, the synthesizer 85 includes the SAD table supplied from the difference detector 83 based on the reference image block supplied from the difference detector 83 and the difference detector 84, and the motion vector # i-1. The SAD table supplied from the difference detection unit 84 is synthesized. For each reference image block, the combining unit 85 detects a vector representing the relative position of the pair corresponding to the minimum difference information as the motion vector #i of the processing target frame based on the combined SAD table.
  • the synthesizing unit 85 supplies the generated motion vector #i to the correction unit 57 of FIG. 1 and also supplies it to the frame memory 82 to hold it.
  • the motion vector #i held in the frame memory 82 is read and used as a motion vector of a past frame when the processing target frame is the (i + 1) th frame.
  • FIG. 4 is a diagram for explaining SAD table generation processing by the difference detection units 83 and 84 in FIG.
  • the smallest square represents a pixel.
  • the standard image block 101 and the reference image block 104 are 4 ⁇ 4 pixels, and the search range 103 is 8 ⁇ 8 pixels. The same applies to FIG. 5 described later.
  • the relative position of the reference image block 101 and the reference image block 104 having the center O ′ within the search range 103 is a vector from the position of the center O of the reference image block 101 toward the center O ′ of the reference image block 104. 105.
  • the difference information between the reference image block 101 and the reference image block 104 at the relative position represented by the vector 105 is registered in association with the vector 105.
  • the vector 105 having the smallest difference information is a motion vector detected by this SAD table.
  • the matching processing range 106 that is a range of pixels constituting the 81 reference image blocks 104 having the center O ′ in the search range 103 is 12 ⁇ 12 pixels.
  • the number of pixels in the horizontal direction of the matching processing range 106 is a value obtained by adding the number of pixels in the horizontal direction of the reference image block 104 to the number of pixels in the horizontal direction of the search range 103. It is obtained in the same manner as the number of pixels.
  • FIG. 5 is a diagram illustrating an example of the base image block and the reference image block when the motion vector of the processing target frame is different from the motion vector of the past frame, and FIG. It is a figure which shows the example of a short exposure image.
  • FIG. 5 the same components as those in FIG. 4 are denoted by the same reference numerals. The overlapping description will be omitted as appropriate.
  • the difference information corresponding to the motion vector 122 is referred to the reference image block 101. This is difference information of the image block 123.
  • the motion blur generated in the standard image block 101 and the motion blur generated in the reference image block 123 are substantially the same, and the pixel values of the pixels of the standard image block 101 and the reference image block 123 are approximately the same. Are the same.
  • the difference between the reference image block 101 in the short-exposure image 131 of the processing target frame and the reference image block 123 in the short-exposure image 133 of the past frame is Only noise.
  • the difference between the standard image block 101 in the long exposure image 132 of the processing target frame and the reference image block 123 in the long exposure image 134 of the past frame is only noise.
  • the detection of the motion vector using the SAD table of the long exposure image 134 with a good S / N ratio is compared with the case where the SAD table of the short exposure image 133 with a poor S / N ratio is used.
  • the difference information of 123 pairs is minimized, and the motion vector 122 is likely to be detected.
  • the motion vector 122 of the processing target frame is substantially the same as the motion vector 121 of the past frame, the difference in motion blur between the long exposure image 132 and the long exposure image 134 is so small that it can be ignored. . Therefore, detection accuracy is higher when the motion vector is detected using the SAD table of the long exposure image 134 than when the SAD table of the short exposure image 133 is used.
  • the difference information corresponding to the motion vector 124 is the same as the reference image block 101. This is difference information of the reference image block 125.
  • the motion blur generated in the standard image block 101 and the motion blur generated in the reference image block 125 are different. Therefore, as shown in FIG. 6A and FIG. 6C, the reference in the reference image block 101 of the long-exposure image 132 of the frame to be processed and the long-exposure image 136 of the past frame in which motion blur occurs for a long time.
  • the difference from the image block 125 is large. Therefore, the difference information of the pair of the standard image block 101 of the long exposure image 132 and the reference image block 125 of the long exposure image 136 is not minimized, and the motion vector 124 may not be detected.
  • the difference between the reference image block 101 of the short-exposure image 131 of the frame to be processed and the reference image block 125 of the short-exposure image 135 of the past frame, in which motion blur occurs only for a short time, is small. Therefore, the difference information of the pair of the standard image block 101 of the short exposure image 135 and the reference image block 125 of the short exposure image 135 is minimized, and there is a high possibility that the motion vector 124 can be detected.
  • the motion blur between the short exposure image 131 and the short exposure image 135 is longer than the long exposure image 132. It is smaller than the motion blur between the exposure images 136. Accordingly, the detection accuracy is higher when the motion vector is detected using the SAD table of the short exposure image 135 than when the SAD table of the long exposure image 136 is used.
  • the combining unit 85 in FIG. 3 combines the SAD table of the long exposure image and the short exposure image based on the relationship between the past motion vector and the vector registered in the SAD table.
  • the detection of the motion vector using the SAD table having the better S / N ratio between the long exposure image and the short exposure image than the SAD table having the worse S / N ratio is used.
  • the motion vector detection accuracy is increased.
  • the motion vector detection accuracy is higher when the motion vector is detected using the SAD table of the short-exposure image in which overexposure hardly occurs than when the SAD table of the long-exposure image is used.
  • the motion vector is detected using the SAD table of the long exposure image in which black crushing hardly occurs, compared with the case of using the SAD table of the short exposure image.
  • the motion vector is determined by the difference of the pixel value due to the motion blur compared to the case of using the SAD table of the short exposure image. May be erroneously detected. The same applies when the motion vector is large, that is, when the motion is fast.
  • the synthesizer 85 synthesizes the SAD table of the long exposure image and the short exposure image based on the SN ratio, brightness, and contrast of the long exposure image and the short exposure image, and the motion vector of the past frame. .
  • FIG. 7 is a block diagram illustrating a configuration example of the synthesis unit 85 in FIG.
  • a selection unit 141 includes a selection unit 141, a luminance calculation unit 142, a contrast calculation unit 143, a motion amount calculation unit 144, a weight table generation unit 145, a blend table generation unit 146, a blend unit 147, and a selection unit 148. Is done.
  • the selection unit 141 of the synthesis unit 85 sets the pixel value of the short exposure image #i supplied from the difference detection unit 83 in FIG. 3 and the long exposure image # supplied from the difference detection unit 84 for each pixel of the reference image block. Of the pixel values of i, the one with the better SN ratio is selected.
  • the selection unit 141 compares the SN ratio based on the pixel value of the short exposure image #i with the SN ratio based on the pixel value of the long exposure image #i for each pixel of the reference image block, and has a better SN ratio. Select. The selection unit 141 supplies the pixel value of each pixel of the selected reference image block to the luminance calculation unit 142 and the contrast calculation unit 143.
  • the luminance calculation unit 142 calculates an average value BlockAve of pixel values (luminance values) of the reference image block supplied from the selection unit 141. Based on the average value BlockAve, the luminance calculation unit 142 determines the luminance blend value BlendL by the following equation (1), and supplies it to the blend table generation unit 146.
  • Th1 and Th2 are predetermined threshold values, respectively, and the threshold value Th1 is larger than the threshold value Th2.
  • the contrast calculation unit 143 obtains the contrast value BlockCont according to the following equation (2) based on the pixel value of the reference image block supplied from the selection unit 141.
  • I (x, y) is the pixel value of the pixel at position (x, y).
  • the contrast value BlockCont is calculated by adding the integrated value of the absolute difference values of the pixel values of the pixels adjacent in the horizontal direction and the pixels adjacent in the vertical direction among the pixel values of the reference image block. This is the sum of the absolute value of the difference between pixel values and the integrated value.
  • the contrast calculation unit 143 determines the contrast blend value BlendC by Expression (3) based on the contrast value BlockCont, and supplies it to the blend table generation unit 146.
  • Th3 and Th4 are respectively predetermined threshold values, and the threshold value Th3 is larger than the threshold value Th4.
  • the motion amount calculation unit 144 reads the motion vector # i-1 from the frame memory 82 in FIG. Based on the read motion vector # i ⁇ 1, the motion amount calculation unit 144 obtains a norm value MvNorm by the following equation (4).
  • vx is a horizontal component of motion vector # i-1
  • vy is a vertical component of motion vector # i-1.
  • the motion amount calculation unit 144 determines the motion amount blend value BlendM by the following equation (5) based on the norm value MvNorm, and supplies it to the blend table generation unit 146.
  • Th5 and Th6 are predetermined threshold values, respectively, and the threshold value Th5 is larger than the threshold value Th6.
  • the weight table generation unit 145 reads the motion vector # i-1 from the frame memory 82. Based on the read motion vector # i ⁇ 1, the weight table generation unit 145 generates a weight table that represents the weight for a pair whose difference information is registered in the SAD table.
  • the weight table generation unit 145 determines the position (px, py) of the center of the reference image block whose vector representing the relative position to the reference image block is the motion vector # i ⁇ 1 of the reference image block. It is defined by the following equation (6).
  • Equation (6) tx and ty represent the horizontal position and the vertical position of the center of the reference image block, respectively. Further, vx is a horizontal component of motion vector # i-1, and vy is a vertical component of motion vector # i-1.
  • the weight table generation unit 145 uses the position (px, py) defined by the above-described expression (6) and uses the following expression (7) as a reference centering on the position (x, y) within the search range.
  • a weight w (x, y) is determined for a pair of an image block and a reference image block.
  • Bsize is the horizontal size and vertical size of the search range, whereby the weight w (x, y) can be normalized to a range from 0.0 to 1.0.
  • the weight w (px, py) for the pair of the reference image block and the standard image block whose center position is the position (px, py) is determined to be 1 which is the maximum value. Further, the weight w (x, y) for the pair becomes smaller as the pair of the reference image block and the standard image block whose center position (x, y) is farther from the position (px, py).
  • the weight table generation unit 145 is a weight table having the same size as the SAD table, in which the weight w (x, y) for each pair determined as described above is associated with a vector representing the relative position of the pair. Generate. The weight table generation unit 145 supplies the generated weight table to the blend table generation unit 146.
  • the blend table generation unit 146 determines the blend ratio of the SAD table for each pair based on the input luminance blend value BlendL, contrast blend value BlendC, motion amount blend value BlendM, and weight table. . Specifically, the blend table generation unit 146 sets the brightness blend value BlendL, the contrast blend value BlendC, the motion amount blend value BlendM, and the weight w (x, y) so as to increase as the pair increases. Determine a blend ratio in the range of 0 to 1.0.
  • the blend table generating unit 146 generates a blend table having the same size as the SAD table in which the blend ratio for each pair is associated with a vector representing the relative position of the pair, and supplies the blend table to the blend unit 147.
  • the blending unit 147 synthesizes the SAD table supplied from the difference detecting unit 83 and the difference detecting unit 84 in FIG. 3 based on the blend table supplied from the blend table generating unit 146. Specifically, the blend unit 147 multiplies the difference information registered in the SAD table of the long exposure image from the difference detection unit 84 by the blend ratio represented by the blend table for each pair. The blend unit 147 multiplies the difference information registered in the SAD table of the short exposure image from the difference detection unit 83 by a value obtained by subtracting the blend ratio represented by the blend table from 1 for each pair.
  • the blending unit 147 adds, for each pair, the difference information of the long exposure image and the difference information of the short exposure image obtained as a result of multiplication, and registers them in the combined SAD table.
  • the blend unit 147 supplies the combined SAD table to the selection unit 148.
  • the selection unit 148 detects the motion vector #i of the reference image block by selecting a vector corresponding to the smallest difference information among the difference information registered in the SAD table supplied from the blending unit 147.
  • the selection unit 148 supplies the detected motion vector #i of each reference block to the correction unit 57 in FIG. 1 and also to the frame memory 82 in FIG.
  • the difference information of the long exposure image is preferentially used for motion vector detection
  • the difference information of the short exposure image is preferential. It is used for motion vector detection.
  • the difference information of the long exposure image with a good S / N ratio is preferentially used for detection of the motion vector, and when the contrast is low, the difference of the short exposure image that is not easily affected by the motion blur. Information is preferentially used for motion vector detection. As a result, the motion vector detection accuracy is improved.
  • the difference information of the long exposure image with a good SN ratio is preferentially used for motion vector detection, and when the amount of motion is large, the short exposure image that is not easily affected by motion blur. Difference information is preferentially used for motion vector detection. As a result, the motion vector detection accuracy is improved.
  • the difference information of the long exposure image with a good S / N ratio is preferentially used for the detection of the motion vector, and when the change in the motion vector is large, it is affected by the motion blur. Difficult information on short-exposure images is preferentially used for motion vector detection. As a result, the motion vector detection accuracy is improved.
  • the optimum blend table can be used even when the brightness, contrast, or motion vector differs depending on the subject, compared to the case where the blend table is determined for the entire screen. Can be generated. As a result, the motion vector detection accuracy can be improved.
  • FIG. 8 is a block diagram illustrating a configuration example of the blend table generation unit 146 of FIG.
  • the selection unit 161 of the blend table generation unit 146 selects the luminance blend value BlendL from the luminance calculation unit 142, the contrast blend value BlendC from the contrast calculation unit 143, and the motion amount blend value BlendM from the motion amount calculation unit 144 in FIG. Select the minimum value.
  • the selection unit 161 supplies the selected minimum value to the multiplication unit 162.
  • the multiplication unit 162 multiplies each weight registered in the weight table supplied from the weight table generation unit 145 by the minimum value supplied from the selection unit 161 to generate a blend table.
  • the multiplication unit 162 supplies the generated blend table to the blend unit 147.
  • FIG. 9 is a flowchart for explaining a photographing process of the digital camera 11 of FIG. This photographing process is performed in units of frames, for example.
  • step S11 of FIG. 9 the short accumulation pixel of the image sensor 52 accumulates electric charge according to the amount of light incident through the imaging lens 51, and the electric signal of the electric charge accumulated in the short exposure time is converted into a pixel signal. As a result, a short exposure time is taken.
  • the short accumulation pixels of the image sensor 52 supply pixel signals obtained as a result of photographing to the camera signal processing unit 53.
  • step S12 the long accumulation pixel of the image sensor 52 accumulates electric charge according to the amount of light incident through the imaging lens 51, and reads out the electric signal of the electric charge accumulated during the long exposure time as a pixel signal. Thus, shooting with a long exposure time is performed.
  • the long accumulation pixel of the image sensor 52 supplies a pixel signal obtained as a result of photographing to the camera signal processing unit 53.
  • step S ⁇ b> 13 the camera signal processing unit 53 performs gamma correction processing, white balance processing, and A / D conversion on an analog image signal including pixel signals of short accumulation pixels and long accumulation pixels supplied from the image sensor 52. Etc. to generate a long and short exposure image. Then, the camera signal processing unit 53 supplies the long / short exposure image to the SDRAM 54.
  • step S14 the SDRAM 54 holds the long / short exposure image supplied from the camera signal processing unit 53.
  • step S15 the motion vector detection unit 55 reads a long / short exposure image of the processing target frame from the SDRAM 54, and performs a motion vector detection process of detecting a motion vector of the processing target frame based on the long / short exposure image. Details of this motion vector detection process will be described with reference to FIG.
  • step S16 the correction unit 57 reads the long / short exposure image of the processing target frame from the SDRAM 54, and generates a captured image having a wide dynamic range from the long / short exposure image.
  • step S ⁇ b> 17 the correction unit 57 corrects the generated captured image based on the motion vector supplied from the motion vector detection unit 55 and supplies the corrected captured image to the display control unit 60.
  • step S18 the display control unit 60 supplies the captured image supplied from the correction unit 57 to the display unit 61 for display. Then, the process ends.
  • FIG. 10 is a flowchart for explaining the details of the motion vector detection process in step S15 of FIG.
  • step S31 of FIG. 10 the separation unit 81 (FIG. 3) of the motion vector detection unit 55 reads the long / short exposure image of the frame to be processed from the SDRAM 54, and the pixel value of the short accumulation pixel and the long accumulation pixel are read from the long / short exposure image. By separating the pixel values into a short-exposure image and a long-exposure image.
  • the separation unit 81 supplies the generated short exposure image to the frame memory 82 and the difference detection unit 83, and supplies the long exposure image to the frame memory 82 and the difference detection unit 84.
  • step S32 the frame memory 82 holds the short exposure image and the long exposure image of the processing target frame supplied from the separation unit 81.
  • the subsequent steps S33 to S44 are performed for each reference image block.
  • step S ⁇ b> 33 the difference detection unit 83 uses the short-exposure image of the past frame held in the frame memory 82 and the short-exposure image of the processing target frame from the separation unit 81 to use the reference image to be processed.
  • a block SAD table is generated.
  • the difference detection unit 83 supplies the reference image block to be processed of the short exposure image and the SAD table to the synthesis unit 85.
  • step S ⁇ b> 34 the difference detection unit 84 uses the long-exposure image of the past frame held in the frame memory 82 and the long-exposure image of the processing target frame from the separation unit 81 to use the reference image to be processed.
  • a block SAD table is generated.
  • the difference detection unit 83 supplies the reference image block to be processed of the long exposure image and the SAD table to the synthesis unit 85.
  • step S ⁇ b> 35 the selection unit 141 (FIG. 7) of the synthesis unit 85 supplies the pixel value of the short exposure image supplied from the difference detection unit 83 and the difference detection unit 84 for each pixel of the reference image block to be processed. Of the pixel values of the long-exposure image, the one with the better SN ratio is selected. The selection unit 141 supplies the pixel value of each pixel of the selected reference image block to the luminance calculation unit 142 and the contrast calculation unit 143.
  • step S36 the luminance calculation unit 142 obtains an average value BlockAve of pixel values of the reference image block to be processed supplied from the selection unit 141, and based on the average value BlockAve, the luminance is calculated according to the above-described equation (1).
  • a blend value BlendL is determined.
  • the luminance calculation unit 142 supplies the luminance blend value BlendL to the blend table generation unit 146.
  • step S37 the contrast calculation unit 143 determines the contrast blend value BlendC by the above-described equation (3) based on the contrast value BlockCont of the reference image block to be processed.
  • the contrast value BlockCont of the reference image block to be processed is obtained by the above-described equation (2) based on the pixel value of the reference image block to be processed supplied from the selection unit 141.
  • the contrast calculation unit 143 supplies the contrast blend value BlendC to the blend table generation unit 146.
  • step S38 the motion amount calculation unit 144 determines the motion amount blend value BlendM according to the above equation (5) based on the norm value MvNorm of the motion vector of the past frame.
  • the norm value MvNorm of the motion vector of the past frame is obtained by the above-described equation (4) based on the motion vector of the past frame held in the frame memory 82.
  • the motion amount calculation unit 144 supplies the motion amount blend value BlendM to the blend table generation unit 146.
  • step S39 the weight table generation unit 145 reads the motion vector of the past frame from the frame memory 82, and generates a weight table based on the motion vector.
  • the weight table generation unit 145 supplies the generated weight table to the blend table generation unit 146.
  • step S40 the selection unit 161 (FIG. 8) of the blend table generation unit 146 selects the minimum value among the input luminance blend value BlendL, contrast blend value BlendC, and motion amount blend value BlendM.
  • the selection unit 161 supplies the selected minimum value to the multiplication unit 162.
  • step S ⁇ b> 41 the multiplication unit 162 generates a blend table by multiplying the minimum value supplied from the selection unit 161 and each weight registered in the weight table supplied from the weight table generation unit 145. .
  • the multiplication unit 162 supplies the generated blend table to the blend unit 147.
  • step S42 the blending unit 147, based on the blend table supplied from the blend table generating unit 146, the SAD table of the short exposure image supplied from the difference detecting unit 83 and the long exposure image supplied from the difference detecting unit 84.
  • the SAD table is synthesized.
  • the blend unit 147 supplies the combined SAD table to the selection unit 148.
  • step S43 the selection unit 148 detects a vector corresponding to the smallest difference information among the difference information registered in the SAD table supplied from the blending unit 147 as a motion vector of the reference image block to be processed.
  • step S44 the selection unit 148 outputs the detected motion vector to the correction unit 57 and supplies the motion vector to the frame memory 82 for holding.
  • This motion vector is used as the motion vector of the past frame in the processing of steps S38 and S39 when the frame next to the current processing target frame becomes a new processing target frame.
  • the digital camera 11 generates the SAD table for the short exposure image and the SAD table for the long exposure image, and based on the short exposure image or the long exposure image, the SAD table for the short exposure image and the SAD table for the long exposure image. Synthesize the table.
  • the digital camera 11 detects a motion vector based on the combined SAD table.
  • the motion vector can be detected by preferentially using the SAD table for the short exposure image or the SAD table for the long exposure image, which is suitable for the brightness or contrast of the short exposure image or the long exposure image. .
  • the motion vector detection accuracy is improved.
  • FIG. 11 is a block diagram illustrating a configuration example of a second embodiment of a digital camera as a solid-state imaging device to which the present disclosure is applied.
  • the configuration of the digital camera 181 in FIG. 11 is different from the configuration of the digital camera 11 in FIG. 1 in that a shooting unit 182 and a motion vector detection unit 183 are provided instead of the shooting unit 41 and the motion vector detection unit 55.
  • the digital camera 181 shoots not only a short exposure time and a long exposure time but also a medium exposure time that is longer than the short exposure time and shorter than the long exposure time.
  • the imaging unit 182 includes an imaging lens 51, an imaging element 191, and a camera signal processing unit 192.
  • the image sensor 191 is configured by, for example, a CCD sensor, a CMOS sensor, or the like.
  • the image sensor 191 photoelectrically converts the subject image (light) imaged on the light receiving surface via the imaging lens 51 in units of pixels, and accumulates the electric charge obtained as a result.
  • the exposure time of some pixels of the image sensor 191 is a short exposure time
  • the exposure time of some other pixels is a medium exposure time
  • the exposure time of the remaining pixels is a long accumulation exposure. It's time.
  • the image sensor 191 performs image capturing for a short exposure time by reading out, as a pixel signal, the electric signal of the charge accumulated in the short accumulation pixel in the short exposure time for each frame.
  • the image pickup device 191 reads out an electric signal of charge accumulated during the medium exposure time in a pixel having an exposure time of medium exposure time (hereinafter referred to as a medium storage pixel) as a pixel signal for each frame. Shoot the exposure time.
  • a medium storage pixel an exposure time of medium exposure time
  • the image pickup device 191 performs shooting for a long exposure time by reading out an electric signal of the charge accumulated in the long storage pixel for a long exposure time as a pixel signal for each frame.
  • the image sensor 191 supplies pixel signals of short accumulation pixels, medium accumulation pixels, and long accumulation pixels in units of frames read out as a result of photographing to the camera signal processing unit 192 as image signals.
  • the camera signal processing unit 192 performs, for example, gamma correction processing and white balance processing on the analog image signal supplied from the image sensor 191.
  • the camera signal processing unit 192 A / D converts the resulting analog image signal to generate a digital image signal, and supplies the image signal to the SDRAM 54 as a long, medium, and short exposure image in units of frames.
  • the motion vector detection unit 183 (image processing apparatus) reads out the long, medium and short exposure images of the processing target frame from the SDRAM 54.
  • the motion vector detection unit 183 detects the motion vector of the processing target frame based on the long, medium and short exposure images of the processing target frame read from the SDRAM 54.
  • the motion vector detection unit 183 supplies the detected motion vector to the correction unit 57.
  • FIG. 12 is a block diagram illustrating a configuration example of the motion vector detection unit 183 in FIG.
  • the configuration of the motion vector detection unit 183 in FIG. 12 is that a separation unit 201, a frame memory 202, and a synthesis unit 204 are provided instead of the separation unit 81, the frame memory 82, and the synthesis unit 85, and that the difference detection unit 203 is A newly provided point is different from the configuration of the motion vector detection unit 55 in FIG.
  • the separation unit 201 of the motion vector detection unit 183 reads the long, medium, and short exposure image #i that is the long, medium, and short exposure image of the i th frame from the SDRAM 54 with the i th frame as a processing target frame.
  • the separation unit 201 separates the pixel value of the short accumulation pixel, the pixel value of the medium accumulation pixel, and the pixel value of the long accumulation pixel from the read long, medium and short exposure image #i.
  • the separation unit 201 supplies the short-exposure image #i composed of the pixel values of the separated short accumulation pixels to the frame memory 202 and the difference detection unit 83. In addition, the separation unit 201 supplies the middle exposure image #i including the separated intermediate storage pixel value to the frame memory 202 and the difference detection unit 203. The separation unit 201 supplies the long-exposure image #i including the pixel values of the separated long accumulation pixels to the frame memory 202 and the difference detection unit 84.
  • the resolution of the short exposure image #i is the resolution of the long, medium, and short exposure image #i. Smaller than the resolution. That is, since there is no pixel value at the position of the medium accumulation pixel and the long accumulation pixel in the short exposure image #i, the resolution of the short exposure image #i is smaller than that of the long, medium and short exposure image #i.
  • the separation unit 201 performs the same linear resolution as that of the long, medium, and short exposure image #i by bilinearly interpolating the pixel values at the positions of the medium accumulation pixel and the long accumulation pixel using the pixel values of the surrounding short accumulation pixels. Short exposure image #i may be generated. The same applies to the medium exposure image #i and the long exposure image #i.
  • the frame memory 202 stores the short-exposure image # i-1, the long-exposure image # i-1, and the i-1-th image supplied from the separation unit 201 when the i-1-th frame is a processing target frame.
  • the middle-exposure image # i-1 is held.
  • the frame memory 202 holds the motion vector # i ⁇ 1 supplied from the synthesis unit 204 when the (i ⁇ 1) th frame is a processing target frame.
  • the frame memory 202 holds the short exposure image #i, the medium exposure image #i, and the long exposure image #i supplied from the separation unit 201.
  • the short exposure image #i, the medium exposure image #i, and the long exposure image #i are read and used when the processing target frame is the (i + 1) th frame.
  • the difference detection unit 203 reads from the frame memory 202 the middle exposure image # i ⁇ 1 of the (i ⁇ 1) th frame that is a past frame.
  • the difference detection unit 203 uses the read intermediate exposure image # i ⁇ 1 and the intermediate exposure image i supplied from the separation unit 201 to perform the reference according to the block matching method in the same manner as the difference detection unit 83.
  • a SAD table for each image block is generated.
  • the difference detection unit 203 supplies the reference image block and the SAD table to the synthesis unit 204 for each reference image block.
  • the synthesizing unit 204 reads the motion vector # i-1 from the frame memory 202. For each reference image block, the synthesizing unit 204 generates a difference detection unit 83, a difference detection unit 83, a difference detection unit 84, a reference image block supplied from the difference detection unit 203, and a motion vector # i ⁇ 1.
  • the SAD tables supplied from the difference detector 84 and the difference detector 203 are combined.
  • the synthesizing unit 204 detects, for each reference image block, a vector corresponding to the minimum difference information as the motion vector #i of the processing target frame based on the synthesized SAD table.
  • the synthesizing unit 204 supplies the generated motion vector #i to the correction unit 57 in FIG. 11 and also supplies the motion vector #i to the frame memory 202 for holding.
  • the motion vector #i held in the frame memory 202 is read and used as a motion vector of a past frame when the processing target frame is the (i + 1) th frame.
  • FIG. 13 is a block diagram illustrating a configuration example of the synthesis unit 204 in FIG.
  • FIG. 13 differs from the configuration of the combining unit 85 in FIG. 7 in that a selecting unit 211 and a blending unit 212 are provided instead of the selecting unit 141 and the blending unit 147.
  • the selection unit 211 of the synthesis unit 204 has a pixel value of the short exposure image #i from the difference detection unit 83 in FIG. 12, a pixel value of the medium exposure image #i from the difference detection unit 203, Among the pixel values of the long exposure image #i from the difference detection unit 84, the one having the best SN ratio is selected.
  • the selection unit 211 determines the SN ratio based on the pixel value of the short exposure image #i, the SN ratio based on the pixel value of the medium exposure image #i, and the pixel value of the long exposure image #i.
  • the SN ratios based on the above are compared, and the one with the best SN ratio is selected.
  • the selection unit 211 supplies the pixel value of each pixel of the selected reference image block to the luminance calculation unit 142 and the contrast calculation unit 143.
  • the blend unit 212 synthesizes the SAD table supplied from the difference detection unit 83, the difference detection unit 203, and the difference detection unit 84 of FIG. 12 based on the blend table supplied from the blend table generation unit 146. Specifically, when the blend ratio represented by the blend table is 0 or more and 0.5 or less for each pair, the blend unit 212 sets the blend ratio to the SAD table of the middle exposure image from the difference detection unit 203. Multiply the registered difference information. Further, for each pair, the blend unit 212 multiplies the difference information registered in the SAD table of the short exposure image from the difference detection unit 83 by a value obtained by subtracting the blend ratio represented by the blend table from 1. Then, for each pair, the blending unit 212 adds the difference information of the medium exposure image and the difference information of the short exposure image obtained as a result of multiplication, and registers them in the combined SAD table.
  • the blend ratio represented by the blend table is greater than 0.5 and equal to or less than 1, the blend ratio is multiplied by the difference information registered in the SAD table of the long exposure image from the difference detection unit 84. . Further, for each pair, the blend unit 212 multiplies the difference information registered in the SAD table of the medium exposure image from the difference detection unit 203 by a value obtained by subtracting the blend ratio represented by the blend table from 1. Then, for each pair, the blend unit 212 adds the difference information of the long exposure image and the difference information of the middle exposure image obtained as a result of multiplication, and registers them in the combined SAD table. The blending unit 212 supplies the combined SAD table to the selection unit 148.
  • FIG. 14 is a flowchart for describing a photographing process of the digital camera 181 in FIG. This photographing process is performed in units of frames, for example.
  • the short accumulation pixel of the image pick-up element 191 accumulate
  • the image sensor 191 supplies a pixel signal obtained as a result of shooting to the camera signal processing unit 192.
  • step S52 the intermediate storage pixel of the image sensor 191 stores electric charge according to the amount of light incident through the imaging lens 51, and reads out the electric signal of the electric charge stored during the medium exposure time as a pixel signal. Thus, shooting is performed during the medium exposure time.
  • the image sensor 191 supplies a pixel signal obtained as a result of shooting to the camera signal processing unit 192.
  • step S53 the long accumulation pixel of the image sensor 191 accumulates electric charge according to the amount of light incident through the imaging lens 51, and reads out the electric signal of the electric charge accumulated during the long exposure time as a pixel signal. Thus, shooting with a long exposure time is performed.
  • the image sensor 191 supplies a pixel signal obtained as a result of shooting to the camera signal processing unit 192.
  • step S54 the camera signal processing unit 192 performs gamma correction processing and white balance processing on an analog image signal including pixel signals of short accumulation pixels, medium accumulation pixels, and long accumulation pixels supplied from the image sensor 191. A / D conversion is performed to generate a long, medium and short exposure image. Then, the camera signal processing unit 192 supplies the long, medium, and short exposure images to the SDRAM 54.
  • step S55 the SDRAM 54 stores the long, medium and short exposure images supplied from the camera signal processing unit 192.
  • step S56 the motion vector detection unit 183 reads a long, medium, and short exposure image of the processing target frame from the SDRAM 54, and performs a motion vector detection process that detects a motion vector of the processing target frame based on the long, medium, and short exposure image. Do. Details of this motion vector detection processing will be described with reference to FIG.
  • step S57 the correction unit 57 reads out the long, medium and short exposure images of the processing target frame from the SDRAM 54, and generates a captured image having a wide dynamic range from the long, medium and short exposure images.
  • the processing in steps S58 and S59 is the same as the processing in steps S17 and S18 in FIG.
  • FIG. 15 is a flowchart for explaining the details of the motion vector detection process in step S56 of FIG.
  • step S61 in FIG. 15 the separation unit 201 (FIG. 12) of the motion vector detection unit 183 separates the long, medium, and short exposure images of the frame to be processed held in the SDRAM 54, so that the short exposure image and the medium exposure image are obtained. An image and a long exposure image are generated.
  • the separation unit 201 supplies the generated short exposure image to the frame memory 202 and the difference detection unit 83, supplies the medium exposure image to the frame memory 202 and the difference detection unit 203, and detects the long exposure image from the frame memory 202 and the difference detection. To the unit 84.
  • step S62 the frame memory 202 holds the short exposure image, medium exposure image, and long exposure image of the processing target frame supplied from the separation unit 201.
  • the subsequent steps S63 to S75 are performed for each reference image block.
  • step S ⁇ b> 63 the difference detection unit 83 uses the short-exposure image of the past frame held in the frame memory 202 and the short-exposure image of the frame to be processed from the separation unit 201, and the reference image to be processed.
  • a block SAD table is generated.
  • the difference detection unit 83 supplies the reference image block to be processed of the short exposure image and the SAD table to the synthesis unit 204.
  • step S ⁇ b> 64 the difference detection unit 203 uses the intermediate exposure image of the past frame held in the frame memory 202 and the intermediate exposure image of the processing target frame from the separation unit 201, to process the reference image.
  • a block SAD table is generated.
  • the difference detection unit 203 supplies the reference image block to be processed of the medium exposure image and the SAD table to the synthesis unit 204.
  • step S ⁇ b> 65 the difference detection unit 84 uses the long-exposure image of the past frame held in the frame memory 202 and the long-exposure image of the processing target frame from the separation unit 201 to process the reference image to be processed.
  • a block SAD table is generated.
  • the difference detection unit 83 supplies the reference image block to be processed of the long exposure image and the SAD table to the synthesis unit 204.
  • step S66 the selection unit 211 (FIG. 13) of the synthesis unit 204 sets the pixel value of the short exposure image, the pixel value of the medium exposure image, and the pixel value of the long exposure image for each pixel of the reference image block to be processed. Among them, the one with the best SN ratio is selected.
  • the selection unit 211 supplies the pixel value of each pixel of the selected reference image block to the luminance calculation unit 142 and the contrast calculation unit 143.
  • steps S67 through S72 is the same as the processing in steps S36 through S41 in FIG.
  • step S73 the blending unit 212, based on the blend table supplied from the blend table generating unit 146, the SAD table for the short exposure image and the SAD table for the medium exposure image, or the SAD table and the long exposure image for the medium exposure image.
  • the SAD table is synthesized.
  • the blending unit 212 supplies the combined SAD table to the selection unit 148.
  • steps S74 and S75 is the same as the processing in steps S43 and S44 in FIG.
  • the digital camera 181 generates the SAD of the short exposure image, the medium accumulation exposure image, and the long exposure image, and based on the short exposure image, the medium accumulation exposure image, or the long exposure image,
  • the SAD table of the intermediate storage exposure image and the long exposure image is synthesized. Then, the digital camera 181 detects a motion vector based on the combined SAD table.
  • a motion vector can be detected by preferentially using a SAD table with a more suitable exposure time, and the motion vector detection accuracy is improved.
  • FIG. 16 is a block diagram illustrating a configuration example of the motion vector detection unit of the third embodiment of the digital camera to which the present disclosure is applied.
  • the configuration of the motion vector detection unit 220 in FIG. 16 is that the motion detection unit 221 and the motion detection unit 222 are newly provided, and that the synthesis unit 223 is provided instead of the synthesis unit 85. Different from the configuration of the detection unit 55.
  • the motion vector detection unit 220 is based not only on the SAD table of the difference information between the short exposure images of different frames and the long exposure images, but also based on the motion vectors based on the short exposure images and the long exposure images of the same frame. , Detecting a motion vector.
  • the motion detection unit 221 (first motion detection unit) of the motion vector detection unit 220 (image processing apparatus) uses the short exposure image #i and the long exposure image #i supplied from the separation unit 81.
  • the temporary motion vector #i of the i-th frame is detected using, for example, the method described in Patent Document 1.
  • the method described in Patent Document 1 detects the motion vector of a frame, assuming that the difference between the short-exposure image and the long-exposure image in the same frame is the difference in the effect of motion due to the difference in exposure time. It is a method to do. More specifically, in this method, the actual pixel values of the short exposure image and the long exposure image of the pixel are substituted into approximate expressions expressing the long exposure image and the short exposure image of the same pixel, respectively, using the amount of motion as a variable. In this way, the amount of motion is obtained by solving as simultaneous equations.
  • the motion detection unit 221 supplies the detected temporary motion vector #i to the synthesis unit 223.
  • the motion detection unit 222 (second motion detection unit) reads the short exposure image # i-1 and the long exposure image # i-1 from the frame memory 82.
  • the motion detection unit 222 uses the read short exposure image # i-1 and long exposure image # i-1 to read the temporary frame of the (i-1) th frame according to the method described in Patent Document 1, for example.
  • Motion vector # i-1 is detected.
  • the motion detection unit 222 supplies the detected temporary motion vector # i ⁇ 1 to the synthesis unit 223.
  • the synthesizing unit 223 reads the motion vector # i-1 from the frame memory 82. For each reference image block, the combining unit 223 inputs the reference image block of the short exposure image #i and the long exposure image #i, the temporary motion vector #i and the temporary motion vector # i ⁇ 1, and the motion vector #. Based on i-1, the input SAD table is synthesized.
  • the synthesizing unit 223 detects, for each reference image block, a vector corresponding to the minimum difference information as the motion vector #i of the processing target frame based on the synthesized SAD table.
  • the synthesis unit 223 supplies the generated motion vector #i to the correction unit 57 of FIG. 1 and also supplies the motion vector #i to the frame memory 82 for holding.
  • the motion vector #i held in the frame memory 82 is read and used as a motion vector of a past frame when the processing target frame is the (i + 1) th frame.
  • FIG. 17 is a block diagram illustrating a configuration example of the synthesis unit 223 of FIG.
  • 17 differs from the configuration of the synthesis unit 85 in FIG. 7 in that a motion amount calculation unit 241 is provided instead of the motion amount calculation unit 144.
  • the motion amount calculating unit 241 of the synthesizing unit 223 reads the motion vector # i-1 from the frame memory 82 in FIG.
  • the motion amount calculation unit 241 obtains the norm value MvNorm of the read motion vector # i ⁇ 1 by the above-described equation (4).
  • the motion amount calculation unit 241 obtains norm values MvNorm for the provisional motion vector #i supplied from the motion detection unit 221 and the provisional motion vector # i ⁇ 1 supplied from the motion detection unit 222. .
  • the motion amount calculation unit 241 selects the maximum value among the three obtained norm values MvNorm.
  • the motion amount calculation unit 241 determines the motion amount blend value BlendM according to the above-described equation (5) based on the selected norm value MvNorm, and supplies it to the blend table generation unit 146.
  • the motion amount calculation unit 241 determines the motion amount blend value BlendM based on the maximum value among the norm value MvNorm of the motion vector # i ⁇ 1, the temporary motion vector #i, and the temporary motion vector # i ⁇ 1. By determining, it is possible to generate an optimum blend table even for an image that has small motion when viewed between frames but large motion in a short time within the frame. As a result, the motion vector can be detected with high accuracy.
  • the shooting process of the digital camera of the third embodiment is the same as the shooting process of FIG. 9 except for the motion vector detection process of step S15 of FIG. Accordingly, only the motion vector detection process will be described below.
  • FIG. 18 is a flowchart illustrating the motion vector detection process of the motion vector detection unit 220 in FIG.
  • step S ⁇ b> 95 the motion detection unit 221 detects a temporary motion vector of the processing target frame using the short exposure image and the long exposure image of the processing target frame supplied from the separation unit 81, and combines the combining unit 85. To supply.
  • step S ⁇ b> 96 the motion detection unit 222 detects the temporary motion vector of the past frame using the short exposure image and the long exposure image of the past frame held in the frame memory 82, and supplies them to the synthesis unit 85. To do.
  • steps S97 through S99 is the same as the processing in steps S35 through S37 in FIG.
  • step S100 the motion amount calculation unit 241 (FIG. 17) sets the maximum value among the motion vector of the past frame, the provisional motion vector of the processing target frame, and the norm value of the provisional motion vector of the past frame. Based on the above equation (5), the motion amount blend value BlendM is determined. Note that the motion vector of the past frame is read from the frame memory 82. The motion amount calculation unit 241 supplies the motion amount blend value BlendM to the blend table generation unit 146.
  • steps S101 to S106 is the same as the processing of steps S39 to S44 in FIG.
  • FIG. 19 is a block diagram illustrating a configuration example of a fourth embodiment of a digital camera to which the present disclosure is applied.
  • the digital camera 280 of FIG. 19 includes an operation unit 21, photographing units 281-1 and 281-2, SDRAMs 282-1 and 282-2, a depth map detection unit 283, a correction unit 284, a display control unit 285, and a display unit 286. Composed.
  • the digital camera 280 takes a 3D image with a short exposure time and a long exposure time, and generates a depth map.
  • the photographing unit 281-1 includes an imaging lens 51, an imaging element 52, and a camera signal processing unit 53, and displays an image for the left eye with a short exposure time and a long exposure time. Take a picture.
  • the photographing unit 281-1 supplies the SDRAM 282-1 with a long / short exposure image for the left eye (hereinafter referred to as a long / short exposure left image) in frame units obtained as a result.
  • the photographing unit 281-2 includes an imaging lens 51, an imaging element 52, and a camera signal processing unit 53, and captures an image for the right eye with a short exposure time and a long exposure time.
  • the photographing unit 281-2 supplies the resulting long-short exposure image for the right eye (hereinafter referred to as a long-short exposure right image) to the SDRAM 282-2.
  • the SDRAM 282-1 stores a long / short exposure left image in frame units supplied from the photographing unit 281-1. Also, the SDRAM 282-2 stores the long / short exposure right image in units of frames supplied from the photographing unit 281-2.
  • the depth map detection unit 283 reads the long / short exposure left image of the processing target frame from the SDRAM 282-1, and reads the long / short exposure right image of the processing target frame from the SDRAM 282-2.
  • the depth map detection unit 283 detects the depth map of the processing target frame based on the read long and short exposure left image and long and short exposure right image of the processing target frame.
  • the depth map detection unit 283 supplies the detected depth map to the correction unit 284.
  • the correction unit 284 reads the long / short exposure left image of the processing target frame from the SDRAM 282-1, and reads the long / short exposure right image of the processing target frame from the SDRAM 282-2.
  • the correction unit 284 generates a captured image for the left eye with a wide dynamic range using the read long and short exposure left image, and uses the read long and short exposure right image for the right eye with a wide dynamic range. Generate a captured image.
  • the correction unit 284 Based on the depth map supplied from the depth map detection unit 283, the correction unit 284, for example, captures the left-eye captured image and the right-eye image so that the depth values of all pixels fall within the depth value range corresponding to the display unit 286. Correct the captured image.
  • the correction unit 284 supplies the corrected left-eye shot image and right-eye shot image to the display control unit 285.
  • the display control unit 285 supplies the captured image for the left eye and the captured image for the right eye supplied from the correction unit 284 to the display unit 286, and causes the display unit 286 to display a 3D image.
  • the display unit 286 displays a 3D image or the like according to the control of the display control unit 285.
  • a 3D display can be employed.
  • (Configuration example of parallax detection unit) 20 is a block diagram illustrating a configuration example of the depth map detection unit 283 in FIG.
  • a separation unit 301 includes a separation unit 301, a separation unit 302, a difference detection unit 303, a difference detection unit 304, a motion vector detection unit 305, a synthesis unit 306, and a frame memory 307.
  • the separation unit 301 of the depth map detection unit 283 reads the long / short exposure left image #i, which is the long / short exposure left image of the i th frame, from the SDRAM 282-1 using the i th frame as a processing target frame.
  • the separation unit 301 separates the pixel value of the short accumulation pixel and the pixel value of the long accumulation pixel from the read long / short exposure left image #i in the same manner as the separation unit 81 of FIG. And a long exposure left image #i consisting of pixel values of long accumulation pixels.
  • the separation unit 301 supplies the short exposure left image #i to the difference detection unit 303 and supplies the long exposure left image #i to the difference detection unit 304.
  • the separation unit 302 reads the long / short exposure right image #i, which is the long / short exposure right image of the i th frame, from the SDRAM 282-2 using the i th frame as a processing target frame. Similar to the separation unit 81, the separation unit 302 separates the pixel value of the short accumulation pixel and the pixel value of the long accumulation pixel from the read long / short exposure right image #i, and forms the short accumulation pixel value. A long exposure right image #i composed of the exposure right image #i and the pixel value of the long accumulation pixel is generated. The separation unit 302 supplies the short exposure right image #i to the difference detection unit 303 and supplies the long exposure right image #i to the difference detection unit 304.
  • the difference detection unit 303 uses the short exposure left image #i supplied from the separation unit 301 and the short exposure right image #i supplied from the separation unit 302 to perform a block matching method. To generate a SAD table.
  • the difference detection unit 303 divides the short-exposure left image #i into blocks of a predetermined size and sets them as reference image blocks. Further, the difference detection unit 303 divides the short-exposure right image #i into blocks having the same size as the size of the standard image block, and sets it as a reference image block. The difference detection unit 303 sets, for each reference image block, a line extending in the horizontal direction around the center of the reference image block as a search range.
  • the difference detection unit 303 (first difference detection unit) for each reference image block, the difference for each pixel between the reference image block and each of a plurality of reference image blocks whose centers exist within the search range of the reference image block.
  • the sum of absolute values (SAD value) is detected as difference information.
  • the difference detection unit 303 For each standard image block, the difference detection unit 303 generates a SAD table in which a vector representing the relative position of the pair of the standard image block and each reference image block within the search range is associated with the difference information of the pair. .
  • the search range is a line extending in the horizontal direction with the center of the base image block as the center, the reference image blocks constituting the pair corresponding to the difference information have the same vertical position as the base image block. .
  • the difference detection unit 303 supplies the reference image block and the SAD table to the synthesis unit 306 for each reference image block.
  • the difference detection unit 304 uses the long exposure left image #i supplied from the separation unit 301 and the long exposure right image #i supplied from the separation unit 302 to calculate a difference detection unit. Similar to 303, an SAD table for each reference image block is generated according to the block matching method. The difference detection unit 304 supplies the reference image block and the SAD table to the synthesis unit 306 for each reference image block.
  • the motion vector detection unit 305 reads the long / short exposure right image #i from the SDRAM 281-2.
  • the motion vector detection unit 305 detects the motion vector #i based on the read long / short exposure right image #i, similarly to the motion vector detection unit 55 of FIG. 1 or the motion vector detection unit 220 of FIG.
  • the motion vector detection unit 305 supplies the detected motion vector #i to the synthesis unit 306.
  • the synthesizing unit 306 reads the depth map # i-1 of the i-1th frame from the frame memory 307 as the depth map of the past frame from the frame memory 307. For each reference image block, the combining unit 306 supplies from the difference detection unit 303 and the difference detection unit 304 based on the input reference image block and motion vector #i and the read depth map # i ⁇ 1. SAD table to be synthesized. The combining unit 306 generates, for each reference image block, the minimum difference information as the depth value of the i-th frame based on the combined SAD table.
  • the synthesizing unit 306 supplies the depth map #i, which is a depth map including the depth value of each reference image block of the i-th frame, to the correction unit 284 of FIG. 19 and also supplies the frame memory 307.
  • the frame memory 307 holds the depth map # i-1 supplied from the synthesis unit 306 when the i-1th frame is a processing target frame. Further, the frame memory 307 holds the depth map #i supplied from the synthesis unit 306. This depth map #i is read and used when the processing target frame is the (i + 1) th frame.
  • the motion vector detection unit 305 detects the motion vector #i using the long / short exposure right image #i, but detects the motion vector #i using the long / short exposure left image #i. It may be.
  • the short exposure right image #i is divided into reference image blocks, and the short exposure left image #i is divided into reference image blocks, but the short exposure left image #i is converted into a reference image block.
  • the short exposure right image #i may be divided into reference image blocks.
  • the reference image block may be one pixel.
  • the depth value is generated in units of pixels.
  • FIG. 21 is a block diagram illustrating a configuration example of the synthesis unit 306 in FIG.
  • 21 includes a luminance calculation unit 142, a contrast calculation unit 143, a blend table generation unit 146, a selection unit 321, a motion amount calculation unit 322, a weight table generation unit 323, a blend unit 324, and a selection unit 325. Is done.
  • the selection unit 321 of the synthesis unit 306 for each pixel of the reference image block, outputs the pixel value of the short exposure right image #i from the difference detection unit 303 in FIG. Of the pixel values of the long-exposure right image #i, the one with the better SN ratio is selected.
  • the selection unit 321 supplies the pixel value of each pixel of the selected reference image block to the luminance calculation unit 142 and the contrast calculation unit 143.
  • the motion amount calculation unit 322 determines the motion amount blend value BlendM based on the motion vector #i supplied from the motion vector detection unit 305 in FIG. 20, as in the motion amount calculation unit 144, and blend table generation unit 146. To supply.
  • the weight table generation unit 323 reads the depth map # i-1 from the frame memory 307 in FIG.
  • the weight table generation unit 323 generates a weight table based on the read depth map # i ⁇ 1, similarly to the weight table generation unit 145.
  • the reference image block whose vector representing the relative position to the standard image block is a vector represented by the depth value of the depth map # i ⁇ 1 of the standard image block, and the standard image block The maximum value 1 is registered as the weight for the pair. Then, a smaller weight is registered for a pair of a reference image block and a base image block farther than the reference image block.
  • the weight table generation unit 323 supplies the generated weight table to the blend table generation unit 146.
  • the blending unit 324 synthesizes the SAD tables supplied from the difference detection unit 303 and the difference detection unit 304 in FIG. 20 based on the blend table supplied from the blend table generation unit 146, similarly to the blending unit 147.
  • the blending unit 324 supplies the combined SAD table to the selection unit 325.
  • the selection unit 325 detects the smallest difference information among the difference information registered in the SAD table supplied from the blending unit 324 as a depth value.
  • the selection unit 325 supplies the depth map #i including the depth value detected for each reference image block of the processing target frame to the correction unit 284 in FIG. 19 and also to the frame memory 307.
  • the synthesizing unit 306 similarly to the synthesizing unit 85 in FIG. 7, based on the luminance, contrast, motion amount, and depth map change amount of the reference image block, the difference information of the short exposure image and the long exposure image Any one of the difference information is preferentially used for the detection of the depth map. Therefore, the depth map detection accuracy is improved.
  • the luminance calculation unit 142 determines the luminance blend value BlendL based on the pixel value of the surrounding pixel group including the reference image block, not the pixel value of the reference image block. You may do it.
  • the contrast calculation unit 143 may determine the contrast blend value BlendC based on the pixel values of the surrounding pixel group including the reference image block.
  • FIG. 22 is a flowchart for describing a photographing process of the digital camera 280 of FIG. This photographing process is performed in units of frames, for example.
  • step S121 in FIG. 22 the short accumulation pixel of the image sensor 52 of the imaging unit 281-1 captures an image for the left eye with a short exposure time, and the short accumulation pixel of the image sensor 52 of the imaging unit 281-2 includes Take an image for the right eye with a short exposure time.
  • the short accumulation pixels of the image pickup device 52 of the photographing unit 281-1 and the photographing unit 281-2 supply a pixel signal obtained as a result of photographing to the camera signal processing unit 53.
  • step S122 the long accumulation pixel of the imaging element 52 of the imaging unit 281-1 captures an image for the left eye with a long exposure time, and the long accumulation pixel of the imaging element 52 of the imaging unit 281-2 includes the long exposure time. Use to capture the right eye image.
  • the long accumulation pixels of the imaging element 52 in the imaging unit 281-1 and the imaging unit 281-2 supply pixel signals obtained as a result of imaging to the camera signal processing unit 53.
  • step S123 the camera signal processing unit 53 of the photographing unit 281-1 generates a long / short exposure left image from the analog image signal including the pixel signals of the short accumulation pixel and the long accumulation pixel supplied from the image sensor 52, and SDRAM 282. -1.
  • the camera signal processing unit 53 of the photographing unit 281-2 generates a long / short exposure right image from an analog image signal including pixel signals of short accumulation pixels and long accumulation pixels supplied from the image sensor 52, and SDRAM 282-2. To supply.
  • step S124 the SDRAM 282-1 holds the long / short exposure left image in units of frames supplied from the photographing unit 281-1, and the SDRAM 282-2 performs the long / short exposure right in units of frames supplied from the photographing unit 281-2. Hold the image.
  • step S125 the depth map detection unit 283 calculates the depth map for the processing target frame based on the long / short exposure left image held in the SDRAM 282-1 and the long / short exposure right image held in the SDRAM 282-2. Depth map detection processing is performed. Details of the depth map detection processing will be described with reference to FIG.
  • step S126 the correction unit 284 reads the long / short exposure left image of the processing target frame from the SDRAM 282-1, and generates a captured image for the left eye having a wide dynamic range using the long / short exposure image. Further, the correction unit 284 reads the long / short exposure right image of the processing target frame from the SDRAM 282-2, and generates a captured image for the right eye having a wide dynamic range using the long / short exposure right image.
  • step S127 the correction unit 284 corrects the left-eye shot image and the right-eye shot image based on the depth map supplied from the depth map detection unit 283.
  • the correction unit 284 supplies the corrected left-eye shot image and right-eye shot image to the display unit 286.
  • step S1208 the display control unit 285 controls the display unit 61 based on the left-eye captured image and the right-eye captured image supplied from the correction unit 284, and causes the display unit 286 to display a 3D image. Then, the process ends.
  • FIG. 23 is a flowchart for explaining the details of the depth map detection processing in step S125 of FIG.
  • step S141 of FIG. 23 the separation unit 301 of the depth map detection unit 283 reads the long / short exposure left image of the processing target frame from the SDRAM 282-1, and extracts the short exposure left image and the long exposure left image from the long / short exposure left image. Generate.
  • the separation unit 301 supplies the short exposure left image to the difference detection unit 303 and supplies the long exposure left image to the difference detection unit 304.
  • step S142 the separation unit 302 reads the long / short exposure right image of the processing target frame from the SDRAM 282-2, and generates the short exposure right image and the long exposure right image from the long / short exposure right image.
  • the separation unit 302 supplies the short exposure right image to the difference detection unit 303 and supplies the long exposure right image to the difference detection unit 304.
  • the subsequent steps S143 to S154 are performed for each reference image block.
  • step S143 the difference detection unit 303 generates an SAD table according to the block matching method using the short exposure left image supplied from the separation unit 301 and the short exposure right image supplied from the separation unit 302. .
  • the difference detection unit 303 supplies the reference image block to be processed and the SAD table to the synthesis unit 306.
  • step S144 the difference detection unit 304 generates an SAD table according to the block matching method using the long exposure left image supplied from the separation unit 301 and the long exposure right image supplied from the separation unit 302. .
  • the difference detection unit 304 supplies the reference image block to be processed and the SAD table to the synthesis unit 306.
  • step S145 the motion vector detection unit 305 reads out the long and short exposure right image of the processing target frame from the SDRAM 281-2, and based on the long and short exposure right image, the motion vector of the processing target reference image block of the processing target frame. Is detected.
  • the motion vector detection unit 305 supplies the detected motion vector to the synthesis unit 306.
  • step S146 the selection unit 321 (FIG. 21) of the synthesis unit 306 performs the pixel value of the short-exposure right image from the difference detection unit 303 and the length from the difference detection unit 304 for each pixel of the reference image block to be processed. Of the pixel values of the right exposure image, the one with the better SN ratio is selected.
  • the selection unit 321 supplies the pixel value of each pixel of the selected reference image block to the luminance calculation unit 142 and the contrast calculation unit 143.
  • step S149 the motion amount calculation unit 322 determines the motion amount blend value BlendM based on the norm value of the motion vector of the processing target reference image block of the processing target frame supplied from the motion vector detection unit 305, This is supplied to the blend table generation unit 146.
  • step S150 the weight table generation unit 323 reads the depth map of the past frame from the frame memory 307 of FIG. 20, and generates a weight table based on the depth map.
  • the weight table generation unit 323 supplies the generated weight table to the blend table generation unit 146.
  • steps S151 and S152 is the same as the processing in steps S40 and S41 in FIG.
  • step S153 the blending unit 324, based on the blend table supplied from the blend table generation unit 146, the SAD table of the short exposure image supplied from the difference detection unit 303 and the long exposure image supplied from the difference detection unit 304.
  • the SAD table is synthesized.
  • the blending unit 324 supplies the combined SAD table to the selection unit 325.
  • step S154 the selection unit 325 detects the smallest difference information among the difference information registered in the SAD table supplied from the blending unit 324 as a depth value.
  • step S155 the selection unit 325 outputs a depth map including the depth value detected for each reference image block of the frame to be processed to the correction unit 284, and supplies and supplies the depth map to the frame memory 307.
  • the depth map held in the frame memory 307 is used as the depth map of the past frame in the process of step S150 when the frame next to the current processing target frame becomes a new processing target frame.
  • the digital camera 280 generates the SAD table for the short exposure image and the SAD table for the long exposure image, and based on the short exposure image or the long exposure image, the SAD table for the short exposure image and the SAD table for the long exposure image. Synthesize the table.
  • the digital camera 11 detects a depth map based on the combined SAD table.
  • the depth map can be detected by preferentially using the SAD table for the short exposure image or the SAD table for the long exposure image, which is suitable for the brightness or contrast of the short exposure image or the long exposure image. .
  • depth map detection accuracy is improved.
  • the blend table is generated using all of the tables, the blend table may be generated using only a part of the tables.
  • the information used for generating the blend table is not limited to the above-described example, and for example, the amount of noise can be used.
  • the amount of noise is used for generating the blend table, for example, when the amount of noise is large, the blend table is generated so that the difference information of the long exposure image with a good SN ratio is preferentially used.
  • ⁇ Fifth embodiment> (Description of computer to which the present disclosure is applied)
  • the series of processes described above can be executed by hardware or can be executed by software.
  • a program constituting the software is installed in the computer.
  • the computer includes, for example, a general-purpose personal computer capable of executing various functions by installing various programs by installing a computer incorporated in dedicated hardware.
  • FIG. 24 is a block diagram showing an example of the hardware configuration of a computer that executes the above-described series of processing by a program.
  • a CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • An input / output interface 905 is further connected to the bus 904.
  • An imaging unit 906, an input unit 907, an output unit 908, a storage unit 909, a communication unit 910, and a drive 911 are connected to the input / output interface 905.
  • the photographing unit 906 includes, for example, the above-described photographing unit 41, photographing unit 182, or photographing unit 281-1 and photographing unit 281-2.
  • the photographing unit 906 performs photographing with two or more exposure times, and supplies an image obtained as a result to the storage unit 909 for storage.
  • the input unit 907 includes a keyboard, a mouse, a microphone, and the like.
  • the output unit 908 includes a display, a speaker, and the like.
  • the storage unit 909 includes a hard disk, a nonvolatile memory, and the like.
  • the communication unit 910 includes a network interface.
  • the drive 911 drives a removable medium 912 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory.
  • the CPU 901 loads the program stored in the storage unit 909 to the RAM 903 via the input / output interface 905 and the bus 904 and executes the program, for example. A series of processing is performed.
  • the program executed by the computer 900 can be provided by being recorded on a removable medium 912 as a package medium, for example.
  • the program can be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting.
  • the program can be installed in the storage unit 909 via the input / output interface 905 by installing the removable medium 912 in the drive 911.
  • the program can be received by the communication unit 910 via a wired or wireless transmission medium and installed in the storage unit 909.
  • the program can be installed in the ROM 902 or the storage unit 909 in advance.
  • the program executed by the computer 900 may be a program that is processed in time series in the order described in this specification, or a necessary timing such as when a call is made in parallel. It may be a program in which processing is performed.
  • a left-eye image and a right-eye image are taken with a long exposure time, a medium exposure time, and a short exposure time, and a long exposure time and a medium exposure are obtained.
  • a depth map may be generated by combining SAD tables of time and short exposure time.
  • the images corresponding to the SAD table to be synthesized may be images having different shooting conditions (eg, sensitivity, shooting gain (analog gain), focus position, etc.) other than the exposure time.
  • shooting conditions eg, sensitivity, shooting gain (analog gain), focus position, etc.
  • the sensitivity of the pixel filter of the image sensor is between green (G) pixels and red and blue (RB) pixels, or between white (W) pixels and red, It is made different between green and blue (RGB) pixels and between RGB pixels and IR (infrared) pixels.
  • the shape of the on-chip lens provided for each of one or more pixels of the image sensor is made different.
  • a distant view image and a foreground image can be taken simultaneously.
  • the digital camera detects motion vectors and depth maps by preferentially using the difference information of the in-focus image of the distant view image and the foreground image according to the distance to the subject, thereby improving the detection accuracy. Improve.
  • a motion vector detection method in addition to the block matching method, a method using feature point correspondence or a method of calculating an optical flow can be employed.
  • this indication can also take the following structures.
  • a first difference detector that detects difference information of the first images of the first and second frames imaged under the first imaging condition;
  • a second difference detector for detecting difference information of the second images of the first and second frames imaged under a second imaging condition; Based on the first or second image, the difference information of the first image detected by the first difference detection unit and the second image detected by the second difference detection unit.
  • An image processing apparatus comprising: a combining unit that combines the difference information and generates a motion vector of the first frame based on the combined difference information.
  • the combining unit is configured to perform the combining based on an image having a better SN ratio of the first image and the second image.
  • the image processing apparatus configured to perform the combining based on a luminance of the first image or the second image.
  • the combining unit is configured to perform the combining based on a contrast of the first image or the second image.
  • the synthesis unit is configured to perform the synthesis based on the first image or the second image and a motion vector of a frame before the first frame. The image processing apparatus according to any one of 4).
  • Blend ratio determination for determining a blend ratio of difference information of the first and second images based on the first image or the second image and a motion vector of a frame before the first frame Further comprising The image processing apparatus according to (5), wherein the combining unit is configured to perform the combining based on the blend ratio determined by the blend ratio determining unit. (7) The image processing device according to any one of (1) to (6), wherein an exposure time, a sensitivity, a shooting gain, or a focus position is different between the first shooting condition and the second shooting condition. .
  • a first motion detector that detects a first motion vector using the first image and the second image of the first frame
  • a second motion detection unit that detects a second motion vector using the first image and the second image of the second frame
  • the synthesis unit is configured to perform the synthesis based on the first or second image, the first motion vector, and the second motion vector.
  • the image processing device A first difference detection step of detecting difference information of the first images of the first and second frames imaged under the first imaging condition; A second difference detecting step for detecting difference information of the second images of the first and second frames imaged under the second imaging condition; Based on the first or second image, the difference information of the first image detected by the process of the first difference detection step and the first information detected by the process of the second difference detection step. And a combining step of combining the difference information of the two images and generating a motion vector of the first frame based on the combined difference information.
  • An imaging unit that performs imaging under the first and second imaging conditions; A first difference detection unit that detects difference information of the first images of the first and second frames imaged by the imaging unit under the first imaging condition; A second difference detection unit that detects difference information of the second images of the first and second frames imaged by the imaging unit under the second imaging condition; Based on the first or second image, the difference information of the first image detected by the first difference detection unit and the second image detected by the second difference detection unit.
  • a solid-state imaging device comprising: a combining unit that combines the difference information and generates a motion vector of the first frame based on the combined difference information.
  • a first difference detection unit that detects difference information between a left-eye image and a right-eye image captured under a first imaging condition;
  • a second difference detection unit for detecting difference information between the image for the left eye and the image for the right eye imaged under the second imaging condition;
  • the first difference detection unit Based on the image for the left eye photographed under the first or second photographing condition or the image for the right eye photographed under the first or second photographing condition, the first difference detection unit
  • the difference information of the first shooting condition detected by the step S3 and the difference information of the second shooting condition detected by the second difference detection unit are combined, and the combined difference information is generated as a depth value.
  • an image processing apparatus that detects difference information between a left-eye image and a right-eye image captured under a first imaging condition.
  • the combining unit is an image having a better SN ratio among the images for the left eye photographed under the first and second photographing conditions, or the photographed under the first and second photographing conditions.
  • the image processing device configured to perform the synthesis based on an image having a better SN ratio among images for the right eye.
  • the synthesizing unit is configured based on the luminance of the image for the left eye photographed under the first or second photographing condition or the image for the right eye photographed under the first or second photographing condition.
  • the image processing apparatus according to (11) or (12) configured to perform the synthesis.
  • the combining unit is configured based on a contrast of the image for the left eye photographed under the first or second photographing condition or the image for the right eye photographed under the first or second photographing condition.
  • the image processing device according to any one of (11) to (13), configured to perform the synthesis.
  • the synthesizing unit includes the left-eye image captured under the first or second imaging condition, or the right-eye image captured under the first or second imaging condition, and a past depth value.
  • the image processing device according to any one of (11) to (14), configured to perform the synthesis based on the above.
  • the combining unit includes the left-eye image captured under the first or second imaging condition, or the right-eye image captured under the first or second imaging condition, and the movement of the image.
  • the image processing device configured to perform the synthesis based on a vector.
  • the image processing device configured to perform the synthesis based on a vector.
  • the image processing device configured to perform the synthesis based on a vector.
  • the image processing device configured to perform the synthesis based on a vector.
  • the image processing device configured to perform the synthesis based on a vector.
  • the image processing device configured to perform the synthesis based on a vector.
  • an exposure time, a sensitivity, a shooting gain, or a focus position is different between the first shooting condition and the second shooting condition.
  • the image processing device A first difference detection step for detecting difference information between the image for the left eye and the image for the right eye photographed under the first photographing condition;
  • a second difference detection step for detecting difference information between the image for the left eye and the image for the right eye photographed under the second photographing condition;
  • the first difference detection step based on the image for the left eye photographed under the first or second photographing condition or the image for the right eye photographed under the first
  • An image processing method including: a synthesis step that generates a depth value.
  • the difference information of the first shooting condition detected by the step S3 and the difference information of the second shooting condition detected by the second difference detection unit are combined, and the combined difference information is generated as a depth value.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

 本開示は、撮影条件の異なる画像を用いて、高精度に画像情報を検出することができるようにする画像処理装置および画像処理方法、並びに固体撮像装置に関する。 差分検出部は、短露光時間で撮影された処理対象のフレームおよび過去のフレームの短露光画像の差分情報を検出する。差分検出部は、長露光時間で撮影された処理対象のフレームおよび過去のフレームの長露光画像の差分情報を検出する。合成部は、短露光画像または長露光画像に基づいて、短露光画像の差分情報と長露光画像の差分情報とを合成し、合成後の差分情報に基づいて、処理対象のフレームの動きベクトルを生成する。本開示は、例えば、画像処理装置等に適用することができる。

Description

画像処理装置および画像処理方法、並びに固体撮像装置
 本開示は、画像処理装置および画像処理方法、並びに固体撮像装置に関し、特に、撮影条件の異なる画像を用いて、高精度に画像情報を検出することができるようにした画像処理装置および画像処理方法、並びに固体撮像装置に関する。
 被写体の動画を撮影し、その動画のフレーム間の動きベクトルを検出することで、被写体の動きを検出したり、画面全体の動き量を推定したりする、デジタルカメラなどの撮像装置がある。このような撮像装置では、指を被写体とすることにより、指の動きによって電子機器を操作するジェスチャUI(User Interface)機能を実現したり、画面全体の動きベクトルを用いて手振れを補正する機能を実現したりすることができる。
 フレーム間の動きベクトルを検出する方法としては、一般的に、ブロックマッチング法が用いられる。ブロックマッチング法は、差分が最小となる、2フレームの画像のブロックの画面上の位置を結ぶベクトルを、動きベクトルとして検出する方法である。従って、ブロックマッチング法では、差分を求める画像どうしが動き以外の要因によって変化する場合、動きベクトルの検出精度は低下する。例えば、被写体の移動速度が時間的に変化し、2フレームの画像間で被写体のブレ量が異なる場合、同一の被写体のブロックどうしであっても差分が大きくなり、動きベクトルの検出精度が低下する。
 そこで、露光時間の異なる同一のフレームの画像を用いて、動きベクトルを検出する方法が考案されている(例えば、特許文献1参照)。この方法では、露光時間の異なる同一のフレームの画像どうしの差分が、露光時間の差分と被写体の動きベクトルに基づいて発生するものであるとして、動きベクトルが検出される。
 しかしながら、特許文献1の方法では、露光時間の差分が小さい場合、露光時間の異なる同一のフレームの画像どうしの差分が小さくなり、動きベクトルの精度が低下する。一方、露光時間の差分が大きい場合、露光時間の異なる同一のフレームの画像どうしの差分が、露光時間の差分と被写体の動きベクトルに基づいて発生するとして各画像を近似した1次式の精度が悪くなり、動きベクトルの精度は低下する。
 また、露光時間などの撮影条件が異なる画像を用いて、各画素のデプス値を表すデプスマップを高精度に生成することは考えられていなかった。
特開2013-20584号公報
 従って、露光時間などの撮影条件が異なる画像を用いて、動きベクトルやデプスマップなどの画像情報を高精度に検出することが望まれている。
 本開示は、このような状況に鑑みてなされたものであり、撮影条件の異なる画像を用いて、高精度に画像情報を検出することができるようにするものである。
 本開示の第1の側面の画像処理装置は、第1の撮影条件で撮影された第1および第2のフレームの第1の画像の差分情報を検出する第1の差分検出部と、第2の撮影条件で撮影された前記第1および第2のフレームの第2の画像の差分情報を検出する第2の差分検出部と、前記第1または第2の画像に基づいて、前記第1の差分検出部により検出された前記第1の画像の差分情報と、前記第2の差分検出部により検出された前記第2の画像の差分情報とを合成し、合成後の差分情報に基づいて、前記第1のフレームの動きベクトルを生成する合成部とを備える画像処理装置である。
 本開示の第1の側面の画像処理方法は、本開示の第1の側面の画像処理装置に対応する。
 本開示の第1の側面においては、第1の撮影条件で撮影された第1および第2のフレームの第1の画像の差分情報が検出され、第2の撮影条件で撮影された前記第1および第2のフレームの第2の画像の差分情報が検出され、前記第1または第2の画像に基づいて、前記第1の画像の差分情報と前記第2の画像の差分情報とが合成され、合成後の差分情報に基づいて、前記第1のフレームの動きベクトルが生成される。
 本開示の第2の側面の固体撮像装置は、第1および第2の撮影条件で撮影を行う撮影部と、前記撮影部により前記第1の撮影条件で撮影された第1および第2のフレームの第1の画像の差分情報を検出する第1の差分検出部と、前記撮影部により前記第2の撮影条件で撮影された前記第1および第2のフレームの第2の画像の差分情報を検出する第2の差分検出部と、前記第1または第2の画像に基づいて、前記第1の差分検出部により検出された前記第1の画像の差分情報と、前記第2の差分検出部により検出された前記第2の画像の差分情報とを合成し、合成後の差分情報に基づいて、前記第1のフレームの動きベクトルを生成する合成部とを備える固体撮像装置である。
 本開示の第2の側面においては、第1および第2の撮影条件で撮影が行われ、前記第1の撮影条件で撮影された第1および第2のフレームの第1の画像の差分情報が検出され、前記第2の撮影条件で撮影された前記第1および第2のフレームの第2の画像の差分情報が検出され、前記第1または第2の画像に基づいて、前記第1の画像の差分情報と前記第2の画像の差分情報とが合成され、合成後の差分情報に基づいて、前記第1のフレームの動きベクトルが生成される。
 本開示の第3の側面の画像処理装置は、第1の撮影条件で撮影された左目用の画像と右目用の画像の差分情報を検出する第1の差分検出部と、第2の撮影条件で撮影された左目用の画像と右目用の画像の差分情報を検出する第2の差分検出部と、前記第1または第2の撮影条件で撮影された前記左目用の画像、もしくは、前記第1または第2の撮影条件で撮影された前記右目用の画像に基づいて、前記第1の差分検出部により検出された前記第1の撮影条件の差分情報と、前記第2の差分検出部により検出された前記第2の撮影条件の差分情報とを合成し、合成後の差分情報をデプス値として生成する合成部とを備える画像処理装置である。
 本開示の第3の側面の画像処理方法は、本開示の第3の側面の画像処理装置に対応する。
 本開示の第3の側面においては、第1の撮影条件で撮影された左目用の画像と右目用の画像の差分情報が検出され、第2の撮影条件で撮影された左目用の画像と右目用の画像の差分情報が検出され、前記第1または第2の撮影条件で撮影された前記左目用の画像、もしくは、前記第1または第2の撮影条件で撮影された前記右目用の画像に基づいて、前記第1の撮影条件の差分情報と前記第2の撮影条件の差分情報とが合成され、合成後の差分情報がデプス値として生成される。
 本開示の第4の側面の固体撮像装置は、第1および第2の撮影条件で左目用の画像と右目用の画像を撮影する撮影部と、前記撮影部により前記第1の撮影条件で撮影された前記左目用の画像と前記右目用の画像の差分情報を検出する第1の差分検出部と、前記撮影部により前記第2の撮影条件で撮影された前記左目用の画像と前記右目用の画像の差分情報を検出する第2の差分検出部と、前記第1または第2の撮影条件で撮影された前記左目用の画像、または、前記第1または第2の撮影条件で撮影された前記右目用の画像に基づいて、前記第1の差分検出部により検出された前記第1の撮影条件の差分情報と、前記第2の差分検出部により検出された前記第2の撮影条件の差分情報とを合成し、合成後の差分情報をデプス値として生成する合成部とを備える固体撮像装置である。
 なお、第1および第3の側面の画像処理装置は、コンピュータにプログラムを実行させることにより実現することができる。
 また、第1および第3の側面の画像処理装置を実現するために、コンピュータに実行させるプログラムは、伝送媒体を介して伝送することにより、又は、記録媒体に記録して、提供することができる。
 本開示の第1乃至第4の側面によれば、画像処理を行うことができる。また、本開示の第1乃至第4の側面によれば、撮影条件の異なる画像を用いて、高精度に画像情報を検出することができる。
 なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本開示を適用した固体撮像装置としてのデジタルカメラの第1実施の形態の構成例を示すブロック図である。 短蓄画素と長蓄画素の配置例を示す図である。 図1の動きベクトル検出部の構成例を示すブロック図である。 図3の差分検出部によるSADテーブルの生成処理を説明する図である。 基準画像ブロックと参照画像ブロックの例を示す図である。 長露光画像と短露光画像の例を示す図である。 図3の合成部の構成例を示すブロック図である。 図7のブレンドテーブル生成部の構成例を示すブロック図である。 図1のデジタルカメラの撮影処理を説明するフローチャートである。 図9の動きベクトル検出処理の詳細を説明するフローチャートである。 本開示を適用した固体撮像装置としてのデジタルカメラの第2実施の形態の構成例を示すブロック図である。 図11の動きベクトル検出部の構成例を示すブロック図である。 図12の合成部の構成例を示すブロック図である。 図11のデジタルカメラの撮影処理を説明するフローチャートである。 図14の動きベクトル検出処理の詳細を説明するフローチャートである。 本開示を適用したデジタルカメラの第3実施の形態の動きベクトル検出部の構成例を示すブロック図である。 図16の合成部の構成例を示すブロック図である。 図16の動きベクトル検出部の動きベクトル検出処理を説明するフローチャートである。 本開示を適用したデジタルカメラの第4実施の形態の構成例を示すブロック図である。 図19のデプスマップ検出部の構成例を示すブロック図である。 図20の合成部の構成例を示すブロック図である。 図19のデジタルカメラの撮影処理を説明するフローチャートである。 図22のデプスマップ検出処理の詳細を説明するフローチャートである。 コンピュータのハードウエアの構成例を示すブロック図である。
 以下、本開示を実施するための形態(以下、実施の形態という)について説明する。なお、説明は以下の順序で行う。
 1.第1実施の形態:デジタルカメラ(図1乃至図10)
 2.第2実施の形態:デジタルカメラ(図11および図15)
 3.第3実施の形態:デジタルカメラ(図16乃至図18)
 4.第4実施の形態:デジタルカメラ(図19乃至図23)
 5.第5実施の形態:コンピュータ(図24)
 <第1実施の形態>
 (デジタルカメラの第1実施の形態の構成例)
 図1は、本開示を適用した固体撮像装置としてのデジタルカメラの第1実施の形態の構成例を示すブロック図である。
 図1のデジタルカメラ11は、操作部21、撮影部41、SDRAM(Synchronous Dynamic Random Access Memory)54、動きベクトル検出部55、補正部57、表示制御部60、および表示部61により構成される。デジタルカメラ11は、比較的短い露光時間(以下、短露光時間という)で撮影を行うとともに、比較的長い露光時間(以下、長露光時間という)で撮影を行う。
 操作部21は、例えば、レリーズ・スイッチ31および後述する表示部61に重畳される図示せぬタッチパネルなどにより構成され、ユーザによって操作される。操作部21は、ユーザの操作に応じた操作信号を、デジタルカメラ11の必要なブロックに供給する。
 撮影部41は、撮像レンズ51、撮像素子52、およびカメラ信号処理部53により構成される。
 撮影部41の撮像レンズ51は、撮像素子52の受光面に被写体の像を結像させる。撮像素子52は、例えば、CCD(Charge Coupled Devices)センサ、CMOS(Complementary Metal Oxide Semiconductor)センサなどで構成される。撮像素子52は、その受光面に結像された被写体の像(光)を画素単位で光電変換し、その結果得られる電荷を蓄積する。
 ここで、撮像素子52の一部の画素の露光時間は、短露光時間であり、残りの画素の露光時間は長蓄露光時間である。撮像素子52は、フレームごとに、露光時間が短露光時間である画素(以下、短蓄画素という)において短露光時間に蓄積された電荷の電気信号を、画素信号として読み出すことにより、短露光時間の撮影を行う。
 また、撮像素子52は、フレームごとに、露光時間が長露光時間である画素(以下、長蓄画素という)において長露光時間に蓄積された電荷の電気信号を、画素信号として読み出すことにより、長露光時間の撮影を行う。撮像素子52は、撮影の結果読み出されたフレーム単位の短蓄画素および長蓄画素の画素信号を、画像信号としてカメラ信号処理部53に供給する。
 カメラ信号処理部53は、撮像素子52から供給されるアナログの画像信号に対して、例えばガンマ補正処理や白バランス処理などを行う。カメラ信号処理部53は、その結果得られるアナログの画像信号をA/D(Analog/Digital)変換してデジタルの画像信号を生成し、その画像信号をフレーム単位の長短露光画像として、SDRAM54に供給する。
 SDRAM54は、カメラ信号処理部53から供給されるフレーム単位の長短露光画像を記憶する。
 動きベクトル検出部55(画像処理装置)は、SDRAM54から処理対象のフレームの長短露光画像を読み出す。動きベクトル検出部55は、SDRAM54から読み出された処理対象のフレームの長短露光画像に基づいて、処理対象のフレームの動きベクトルを検出する。動きベクトル検出部55は、検出された動きベクトルを補正部57に供給する。
 補正部57は、SDRAM54から処理対象のフレームの長短露光画像を読み出す。補正部57は、読み出された長短露光画像を用いて、ダイナミックレンジの広い撮影画像を生成する。補正部57は、動きベクトル検出部55から供給される動きベクトルに基づいて、生成された撮影画像を補正し、表示制御部60に供給する。
 表示制御部60は、補正部57から供給される撮影画像を表示部61に供給し、表示させる。
 表示部61は、表示制御部60の制御に従い、撮影画像などを表示する。表示部61としては、例えば、LCD(Liquid Crystal Display)などを採用することができる。
 (短蓄画素と長蓄画素の配置例)
 図2は、短蓄画素と長蓄画素の配置例を示す図である。
 図2において、正方形は、画素を表している。正方形内のLは、その正方形が表す画素が長蓄画素であることを表し、Lの隣りの数字は、その長蓄画素の位置を示す値である。また、正方形内のsは、その正方形が表す画素が短蓄画素であることを表し、sの隣りの数字は、その短蓄画素の位置を示す値である。なお、図2では、説明の便宜上、撮像素子52の画素のうちの5×5画素についてのみ図示している。
 図2に示すように、長蓄画素と短蓄画素は、規則的に配置される。図2の例では、水平方向および垂直方向において、交互に長蓄画素と短蓄画素が配置されている。
 (動きベクトル検出部の構成例)
 図3は、図1の動きベクトル検出部55の構成例を示すブロック図である。
 図3の動きベクトル検出部55は、分離部81、フレームメモリ82、差分検出部83、差分検出部84、および合成部85により構成される。
 動きベクトル検出部55の分離部81は、i番目のフレームを処理対象のフレーム(第1のフレーム)として、SDRAM54からi番目のフレームの長短露光画像である長短露光画像#iを読み出す。分離部81は、読み出された長短露光画像#iから、短蓄画素の画素値と長蓄画素の画素値を分離する。分離部81は、分離された短蓄画素の画素値からなる短露光画像#iを、フレームメモリ82と差分検出部83に供給する。また、分離部81は、分離された長蓄画素の画素値からなる長露光画像#iを、フレームメモリ82と差分検出部84に供給する。
 なお、ここでは、分離部81は、分離された短蓄画素の画素値をそのまま用いて短露光画像#iを生成するため、短露光画像#iの解像度は、長短露光画像#iの解像度より小さくなる。即ち、短露光画像#iにおいて長蓄画素の位置の画素値は存在しないため、例えば、図2に示したように短蓄画素と長蓄画素が配列される場合、短露光画像#iの解像度は、長短露光画像#iの解像度の半分になる。
 分離部81は、長蓄画素の位置の画素値を、周辺の短蓄画素の画素値を用いてバイリニア補間することなどにより、長短露光画像#iの解像度と同一の解像度の短露光画像#iを生成してもよい。これらのことは、長露光画像#iについても同様である。
 フレームメモリ82は、i-1番目のフレームが処理対象のフレームとされたときに分離部81から供給された、i-1番目のフレームの短露光画像である短露光画像#i-1と、長露光画像である長露光画像#i-1を保持している。また、フレームメモリ82は、i-1番目のフレームが処理対象のフレームとされたときに合成部85から供給されたi-1番目のフレームの動きベクトル#i-1を保持している。
 また、フレームメモリ82は、分離部81から供給される短露光画像#iと長露光画像#iを保持する。この短露光画像#iと長露光画像#iは、処理対象のフレームがi+1番目のフレームであるときに読み出され、用いられる。
 差分検出部83は、フレームメモリ82から、処理対象のフレームより1フレーム前のフレーム(以下、過去のフレーム(第2のフレーム)という)であるi-1番目のフレームの短露光画像#i-1を読み出す。差分検出部83は、読み出された短露光画像#i-1と、分離部81から供給される短露光画像#iとを用いて、ブロックマッチング法にしたがって、SADテーブルを生成する。
 具体的には、差分検出部83は、短露光画像#iを、所定のサイズのブロックに分割し、基準画像ブロックとする。また、差分検出部83は、短露光画像#i-1を基準画像ブロックのサイズと同一のサイズのブロックに分割し、参照画像ブロックとする。差分検出部83は、基準画像ブロックごとに、その基準画像ブロックの中心を中心とした矩形領域を探索範囲とする。差分検出部83(第1の差分検出部)は、基準画像ブロックごとに、基準画像ブロックと、その基準画像ブロックの探索範囲内に中心が存在する複数の参照画像ブロックそれぞれとの画素ごとの差分の絶対値の総和(SAD値)を、差分情報として検出する。差分検出部83は、基準画像ブロックごとに、その基準画像ブロックと探索範囲内の各参照画像ブロックのペアの相対位置を表すベクトルと、そのペアの差分情報とを対応付けたSADテーブルを生成する。
 差分検出部83は、基準画像ブロックごとに、その基準画像ブロックとSADテーブルとを合成部85に供給する。
 差分検出部84は、フレームメモリ82から過去のフレームの長露光画像#i-1を読み出す。差分検出部84は、読み出された長露光画像#i-1と分離部81から供給される長露光画像#iとを用いて、差分検出部83と同様に、ブロックマッチング法にしたがって、基準画像ブロックごとのSADテーブルを生成する。差分検出部84は、基準画像ブロックごとに、その基準画像ブロックとSADテーブルとを合成部85に供給する。
 合成部85は、フレームメモリ82から過去のフレームの動きベクトル#i-1を読み出す。合成部85は、基準画像ブロックごとに、差分検出部83および差分検出部84から供給される基準画像ブロック、並びに動きベクトル#i-1に基づいて、差分検出部83から供給されるSADテーブルと差分検出部84から供給されるSADテーブルを合成する。合成部85は、基準画像ブロックごとに、合成されたSADテーブルに基づいて、最小となる差分情報に対応するペアの相対位置を表すベクトルを、処理対象のフレームの動きベクトル#iとして検出する。
 合成部85は、生成された動きベクトル#iを図1の補正部57に供給するとともに、フレームメモリ82に供給し、保持させる。フレームメモリ82に保持された動きベクトル#iは、処理対象のフレームがi+1番目のフレームであるときに過去のフレームの動きベクトルとして読み出され、用いられる。
 (SADテーブルの生成処理の説明)
 図4は、図3の差分検出部83および84によるSADテーブルの生成処理を説明する図である。
 図4において、最小の正方形は画素を表す。図4の例では、基準画像ブロック101と参照画像ブロック104は4×4画素であり、探索範囲103は、8×8画素である。これらのことは、後述する図5においても同様である。
 この場合、探索範囲103内に中心O´が存在する参照画像ブロック104の数は、81(=9×9)個である。従って、基準画像ブロック101と、探索範囲103内に中心O´が存在する81個の参照画像ブロック104それぞれとの差分情報が生成される。即ち、探索範囲103の水平方向の画素数に1を加算した値と、垂直方向の画素数に1を加算した値の乗算値分の差分情報が生成される。
 また、基準画像ブロック101と、探索範囲103内に中心O´が存在する参照画像ブロック104の相対位置は、基準画像ブロック101の中心Oの位置から、参照画像ブロック104の中心O´に向かうベクトル105で表すことができる。
 従って、SADテーブルでは、ベクトル105に対応付けて、そのベクトル105で表される相対位置にある基準画像ブロック101と参照画像ブロック104の差分情報が登録される。SADテーブルに登録されているベクトル105のうちの、差分情報が最小となるベクトル105が、このSADテーブルにより検出される動きベクトルである。
 なお、探索範囲103内に中心O´が存在する81個の参照画像ブロック104を構成する画素の範囲であるマッチング処理範囲106は、12×12画素である。即ち、マッチング処理範囲106の水平方向の画素数は、探索範囲103の水平方向の画素数に参照画像ブロック104の水平方向の画素数を加算した値であり、垂直方向の画素数も、水平方向の画素数と同様に求められる。
 (動きベクトルの検出精度の説明)
 図5は、処理対象のフレームの動きベクトルが過去のフレームの動きベクトルと同一である場合と異なる場合の、基準画像ブロックと参照画像ブロックの例を示す図であり、図6は、長露光画像と短露光画像の例を示す図である。
 なお、図5において、図4と同一のものには同一の符号を付してある。重複する説明については適宜省略する。
 図5に示すように、処理対象のフレームの動きベクトル122が、過去のフレームの右上方向の動きベクトル121と同一である場合、その動きベクトル122に対応する差分情報は、基準画像ブロック101と参照画像ブロック123の差分情報である。
 この場合、基準画像ブロック101で発生している動きボケと、参照画像ブロック123で発生している動きボケは略同一であり、基準画像ブロック101と参照画像ブロック123の各画素の画素値は略同一である。
 従って、図6のAと図6のBに示すように、処理対象のフレームの短露光画像131における基準画像ブロック101と、過去のフレームの短露光画像133における参照画像ブロック123との差分は、ノイズだけである。長露光画像においても同様に、処理対象のフレームの長露光画像132における基準画像ブロック101と、過去のフレームの長露光画像134における参照画像ブロック123との差分は、ノイズだけである。
 よって、SN比の良い長露光画像134のSADテーブルを用いて動きベクトルを検出する方が、SN比の悪い短露光画像133のSADテーブルを用いる場合に比べて、基準画像ブロック101と参照画像ブロック123のペアの差分情報が最小となり、動きベクトル122が検出される可能性が高い。
 以上のように、処理対象のフレームの動きベクトル122が、過去のフレームの動きベクトル121と略同一である場合、長露光画像132と長露光画像134の間の動きボケの差分は無視できるほど小さい。従って、長露光画像134のSADテーブルを用いて動きベクトルを検出する方が、短露光画像133のSADテーブルを用いる場合に比べて、検出精度が高くなる。
 一方、処理対象のフレームの動きベクトル124が、過去のフレームの右上方向の動きベクトル121とは異なる右方向の動きベクトルである場合、その動きベクトル124に対応する差分情報は、基準画像ブロック101と参照画像ブロック125の差分情報である。
 この場合、基準画像ブロック101で発生している動きボケと、参照画像ブロック125で発生している動きボケは異なる。従って、図6のAと図6のCに示すように、動きボケが長時間発生する、処理対象のフレームの長露光画像132の基準画像ブロック101と、過去のフレームの長露光画像136における参照画像ブロック125との差分は、大きい。よって、長露光画像132の基準画像ブロック101と長露光画像136の参照画像ブロック125のペアの差分情報が最小とならず、動きベクトル124を検出することができない場合がある。
 しかしながら、動きボケが短時間だけ発生する、処理対象のフレームの短露光画像131の基準画像ブロック101と、過去のフレームの短露光画像135の参照画像ブロック125との差分は、小さい。よって、短露光画像135の基準画像ブロック101と短露光画像135の参照画像ブロック125のペアの差分情報が最小となり、動きベクトル124を検出できる可能性が高い。
 以上のように、処理対象のフレームの動きベクトル124が、過去のフレームの動きベクトル121と異なる場合、短露光画像131と短露光画像135の間の動きボケの方が、長露光画像132と長露光画像136の間の動きボケに比べて小さい。従って、短露光画像135のSADテーブルを用いて動きベクトルを検出する方が、長露光画像136のSADテーブルを用いる場合に比べて、検出精度が高くなる。
 従って、図3の合成部85は、過去の動きベクトルとSADテーブルに登録されるベクトルとの関係に基づいて、長露光画像と短露光画像のSADテーブルを合成する。
 また、図示は省略するが、長露光画像と短露光画像のうちのSN比が良い方のSADテーブルを用いて動きベクトルを検出した方が、SN比が悪い方のSADテーブルを用いる場合に比べて、動きベクトルの検出精度が高くなる。
 輝度が高い場合、白とびが発生しにくい短露光画像のSADテーブルを用いて動きベクトルを検出した方が、長露光画像のSADテーブルを用いる場合に比べて、動きベクトルの検出精度が高くなる。一方、輝度が低い場合、黒潰れが発生しにくい長露光画像のSADテーブルを用いて動きベクトルを検出した方が、短露光画像のSADテーブルを用いる場合に比べて、動きベクトルの検出精度が高くなる。
 コントラストが低い場合、動きボケが長時間発生する長露光画像のSADテーブルを用いて動きベクトルを検出すると、短露光画像のSADテーブルを用いる場合に比べて、動きボケによる画素値の差分によって動きベクトルを誤検出する可能性がある。動きベクトルが大きい場合、即ち動きが速い場合も同様である。
 以上により、合成部85は、長露光画像と短露光画像のSN比、輝度、およびコントラスト、並びに、過去のフレームの動きベクトルにも基づいて、長露光画像と短露光画像のSADテーブルを合成する。
 (合成部の構成例)
 図7は、図3の合成部85の構成例を示すブロック図である。
 図7の合成部85は、選択部141、輝度算出部142、コントラスト算出部143、動き量算出部144、重みテーブル生成部145、ブレンドテーブル生成部146、ブレンド部147、および選択部148により構成される。
 合成部85の選択部141は、基準画像ブロックの画素ごとに、図3の差分検出部83から供給される短露光画像#iの画素値と、差分検出部84から供給される長露光画像#iの画素値のうちの、SN比の良い方を選択する。
 即ち、短露光画像のSN比は、短露光画像の画素値に対して予め決められており、長露光画像のSN比は、長露光画像の画素値に対して予め決められている。従って、選択部141は、基準画像ブロックの画素ごとに、短露光画像#iの画素値に基づくSN比と、長露光画像#iの画素値に基づくSN比を比較し、SN比の良い方を選択する。選択部141は、選択された基準画像ブロックの各画素の画素値を、輝度算出部142とコントラスト算出部143に供給する。
 輝度算出部142は、選択部141から供給される基準画像ブロックの画素値(輝度値)の平均値BlockAveを求める。輝度算出部142は、平均値BlockAveに基づいて、以下の式(1)により、輝度ブレンド値BlendLを決定し、ブレンドテーブル生成部146に供給する。
Figure JPOXMLDOC01-appb-M000001
 式(1)において、Th1,Th2は、それぞれ、所定の閾値であり、閾値Th1は、閾値Th2より大きい。
 コントラスト算出部143は、選択部141から供給される基準画像ブロックの画素値に基づいて、以下の式(2)によりコントラスト値BlockContを求める。
Figure JPOXMLDOC01-appb-M000002
 式(2)において、I(x,y)は、位置(x,y)の画素の画素値である。式(2)によれば、コントラスト値BlockContは、基準画像ブロックの画素値のうちの、水平方向に隣接する画素どうしの画素値の差分絶対値の積算値と、垂直方向に隣接する画素どうしの画素値の差分絶対値の積算値との和である。
 また、コントラスト算出部143は、コントラスト値BlockContに基づいて、式(3)によりコントラストブレンド値BlendCを決定し、ブレンドテーブル生成部146に供給する。
Figure JPOXMLDOC01-appb-M000003
 式(3)において、Th3,Th4は、それぞれ、所定の閾値であり、閾値Th3は、閾値Th4より大きい。
 動き量算出部144は、図3のフレームメモリ82から動きベクトル#i-1を読み出す。動き量算出部144は、読み出された動きベクトル#i-1に基づいて、以下の式(4)により、ノルム値MvNormを求める。
Figure JPOXMLDOC01-appb-M000004
 式(4)において、vxは、動きベクトル#i-1の水平成分であり、vyは、動きベクトル#i-1の垂直成分である。
 また、動き量算出部144は、ノルム値MvNormに基づいて、以下の式(5)により、動き量ブレンド値BlendMを決定し、ブレンドテーブル生成部146に供給する。
Figure JPOXMLDOC01-appb-M000005
 式(5)において、Th5,Th6は、それぞれ、所定の閾値であり、閾値Th5は、閾値Th6より大きい。
 重みテーブル生成部145は、フレームメモリ82から動きベクトル#i-1を読み出す。重みテーブル生成部145は、読み出された動きベクトル#i-1に基づいて、SADテーブルに差分情報が登録されるペアに対する重みを表す重みテーブルを生成する。
 具体的には、重みテーブル生成部145は、基準画像ブロックとの相対位置を表すベクトルが、その基準画像ブロックの動きベクトル#i-1である参照画像ブロックの中心の位置(px,py)を、以下の式(6)により定義する。
Figure JPOXMLDOC01-appb-M000006
 式(6)において、tx,tyは、それぞれ、基準画像ブロックの中心の水平方向の位置、垂直方向の位置を表す。また、vxは、動きベクトル#i-1の水平成分であり、vyは、動きベクトル#i-1の垂直成分である。
 重みテーブル生成部145は、上述した式(6)で定義される位置(px,py)を用いて、以下の式(7)により、探索範囲内の位置(x,y)を中心とする参照画像ブロックと基準画像ブロックのペアに対して、重みw(x,y)を決定する。
Figure JPOXMLDOC01-appb-M000007
 式(7)において、Bsizeは探索範囲の水平方向および垂直方向のサイズであり、これにより、重みw(x,y)を0.0から1.0までの範囲に正規化することができる。
 式(7)によれば、中心の位置が位置(px,py)である参照画像ブロックと基準画像ブロックのペアに対する重みw(px,py)は、最大値である1に決定される。また、中心の位置(x,y)が位置(px,py)から遠い参照画像ブロックと基準画像ブロックのペアほど、そのペアに対する重みw(x,y)が小さくなる。
 重みテーブル生成部145は、以上のようにして決定された各ペアに対する重みw(x,y)を、そのペアの相対位置を表すベクトルと対応付けた、SADテーブルと同一のサイズの重みテーブルを生成する。重みテーブル生成部145は、生成された重みテーブルをブレンドテーブル生成部146に供給する。
 ブレンドテーブル生成部146(ブレンド比決定部)は、入力される輝度ブレンド値BlendL、コントラストブレンド値BlendC、動き量ブレンド値BlendM、および重みテーブルに基づいて、SADテーブルのブレンド比をペアごとに決定する。具体的には、ブレンドテーブル生成部146は、ペアごとに、輝度ブレンド値BlendL、コントラストブレンド値BlendC、動き量ブレンド値BlendM、および重みw(x,y)が大きいほど大きくなるように、0.0から1.0の範囲内のブレンド比を決定する。
 そして、ブレンドテーブル生成部146は、各ペアに対するブレンド比を、そのペアの相対位置を表すベクトルと対応付けた、SADテーブルと同一のサイズのブレンドテーブルを生成し、ブレンド部147に供給する。
 ブレンド部147(合成部)は、ブレンドテーブル生成部146から供給されるブレンドテーブルに基づいて、図3の差分検出部83および差分検出部84から供給されるSADテーブルを合成する。具体的には、ブレンド部147は、ペアごとに、ブレンドテーブルが表すブレンド比を、差分検出部84からの長露光画像のSADテーブルに登録される差分情報に乗算する。また、ブレンド部147は、ペアごとに、ブレンドテーブルが表すブレンド比を1から減算した値を、差分検出部83からの短露光画像のSADテーブルに登録される差分情報に乗算する。
 そして、ブレンド部147は、ペアごとに、乗算の結果得られる長露光画像の差分情報と短露光画像の差分情報を加算し、合成後のSADテーブルに登録する。ブレンド部147は、合成後のSADテーブルを選択部148に供給する。
 選択部148は、ブレンド部147から供給されるSADテーブルに登録される差分情報のうちの最も小さい差分情報に対応するベクトルを選択することにより、基準画像ブロックの動きベクトル#iを検出する。選択部148は、検出された各基準ブロックの動きベクトル#iを、図1の補正部57に供給するとともに、図3のフレームメモリ82に供給する。
 以上により、ブレンド比が1.0に近いほど、長露光画像の差分情報が優先的に動きベクトルの検出に用いられ、ブレンド比が0.0に近いほど、短露光画像の差分情報が優先的に動きベクトルの検出に用いられる。
 その結果、輝度が高い場合には、白とびが発生しにくい短露光画像の差分情報が優先的に動きベクトルの検出に用いられ、輝度が低い場合には、黒潰れが発生しにくい長露光画像の差分情報が優先的に動きベクトルの検出に用いられる。よって、動きベクトルの検出精度が向上する。
 また、コントラストが高い場合には、SN比の良い長露光画像の差分情報が優先的に動きベクトルの検出に用いられ、コントラストが低い場合には、動きボケの影響を受けにくい短露光画像の差分情報が優先的に動きベクトルの検出に用いられる。その結果、動きベクトルの検出精度が向上する。
 さらに、動き量が小さい場合には、SN比の良い長露光画像の差分情報が優先的に動きベクトルの検出に用いられ、動き量が大きい場合には、動きボケの影響を受けにくい短露光画像の差分情報が優先的に動きベクトルの検出に用いられる。その結果、動きベクトルの検出精度が向上する。
 また、動きベクトルの変化が小さい場合には、SN比の良い長露光画像の差分情報が優先的に動きベクトルの検出に用いられ、動きベクトルの変化が大きい場合には、動きボケの影響を受けにくい短露光画像の差分情報が優先的に動きベクトルの検出に用いられる。その結果、動きベクトルの検出精度が向上する。
 また、ブレンドテーブルは、基準画像ブロックごとに決定されるので、画面全体に対して決定される場合に比べて、輝度、コントラスト、または動きベクトルが被写体によって異なる場合であっても、最適なブレンドテーブルを生成することができる。その結果、動きベクトルの検出精度を向上させることができる。
 (ブレンドテーブル生成部の構成例)
 図8は、図7のブレンドテーブル生成部146の構成例を示すブロック図である。
 図8のブレンドテーブル生成部146は、選択部161と乗算部162により構成される。
 ブレンドテーブル生成部146の選択部161は、図7の輝度算出部142からの輝度ブレンド値BlendL、コントラスト算出部143からのコントラストブレンド値BlendC、および動き量算出部144からの動き量ブレンド値BlendMのうちの最小値を選択する。選択部161は、選択された最小値を乗算部162に供給する。
 乗算部162は、重みテーブル生成部145から供給される重みテーブルに登録される各重みと、選択部161から供給される最小値とを乗算し、ブレンドテーブルを生成する。乗算部162は、生成されたブレンドテーブルをブレンド部147に供給する。
 (デジタルカメラの処理の説明)
 図9は、図1のデジタルカメラ11の撮影処理を説明するフローチャートである。この撮影処理は、例えばフレーム単位で行われる。
 図9のステップS11において、撮像素子52の短蓄画素は、撮像レンズ51を介して入射する光の光量に応じた電荷を蓄積し、短露光時間に蓄積された電荷の電気信号を、画素信号として読み出すことにより、短露光時間の撮影を行う。撮像素子52の短蓄画素は、撮影の結果得られる画素信号をカメラ信号処理部53に供給する。
 ステップS12において、撮像素子52の長蓄画素は、撮像レンズ51を介して入射する光の光量に応じた電荷を蓄積し、長露光時間に蓄積された電荷の電気信号を、画素信号として読み出すことにより、長露光時間の撮影を行う。撮像素子52の長蓄画素は、撮影の結果得られる画素信号をカメラ信号処理部53に供給する。
 ステップS13において、カメラ信号処理部53は、撮像素子52から供給される短蓄画素と長蓄画素の画素信号からなるアナログの画像信号に対して、ガンマ補正処理や白バランス処理、A/D変換などを行い、長短露光画像を生成する。そして、カメラ信号処理部53は、長短露光画像をSDRAM54に供給する。
 ステップS14において、SDRAM54は、カメラ信号処理部53から供給される長短露光画像を保持する。
 ステップS15において、動きベクトル検出部55は、SDRAM54から処理対象のフレームの長短露光画像を読み出し、その長短露光画像に基づいて処理対象のフレームの動きベクトルを検出する動きベクトル検出処理を行う。この動きベクトル検出処理の詳細は、後述する図10を参照して説明する。
 ステップS16において、補正部57は、SDRAM54から処理対象のフレームの長短露光画像を読み出し、その長短露光画像からダイナミックレンジの広い撮影画像を生成する。ステップS17において、補正部57は、動きベクトル検出部55から供給される動きベクトルに基づいて、生成された撮影画像を補正し、表示制御部60に供給する。
 ステップS18において、表示制御部60は、補正部57から供給される撮影画像を表示部61に供給し、表示させる。そして、処理は終了する。
 図10は、図9のステップS15の動きベクトル検出処理の詳細を説明するフローチャートである。
 図10のステップS31において、動きベクトル検出部55の分離部81(図3)は、SDRAM54から処理対象のフレームの長短露光画像を読み出し、その長短露光画像を短蓄画素の画素値と長蓄画素の画素値に分離することにより、短露光画像と長露光画像を生成する。分離部81は、生成された短露光画像をフレームメモリ82と差分検出部83に供給し、長露光画像をフレームメモリ82と差分検出部84に供給する。
 ステップS32において、フレームメモリ82は、分離部81から供給される処理対象のフレームの短露光画像と長露光画像を保持する。以降のステップS33乃至S44の処理は、基準画像ブロックごとに行われる。
 ステップS33において、差分検出部83は、フレームメモリ82に保持されている過去のフレームの短露光画像と、分離部81からの処理対象のフレームの短露光画像とを用いて、処理対象の基準画像ブロックのSADテーブルを生成する。差分検出部83は、短露光画像の処理対象の基準画像ブロックとSADテーブルを、合成部85に供給する。
 ステップS34において、差分検出部84は、フレームメモリ82に保持されている過去のフレームの長露光画像と、分離部81からの処理対象のフレームの長露光画像とを用いて、処理対象の基準画像ブロックのSADテーブルを生成する。差分検出部83は、長露光画像の処理対象の基準画像ブロックとSADテーブルを、合成部85に供給する。
 ステップS35において、合成部85の選択部141(図7)は、処理対象の基準画像ブロックの画素ごとに、差分検出部83から供給される短露光画像の画素値と、差分検出部84から供給される長露光画像の画素値のうちの、SN比の良い方を選択する。選択部141は、選択された基準画像ブロックの各画素の画素値を、輝度算出部142とコントラスト算出部143に供給する。
 ステップS36において、輝度算出部142は、選択部141から供給される処理対象の基準画像ブロックの画素値の平均値BlockAveを求め、その平均値BlockAveに基づいて、上述した式(1)により、輝度ブレンド値BlendLを決定する。輝度算出部142は、輝度ブレンド値BlendLをブレンドテーブル生成部146に供給する。
 ステップS37において、コントラスト算出部143は、処理対象の基準画像ブロックのコントラスト値BlockContに基づいて、上述した式(3)によりコントラストブレンド値BlendCを決定する。なお、処理対象の基準画像ブロックのコントラスト値BlockContは、選択部141から供給される処理対象の基準画像ブロックの画素値に基づいて、上述した式(2)によりを求められる。コントラスト算出部143は、コントラストブレンド値BlendCをブレンドテーブル生成部146に供給する。
 ステップS38において、動き量算出部144は、過去のフレームの動きベクトルのノルム値MvNormに基づいて、上述した式(5)により、動き量ブレンド値BlendMを決定する。なお、過去のフレームの動きベクトルのノルム値MvNormは、フレームメモリ82に保持されている過去のフレームの動きベクトルに基づいて、上述した式(4)により求められる。動き量算出部144は、動き量ブレンド値BlendMをブレンドテーブル生成部146に供給する。
 ステップS39において、重みテーブル生成部145は、フレームメモリ82から過去のフレームの動きベクトルを読み出し、その動きベクトルに基づいて重みテーブルを生成する。重みテーブル生成部145は、生成された重みテーブルをブレンドテーブル生成部146に供給する。
 ステップS40において、ブレンドテーブル生成部146の選択部161(図8)は、入力される輝度ブレンド値BlendL、コントラストブレンド値BlendC、および動き量ブレンド値BlendMのうちの最小値を選択する。選択部161は、選択された最小値を乗算部162に供給する。
 ステップS41において、乗算部162は、選択部161から供給される最小値と、重みテーブル生成部145から供給される重みテーブルに登録されている各重みとを乗算することにより、ブレンドテーブルを生成する。乗算部162は、生成されたブレンドテーブルをブレンド部147に供給する。
 ステップS42において、ブレンド部147は、ブレンドテーブル生成部146から供給されるブレンドテーブルに基づいて、差分検出部83から供給される短露光画像のSADテーブルと差分検出部84から供給される長露光画像のSADテーブルを合成する。ブレンド部147は、合成後のSADテーブルを選択部148に供給する。
 ステップS43において、選択部148は、ブレンド部147から供給されるSADテーブルに登録される差分情報のうちの最も小さい差分情報に対応するベクトルを、処理対象の基準画像ブロックの動きベクトルとして検出する。
 ステップS44において、選択部148は、検出された動きベクトルを、補正部57に出力するとともに、フレームメモリ82に供給し、保持させる。この動きベクトルは、現在の処理対象のフレームの次のフレームが新たに処理対象のフレームになったとき、ステップS38およびS39の処理で、過去のフレームの動きベクトルとして用いられる。ステップS44の処理後、処理は図9のステップS15に戻り、ステップS16に進む。
 以上のように、デジタルカメラ11は、短露光画像のSADテーブルと長露光画像のSADテーブルを生成し、短露光画像または長露光画像に基づいて、短露光画像のSADテーブルと長露光画像のSADテーブルを合成する。そして、デジタルカメラ11は、合成後のSADテーブルに基づいて、動きベクトルを検出する。
 従って、短露光画像のSADテーブルと長露光画像のSADテーブルのうちの、短露光画像または長露光画像の輝度やコントラストなどに適した方を優先的に用いて、動きベクトルを検出することができる。その結果、動きベクトルの検出精度が向上する。
 <第2実施の形態>
 (デジタルカメラの第2実施の形態の構成例)
 図11は、本開示を適用した固体撮像装置としてのデジタルカメラの第2実施の形態の構成例を示すブロック図である。
 図11に示す構成のうち、図1の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
 図11のデジタルカメラ181の構成は、撮影部41、動きベクトル検出部55の代わりに、撮影部182、動きベクトル検出部183が設けられる点が、図1のデジタルカメラ11の構成と異なる。デジタルカメラ181は、短露光時間、長露光時間だけでなく、短露光時間より長く長露光時間より短い時間である中露光時間の撮影を行う。
 撮影部182は、撮像レンズ51、撮像素子191、およびカメラ信号処理部192により構成される。
 撮像素子191は、例えば、CCDセンサ、CMOSセンサなどで構成される。撮像素子191は、撮像レンズ51を介して受光面に結像された被写体の像(光)を画素単位で光電変換し、その結果得られる電荷を蓄積する。
 ここで、撮像素子191の一部の画素の露光時間は、短露光時間であり、他の一部の画素の露光時間は、中露光時間であり、残りの画素の露光時間は、長蓄露光時間である。撮像素子191は、フレームごとに、短蓄画素において短露光時間に蓄積された電荷の電気信号を、画素信号として読み出すことにより、短露光時間の撮影を行う。
 また、撮像素子191は、フレームごとに、露光時間が中露光時間である画素(以下、中蓄画素という)において中露光時間に蓄積された電荷の電気信号を、画素信号として読み出すことにより、中露光時間の撮影を行う。
 さらに、撮像素子191は、フレームごとに、長蓄画素において長露光時間に蓄積された電荷の電気信号を、画素信号として読み出すことにより、長露光時間の撮影を行う。撮像素子191は、撮影の結果読み出されたフレーム単位の短蓄画素、中蓄画素、および長蓄画素の画素信号を、画像信号としてカメラ信号処理部192に供給する。
 カメラ信号処理部192は、撮像素子191から供給されるアナログの画像信号に対して、例えばガンマ補正処理や白バランス処理などを行う。カメラ信号処理部192は、その結果得られるアナログの画像信号をA/D変換してデジタルの画像信号を生成し、その画像信号をフレーム単位の長中短露光画像として、SDRAM54に供給する。
 動きベクトル検出部183(画像処理装置)は、SDRAM54から処理対象のフレームの長中短露光画像を読み出す。動きベクトル検出部183は、SDRAM54から読み出された処理対象のフレームの長中短露光画像に基づいて、処理対象のフレームの動きベクトルを検出する。動きベクトル検出部183は、検出された動きベクトルを補正部57に供給する。
 (動きベクトル検出部の構成例)
 図12は、図11の動きベクトル検出部183の構成例を示すブロック図である。
 図12に示す構成のうち、図3の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
 図12の動きベクトル検出部183の構成は、分離部81、フレームメモリ82、合成部85の代わりに、分離部201、フレームメモリ202、合成部204が設けられる点、および、差分検出部203が新たに設けられる点が、図3の動きベクトル検出部55の構成と異なる。
 動きベクトル検出部183の分離部201は、i番目のフレームを処理対象のフレームとして、SDRAM54からi番目のフレームの長中短露光画像である長中短露光画像#iを読み出す。分離部201は、読み出された長中短露光画像#iから、短蓄画素の画素値、中蓄画素の画素値、および長蓄画素の画素値を分離する。
 分離部201は、分離された短蓄画素の画素値からなる短露光画像#iを、フレームメモリ202と差分検出部83に供給する。また、分離部201は、分離された中蓄画素の画素値からなる中露光画像#iを、フレームメモリ202と差分検出部203に供給する。分離部201は、分離された長蓄画素の画素値からなる長露光画像#iを、フレームメモリ202と差分検出部84に供給する。
 なお、ここでは、分離部201は、分離された短蓄画素の画素値をそのまま用いて短露光画像#iを生成するため、短露光画像#iの解像度は、長中短露光画像#iの解像度より小さくなる。即ち、短露光画像#iにおいて中蓄画素および長蓄画素の位置の画素値は存在しないため、短露光画像#iの解像度は、長中短露光画像#iより小さくなる。
 分離部201は、中蓄画素および長蓄画素の位置の画素値を、周辺の短蓄画素の画素値を用いてバイリニア補間することなどにより、長中短露光画像#iの解像度と同一の解像度の短露光画像#iを生成してもよい。これらのことは、中露光画像#iおよび長露光画像#iについても同様である。
 フレームメモリ202は、i-1番目のフレームが処理対象のフレームとされたときに分離部201から供給された、短露光画像#i-1、長露光画像#i-1、およびi-1番目のフレームの中露光画像#i-1を保持している。また、フレームメモリ202は、i-1番目のフレームが処理対象のフレームとされたときに合成部204から供給された動きベクトル#i-1を保持している。
 また、フレームメモリ202は、分離部201から供給される短露光画像#i、中露光画像#i、および長露光画像#iを保持する。この短露光画像#i、中露光画像#i、および長露光画像#iは、処理対象のフレームがi+1番目のフレームであるときに読み出され、用いられる。
 差分検出部203は、フレームメモリ202から、過去のフレームであるi-1番目のフレームの中露光画像#i-1を読み出す。差分検出部203は、読み出された中露光画像#i-1と、分離部201から供給される中露光画像iとを用いて、差分検出部83と同様に、ブロックマッチング法にしたがって、基準画像ブロックごとのSADテーブルを生成する。差分検出部203は、基準画像ブロックごとに、その基準画像ブロックとSADテーブルとを合成部204に供給する。
 合成部204は、フレームメモリ202から動きベクトル#i-1を読み出す。合成部204は、基準画像ブロックごとに、差分検出部83、差分検出部84、および差分検出部203から供給される基準画像ブロック、並びに動きベクトル#i-1に基づいて、差分検出部83、差分検出部84、および差分検出部203から供給されるSADテーブルを合成する。
 合成部204は、基準画像ブロックごとに、合成されたSADテーブルに基づいて、最小となる差分情報に対応するベクトルを、処理対象のフレームの動きベクトル#iとして検出する。合成部204は、生成された動きベクトル#iを図11の補正部57に供給するとともに、フレームメモリ202に供給し、保持させる。フレームメモリ202に保持された動きベクトル#iは、処理対象のフレームがi+1番目のフレームであるときに過去のフレームの動きベクトルとして読み出され、用いられる。
 (合成部の構成例)
 図13は、図12の合成部204の構成例を示すブロック図である。
 図13に示す構成のうち、図7の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
 図13の合成部204の構成は、選択部141、ブレンド部147の代わりに、選択部211、ブレンド部212が設けられる点が、図7の合成部85の構成と異なる。
 合成部204の選択部211は、基準画像ブロックの画素ごとに、図12の差分検出部83からの短露光画像#iの画素値、差分検出部203からの中露光画像#iの画素値、および差分検出部84からの長露光画像#iの画素値のうちの、SN比の最も良いものを選択する。
 即ち、短露光画像、中露光画像、および長露光画像のSN比は、それぞれの画素値に対して予め決められている。従って、選択部211は、基準画像ブロックの画素ごとに、短露光画像#iの画素値に基づくSN比、中露光画像#iの画素値に基づくSN比、および長露光画像#iの画素値に基づくSN比を比較し、SN比の最も良いものを選択する。選択部211は、選択された基準画像ブロックの各画素の画素値を、輝度算出部142とコントラスト算出部143に供給する。
 ブレンド部212は、ブレンドテーブル生成部146から供給されるブレンドテーブルに基づいて、図12の差分検出部83、差分検出部203、および差分検出部84から供給されるSADテーブルを合成する。具体的には、ブレンド部212は、ペアごとに、ブレンドテーブルが表すブレンド比が、0以上0.5以下である場合、そのブレンド比を、差分検出部203からの中露光画像のSADテーブルに登録される差分情報に乗算する。また、ブレンド部212は、ペアごとに、ブレンドテーブルが表すブレンド比を1から減算した値を、差分検出部83からの短露光画像のSADテーブルに登録される差分情報に乗算する。そして、ブレンド部212は、ペアごとに、乗算の結果得られる中露光画像の差分情報と短露光画像の差分情報を加算し、合成後のSADテーブルに登録する。
 一方、ブレンドテーブルが表すブレンド比が、0.5より大きく、かつ、1以下である場合、そのブレンド比を、差分検出部84からの長露光画像のSADテーブルに登録される差分情報に乗算する。また、ブレンド部212は、ペアごとに、ブレンドテーブルが表すブレンド比を1から減算した値を、差分検出部203からの中露光画像のSADテーブルに登録される差分情報に乗算する。そして、ブレンド部212は、ペアごとに、乗算の結果得られる長露光画像の差分情報と中露光画像の差分情報を加算し、合成後のSADテーブルに登録する。ブレンド部212は、合成後のSADテーブルを選択部148に供給する。
 (デジタルカメラの処理の説明)
 図14は、図11のデジタルカメラ181の撮影処理を説明するフローチャートである。この撮影処理は、例えばフレーム単位で行われる。
 図14のステップS51において、撮像素子191の短蓄画素は、撮像レンズ51を介して入射する光の光量に応じた電荷を蓄積し、短露光時間に蓄積された電荷の電気信号を、画素信号として読み出すことにより、短露光時間の撮影を行う。撮像素子191は、撮影の結果得られる画素信号をカメラ信号処理部192に供給する。
 ステップS52において、撮像素子191の中蓄画素は、撮像レンズ51を介して入射する光の光量に応じた電荷を蓄積し、中露光時間に蓄積された電荷の電気信号を、画素信号として読み出すことにより、中露光時間の撮影を行う。撮像素子191は、撮影の結果得られる画素信号をカメラ信号処理部192に供給する。
 ステップS53において、撮像素子191の長蓄画素は、撮像レンズ51を介して入射する光の光量に応じた電荷を蓄積し、長露光時間に蓄積された電荷の電気信号を、画素信号として読み出すことにより、長露光時間の撮影を行う。撮像素子191は、撮影の結果得られる画素信号をカメラ信号処理部192に供給する。
 ステップS54において、カメラ信号処理部192は、撮像素子191から供給される短蓄画素、中蓄画素、および長蓄画素の画素信号からなるアナログの画像信号に対して、ガンマ補正処理や白バランス処理、A/D変換などを行い、長中短露光画像を生成する。そして、カメラ信号処理部192は、長中短露光画像をSDRAM54に供給する。
 ステップS55において、SDRAM54は、カメラ信号処理部192から供給される長中短露光画像を記憶する。
 ステップS56において、動きベクトル検出部183は、SDRAM54から処理対象のフレームの長中短露光画像を読み出し、その長中短露光画像に基づいて処理対象のフレームの動きベクトルを検出する動きベクトル検出処理を行う。この動きベクトル検出処理の詳細は、後述する図15を参照して説明する。
 ステップS57において、補正部57は、SDRAM54から処理対象のフレームの長中短露光画像を読み出し、その長中短露光画像からダイナミックレンジの広い撮影画像を生成する。ステップS58およびS59の処理は、図9のステップS17およびS18の処理と同様であるので、説明は省略する。
 図15は、図14のステップS56の動きベクトル検出処理の詳細を説明するフローチャートである。
 図15のステップS61において、動きベクトル検出部183の分離部201(図12)は、SDRAM54に保持されている処理対象のフレームの長中短露光画像を分離することにより、短露光画像、中露光画像、および長露光画像を生成する。分離部201は、生成された短露光画像をフレームメモリ202と差分検出部83に供給し、中露光画像をフレームメモリ202と差分検出部203に供給し、長露光画像をフレームメモリ202と差分検出部84に供給する。
 ステップS62において、フレームメモリ202は、分離部201から供給される処理対象のフレームの短露光画像、中露光画像、および長露光画像を保持する。以降のステップS63乃至S75の処理は、基準画像ブロックごとに行われる。
 ステップS63において、差分検出部83は、フレームメモリ202に保持されている過去のフレームの短露光画像と、分離部201からの処理対象のフレームの短露光画像とを用いて、処理対象の基準画像ブロックのSADテーブルを生成する。差分検出部83は、短露光画像の処理対象の基準画像ブロックとSADテーブルを、合成部204に供給する。
 ステップS64において、差分検出部203は、フレームメモリ202に保持されている過去のフレームの中露光画像と、分離部201からの処理対象のフレームの中露光画像とを用いて、処理対象の基準画像ブロックのSADテーブルを生成する。差分検出部203は、中露光画像の処理対象の基準画像ブロックとSADテーブルを、合成部204に供給する。
 ステップS65において、差分検出部84は、フレームメモリ202に保持されている過去のフレームの長露光画像と、分離部201からの処理対象のフレームの長露光画像とを用いて、処理対象の基準画像ブロックのSADテーブルを生成する。差分検出部83は、長露光画像の処理対象の基準画像ブロックとSADテーブルを、合成部204に供給する。
 ステップS66において、合成部204の選択部211(図13)は、処理対象の基準画像ブロックの画素ごとに、短露光画像の画素値、中露光画像の画素値、および長露光画像の画素値のうちの、SN比の最も良いものを選択する。選択部211は、選択された基準画像ブロックの各画素の画素値を、輝度算出部142とコントラスト算出部143に供給する。
 ステップS67乃至S72の処理は、図10のステップS36乃至S41の処理と同様であるので、説明は省略する。
 ステップS73において、ブレンド部212は、ブレンドテーブル生成部146から供給されるブレンドテーブルに基づいて、短露光画像のSADテーブルと中露光画像のSADテーブル、または、中露光画像のSADテーブルと長露光画像のSADテーブルを合成する。ブレンド部212は、合成後のSADテーブルを選択部148に供給する。
 ステップS74およびS75の処理は、図10のステップS43およびS44の処理と同様であるので、説明は省略する。
 以上のように、デジタルカメラ181は、短露光画像、中蓄露光画像、および長露光画像のSADを生成し、短露光画像、中蓄露光画像、または長露光画像に基づいて、短露光画像、中蓄露光画像、および長露光画像のSADテーブルを合成する。そして、デジタルカメラ181は、合成後のSADテーブルに基づいて、動きベクトルを検出する。
 従って、より適した露光時間のSADテーブルを優先的に用いて、動きベクトルを検出することができ、動きベクトルの検出精度が向上する。
 <第3実施の形態>
 (デジタルカメラの第3実施の形態の構成例)
 本開示を適用したデジタルカメラの第3実施の形態の構成は、動きベクトル検出部55を除いて、図1のデジタルカメラ11の構成と同一である。従って、以下では、動きベクトル検出部についてのみ説明する。
 図16は、本開示を適用したデジタルカメラの第3実施の形態の動きベクトル検出部の構成例を示すブロック図である。
 図16に示す構成のうち、図3の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
 図16の動きベクトル検出部220の構成は、動き検出部221と動き検出部222が新たに設けられる点、および、合成部85の代わりに合成部223が設けられる点が、図3の動きベクトル検出部55の構成と異なる。動きベクトル検出部220は、異なるフレームの短露光画像どうし、および、長露光画像どうしの差分情報のSADテーブルだけでなく、同一のフレームの短露光画像と長露光画像に基づく動きベクトルにも基づいて、動きベクトルを検出する。
 具体的には、動きベクトル検出部220(画像処理装置)の動き検出部221(第1の動き検出部)は、分離部81から供給される短露光画像#iと長露光画像#iとを用いて、例えば特許文献1に記載されている方法にしたがって、i番目のフレームの仮の動きベクトル#iを検出する。
 なお、特許文献1に記載されている方法とは、同一のフレームの短露光画像と長露光画像の差分が、露光時間の違いによる動きの影響の差分であるとして、そのフレームの動きベクトルを検出する方法である。より詳細には、この方法は、動き量を変数として同一の画素の長露光画像と短露光画像をそれぞれ表現する近似式に、その画素の短露光画像と長露光画像の実際の画素値を代入して連立方程式として解くことにより、動き量を求める方法である。動き検出部221は、検出された仮の動きベクトル#iを合成部223に供給する。
 動き検出部222(第2の動き検出部)は、フレームメモリ82から短露光画像#i-1と長露光画像#i-1を読み出す。動き検出部222は、読み出された短露光画像#i-1と長露光画像#i-1を用いて、例えば特許文献1に記載されている方法にしたがって、i-1番目のフレームの仮の動きベクトル#i-1を検出する。動き検出部222は、検出された仮の動きベクトル#i-1を合成部223に供給する。
 合成部223は、フレームメモリ82から動きベクトル#i-1を読み出す。合成部223は、基準画像ブロックごとに、入力される短露光画像#iおよび長露光画像#iの基準画像ブロック、仮の動きベクトル#iおよび仮の動きベクトル#i-1、並びに動きベクトル#i-1に基づいて、入力されるSADテーブルを合成する。
 合成部223は、基準画像ブロックごとに、合成されたSADテーブルに基づいて、最小となる差分情報に対応するベクトルを、処理対象のフレームの動きベクトル#iとして検出する。合成部223は、生成された動きベクトル#iを図1の補正部57に供給するとともに、フレームメモリ82に供給し、保持させる。フレームメモリ82に保持された動きベクトル#iは、処理対象のフレームがi+1番目のフレームであるときに過去のフレームの動きベクトルとして読み出され、用いられる。
 (合成部の構成例)
 図17は、図16の合成部223の構成例を示すブロック図である。
 図17に示す構成のうち、図7の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
 図17の合成部223の構成は、動き量算出部144の代わりに動き量算出部241が設けられる点が、図7の合成部85の構成と異なる。
 合成部223の動き量算出部241は、図16のフレームメモリ82から動きベクトル#i-1を読み出す。動き量算出部241は、上述した式(4)により、読み出された動きベクトル#i-1のノルム値MvNormを求める。同様に、動き量算出部241は、動き検出部221から供給される仮の動きベクトル#iと、動き検出部222から供給される仮の動きベクトル#i-1それぞれの、ノルム値MvNormを求める。そして、動き量算出部241は、求められた3つのノルム値MvNormのうちの最大値を選択する。動き量算出部241は、選択されたノルム値MvNormに基づいて、上述した式(5)により、動き量ブレンド値BlendMを決定し、ブレンドテーブル生成部146に供給する。
 なお、動きベクトル#i-1は、フレーム間の動きを表すベクトルであるが、仮の動きベクトル#iおよび仮の動きベクトル#i-1は、フレーム内の動きを表すベクトルである。従って、動き量算出部241は、動きベクトル#i-1、仮の動きベクトル#i、および仮の動きベクトル#i-1のノルム値MvNormのうちの最大値に基づいて、動き量ブレンド値BlendMを決定することにより、フレーム間で見ると動きは小さいがフレーム内の短時間での動きは大きい画像であっても、最適なブレンドテーブルを生成することができる。その結果、動きベクトルを高精度に検出することができる。
 (デジタルカメラの処理の説明)
 第3実施の形態のデジタルカメラの撮影処理は、図9のステップS15の動きベクトル検出処理を除いて図9の撮影処理と同様である。従って、以下では、動きベクトル検出処理についてのみ説明する。
 図18は、図16の動きベクトル検出部220の動きベクトル検出処理を説明するフローチャートである。
 図18のステップS91乃至S94の処理は、図10のステップS31乃至S34の処理と同様であるので、説明は省略する。
 ステップS95において、動き検出部221は、分離部81から供給される処理対象のフレームの短露光画像と長露光画像とを用いて、処理対象のフレームの仮の動きベクトルを検出し、合成部85に供給する。
 ステップS96において、動き検出部222は、フレームメモリ82に保持されている過去のフレームの短露光画像と長露光画像を用いて、過去のフレームの仮の動きベクトルを検出し、合成部85に供給する。
 ステップS97乃至S99の処理は、図10のステップS35乃至S37の処理と同様であるので、説明は省略する。
 ステップS100において、動き量算出部241(図17)は、過去のフレームの動きベクトル、処理対象のフレームの仮の動きベクトル、および過去のフレームの仮の動きベクトルのノルム値のうちの最大値に基づいて、上述した式(5)により、動き量ブレンド値BlendMを決定する。なお、過去のフレームの動きベクトルは、フレームメモリ82から読み出されたものである。動き量算出部241は、動き量ブレンド値BlendMをブレンドテーブル生成部146に供給する。
 ステップS101乃至S106の処理は、図10のステップS39乃至S44の処理と同様であるので、説明は省略する。
 <第4実施の形態>
 (デジタルカメラの第4実施の形態の構成例)
 図19は、本開示を適用したデジタルカメラの第4実施の形態の構成例を示すブロック図である。
 図19に示す構成のうち、図1の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
 図19のデジタルカメラ280は、操作部21、撮影部281-1および281-2、SDRAM282-1および282-2、デプスマップ検出部283、補正部284、表示制御部285、および表示部286により構成される。デジタルカメラ280は、短露光時間および長露光時間で3D画像を撮影し、デプスマップを生成する。
 具体的には、撮影部281-1は、撮影部41と同様に、撮像レンズ51、撮像素子52、およびカメラ信号処理部53により構成され、短露光時間および長露光時間で左目用の画像を撮影する。撮影部281-1は、その結果得られるフレーム単位の左目用の長短露光画像(以下、長短露光左画像という)をSDRAM282-1に供給する。
 撮影部281-2は、撮影部41と同様に、撮像レンズ51、撮像素子52、およびカメラ信号処理部53により構成され、短露光時間および長露光時間で右目用の画像を撮影する。撮影部281-2は、その結果得られる右目用の長短露光画像(以下、長短露光右画像という)をSDRAM282-2に供給する。
 SDRAM282-1は、撮影部281-1から供給されるフレーム単位の長短露光左画像を記憶する。また、SDRAM282-2は、撮影部281-2から供給されるフレーム単位の長短露光右画像を記憶する。
 デプスマップ検出部283は、SDRAM282-1から処理対象のフレームの長短露光左画像を読み出し、SDRAM282-2から処理対象のフレームの長短露光右画像を読み出す。デプスマップ検出部283は、読み出された処理対象のフレームの長短露光左画像と長短露光右画像に基づいて、処理対象のフレームのデプスマップを検出する。デプスマップ検出部283は、検出されたデプスマップを補正部284に供給する。
 補正部284は、SDRAM282-1から処理対象のフレームの長短露光左画像を読み出し、SDRAM282-2から処理対象のフレームの長短露光右画像を読み出す。補正部284は、読み出された長短露光左画像を用いて、ダイナミックレンジの広い左目用の撮影画像を生成するとともに、読み出された長短露光右画像を用いて、ダイナミックレンジの広い右目用の撮影画像を生成する。
 補正部284は、デプスマップ検出部283から供給されるデプスマップに基づいて、例えば表示部286に対応するデプス値の範囲に全画素のデプス値が収まるように、左目用の撮影画像と右目用の撮影画像を補正する。補正部284は、補正後の左目用の撮影画像と右目用の撮影画像を表示制御部285に供給する。
 表示制御部285は、補正部284から供給される左目用の撮影画像と右目用の撮影画像を表示部286に供給し、表示部286に3D画像を表示させる。
 表示部286は、表示制御部285の制御に従い、3D画像などを表示する。表示部286としては、例えば、3Dディスプレイなどを採用することができる。
 (視差検出部の構成例)
 図20は、図19のデプスマップ検出部283の構成例を示すブロック図である。
 図20のデプスマップ検出部283は、分離部301、分離部302、差分検出部303、差分検出部304、動きベクトル検出部305、合成部306、およびフレームメモリ307により構成される。
 デプスマップ検出部283の分離部301は、i番目のフレームを処理対象のフレームとして、SDRAM282-1からi番目のフレームの長短露光左画像である長短露光左画像#iを読み出す。分離部301は、図3の分離部81と同様に、読み出された長短露光左画像#iから、短蓄画素の画素値と長蓄画素の画素値を分離し、短蓄画素の画素値からなる短露光左画像#iと長蓄画素の画素値からなる長露光左画像#iを生成する。分離部301は、短露光左画像#iを差分検出部303に供給し、長露光左画像#iを差分検出部304に供給する。
 分離部302は、i番目のフレームを処理対象のフレームとして、SDRAM282-2からi番目のフレームの長短露光右画像である長短露光右画像#iを読み出す。分離部302は、分離部81と同様に、読み出された長短露光右画像#iから、短蓄画素の画素値と長蓄画素の画素値を分離し、短蓄画素の画素値からなる短露光右画像#iと長蓄画素の画素値からなる長露光右画像#iを生成する。分離部302は、短露光右画像#iを差分検出部303に供給し、長露光右画像#iを差分検出部304に供給する。
 差分検出部303(第1の差分検出部)は、分離部301から供給される短露光左画像#iと、分離部302から供給される短露光右画像#iとを用いて、ブロックマッチング法にしたがって、SADテーブルを生成する。
 具体的には、差分検出部303は、短露光左画像#iを、所定のサイズのブロックに分割し、基準画像ブロックとする。また、差分検出部303は、短露光右画像#iを基準画像ブロックのサイズと同一のサイズのブロックに分割し、参照画像ブロックとする。差分検出部303は、基準画像ブロックごとに、その基準画像ブロックの中心を中心とした水平方向に延びる線を探索範囲とする。
 差分検出部303(第1の差分検出部)は、基準画像ブロックごとに、基準画像ブロックと、その基準画像ブロックの探索範囲内に中心が存在する複数の参照画像ブロックそれぞれとの画素ごとの差分の絶対値の総和(SAD値)を、差分情報として検出する。差分検出部303は、基準画像ブロックごとに、その基準画像ブロックと探索範囲内の各参照画像ブロックのペアの相対位置を表すベクトルと、そのペアの差分情報とを対応付けたSADテーブルを生成する。
 なお、探索範囲は、基準画像ブロックの中心を中心とした水平方向に延びる線であるため、差分情報に対応するペアを構成する参照画像ブロックは、基準画像ブロックと垂直方向の位置が同一である。
 差分検出部303は、基準画像ブロックごとに、その基準画像ブロックとSADテーブルとを合成部306に供給する。
 差分検出部304(第2の差分検出部)は、分離部301から供給される長露光左画像#iと、分離部302から供給される長露光右画像#iとを用いて、差分検出部303と同様に、ブロックマッチング法にしたがって、基準画像ブロックごとのSADテーブルを生成する。差分検出部304は、基準画像ブロックごとに、その基準画像ブロックとSADテーブルとを合成部306に供給する。
 動きベクトル検出部305は、SDRAM281-2から長短露光右画像#iを読み出す。動きベクトル検出部305は、図1の動きベクトル検出部55または図16の動きベクトル検出部220と同様に、読み出された長短露光右画像#iに基づいて動きベクトル#iを検出する。動きベクトル検出部305は、検出された動きベクトル#iを合成部306に供給する。
 合成部306は、フレームメモリ307から過去のフレームのデプスマップとして、i-1番目のフレームのデプスマップ#i-1をフレームメモリ307から読み出す。合成部306は、基準画像ブロックごとに、入力される基準画像ブロックおよび動きベクトル#i、並びに、読み出されたデプスマップ#i-1に基づいて、差分検出部303と差分検出部304から供給されるSADテーブルを合成する。合成部306は、基準画像ブロックごとに、合成されたSADテーブルに基づいて、最小となる差分情報を、i番目のフレームのデプス値として生成する。
 合成部306は、i番目のフレームの各基準画像ブロックのデプス値からなるデプスマップであるデプスマップ#iを、図19の補正部284に供給するとともに、フレームメモリ307に供給する。
 フレームメモリ307は、i-1番目のフレームが処理対象のフレームとされたときに合成部306から供給されたデプスマップ#i-1を保持している。また、フレームメモリ307は、合成部306から供給されるデプスマップ#iを保持する。このデプスマップ#iは、処理対象のフレームがi+1番目のフレームであるときに読み出され、用いられる。
 なお、ここでは、動きベクトル検出部305は、長短露光右画像#iを用いて動きベクトル#iを検出するようにするが、長短露光左画像#iを用いて動きベクトル#iを検出するようにしてもよい。
 また、デプスマップ検出部283では、短露光右画像#iが基準画像ブロックに分割され、短露光左画像#iが参照画像ブロックに分割されるが、短露光左画像#iが基準画像ブロックに分割され、短露光右画像#iが参照画像ブロックに分割されてもよい。
 さらに、基準画像ブロックは、1画素であってもよい。この場合、画素単位でデプス値が生成される。
 (合成部の構成例)
 図21は、図20の合成部306の構成例を示すブロック図である。
 図21に示す構成のうち、図7の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
 図21の合成部306は、輝度算出部142、コントラスト算出部143、ブレンドテーブル生成部146、選択部321、動き量算出部322、重みテーブル生成部323、ブレンド部324、および選択部325により構成される。
 合成部306の選択部321は、選択部141と同様に、基準画像ブロックの画素ごとに、図20の差分検出部303からの短露光右画像#iの画素値と、差分検出部304からの長露光右画像#iの画素値のうちの、SN比の良い方を選択する。選択部321は、選択された基準画像ブロックの各画素の画素値を、輝度算出部142とコントラスト算出部143に供給する。
 動き量算出部322は、図20の動きベクトル検出部305から供給される動きベクトル#iに基づいて、動き量算出部144と同様に、動き量ブレンド値BlendMを決定し、ブレンドテーブル生成部146に供給する。
 重みテーブル生成部323は、図20のフレームメモリ307からデプスマップ#i-1を読み出す。重みテーブル生成部323は、読み出されたデプスマップ#i-1に基づいて、重みテーブル生成部145と同様に、重みテーブルを生成する。
 これにより、重みテーブルには、基準画像ブロックとの相対位置を表すベクトルが、その基準画像ブロックのデプスマップ#i-1のデプス値が表すベクトルである参照画像ブロックと、その基準画像ブロックとのペアに対する重みとして、最大値である1が登録される。そして、その参照画像ブロックより遠い参照画像ブロックと基準画像ブロックとのペアほど、小さい重みが登録される。重みテーブル生成部323は、生成された重みテーブルをブレンドテーブル生成部146に供給する。
 ブレンド部324は、ブレンドテーブル生成部146から供給されるブレンドテーブルに基づいて、ブレンド部147と同様に、図20の差分検出部303と差分検出部304から供給されるSADテーブルを合成する。ブレンド部324は、合成後のSADテーブルを選択部325に供給する。
 選択部325は、ブレンド部324から供給されるSADテーブルに登録される差分情報のうちの最も小さい差分情報を、デプス値として検出する。選択部325は、処理対象のフレームの基準画像ブロックごとに検出されたデプス値からなるデプスマップ#iを、図19の補正部284に供給するとともに、フレームメモリ307に供給する。
 以上により、合成部306では、図7の合成部85と同様に、基準画像ブロックの輝度、コントラスト、動き量、およびデプスマップの変化量に基づいて、短露光画像の差分情報と長露光画像の差分情報のうちのいずれか一方が、デプスマップの検出に優先的に用いられる。従って、デプスマップの検出精度が向上する。
 なお、基準画像ブロックが1画素である場合、輝度算出部142は、基準画像ブロックの画素値ではなく、基準画像ブロックを含む周囲の画素群の画素値に基づいて、輝度ブレンド値BlendLを決定するようにしてもよい。同様に、コントラスト算出部143は、基準画像ブロックを含む周囲の画素群の画素値に基づいて、コントラストブレンド値BlendCを決定するようにしてもよい。
 (デジタルカメラの処理の説明)
 図22は、図19のデジタルカメラ280の撮影処理を説明するフローチャートである。この撮影処理は、例えばフレーム単位で行われる。
 図22のステップS121において、撮影部281-1の撮像素子52の短蓄画素は、短露光時間で左目用の画像を撮影するとともに、撮影部281-2の撮像素子52の短蓄画素は、短露光時間で右目用の画像を撮影する。撮影部281-1および撮影部281-2の撮像素子52の短蓄画素は、撮影の結果得られる画素信号をカメラ信号処理部53に供給する。
 ステップS122において、撮影部281-1の撮像素子52の長蓄画素は、長露光時間で左目用の画像を撮影するとともに、撮影部281-2の撮像素子52の長蓄画素は、長露光時間で右目用の画像を撮影する。撮影部281-1および撮影部281-2の撮像素子52の長蓄画素は、撮影の結果得られる画素信号をカメラ信号処理部53に供給する。
 ステップS123において、撮影部281-1のカメラ信号処理部53は、撮像素子52から供給される短蓄画素と長蓄画素の画素信号からなるアナログの画像信号から長短露光左画像を生成し、SDRAM282-1に供給する。また、撮影部281-2のカメラ信号処理部53は、撮像素子52から供給される短蓄画素と長蓄画素の画素信号からなるアナログの画像信号から長短露光右画像を生成し、SDRAM282-2に供給する。
 ステップS124において、SDRAM282-1は、撮影部281-1から供給されるフレーム単位の長短露光左画像を保持するとともに、SDRAM282-2は、撮影部281-2から供給されるフレーム単位の長短露光右画像を保持する。
 ステップS125において、デプスマップ検出部283は、処理対象のフレームについて、SDRAM282-1に保持されている長短露光左画像と、SDRAM282-2に保持されている長短露右画像に基づいて、デプスマップを検出するデプスマップ検出処理を行う。このデプスマップ検出処理の詳細は、後述する図23を参照して説明する。
 ステップS126において、補正部284は、SDRAM282-1から処理対象のフレームの長短露光左画像を読み出し、その長短露光画像を用いてダイナミックレンジの広い左目用の撮影画像を生成する。また、補正部284は、SDRAM282-2から処理対象のフレームの長短露光右画像を読み出し、その長短露光右画像を用いてダイナミックレンジの広い右目用の撮影画像を生成する。
 ステップS127において、補正部284は、デプスマップ検出部283から供給されるデプスマップに基づいて、左目用の撮影画像と右目用の撮影画像を補正する。補正部284は、補正後の左目用の撮影画像と右目用の撮影画像を表示部286に供給する。
 ステップS128において、表示制御部285は、補正部284から供給される左目用の撮影画像と右目用の撮影画像に基づいて表示部61を制御し、表示部286に3D画像を表示させる。そして、処理は終了する。
 図23は、図22のステップS125のデプスマップ検出処理の詳細を説明するフローチャートである。
 図23のステップS141において、デプスマップ検出部283の分離部301は、SDRAM282-1から処理対象のフレームの長短露光左画像を読み出し、その長短露光左画像から短露光左画像と長露光左画像を生成する。分離部301は、短露光左画像を差分検出部303に供給し、長露光左画像を差分検出部304に供給する。
 ステップS142において、分離部302は、SDRAM282-2から処理対象のフレームの長短露光右画像を読み出し、その長短露光右画像から短露光右画像と長露光右画像を生成する。分離部302は、短露光右画像を差分検出部303に供給し、長露光右画像を差分検出部304に供給する。以降のステップS143乃至S154の処理は、基準画像ブロックごとに行われる。
 ステップS143において、差分検出部303は、分離部301から供給される短露光左画像と、分離部302から供給される短露光右画像とを用いて、ブロックマッチング法にしたがって、SADテーブルを生成する。差分検出部303は、処理対象の基準画像ブロックとSADテーブルとを合成部306に供給する。
 ステップS144において、差分検出部304は、分離部301から供給される長露光左画像と、分離部302から供給される長露光右画像とを用いて、ブロックマッチング法にしたがって、SADテーブルを生成する。差分検出部304は、処理対象の基準画像ブロックとSADテーブルとを合成部306に供給する。
 ステップS145において、動きベクトル検出部305は、SDRAM281-2から処理対象のフレームの長短露光右画像を読み出し、その長短露光右画像に基づいて、処理対象のフレームの処理対象の基準画像ブロックの動きベクトルを検出する。動きベクトル検出部305は、検出された動きベクトルを合成部306に供給する。
 ステップS146において、合成部306の選択部321(図21)は、処理対象の基準画像ブロックの画素ごとに、差分検出部303からの短露光右画像の画素値と、差分検出部304からの長露光右画像の画素値のうちの、SN比の良い方を選択する。選択部321は、選択された基準画像ブロックの各画素の画素値を、輝度算出部142とコントラスト算出部143に供給する。
 ステップS147およびS148の処理は、図10のステップS36およびS37の処理と同様であるので、説明は省略する。
 ステップS149において、動き量算出部322は、動きベクトル検出部305から供給される処理対象のフレームの処理対象の基準画像ブロックの動きベクトルのノルム値に基づいて、動き量ブレンド値BlendMを決定し、ブレンドテーブル生成部146に供給する。
 ステップS150において、重みテーブル生成部323は、図20のフレームメモリ307から過去のフレームのデプスマップを読み出し、そのデプスマップに基づいて重みテーブルを生成する。重みテーブル生成部323は、生成された重みテーブルをブレンドテーブル生成部146に供給する。
 ステップS151およびS152の処理は、図10のステップS40およびS41の処理と同様であるので、説明は省略する。
 ステップS153において、ブレンド部324は、ブレンドテーブル生成部146から供給されるブレンドテーブルに基づいて、差分検出部303から供給される短露光画像のSADテーブルと差分検出部304から供給される長露光画像のSADテーブルを合成する。ブレンド部324は、合成後のSADテーブルを選択部325に供給する。
 ステップS154において、選択部325は、ブレンド部324から供給されるSADテーブルに登録される差分情報のうちの最も小さい差分情報を、デプス値として検出する。
 ステップS155において、選択部325は、処理対象のフレームの基準画像ブロックごとに検出されたデプス値からなるデプスマップを、補正部284に出力するとともに、フレームメモリ307に供給して保持させる。フレームメモリ307に保持されたデプスマップは、現在の処理対象のフレームの次のフレームが新たに処理対象のフレームになったとき、ステップS150の処理で、過去のフレームのデプスマップとして用いられる。ステップS155の処理後、処理は図22のステップS125に戻り、ステップS126に進む。
 以上のように、デジタルカメラ280は、短露光画像のSADテーブルと長露光画像のSADテーブルを生成し、短露光画像または長露光画像に基づいて、短露光画像のSADテーブルと長露光画像のSADテーブルを合成する。そして、デジタルカメラ11は、合成後のSADテーブルに基づいて、デプスマップを検出する。
 従って、短露光画像のSADテーブルと長露光画像のSADテーブルのうちの、短露光画像または長露光画像の輝度やコントラストなどに適した方を優先的に用いて、デプスマップを検出することができる。その結果、デプスマップの検出精度が向上する。
 なお、第1乃至第4実施の形態では、短露光画像(短露光右画像)または長露光画像(長露光右画像)の画素値の平均値およびコントラスト値、過去のフレームの動き量、並びに重みテーブルの全てを用いて、ブレンドテーブルが生成されたが、一部のみを用いてブレンドテーブルが生成されてもよい。
 また、ブレンドテーブルの生成に用いられる情報は、上述した例に限定されず、例えば、ノイズ量などを用いることもできる。ブレンドテーブルの生成にノイズ量が用いられる場合には、例えば、ノイズ量が多い場合、SN比の良い長露光画像の差分情報が優先的に用いられるようにブレンドテーブルが生成される。
 <第5実施の形態>
 (本開示を適用したコンピュータの説明)
 上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
 図24は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
 コンピュータ900において、CPU(Central Processing Unit)901,ROM(Read Only Memory)902,RAM(Random Access Memory)903は、バス904により相互に接続されている。
 バス904には、さらに、入出力インタフェース905が接続されている。入出力インタフェース905には、撮影部906、入力部907、出力部908、記憶部909、通信部910、及びドライブ911が接続されている。
 撮影部906は、例えば、上述した撮影部41、撮影部182、または、撮影部281-1および撮影部281-2により構成される。撮影部906は、2以上の露光時間で撮影を行い、その結果得られる画像を記憶部909に供給し、記憶させる。
 入力部907は、キーボード、マウス、マイクロフォンなどよりなる。出力部908は、ディスプレイ、スピーカなどよりなる。記憶部909は、ハードディスクや不揮発性のメモリなどよりなる。通信部910は、ネットワークインタフェースなどよりなる。ドライブ911は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア912を駆動する。
 以上のように構成されるコンピュータ900では、CPU901が、例えば、記憶部909に記憶されているプログラムを、入出力インタフェース905及びバス904を介して、RAM903にロードして実行することにより、上述した一連の処理が行われる。
 コンピュータ900(CPU901)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア912に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
 コンピュータ900では、プログラムは、リムーバブルメディア912をドライブ911に装着することにより、入出力インタフェース905を介して、記憶部909にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部910で受信し、記憶部909にインストールすることができる。その他、プログラムは、ROM902や記憶部909に、あらかじめインストールしておくことができる。
 なお、コンピュータ900が実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
 また、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
 本開示の実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。
 例えば、第4実施の形態において、第2実施の形態と同様に、長露光時間、中露光時間、および短露光時間で左目用の画像と右目用の画像を撮影し、長露光時間、中露光時間、短露光時間のSADテーブルを合成して、デプスマップを生成するようにしてもよい。
 また、合成対象のSADテーブルに対応する画像は、露光時間以外の撮影条件(例えば、感度、撮影ゲイン(アナログゲイン)、フォーカス位置など)の異なる画像であってもよい。
 撮影条件として感度の異なる画像を撮影する場合、撮像素子の画素フィルタの感度が、緑色(G)の画素と赤色および青色(RB)の画素との間や、白色(W)の画素と赤色、緑色、および青色(RGB)の画素との間、RGBの画素とIR(赤外線)の画素との間で異なるようにされる。
 また、撮影条件としてフォーカス位置の異なる画像を撮影する場合、例えば、撮像素子の1以上の画素ごとに設けられるオンチップレンズの形状が異なるようにされる。これにより、遠景画像と近景画像を同時に撮影することができる。デジタルカメラは、被写体との距離に応じて、遠景画像と近景画像のうちの焦点の合っている方の差分情報を優先的に用いて動きベクトルやデプスマップの検出を行うことにより、検出精度を向上させる。
 さらに、動きベクトルの検出方法としては、ブロックマッチング法のほか、特徴点対応を用いた方法やオプティカルフローを計算する方法などを採用することもできる。
 また、合成対象としては、SADテーブルのほか、顔認識結果やコントラストAFのコントラスト情報などを採用することもできる。
 なお、本開示は、以下のような構成もとることができる。
 (1)
 第1の撮影条件で撮影された第1および第2のフレームの第1の画像の差分情報を検出する第1の差分検出部と、
 第2の撮影条件で撮影された前記第1および第2のフレームの第2の画像の差分情報を検出する第2の差分検出部と、
 前記第1または第2の画像に基づいて、前記第1の差分検出部により検出された前記第1の画像の差分情報と、前記第2の差分検出部により検出された前記第2の画像の差分情報とを合成し、合成後の差分情報に基づいて、前記第1のフレームの動きベクトルを生成する合成部と
 を備える画像処理装置。
 (2)
 前記合成部は、前記第1の画像および前記第2の画像のうちのSN比の良い方の画像に基づいて、前記合成を行う
 ように構成された
 前記(1)に記載の画像処理装置。
 (3)
 前記合成部は、前記第1の画像または前記第2の画像の輝度に基づいて、前記合成を行う
 ように構成された
 前記(1)または(2)に記載の画像処理装置。
 (4)
 前記合成部は、前記第1の画像または前記第2の画像のコントラストに基づいて、前記合成を行う
 ように構成された
 前記(1)乃至(3)のいずれかに記載の画像処理装置。
 (5)
 前記合成部は、前記第1の画像または前記第2の画像、および、前記第1のフレームより前のフレームの動きベクトルに基づいて、前記合成を行う
 ように構成された
 前記(1)乃至(4)のいずれかに記載の画像処理装置。
 (6)
 前記第1の画像または前記第2の画像と、前記第1のフレームより前のフレームの動きベクトルとに基づいて、前記第1および第2の画像の差分情報のブレンド比を決定するブレンド比決定部
 をさらに備え、
 前記合成部は、前記ブレンド比決定部により決定された前記ブレンド比に基づいて前記合成を行う
 ように構成された
 前記(5)に記載の画像処理装置。
 (7)
 前記第1の撮影条件と前記第2の撮影条件では、露光時間、感度、撮影ゲイン、またはフォーカス位置が異なる
 ように構成された
 前記(1)乃至(6)のいずれかに記載の画像処理装置。
 (8)
 前記第1のフレームの前記第1の画像と前記第2の画像を用いて第1の動きベクトルを検出する第1の動き検出部と、
 前記第2のフレームの前記第1の画像と前記第2の画像を用いて第2の動きベクトルを検出する第2の動き検出部と
 をさらに備え、
 前記合成部は、前記第1または第2の画像、前記第1の動きベクトル、および前記第2の動きベクトルに基づいて、前記合成を行う
 ように構成された
 前記(1)乃至(7)のいずれかに記載の画像処理装置。
 (9)
 画像処理装置が、
 第1の撮影条件で撮影された第1および第2のフレームの第1の画像の差分情報を検出する第1の差分検出ステップと、
 第2の撮影条件で撮影された前記第1および第2のフレームの第2の画像の差分情報を検出する第2の差分検出ステップと、
 前記第1または第2の画像に基づいて、前記第1の差分検出ステップの処理により検出された前記第1の画像の差分情報と、前記第2の差分検出ステップの処理により検出された前記第2の画像の差分情報とを合成し、合成後の差分情報に基づいて、前記第1のフレームの動きベクトルを生成する合成ステップと
 を含む画像処理方法。
 (10)
 第1および第2の撮影条件で撮影を行う撮影部と、
 前記撮影部により前記第1の撮影条件で撮影された第1および第2のフレームの第1の画像の差分情報を検出する第1の差分検出部と、
 前記撮影部により前記第2の撮影条件で撮影された前記第1および第2のフレームの第2の画像の差分情報を検出する第2の差分検出部と、
 前記第1または第2の画像に基づいて、前記第1の差分検出部により検出された前記第1の画像の差分情報と、前記第2の差分検出部により検出された前記第2の画像の差分情報とを合成し、合成後の差分情報に基づいて、前記第1のフレームの動きベクトルを生成する合成部と
 を備える固体撮像装置。
 (11)
 第1の撮影条件で撮影された左目用の画像と右目用の画像の差分情報を検出する第1の差分検出部と、
 第2の撮影条件で撮影された左目用の画像と右目用の画像の差分情報を検出する第2の差分検出部と、
 前記第1または第2の撮影条件で撮影された前記左目用の画像、もしくは、前記第1または第2の撮影条件で撮影された前記右目用の画像に基づいて、前記第1の差分検出部により検出された前記第1の撮影条件の差分情報と、前記第2の差分検出部により検出された前記第2の撮影条件の差分情報とを合成し、合成後の差分情報をデプス値として生成する合成部と
 を備える画像処理装置。
 (12)
 前記合成部は、前記第1および第2の撮影条件で撮影された前記左目用の画像のうちのSN比の良い方の画像、または、前記第1および第2の撮影条件で撮影された前記右目用の画像のうちのSN比の良い方の画像に基づいて、前記合成を行う
 ように構成された
 前記(11)に記載の画像処理装置。
 (13)
 前記合成部は、前記第1または第2の撮影条件で撮影された前記左目用の画像、または、前記第1または第2の撮影条件で撮影された前記右目用の画像の輝度に基づいて、前記合成を行う
 ように構成された
 前記(11)または(12)に記載の画像処理装置。
 (14)
 前記合成部は、前記第1または第2の撮影条件で撮影された前記左目用の画像、または、前記第1または第2の撮影条件で撮影された前記右目用の画像のコントラストに基づいて、前記合成を行う
 ように構成された
 前記(11)乃至(13)のいずれかに記載の画像処理装置。
 (15)
 前記合成部は、前記第1または第2の撮影条件で撮影された前記左目用の画像、または、前記第1または第2の撮影条件で撮影された前記右目用の画像と、過去のデプス値とに基づいて、前記合成を行う
 ように構成された
 前記(11)乃至(14)のいずれかに記載の画像処理装置。
 (16)
 前記合成部は、前記第1または第2の撮影条件で撮影された前記左目用の画像、または、前記第1または第2の撮影条件で撮影された前記右目用の画像と、その画像の動きベクトルとに基づいて、前記合成を行う
 ように構成された
 前記(11)乃至(15)のいずれかに記載の画像処理装置。
 (17)
 前記第1の撮影条件と前記第2の撮影条件では、露光時間、感度、撮影ゲイン、またはフォーカス位置が異なる
 ように構成された
 前記(11)乃至(16)のいずれかに記載の画像処理装置。
 (18)
 画像処理装置が、
 第1の撮影条件で撮影された左目用の画像と右目用の画像の差分情報を検出する第1の差分検出ステップと、
 第2の撮影条件で撮影された左目用の画像と右目用の画像の差分情報を検出する第2の差分検出ステップと、
 前記第1または第2の撮影条件で撮影された前記左目用の画像、もしくは、前記第1または第2の撮影条件で撮影された前記右目用の画像に基づいて、前記第1の差分検出ステップの処理により検出された前記第1の撮影条件の差分情報と、前記第2の差分検出ステップの処理により検出された前記第2の撮影条件の差分情報とを合成し、合成後の差分情報をデプス値として生成する合成ステップと
 を含む画像処理方法。
 (19)
 第1および第2の撮影条件で左目用の画像と右目用の画像を撮影する撮影部と、
 前記撮影部により前記第1の撮影条件で撮影された前記左目用の画像と前記右目用の画像の差分情報を検出する第1の差分検出部と、
 前記撮影部により前記第2の撮影条件で撮影された前記左目用の画像と前記右目用の画像の差分情報を検出する第2の差分検出部と、
 前記第1または第2の撮影条件で撮影された前記左目用の画像、または、前記第1または第2の撮影条件で撮影された前記右目用の画像に基づいて、前記第1の差分検出部により検出された前記第1の撮影条件の差分情報と、前記第2の差分検出部により検出された前記第2の撮影条件の差分情報とを合成し、合成後の差分情報をデプス値として生成する合成部と
 を備える固体撮像装置。
 11 デジタルカメラ, 41 撮影部, 55 動きベクトル検出部, 83,84 差分検出部, 146 ブレンドテーブル生成部, 147 ブレンド部, 221,222 動き検出部, 280 デジタルカメラ, 281-1,281-2 撮影部, 303,304 差分検出部, 306 合成部

Claims (19)

  1.  第1の撮影条件で撮影された第1および第2のフレームの第1の画像の差分情報を検出する第1の差分検出部と、
     第2の撮影条件で撮影された前記第1および第2のフレームの第2の画像の差分情報を検出する第2の差分検出部と、
     前記第1または第2の画像に基づいて、前記第1の差分検出部により検出された前記第1の画像の差分情報と、前記第2の差分検出部により検出された前記第2の画像の差分情報とを合成し、合成後の差分情報に基づいて、前記第1のフレームの動きベクトルを生成する合成部と
     を備える画像処理装置。
  2.  前記合成部は、前記第1の画像および前記第2の画像のうちのSN比の良い方の画像に基づいて、前記合成を行う
     ように構成された
     請求項1に記載の画像処理装置。
  3.  前記合成部は、前記第1の画像または前記第2の画像の輝度に基づいて、前記合成を行う
     ように構成された
     請求項1に記載の画像処理装置。
  4.  前記合成部は、前記第1の画像または前記第2の画像のコントラストに基づいて、前記合成を行う
     ように構成された
     請求項1に記載の画像処理装置。
  5.  前記合成部は、前記第1の画像または前記第2の画像、および、前記第1のフレームより前のフレームの動きベクトルに基づいて、前記合成を行う
     ように構成された
     請求項1に記載の画像処理装置。
  6.  前記第1の画像または前記第2の画像と、前記第1のフレームより前のフレームの動きベクトルとに基づいて、前記第1および第2の画像の差分情報のブレンド比を決定するブレンド比決定部
     をさらに備え、
     前記合成部は、前記ブレンド比決定部により決定された前記ブレンド比に基づいて前記合成を行う
     ように構成された
     請求項5に記載の画像処理装置。
  7.  前記第1の撮影条件と前記第2の撮影条件では、露光時間、感度、撮影ゲイン、またはフォーカス位置が異なる
     ように構成された
     請求項1に記載の画像処理装置。
  8.  前記第1のフレームの前記第1の画像と前記第2の画像を用いて第1の動きベクトルを検出する第1の動き検出部と、
     前記第2のフレームの前記第1の画像と前記第2の画像を用いて第2の動きベクトルを検出する第2の動き検出部と
     をさらに備え、
     前記合成部は、前記第1または第2の画像、前記第1の動きベクトル、および前記第2の動きベクトルに基づいて、前記合成を行う
     ように構成された
     請求項1に記載の画像処理装置。
  9.  画像処理装置が、
     第1の撮影条件で撮影された第1および第2のフレームの第1の画像の差分情報を検出する第1の差分検出ステップと、
     第2の撮影条件で撮影された前記第1および第2のフレームの第2の画像の差分情報を検出する第2の差分検出ステップと、
     前記第1または第2の画像に基づいて、前記第1の差分検出ステップの処理により検出された前記第1の画像の差分情報と、前記第2の差分検出ステップの処理により検出された前記第2の画像の差分情報とを合成し、合成後の差分情報に基づいて、前記第1のフレームの動きベクトルを生成する合成ステップと
     を含む画像処理方法。
  10.  第1および第2の撮影条件で撮影を行う撮影部と、
     前記撮影部により前記第1の撮影条件で撮影された第1および第2のフレームの第1の画像の差分情報を検出する第1の差分検出部と、
     前記撮影部により前記第2の撮影条件で撮影された前記第1および第2のフレームの第2の画像の差分情報を検出する第2の差分検出部と、
     前記第1または第2の画像に基づいて、前記第1の差分検出部により検出された前記第1の画像の差分情報と、前記第2の差分検出部により検出された前記第2の画像の差分情報とを合成し、合成後の差分情報に基づいて、前記第1のフレームの動きベクトルを生成する合成部と
     を備える固体撮像装置。
  11.  第1の撮影条件で撮影された左目用の画像と右目用の画像の差分情報を検出する第1の差分検出部と、
     第2の撮影条件で撮影された左目用の画像と右目用の画像の差分情報を検出する第2の差分検出部と、
     前記第1または第2の撮影条件で撮影された前記左目用の画像、もしくは、前記第1または第2の撮影条件で撮影された前記右目用の画像に基づいて、前記第1の差分検出部により検出された前記第1の撮影条件の差分情報と、前記第2の差分検出部により検出された前記第2の撮影条件の差分情報とを合成し、合成後の差分情報をデプス値として生成する合成部と
     を備える画像処理装置。
  12.  前記合成部は、前記第1および第2の撮影条件で撮影された前記左目用の画像のうちのSN比の良い方の画像、または、前記第1および第2の撮影条件で撮影された前記右目用の画像のうちのSN比の良い方の画像に基づいて、前記合成を行う
     ように構成された
     請求項11に記載の画像処理装置。
  13.  前記合成部は、前記第1または第2の撮影条件で撮影された前記左目用の画像、または、前記第1または第2の撮影条件で撮影された前記右目用の画像の輝度に基づいて、前記合成を行う
     ように構成された
     請求項11に記載の画像処理装置。
  14.  前記合成部は、前記第1または第2の撮影条件で撮影された前記左目用の画像、または、前記第1または第2の撮影条件で撮影された前記右目用の画像のコントラストに基づいて、前記合成を行う
     ように構成された
     請求項11に記載の画像処理装置。
  15.  前記合成部は、前記第1または第2の撮影条件で撮影された前記左目用の画像、または、前記第1または第2の撮影条件で撮影された前記右目用の画像と、過去のデプス値とに基づいて、前記合成を行う
     ように構成された
     請求項11に記載の画像処理装置。
  16.  前記合成部は、前記第1または第2の撮影条件で撮影された前記左目用の画像、または、前記第1または第2の撮影条件で撮影された前記右目用の画像と、その画像の動きベクトルとに基づいて、前記合成を行う
     ように構成された
     請求項11に記載の画像処理装置。
  17.  前記第1の撮影条件と前記第2の撮影条件では、露光時間、感度、撮影ゲイン、またはフォーカス位置が異なる
     ように構成された
     請求項11に記載の画像処理装置。
  18.  画像処理装置が、
     第1の撮影条件で撮影された左目用の画像と右目用の画像の差分情報を検出する第1の差分検出ステップと、
     第2の撮影条件で撮影された左目用の画像と右目用の画像の差分情報を検出する第2の差分検出ステップと、
     前記第1または第2の撮影条件で撮影された前記左目用の画像、もしくは、前記第1または第2の撮影条件で撮影された前記右目用の画像に基づいて、前記第1の差分検出ステップの処理により検出された前記第1の撮影条件の差分情報と、前記第2の差分検出ステップの処理により検出された前記第2の撮影条件の差分情報とを合成し、合成後の差分情報をデプス値として生成する合成ステップと
     を含む画像処理方法。
  19.  第1および第2の撮影条件で左目用の画像と右目用の画像を撮影する撮影部と、
     前記撮影部により前記第1の撮影条件で撮影された前記左目用の画像と前記右目用の画像の差分情報を検出する第1の差分検出部と、
     前記撮影部により前記第2の撮影条件で撮影された前記左目用の画像と前記右目用の画像の差分情報を検出する第2の差分検出部と、
     前記第1または第2の撮影条件で撮影された前記左目用の画像、または、前記第1または第2の撮影条件で撮影された前記右目用の画像に基づいて、前記第1の差分検出部により検出された前記第1の撮影条件の差分情報と、前記第2の差分検出部により検出された前記第2の撮影条件の差分情報とを合成し、合成後の差分情報をデプス値として生成する合成部と
     を備える固体撮像装置。
PCT/JP2015/073467 2014-09-03 2015-08-21 画像処理装置および画像処理方法、並びに固体撮像装置 WO2016035570A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/505,474 US10002436B2 (en) 2014-09-03 2015-08-21 Image processing device, image processing method, and solid-state imaging device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014179556A JP2016053849A (ja) 2014-09-03 2014-09-03 画像処理装置および画像処理方法、並びに固体撮像装置
JP2014-179556 2014-09-03

Publications (1)

Publication Number Publication Date
WO2016035570A1 true WO2016035570A1 (ja) 2016-03-10

Family

ID=55439636

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/073467 WO2016035570A1 (ja) 2014-09-03 2015-08-21 画像処理装置および画像処理方法、並びに固体撮像装置

Country Status (3)

Country Link
US (1) US10002436B2 (ja)
JP (1) JP2016053849A (ja)
WO (1) WO2016035570A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10652476B2 (en) 2016-07-13 2020-05-12 Sony Corporation Solid-state image pickup element, image pickup apparatus, and control method of solid-state image pickup element
US10791287B2 (en) 2016-06-09 2020-09-29 Sony Corporation Imaging control apparatus and method, and vehicle

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI644568B (zh) * 2013-07-23 2018-12-11 新力股份有限公司 攝像元件、攝像方法及攝像程式
JP6700028B2 (ja) * 2015-11-24 2020-05-27 ハンファテクウィン株式会社 ベクトル算出装置およびベクトル算出方法
JP6762767B2 (ja) * 2016-06-01 2020-09-30 キヤノン株式会社 撮像素子、撮像装置、および撮像信号処理方法
JP6762766B2 (ja) * 2016-06-01 2020-09-30 キヤノン株式会社 撮像素子、撮像装置、および撮像信号処理方法
US10552707B2 (en) * 2017-12-07 2020-02-04 Qualcomm Incorporated Methods and devices for image change detection
JP7157529B2 (ja) * 2017-12-25 2022-10-20 キヤノン株式会社 撮像装置、撮像システム、および撮像装置の駆動方法
KR102664341B1 (ko) * 2019-08-02 2024-05-09 한화비전 주식회사 움직임 벡터 산출 장치 및 방법
US11270416B2 (en) * 2019-12-27 2022-03-08 Nxp Usa, Inc. System and method of using optimized descriptor coding for geometric correction to reduce memory transfer bandwidth overhead
WO2022140897A1 (zh) * 2020-12-28 2022-07-07 深圳元戎启行科技有限公司 图像生成方法、装置、计算机设备和存储介质
US11373281B1 (en) * 2021-02-23 2022-06-28 Qualcomm Incorporated Techniques for anchor frame switching

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011117787A (ja) * 2009-12-02 2011-06-16 Ricoh Co Ltd 距離画像入力装置と車外監視装置
JP2012100066A (ja) * 2010-11-02 2012-05-24 Canon Inc 撮像装置
JP2012235197A (ja) * 2011-04-28 2012-11-29 Olympus Corp 画像処理装置、画像処理方法、および、画像処理プログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6734901B1 (en) * 1997-05-20 2004-05-11 Canon Kabushiki Kaisha Vibration correction apparatus
JP4765194B2 (ja) * 2001-05-10 2011-09-07 ソニー株式会社 動画像符号化装置、動画像符号化方法、動画像符号化プログラム格納媒体及び動画像符号化プログラム
KR100634453B1 (ko) * 2005-02-02 2006-10-16 삼성전자주식회사 자동노출이 제어된 영상에 대한 부호화 모드 결정 방법
US8018998B2 (en) * 2005-05-20 2011-09-13 Microsoft Corporation Low complexity motion compensated frame interpolation method
JP2008228282A (ja) * 2007-02-13 2008-09-25 Matsushita Electric Ind Co Ltd 画像処理装置
WO2009004527A2 (en) * 2007-07-03 2009-01-08 Koninklijke Philips Electronics N.V. Computing a depth map
WO2009072250A1 (ja) * 2007-12-04 2009-06-11 Panasonic Corporation 画像生成装置および画像生成方法
JP4670918B2 (ja) * 2008-08-26 2011-04-13 ソニー株式会社 フレーム補間装置及びフレーム補間方法
JP5387377B2 (ja) * 2009-12-14 2014-01-15 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
JP2013005259A (ja) * 2011-06-17 2013-01-07 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
KR101758685B1 (ko) * 2012-03-14 2017-07-14 한화테크윈 주식회사 카메라 템퍼링 감지 방법 및 시스템

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011117787A (ja) * 2009-12-02 2011-06-16 Ricoh Co Ltd 距離画像入力装置と車外監視装置
JP2012100066A (ja) * 2010-11-02 2012-05-24 Canon Inc 撮像装置
JP2012235197A (ja) * 2011-04-28 2012-11-29 Olympus Corp 画像処理装置、画像処理方法、および、画像処理プログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10791287B2 (en) 2016-06-09 2020-09-29 Sony Corporation Imaging control apparatus and method, and vehicle
US10652476B2 (en) 2016-07-13 2020-05-12 Sony Corporation Solid-state image pickup element, image pickup apparatus, and control method of solid-state image pickup element

Also Published As

Publication number Publication date
US10002436B2 (en) 2018-06-19
US20170256067A1 (en) 2017-09-07
JP2016053849A (ja) 2016-04-14

Similar Documents

Publication Publication Date Title
WO2016035570A1 (ja) 画像処理装置および画像処理方法、並びに固体撮像装置
JP4524717B2 (ja) 画像処理装置、撮像装置、画像処理方法及びプログラム
US9473698B2 (en) Imaging device and imaging method
JP6362068B2 (ja) 距離計測装置、撮像装置、距離計測方法、およびプログラム
JP2014160987A (ja) 撮像装置、及びその制御方法
JP5453573B2 (ja) 撮像装置、撮像方法およびプログラム
JPWO2013047405A1 (ja) 画像処理装置及び方法
JP2013165485A (ja) 画像処理装置、撮像装置およびコンピュータブログラム
JP2016012811A (ja) 撮像装置及びその制御方法、プログラム、記憶媒体
US9892497B2 (en) Image processing apparatus, imaging apparatus, and image processing method
US11818466B2 (en) Notifying apparatus, image capturing apparatus, notifying method, image capturing method, and storage medium
JPWO2012108099A1 (ja) 撮像装置および撮像方法
JP2013165483A (ja) 画像処理装置、撮像装置、およびコンピュータブログラム
JP2010147786A (ja) 撮像装置及び画像処理方法
JP2015144475A (ja) 撮像装置、撮像装置の制御方法、プログラム及び記憶媒体
JP2015012481A (ja) 画像処理装置
JP2011171842A (ja) 画像処理装置及び画像処理プログラム
JP2017049947A (ja) 画像処理装置および画像処理方法
JP6748477B2 (ja) 撮像装置及びその制御方法、プログラム並びに記憶媒体
JP2011066827A (ja) 画像処理装置、画像処理方法及びプログラム
JP2017143504A5 (ja)
US11972546B2 (en) Image processing apparatus and image processing method
WO2017071560A1 (zh) 图片处理方法及装置
JP2008219230A (ja) 撮像装置及び画像処理方法
JP5541956B2 (ja) 画像合成方法、画像合成プログラムおよび画像合成装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15838277

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15505474

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15838277

Country of ref document: EP

Kind code of ref document: A1