WO2012164881A1 - 画像処理装置および画像処理方法 - Google Patents

画像処理装置および画像処理方法 Download PDF

Info

Publication number
WO2012164881A1
WO2012164881A1 PCT/JP2012/003398 JP2012003398W WO2012164881A1 WO 2012164881 A1 WO2012164881 A1 WO 2012164881A1 JP 2012003398 W JP2012003398 W JP 2012003398W WO 2012164881 A1 WO2012164881 A1 WO 2012164881A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
motion amount
amount
target
image processing
Prior art date
Application number
PCT/JP2012/003398
Other languages
English (en)
French (fr)
Inventor
物部 祐亮
整 山田
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to US13/812,038 priority Critical patent/US9068831B2/en
Priority to EP16176575.5A priority patent/EP3101387B1/en
Priority to CN201280002102.6A priority patent/CN103026171B/zh
Priority to EP12792516.2A priority patent/EP2717012B1/en
Priority to JP2012540192A priority patent/JP5934929B2/ja
Publication of WO2012164881A1 publication Critical patent/WO2012164881A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/32Measuring distances in line of sight; Optical rangefinders by focusing the object, e.g. on a ground glass screen
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/36Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals
    • G02B7/38Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals measured at different points on the optical axis, e.g. focussing on two or more planes and comparing image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6811Motion detection based on the image signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/683Vibration or motion blur correction performed by a processor, e.g. controlling the readout of an image memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20201Motion blur correction

Definitions

  • the present invention relates to an image processing apparatus and an image processing method for performing image processing such as subject distance measurement and HDR image generation from a plurality of captured images captured in a plurality of capturing states.
  • the subject distance that indicates the distance from the camera to the subject at the same time as the photographed image of the subject
  • an application using the subject distance for example, an image viewed from different viewpoints can be generated from a single photographed image and the subject distance with respect to the photographed image, based on the principle of triangulation, and stereo. Alternatively, it is possible to generate a three-dimensional image corresponding to multiple viewpoints. Further, if the captured image is divided based on the subject distance, it is possible to cut out only a subject existing at a specific subject distance or to adjust the image quality.
  • the main methods of measuring subject distance without contact can be broadly divided into the following two.
  • the first method is an active method that measures the subject distance based on the time until the reflected wave returns and the angle of the reflected wave by irradiating infrared rays, ultrasonic waves, lasers, and the like.
  • this method when this method is used, there is a problem that an active irradiation / light-receiving device that is not necessary for a normal camera is required although it can be measured with high accuracy when the subject distance is short. Further, when the subject is far away, if the output level of the irradiation device is low, the irradiation light reaching the subject becomes weak, and the measurement accuracy of the subject distance is lowered.
  • the second method is a passive method in which the subject distance is measured using only the captured image captured by the camera.
  • DFD Depth from Defocus
  • the amount of blur occurring in a captured image is uniquely determined for each camera in accordance with the relationship between the focus state (lens focus state) at the time of shooting and the subject distance.
  • the DFD uses this characteristic to measure the relationship between the subject distance and the correlation value of the blur amount generated in the photographed image by photographing a subject at a known subject distance in advance with different focus states. Accordingly, when shooting is performed in a plurality of focus states in actual shooting, the subject distance can be measured by calculating the correlation value of the blur amount between images (see, for example, Non-Patent Document 1). .
  • Non-Patent Document 2 As a method for capturing an image in a plurality of focus states, as described in Non-Patent Document 2, there is a method in which light incident on a camera is separated into a plurality of pieces and then received by image pickup devices arranged at different distances. In this method, multiple images with different focus states can be captured at the same time, so there is no shift in shooting timing between images, but there is a need to use multiple image sensors and the distance to the image sensors should be different. There is a problem that a special configuration is required.
  • a focus adjustment mechanism realized by autofocus or the like as a technique of photographing a plurality of focus state images with a camera configuration using a single-plate image sensor.
  • a focus adjustment mechanism is controlled to capture a plurality of images in order.
  • the shooting timings of the multiple shot images differ, so if the subject moves or the shooting direction of the camera changes, The subject is displaced.
  • the subject and the camera do not move, that is, the subject is not displaced between a plurality of captured images, and the same between the images captured in a plurality of focus states.
  • the correlation value of the blur amount with respect to the subject is compared. For this reason, in the measurement of the subject distance using the DFD using a plurality of photographed images, there is a problem that if the subject is misaligned, this comparison cannot be performed accurately, and the subject distance measurement accuracy decreases.
  • the present invention has been made in view of the above problems, and can perform image processing more stably and with high accuracy even when a subject is misaligned between a plurality of photographed images having different photographing states.
  • An object is to provide an image processing apparatus and an image processing method.
  • an image processing apparatus performs image processing for measuring a subject distance from a plurality of captured images obtained by capturing the same subject in a plurality of focus states.
  • An apparatus comprising: a first image photographed in a first focus state among the plurality of photographed images; and a second image photographed in a second focus state different from the first focus state.
  • a target motion amount estimation unit that estimates a target motion amount that represents the amount of positional deviation of the subject between, a correction image generation unit that generates a correction image in which the second image is motion-compensated based on the target motion amount,
  • a subject distance measuring unit that measures the subject distance in the first image based on a correlation value of a blur amount between the first image and the corrected image;
  • the present invention it is possible to measure the subject distance more stably and with high accuracy even when the subject is displaced between a plurality of photographed images having different photographing states.
  • FIG. 1 is a block diagram showing a configuration example of an image processing apparatus according to Embodiments 1, 2, and 3 of the present invention.
  • FIG. 2 is a block diagram illustrating a configuration example of the target motion amount estimation unit according to Embodiment 1 of the present invention.
  • FIG. 3 is a flowchart showing an example of the processing flow of the image processing method according to Embodiment 1 of the present invention.
  • FIG. 4 is a diagram illustrating a relationship between a plurality of captured images used in Embodiment 1 of the present invention, a target motion amount, and a first motion amount.
  • FIG. 5A is an explanatory diagram illustrating an example of a relationship between a search source image and a target block in block matching processing.
  • FIG. 5A is an explanatory diagram illustrating an example of a relationship between a search source image and a target block in block matching processing.
  • FIG. 5B is an explanatory diagram illustrating an example of a relationship between a search destination image and a search area in the block matching process.
  • FIG. 6 is a block diagram illustrating a configuration example of the target motion amount estimation unit according to the second embodiment of the present invention.
  • FIG. 7 is a flowchart showing an example of the processing flow of the image processing method according to Embodiment 2 of the present invention.
  • FIG. 8 is a diagram illustrating a relationship among a plurality of captured images used in the second embodiment of the present invention, a target motion amount, a first motion amount, and a second motion amount.
  • FIG. 9 is a block diagram illustrating a configuration example of the target motion amount estimation unit according to the third embodiment of the present invention.
  • FIG. 10 is a flowchart showing an example of the processing flow of the image processing method according to Embodiment 3 of the present invention.
  • FIG. 11 is a diagram illustrating a relationship among a plurality of captured images used in Embodiment 3 of the present invention, a target motion amount, a first motion amount, a second motion amount, and a third motion amount.
  • FIG. 12 is a vector diagram showing the relationship of the motion amount estimated between the three captured images in Embodiment 3 of the present invention.
  • FIG. 13 is a block diagram illustrating a configuration example of the image processing apparatus according to the fourth embodiment of the present invention.
  • FIG. 14 is a flowchart showing an example of the processing flow of the image processing method according to Embodiment 4 of the present invention.
  • FIG. 11 is a diagram illustrating a relationship among a plurality of captured images used in Embodiment 3 of the present invention, a target motion amount, a first motion amount, a second motion amount, and a third motion amount.
  • FIG. 15 is a diagram illustrating a relationship between pixel positions used for subject distance compensation processing according to Embodiment 4 of the present invention.
  • FIG. 16 is a block diagram illustrating a configuration example of the image processing apparatus according to the fifth embodiment of the present invention.
  • FIG. 17 is a flowchart showing the flow of processing according to the fifth embodiment of the present invention.
  • FIG. 18 is a diagram illustrating a relationship between a plurality of captured images used in the fifth embodiment of the present invention, a target motion amount, and a first motion amount.
  • FIG. 19 is an external view showing an example of a camera equipped with the image processing apparatus of the present invention.
  • an image processing apparatus performs image processing for measuring a subject distance from a plurality of captured images obtained by photographing the same subject in a plurality of focus states.
  • An apparatus comprising: a first image photographed in a first focus state among the plurality of photographed images; and a second image photographed in a second focus state different from the first focus state.
  • a target motion amount estimation unit that estimates a target motion amount that represents the amount of positional deviation of the subject between, a correction image generation unit that generates a correction image in which the second image is motion-compensated based on the target motion amount,
  • a subject distance measuring unit that measures the subject distance in the first image based on a correlation value of a blur amount between the first image and the corrected image;
  • a corrected image in which the subject positional deviation is eliminated from the first image by motion compensation or the subject positional deviation amount is reduced so that the subject distance can be calculated. Since the subject distance is generated and calculated using the first image and the corrected image, the subject distance can be measured with high accuracy even if the subject is misaligned between the plurality of captured images. In other words, in the image processing apparatus of this configuration, even when a subject position shift occurs between a plurality of captured images having different focus states, the subject position is the same as that of the first image due to motion compensation. Since the corrected image is generated in this way, only the focus state is different between the first image and the corrected image, or the degree of positional deviation is very small, and the subject distance can be measured more favorably by DFD.
  • the subject here indicates the whole of the photographed image, and includes not only a person but also a background image.
  • the image processing device includes the first image, a third image captured in the first focus state at a timing different from the first image, the first image, and the third image.
  • the target motion amount estimation unit estimates a first motion amount representing a subject displacement amount between the first image and the third image. It is good also as a structure which has one motion amount estimation part and the object motion amount determination part which estimates the said object motion amount using said 1st motion amount.
  • the target motion amount is obtained from the highly accurate first motion amount obtained between the first image and the third image having the same focus state, even between captured images having different focus states,
  • the target motion amount can be estimated with high accuracy, and as a result, the subject distance can be measured with high accuracy.
  • the target motion amount determination unit sets the size of the target motion amount to the first motion amount and the first motion amount between the first image and the third image. It is good also as a structure which estimates the said object motion amount by integrating
  • This configuration makes it possible to obtain the target motion amount even when the shooting intervals of the first image, the second image, and the third image are not equal.
  • the shooting time interval between the first image and the shooting time interval between the third image are often different, which is useful.
  • the target motion amount estimation unit further includes a second motion amount estimation unit that estimates a second motion amount representing a positional deviation amount between the first image and the second image
  • the target motion amount determination unit may be configured to estimate the target motion amount using the first motion amount and the second motion amount.
  • the target motion amount determination unit includes a pixel between the calculation target pixel of the target motion amount among pixels constituting the second image and a pixel on the first image corresponding to the calculation target pixel. Based on the difference between the values, the accuracy of the second motion amount is determined, and when it is determined that the accuracy of the second motion amount is higher than a threshold, the second motion amount is estimated as the target motion amount. When it is determined that the accuracy of the second motion amount is lower than the threshold value, the target motion amount may be estimated using the first motion amount.
  • the second motion amount directly obtained between the first image and the second image is used. Since it is considered that the accuracy of the directly obtained motion amount is good, the target motion amount can be estimated with higher accuracy.
  • the target motion amount estimation unit further includes a third motion amount estimation unit that estimates a third motion amount representing a positional deviation amount between the second image and the third image
  • the target motion amount determination unit may be configured to estimate the target motion amount using the third motion amount in addition to the first motion amount and the second motion amount.
  • the target motion amount determination unit estimates the second motion amount as the target motion amount when the sum of the second motion amount and the third motion amount is equal to the first motion amount. If the sum of the second motion amount and the third motion amount is not equal to the first motion amount, the pixel of the second image that is the target of calculation of the target motion amount and the corresponding first image The accuracy of the second motion amount is determined based on a difference in pixel value from the upper pixel, and the pixel of the second image that is the target of calculation of the target motion amount and the corresponding pixel on the third image And determining the accuracy of the third motion amount based on the difference between the second motion amount and the target motion amount when it is determined that the accuracy of the second motion amount is higher than a threshold value. And when it is determined that the accuracy of the second motion amount is lower than the threshold value, A motion amount obtained by subtracting the third motion amount from the motion amount may be configured to estimate as the target amount of movement.
  • the target motion amount can be estimated using the directly obtained high-accuracy first image and third image. It is possible to estimate the quantity.
  • the “subtraction” of the third motion amount from the first motion amount is a subtraction in vector calculation.
  • the blur of the first image is generated for each of a blur region determination unit that determines a region in which blur is generated based on the target motion amount as a blur region, and each of the pixels constituting the blur region.
  • a subject distance compensation unit that measures the subject distance of the first image using the subject distance of a non-blurred region that is a non-blurred region or the subject distance of another captured image for which the subject distance has been obtained in advance.
  • the subject distance measurement unit obtains the subject distance based on a correlation value of a blur amount between the first image and the corrected image for each of the pixels constituting the non-blurr region. Also good.
  • This configuration makes it possible to measure the subject distance with high accuracy even when blur occurs in the captured image.
  • blur is a motion blur that occurs in a captured image when the movement of the subject and the change in the shooting direction are fast and the position of the subject changes greatly during the exposure time.
  • the conventional image processing method does not consider these influences, there is a problem that the measurement accuracy of the subject distance is lowered.
  • the subject distance is measured in a region that is not affected by the blur, so that the subject distance can be measured with high accuracy.
  • an image processing device performs image processing using a plurality of captured images obtained by capturing the same subject in a plurality of shooting states.
  • a processing device wherein the first image captured in the first imaging state among the plurality of captured images, and the second image captured in a second imaging state different from the first imaging state,
  • a target motion amount estimation unit that estimates a target motion amount that represents the amount of positional displacement of the subject between
  • a correction image generation unit that generates a corrected image in which the second image is motion-compensated based on the target motion amount
  • An image processing unit that performs image processing using the first image and the corrected image;
  • a corrected image that eliminates the positional deviation of the subject from the first image is generated by motion compensation, and image processing is performed using the first image and the corrected image.
  • Image processing can be performed using a plurality of captured images that differ only in the shooting state, and it is possible to prevent a decrease in accuracy of image processing.
  • the image processing apparatus accepts the first image taken in the first exposure state and the second image taken in the second exposure state, and the image processing unit As a process, the first image and the corrected image may be combined to generate a combined image having a wide dynamic range.
  • a corrected image in which the positional deviation of the subject is eliminated from the first image is generated by motion compensation, and HDR (High Dynamic Range) is used by using the first image and the corrected image. Since the image is generated, the HDR image can be generated with high accuracy even if the subject is misaligned between the plurality of captured images.
  • An image processing method is an image processing method for measuring a subject distance from a plurality of photographed images obtained by photographing the same subject in a plurality of focus states. Of the images, the amount of positional deviation of the subject between the first image taken in the first focus state and the second image taken in the second focus state different from the first focus state
  • a target motion amount estimation step for estimating a target motion amount to be expressed
  • a correction image generation step for generating a corrected image in which the second image is motion-compensated based on the target motion amount
  • the first image and the correction image is an image processing method for measuring a subject distance from a plurality of photographed images obtained by photographing the same subject in a plurality of focus states. Of the images, the amount of positional deviation of the subject between the first image taken in the first focus state and the second image taken in the second focus state different from the first focus state
  • a target motion amount estimation step for estimating a target motion amount to be expressed
  • a correction image generation step for generating a corrected image in which the second image is motion
  • An image processing method is an image processing method for performing image processing using a plurality of captured images obtained by capturing the same subject in a plurality of capturing states, Among the captured images, the amount of positional deviation of the subject between the first image captured in the first capturing state and the second image captured in the second capturing state different from the first capturing state
  • a target motion amount estimation step that estimates a target motion amount that represents the correction
  • a correction image generation step that generates a correction image in which the second image is motion-compensated based on the target motion amount, the first image, and the correction image.
  • an image processing step for performing image processing using the is an image processing method for performing image processing using the.
  • Embodiment 1 An image processing apparatus according to Embodiment 1 of the present invention will be described with reference to FIGS. 1 to 5B.
  • the image processing apparatus is an apparatus that measures a subject distance using a DFD from a plurality of captured images captured in a plurality of capturing states, and is mounted on an imaging apparatus capable of capturing a moving image.
  • a case will be described as an example.
  • the shooting state includes a focus state, an exposure state, ISO sensitivity, and the like.
  • the image processing apparatus measures the subject distance using DFD, a case where the shooting state is the focus state will be described as an example.
  • FIG. 19 is an external view showing an example of the video camera 200.
  • the video camera 200 takes a foreground focus (corresponding to the first focus state in the present embodiment) and a distant view focus (in the second embodiment, the second focus state) at a certain time interval during moving image shooting. And the like are alternately switched to perform shooting.
  • the video camera 200 alternately outputs a distant view captured image captured with the distant focus and a near view captured image captured with the near view focus to the image processing apparatus.
  • the image processing apparatus will be described as an example in which the image processing apparatus is mounted on the video camera 200, but is mounted on a device (for example, a mobile phone) other than the video camera 200 capable of capturing a moving image. Alternatively, it may be provided in another device that can acquire a captured image from the imaging device.
  • a device for example, a mobile phone
  • the foreground focus here indicates a shooting state in which the video camera 200 is focused on a position where the distance from the camera is closest in the in-focus range in which the video camera 200 is focused.
  • a shooting state is shown in which the focus is on the position (infinity) where the distance from the camera is farthest.
  • FIG. 1 is a block diagram illustrating a configuration example of the image processing apparatus 100.
  • the image processing apparatus 100 is an apparatus that measures a subject distance from a plurality of photographed images photographed with a distant focus and a foreground focus. As illustrated in FIG. In the embodiment, 10A), a corrected image generation unit 20 and a subject distance measurement unit 30 are provided.
  • the image processing apparatus 100 continuously and continuously captures a distant shot image in which a subject is shot with a distant focus and a foreground shot image in which the same subject is shot with a near view focus at a timing different from that of the distant shot image. And is configured to get.
  • a photographed image for subject distance calculation is a first image
  • a photographed image photographed immediately before the first image is a second image
  • a photographed image photographed immediately before the second image is a third image.
  • the focus states of the first image and the third image are the same.
  • a predetermined near-field photographed image is a subject distance calculation target (when the foreground focus is set to the first focus state) will be described as an example. Even when the object is to be calculated (when the distant focus is set to the first focus state), the subject distance can be calculated by the same method. Further, a focus state other than the near view focus and the distant view focus may be used.
  • the target motion amount estimation unit 10A among the captured images captured by the video camera 200, the amount of subject position shift that occurs between the first image captured with the foreground focus and the second image captured with the distant focus. Is estimated as the target motion amount and output to the corrected image generation unit 20.
  • the target motion amount is a vector amount, and is defined by the direction of displacement and the magnitude of displacement.
  • FIG. 2 is a block diagram illustrating a configuration example of the target motion amount estimation unit 10A. As illustrated in FIG. 2, the target motion amount estimation unit 10A includes a first motion amount estimation unit 11A and a motion amount determination unit 12A.
  • the first motion amount estimation unit 11A receives the first image and the third image that are captured in the same focus state, and determines the amount of positional deviation of the subject generated between the first image and the third image as the first motion amount. And output to the motion amount determination unit 12A.
  • the first motion amount is a vector amount, and is defined by the direction of displacement and the magnitude of displacement.
  • the motion amount determination unit 12A estimates, as the target motion amount, the amount of subject positional deviation that has occurred between the first image and the second image based on the first motion amount.
  • the corrected image generation unit 20 performs motion compensation on the second image based on the target motion amount, generates a corrected image having no subject displacement from the first image, and outputs the corrected image to the subject distance measurement unit 30.
  • the subject distance measuring unit 30 measures the subject distance using the DFD based on the correlation value of the blur amount between the first image and the corrected image.
  • the frequency information I (u, v) is expressed as the following Expression 1.
  • variable u and the variable v represent frequency components in the two-dimensional Fourier space.
  • S (u, v) represents frequency information of the omnifocal image when shooting is performed so that the amount of blur is zero.
  • OTF (u, v, d) is related to the focus state at the time of shooting, and represents the transfer function (Optical Transfer Function) of the optical system when shooting a subject existing at a distance d from the camera.
  • the frequency information I (u, v) of the captured image includes the frequency information S (u, v) of the omnifocal image and the transfer function OTF (u, v, d) of the optical system at the time of shooting. It is represented by the product of
  • the frequency information I 1 (u, v) and I 2 (u, v) of the two photographed images is expressed by the following formula 2 And represented by Equation 3. However, it is assumed that the subject is not displaced between the two captured images.
  • OTF 1 (u, v, d) and OTF 2 (u, v, d) represent the characteristics of the optical system when each image is taken, the characteristics for each distance d are measured in advance. Can be retained. Therefore, if two images I 1 (u, v) and I 2 (u, v) with different focus states are taken, the subject distance is measured by obtaining the distance d on the right side that matches the left side of Equation 4. It becomes possible to do.
  • Equation 5 the absolute value e (d) of the difference between the left side and the right side of Equation 4 using the distance d as a parameter is obtained, and the distance d at which e (d) is minimized is determined to the subject. May be estimated as the distance.
  • the subject distance can be obtained even when the characteristics of the photographed image do not completely match the characteristics of the optical system measured in advance. Can be measured.
  • FIG. 3 is a flowchart showing the processing procedure of the image processing method in the present embodiment
  • FIG. 4 is an explanatory diagram showing the relationship among the captured image, the target motion amount, and the first motion amount in the present embodiment. is there.
  • the video camera 200 (imaging device) shown in FIG. 19 captures images in a plurality of focus states and outputs them to the image processing device 100 (step S101).
  • the video camera 200 repeats shooting in the near-field focus and shooting in the far-field focus alternately in time, and takes a foreground and far-field shot image.
  • the video camera 200 will be described as an example in which the same direction is shot from the same position, that is, the same subject is shot with a plurality of shot images.
  • the subject is a person at a short distance from the camera and its background.
  • the present invention is not limited to this.
  • the composition of the subject is not limited to the person and the background thereof.
  • This step S101 is not an essential step of the present invention, but will be described as constituting a more preferable form. Any configuration may be used as long as the image processing apparatus 100 can acquire captured images in a plurality of shooting states. Further, the processing of steps S102 to S105 described below may be executed in parallel with the shooting by the video camera 200, or may be executed after shooting.
  • the position of the subject does not shift between the images.
  • the subject distance can be measured by the DFD processing based on Equation 5 using the first image and the second image as they are.
  • the omnifocal image S (u, v) differs between Equation 2 and Equation 3, and Equation 4 does not hold. The distance cannot be measured.
  • a positional shift occurs after estimating a motion amount corresponding to the positional shift between images.
  • a corrected image is generated by performing motion compensation on the subject.
  • the motion amount between the first image and the second image is referred to as a target motion amount.
  • the image processing apparatus 100 first, as shown in FIG. 3, in the first motion amount estimation unit 11A of the target motion amount estimation unit 10A, the first image and the same foreground focus state as the first image.
  • the amount of motion between the third image captured in step S1 is estimated as the first amount of motion (step S102).
  • This estimation of the amount of motion is an estimation between images taken in the same focus state, and only the position of the subject is different, so that a highly accurate estimation result can be obtained.
  • FIGS. 5A and 5B a method of estimating the first motion amount between the first image and the third image will be described with reference to FIGS. 5A and 5B.
  • a case where a block matching method is used for motion amount estimation will be described as an example.
  • the block matching method is a method for estimating the amount of motion between images for each block region.
  • the region having the highest correlation with the image of the block region set in one image (hereinafter referred to as a search source image) is the other.
  • the amount of motion is estimated by specifying from the image (hereinafter referred to as a search destination image).
  • FIG. 5A is an explanatory diagram illustrating an example of a relationship between a search source image and a target block
  • FIG. 5B is an explanatory diagram illustrating an example of a relationship between a search destination image and a search area.
  • first motion amount estimation unit 11A first sets a block of interest composed of a plurality of pixels in the search source image (that is, the first image).
  • the size of the block of interest can be arbitrarily set such as 8 ⁇ 8 pixels or 16 ⁇ 16 pixels.
  • the first motion amount estimation unit 11A divides the search source image into a plurality of block areas of the same size, and sequentially sets the plurality of block areas as the block of interest.
  • the first motion amount estimation unit 11A sets a search area in the search destination image (that is, the third image).
  • This search area indicates an area for searching for an area (region) having the highest correlation with the target block in the search source image, and is an area having a size larger than that of the target block.
  • the search area is preferably set at a position close to the position of the target block in the search source image.
  • the first motion amount estimation unit 11A cuts out a block area having the same size as the block of interest in the search source image from the search area of the search destination image, and sets the search area of the image based on Expression 6 below.
  • An evaluation value r x, y representing the correlation is calculated.
  • x and y are coordinate positions indicating the position of the block area in the search destination image
  • the coordinates (x, y) of the pixel at the upper left corner of the search destination image shown in FIG. 5B are (0, 0). This is the coordinate position.
  • (i, j) is a relative coordinate position within the block area of the pixels constituting the block area (the target block and the search block), and the coordinates (i, j) of the pixel at the upper left corner of the block area Is the coordinate position when (0, 0) is set.
  • f (i, j) is the pixel value of the pixel constituting the target block set in the search source image
  • g x, y (i, j) is the pixel value of the search block cut out from the search destination image.
  • the motion amount determination unit 12A of the target motion amount estimation unit 10A estimates a target motion amount that is a motion amount between the first image and the second image based on the first motion amount (step S103). .
  • the target motion amount is the same as the first motion amount in the direction of displacement, and the size is halved. To be determined. This is based on the characteristic that the movement of the subject and the change in the shooting direction are almost constant for a short time, and the shooting time interval between the first image and the second image is the first image. If the shooting time interval between the first image and the third image is half, the amount of movement between them is also almost half.
  • the target movement amount may be determined by correcting the magnitude of the first movement amount according to the ratio of the shooting time intervals.
  • the size of the target motion amount the size of the first motion amount ⁇ ((the shooting time interval between the first image and the second image) / (the first image and the third image
  • the magnitude of the target motion amount The size of the first motion amount ⁇ 0.5.
  • the corrected image generation unit 20 Upon receiving the target motion amount from the target motion amount estimation unit 10A, the corrected image generation unit 20 performs motion compensation on the second image based on the received target motion amount, and generates a corrected image (step S104).
  • the first image and the corrected image have the same subject position, so that the omnifocal image is common and only the blur amount is different.
  • the first image and the corrected image have the same subject state and are different only in the focus state.
  • the subject distance measuring unit 30 Upon receipt of the corrected image from the corrected image generating unit 20, the subject distance measuring unit 30 measures the subject distance by DFD based on the correlation value of the blur amount between the first image and the corrected image (step S105). .
  • the subject distance can be measured by obtaining the distance d that minimizes Equation 5.
  • the first image and the second image photographed in different focus states are used. It is possible to estimate the target motion amount with high accuracy by estimating the target motion amount. By performing motion compensation on the second image using this target motion amount, it is possible to generate a corrected image with no positional deviation between the first image and the subject with high accuracy, and to improve subject distance measurement processing by DFD. It becomes possible to do.
  • the amount of motion between the first image and the second image is directly calculated even if the focus state is different. It is possible to do.
  • the difference between the focus state when the first image is captured and the focus state when the second image is captured is small, there is a high possibility that the amount of motion can be estimated well.
  • the amount of blur varies greatly between images, so the correlation between images is the same for the same subject.
  • the correlation between images is the same for the same subject.
  • many errors occur in the estimated motion amount.
  • the greater the difference in focus state between images the better the measurement accuracy of the subject distance.
  • the first image between the first image and the third image obtained with high accuracy by the block matching method.
  • the amount of motion between the first image and the second image can be estimated with high accuracy.
  • the target motion amount estimated with high accuracy it is possible to eliminate the positional deviation between the first image and the corrected image, or to reduce the subject distance so that the subject distance can be measured satisfactorily. Measurement can be performed satisfactorily.
  • Embodiment 2 An image processing apparatus according to Embodiment 2 of the present invention will be described with reference to FIGS. 1 and 6 to 8.
  • the image processing apparatus is different from the image processing apparatus 100 according to the first embodiment in that the target motion amount estimation unit 10B determines the first motion amount between the first image and the third image.
  • the target motion amount estimation unit 10B determines the first motion amount between the first image and the third image.
  • a second motion amount estimation unit 11B that directly obtains the second motion amount between the first image and the second image is provided.
  • the imaging apparatus is the video camera 200 shown in FIG. 19 and the shooting state is two focus states of a foreground focus and a distant focus will be described as an example.
  • FIG. 6 is a block diagram illustrating a configuration example of the target motion amount estimation unit 10B. Note that, in the configuration of the image processing apparatus according to the present embodiment, blocks that are the same as those of the image processing apparatus 100 according to Embodiment 1 are denoted by the same reference numerals, and description thereof is omitted.
  • the configuration of the image processing apparatus according to the present embodiment is the same block configuration as that of the image processing apparatus 100 according to the first embodiment shown in FIG. 1, and the target motion amount estimation unit 10B, the corrected image generation unit 20, and the subject distance measurement unit 30. It has.
  • the configurations of the corrected image generation unit 20 and the subject distance measurement unit 30 are the same as those in the first embodiment.
  • the image processing apparatus according to the present embodiment alternately and continuously obtains a distant view photographed image and a foreground photograph image photographed continuously in time from the video camera 200. Is configured to do.
  • a photographed image for subject distance calculation is a first image, a photographed image photographed immediately before the first image is a second image, and a photographed image photographed immediately before the second image is a third image. To do.
  • the target motion amount estimation unit 10B is configured to estimate, as the target motion amount, the amount of subject position deviation that occurs between the first image captured with the foreground focus and the second image captured with the distant focus. As shown in FIG. 6, the first motion amount estimation unit 11A, the second motion amount estimation unit 11B, and the motion amount determination unit 12B are included.
  • the configuration of the first motion amount estimation unit 11A is the same as that of the first embodiment.
  • the first motion amount between the first image and the third image is obtained by the block matching method and output to the motion amount determination unit 12B. To do.
  • the second motion amount estimation unit 11B uses the block matching method described in the first embodiment to determine the amount of subject position deviation between the first image and the second image as the second motion amount (corresponding to the initial estimated value). ) And output to the motion amount determination unit 12B.
  • the second motion amount is a vector amount, like the target motion amount and the first motion amount, and is defined by the direction of displacement and the magnitude of displacement.
  • the motion amount determination unit 12B determines the first image and the second image.
  • the target motion amount indicating the positional deviation of the subject generated between the two is estimated.
  • FIG. 7 is a flowchart showing the processing procedure of the image processing method in the present embodiment
  • FIG. 8 shows the relationship among the captured image, the target motion amount, the first motion amount, and the second motion amount in the present embodiment. It is explanatory drawing which shows.
  • the same reference numerals are given to the processing common to the processing flow of the first embodiment shown in FIG.
  • the video camera 200 (imaging device) shown in FIG. 19 captures images in a plurality of focus states and outputs them to the image processing device 100 (step S101).
  • the image processing apparatus 100 firstly, as shown in FIG. 7, the first motion amount estimation unit 11A of the target motion amount estimation unit 10B moves between the first image and the third image. Is estimated as the first motion amount (step S102). The steps so far are the same as in the first embodiment.
  • the image processing apparatus 100 estimates the second motion amount, which is an initial estimated value of the motion amount between the first image and the second image, by the second motion amount estimation unit 11B of the target motion amount estimation unit 10B. (Step S201). For this estimation, a block matching method can be performed.
  • the image processing apparatus 100 estimates the target motion amount using the first motion amount and the second motion amount by the motion amount determination unit 12B of the target motion amount estimation unit 10B (step S202).
  • the second motion amount estimated directly is higher in accuracy than the case where it is indirectly estimated from the first motion amount. That is, there is a case where the accuracy is higher when the second motion amount between the first image and the second image is directly estimated.
  • the focus state when the first image is photographed and the focus state when the second image is photographed are likely to be greatly different, particularly in the measurement of the subject distance by DFD. For this reason, if the amount of blur due to the change in the focus state differs greatly, the correlation between images is low even for the same subject, and a large error may occur in the estimated amount of motion.
  • the motion amount determination unit 12B determines the accuracy of the second motion amount, and when the accuracy is necessary for use in the measurement of the subject distance, the second motion amount is directly used as the target motion amount. If the required accuracy is not obtained, the target motion amount is estimated from the first motion amount as in the first embodiment.
  • the method for estimating the target motion amount from the first motion amount is the same as step S103 in the first embodiment.
  • the motion amount determination unit 12B determines the accuracy of the second motion amount based on the minimum evaluation value r x, y (minimum evaluation value r min ) in the block matching method applied when estimating the second motion amount. Determine. More specifically, the motion amount determination unit 12B determines the second motion amount as the target motion amount when it is determined that the minimum evaluation value r min is smaller than a predetermined threshold (when it is determined that the accuracy is high). And the minimum evaluation value r min is determined to be larger than the predetermined threshold (when the accuracy is determined to be low), the target motion amount is estimated from the first motion amount.
  • Step S104 is the same as that in the first embodiment.
  • Step S105 is the same as that in the first embodiment.
  • the second motion amount when it is determined that the estimation accuracy of the second motion amount estimated between the first image and the second image captured in different focus states is high, the second motion amount is set as the target motion amount. And when it is determined that the estimation accuracy of the second motion amount is low, the target motion amount is estimated based on the first motion amount estimated between the first image and the third image captured in the same focus state. Can be estimated with high accuracy.
  • the first motion amount estimation unit 11A determines that the first motion amount is determined when the minimum evaluation value r min obtained by the second motion amount estimation unit 11B is smaller than a predetermined threshold value. You may make it the structure which does not calculate quantity.
  • the target motion amount estimation method in step S202 is based on the ratio of the first motion amount based on the ratio of the minimum evaluation value r min of the block matching method applied when estimating the first motion amount and the second motion amount.
  • a motion amount obtained by internally dividing the half motion amount and the second motion amount may be used as the target motion amount.
  • Embodiment 3 An image processing apparatus according to Embodiment 3 of the present invention will be described with reference to FIGS. 1 and 9 to 12.
  • the image processing apparatus is different from the image processing apparatus 100 according to the second embodiment in that the target motion amount estimation unit 10C calculates the first motion amount between the first image and the third image.
  • the target motion amount estimation unit 10C calculates the first motion amount between the first image and the third image.
  • the imaging apparatus is the video camera 200 shown in FIG. 19 and the shooting state is two focus states of the foreground focus and the far view focus.
  • the shooting state is two focus states of the foreground focus and the far view focus.
  • FIG. 9 is a block diagram illustrating a configuration example of the target motion amount estimation unit 10C. Note that, in the configuration of the image processing apparatus according to the present embodiment, blocks that are the same as those in the image processing apparatus according to the first or second embodiment are denoted by the same reference numerals, and description thereof is omitted.
  • the configuration of the image processing apparatus according to the present embodiment is the same block configuration as that of the image processing apparatus 100 according to the first embodiment shown in FIG. 1, and the target motion amount estimation unit 10C, the corrected image generation unit 20, and the subject distance measurement unit 30. It has. Note that the configurations of the corrected image generation unit 20 and the subject distance measurement unit 30 are the same as those in the first and second embodiments.
  • the image processing apparatus according to the present embodiment includes a distant view photographed image taken with the distant focus and a foreground photograph image photographed with the foreground focus from the video camera 200. Are obtained alternately and continuously.
  • a photographed image for subject distance calculation is a first image, a photographed image photographed immediately before the first image is a second image, and a photographed image photographed immediately before the second image is a third image. To do.
  • the target motion amount estimation unit 10 ⁇ / b> C is configured to estimate the amount of displacement of the subject generated between the first image captured with the foreground focus and the second image captured with the distant focus as the target motion amount. As shown in FIG. 9, the first motion amount estimation unit 11A, the second motion amount estimation unit 11B, the third motion amount estimation unit 11C, and the motion amount determination unit 12C are included.
  • the configuration of the first motion amount estimating unit 11A is the same as that of the first and second embodiments, and the first motion amount between the first image and the third image is obtained by the block matching method, and the motion amount is calculated. It outputs to the determination part 12C.
  • the configuration of the second motion amount estimation unit 11B is the same as that of the second embodiment, and the second motion amount (initial estimated value) between the first image and the second image is directly obtained by the block matching method. And output to the motion amount determination unit 12C.
  • the third motion amount estimation unit 11C estimates the amount of subject displacement generated between the second image and the third image as the third motion amount by the block matching method described in the first embodiment. It outputs to the determination part 12C.
  • the motion amount determination unit 12C has the first motion amount estimated by the first motion amount estimation unit 11A, the second motion amount estimated by the second motion amount estimation unit 11B, and the first motion amount estimated by the third motion amount estimation unit 11C. Based on the three motion amounts, a target motion amount indicating the amount of displacement of the subject that occurs between the first image and the second image is estimated.
  • FIG. 10 is a flowchart showing the processing procedure of the image processing method in the present embodiment
  • FIG. 11 shows the captured image, the target motion amount, the first motion amount, the second motion amount, and the third in the present embodiment. It is explanatory drawing which shows the relationship with a motion amount.
  • FIG. 12 is a vector diagram showing the relationship among the first motion amount, the second motion amount, the third motion amount, and the target motion amount.
  • the video camera 200 (imaging device) shown in FIG. 19 captures images in a plurality of focus states and outputs them to the image processing device 100 (step S101).
  • the image processing apparatus 100 firstly, as shown in FIG. 10, the first motion amount estimation unit 11A of the target motion amount estimation unit 10C moves between the first image and the third image. Is calculated as the first motion amount (step S102). The steps so far are the same as those in the first and second embodiments.
  • the image processing apparatus 100 estimates the second motion amount that is the initial estimated value of the motion amount between the first image and the second image by the second motion amount estimation unit 11B of the target motion amount estimation unit 10C. (Step S201). This process is the same as in the second embodiment.
  • the image processing apparatus 100 estimates the third motion amount, which is the motion amount between the second image and the third image, by the third motion amount estimation unit 11C of the target motion amount estimation unit 10C (step S301). ). For this estimation, a block matching method can be performed.
  • the image processing apparatus 100 estimates the target motion amount based on the first motion amount, the second motion amount, and the third motion amount by the motion amount determination unit 12C of the target motion amount estimation unit 10C (step S302). ).
  • a method for determining the target motion amount by selecting a combination determined to have high estimation accuracy from the relationship between the first motion amount, the second motion amount, and the third motion amount will be described with reference to FIG. To do.
  • the first movement amount obtained in step S102 is represented as V1.
  • the second motion amount obtained in step S201 is represented as V2a, and the evaluation value obtained at this time is represented as r2a.
  • the third movement amount obtained in step S301 is represented as V3a, and the evaluation value obtained at this time is represented as r3a.
  • V1, V2a, and V3a represent two-dimensional motion amounts on the image, they are represented as vector amounts as indicated by solid line arrows in FIG.
  • V1, V2a, and V3a are matched as movements between the three images, so that all are determined to have high estimation accuracy, and the second movement amount is set as the target movement amount.
  • V2a is used.
  • the relationship of Expression 7 does not hold, at least one of the first motion amount V1, the second motion amount V2a, and the third motion amount V3a has low estimation accuracy.
  • the first motion amount V1 is a motion amount estimated between captured images captured in the same focus state, it is considered that the estimation accuracy is high.
  • the second motion amount V2a and the third motion amount V3a are motion amounts estimated between captured images taken in different focus states, here, either the second motion amount V2a or the third motion amount V3a, Alternatively, both estimation accuracy is considered to be low.
  • the third motion amount correction candidate amount V3b can be calculated by Equation 8. This is represented by a dotted line in FIG.
  • the third motion amount V3a and the actual second motion amount are vector-added. Since the motion amount must match the first motion amount V1, the correction candidate amount V2b of the second motion amount can be calculated by Equation 9. This is represented by a broken line in FIG.
  • the target block of the search source image (second image) and the block region of the search destination image (third image) corresponding to the third motion amount correction candidate amount V3b are cut out, and the evaluation value based on Expression 6 is obtained.
  • r3b be the result of calculating.
  • the target block of the search source image (first image) and the block region of the search destination image (second image) corresponding to the correction candidate amount V2b of the second motion amount are cut out, and the evaluation value is calculated based on Expression 6. Let the calculated result be r2b.
  • the total evaluation value for the combination of the second motion amount V2a and the third motion amount correction candidate amount V3b is (r2a + r3b).
  • the estimation accuracy of the third motion amount V3a is high, the total evaluation value for the combination of the second motion amount correction candidate amount V2b and the third motion amount V3a is (r2b + r3a).
  • the amount correction candidate amount V2b is determined as the target motion amount. In other words, when (r2a + r3b) is small, it is determined that the estimation accuracy of the second motion amount V2a is high, and the second motion amount V2a is set as the target motion amount. On the other hand, when (r2b + r3a) is small, it is determined that the estimation accuracy of the third motion amount V3a is high, and the second motion amount correction candidate amount V2b is determined as the target motion amount.
  • a motion amount that is half of the motion amount V1 is determined as the target motion amount.
  • Step S104 Upon receiving the target motion amount from the target motion amount estimation unit 10C, the corrected image generation unit 20 performs motion compensation on the second image based on the received target motion amount, and generates a corrected image (step S104).
  • Step S104 is the same as that in the first and second embodiments.
  • Step S105 is the same as that in the first and second embodiments.
  • the target motion amount can be determined by selecting a combination determined to have high estimation accuracy from the relationship between the three motion amounts, the first motion amount, the second motion amount, and the third motion amount. In addition, more accurate estimation is possible.
  • Embodiment 4 An image processing apparatus according to Embodiment 4 of the present invention will be described with reference to FIGS.
  • the image processing apparatus differs from the image processing apparatus 100 according to the first to third embodiments in consideration of the influence of blur that occurs when the movement of the subject or the change in the shooting direction is fast. Thus, the subject distance is measured.
  • the imaging apparatus is the video camera 200 shown in FIG. 19 and the shooting state is two focus states of a foreground focus and a distant focus will be described as an example.
  • FIG. 13 is a block diagram illustrating a configuration example of the image processing apparatus 100. Note that, in the configuration of the image processing apparatus according to the present embodiment, the same reference numerals are assigned to blocks common to the image processing apparatus 100 according to any of the first, second, and third embodiments. The description is omitted.
  • the image processing apparatus 100 includes a target motion amount estimation unit 10, a corrected image generation unit 20, a subject distance measurement unit 30, a blur region determination unit 40, and a subject distance compensation unit 50, as shown in FIG.
  • the configuration of the target motion amount estimation unit 10 is described as an example where it is the same as that of the target motion amount estimation unit 10A of the first embodiment.
  • the target motion amount estimation of the second embodiment is described.
  • the configuration may be the same as that of unit 10B or target motion amount estimation unit 10C of the third embodiment.
  • the image processing apparatus continuously and continuously captures a distant view photographed image taken with a distant focus and a foreground photograph photographed with a foreground focus from the video camera 200. Configured to get.
  • a photographed image for subject distance calculation is a first image
  • a photographed image photographed immediately before the first image is a second image
  • a photographed image photographed immediately before the second image is a third image. To do.
  • the blur region determination unit 40 determines whether or not blur has occurred in the first image and the second image based on the target motion amount output from the target motion amount estimation unit 10, and if blur has occurred.
  • a blur region determination result including information indicating the determined region is output to the corrected image generation unit 20, the subject distance measurement unit 30, and the subject distance compensation unit 50.
  • the corrected image generation unit 20 performs motion compensation on the second image based on the target motion amount output from the target motion amount estimation unit 10 to generate a corrected image in which the first image and the subject are not misaligned. Output to the distance measuring unit 30.
  • a corrected image is generated only for a region determined to have no blur in the blur region determination result output from the blur region determination unit 40 (hereinafter referred to as a non-blur region). To do.
  • the subject distance measuring unit 30 measures the subject distance using the DFD based on the correlation value of the blur amount between the first image and the corrected image, as in the first to third embodiments. However, in the present embodiment, the subject distance is measured only for a region determined as a non-blur region in the blur region determination result.
  • the subject distance compensation unit 50 estimates the subject distance with respect to an area determined to be blurred in the blur area determination result (hereinafter referred to as a blur area).
  • FIG. 14 is a flowchart showing the processing procedure of the image processing method according to the present embodiment
  • FIG. 15 is an explanatory diagram showing the blur region determination method. 14, the processing flow of the first embodiment shown in FIG. 3, the processing flow of the second embodiment shown in FIG. 7, and the processing of the third embodiment shown in FIG. 10.
  • the same reference numerals are given to the processes common to the flow, and the description is omitted.
  • the video camera 200 (imaging device) shown in FIG. 19 captures images in a plurality of focus states and outputs them to the image processing device 100 (step S101). This process is the same as in the first to third embodiments.
  • the image processing apparatus 100 first estimates the target motion amount between the first image and the second image by the target motion amount estimation unit 10 as shown in FIG. 14 (step S401). .
  • this process is the same as the process shown in steps S102 and S103 (see FIG. 3) in the first embodiment.
  • the target motion amount estimation processing in step S401 includes the processing shown in step S102, step S201 and step S202 (see FIG. 7) in the second embodiment, or step S102, step S201, step in the third embodiment. You may use the process shown to S301 and step S302 (refer FIG. 10).
  • the image processing apparatus 100 uses the blur region determination unit 40 to determine a region where blur has occurred in at least one of the first image and the second image (step S402).
  • the omnifocal image S (u, v) differs between the two expressions, Expression 2 and Expression 3, and therefore Expression 4 is satisfied. Accordingly, the subject distance cannot be measured based on Equation 5.
  • the omnifocal image S (u, v) is common to the two captured images including the influence of blur. Therefore, in theory, Equation 4 is established, and the subject distance can be measured based on Equation 5.
  • the frequency information of the photographed image corresponding to the common omnifocal image S (u, v) is the photographed image photographed in different focus states. Only the low-frequency components that have little difference between them remain. Accordingly, in this case as well, it is considered difficult to measure the subject distance by the DFD processing based on Expression 5.
  • the subject distance is measured by another method.
  • an object that is the amount of movement between the first image and the second image A case where the amount of motion is used will be described.
  • the blur caused by the movement of the subject or the change of the photographing direction that occurs during the exposure time is not related to the positional deviation of the subject between the photographed images.
  • the blur region determination unit 40 has a blur larger than a predetermined size in at least one of the first image and the second image when the target motion amount is larger than the predetermined threshold. It is determined that By performing this determination on the entire captured image (all block regions set in the captured image), a blur region determination result for determining whether the block region is a blur region or a non-blur region is obtained.
  • the corrected image generation unit 20 receives the target motion amount from the target motion amount estimation unit 10 and the blur region determination result from the blur region determination unit 40, based on the received target motion amount, Motion compensation is performed to generate a corrected image (step S104).
  • the corrected image generation unit 20 does not perform correction on the block area determined as the blur area, and performs motion compensation only on the block area determined as the non-blur area.
  • the processing for the block area determined as the non-blurr area is the same as in the first to third embodiments.
  • the subject distance measurement unit 30 When the subject distance measurement unit 30 receives the correction image from the correction image generation unit 20 and the blur region determination result from the blur region determination unit 40, the subject distance measurement unit 30 is based on the correlation value of the blur amount between the first image and the correction image. Then, the subject distance is measured by DFD (step S105). In the present embodiment, the subject distance measuring unit 30 does not measure the subject distance by DFD for the block area determined to be a blur area, but only the block distance determined by the DFD for the block area determined to be a non-blur area. Measure. The processing for the block area determined as the non-blurr area is the same as in the first to third embodiments. Therefore, in the block area determined to be the blur area, the subject distance has not been obtained yet.
  • the subject distance compensation unit 50 performs subject distance compensation processing on the block area determined to be the blur area, and obtains subject distances for all the pixels constituting the captured image (step S403).
  • Subject distance compensation process 1 the subject distance of each pixel in the blur area is calculated by interpolating using the subject distance of the non-blurr area (adjacent to the blur area) around the blur area.
  • the outline of this process will be described with reference to FIG.
  • image areas representing the entire captured image areas determined to be blur areas are represented by diagonal lines, and areas determined to be non-blurr areas are represented by white background.
  • the pixel of interest in the blur area where the subject distance is generated by interpolation is represented by a round point
  • the reference pixel in the non-blur area that refers to the subject distance in the compensation process 1 is represented by a diamond point.
  • the subject distance compensation unit 50 determines the position of the target pixel in the blur region where the subject distance is generated by interpolation, at the position where the target pixel intersects the non-blur region when a straight line is drawn from the target pixel in the horizontal and vertical directions.
  • the subject distance is referred to using the pixel as a reference pixel.
  • the reference pixel is a pixel in a non-blurred region.
  • the subject distance of the target pixel is estimated by calculating an average value obtained by weighting the subject distance of the reference pixel according to the reciprocal of the length of the straight line drawn from the target pixel for generating the subject distance to the reference pixel. .
  • the subject distance compensation unit 50 performs the processing while sequentially setting the target pixel, and generates the subject distance by interpolation for all the pixels in the blur region.
  • Subject distance compensation process 2 As another example of the subject distance compensation process by the subject distance compensation unit 50, the subject distance of the second image obtained immediately before is used for the pixel to be compensated, and the target motion amount There is a process for correcting the subject distance.
  • the measurement processing of captured images is performed in the order in which the images were captured. That is, the measurement process of the second image is performed before the measurement of the subject distance with respect to the current first image.
  • the second image based on the correlation value of the blur amount between the corrected image obtained by motion compensation of the third image and the second image. Measure the subject distance in the image. Therefore, the subject distance of the second image is obtained by using the target motion amount that is the motion amount between the first image and the second image with respect to the subject distance obtained by measuring the subject distance with respect to the second image that is the past frame.
  • the object distance to the first image can be estimated.
  • a subject distance generated by motion compensation of the subject distance measured in the second image in this way may be used.
  • the subject distance can be generated based on the measurement result of the past frame even in an area where it is difficult to measure the subject distance based on the correlation value of the blur amount due to the blur.
  • a highly accurate subject distance can be generated.
  • the generation of the corrected image and the measurement of the subject distance based on the correlation value of the blur amount are performed not only on the non-blurred region but also on the entire image. You may make it carry out with respect to. In this case, since the object distance that is not used is finally measured, a redundant calculation is included. However, in the case of LSI (Large Scale Integration) and the like, rather than branching the process according to specific conditions, the correction of the corrected image is generated for the entire image and the subject distance is measured based on the correlation value of the blur amount. In this case, since these processes can be performed before the blur area determination result is obtained, the delay may be reduced.
  • LSI Large Scale Integration
  • the subject distance of the area determined to be the blur area is the subject distance.
  • the object distance generated by the compensation unit 50 may be overwritten. Even in this case, the same result can be obtained as the subject distance.
  • Embodiment 5 An image processing apparatus according to Embodiment 5 of the present invention will be described with reference to FIGS.
  • the image processing apparatus is different from the image processing apparatus 100 according to the first to fourth embodiments in that an HDR image is generated instead of a subject distance measurement.
  • the image processing apparatus is an apparatus that generates an HDR image from a plurality of captured images captured in a plurality of capturing states, and is mounted on an image capturing apparatus (for example, a surveillance camera) that can capture a moving image.
  • an image capturing apparatus for example, a surveillance camera
  • An example will be described. Therefore, in the present embodiment, a case where the shooting state is two exposure states of overexposure and underexposure will be described as an example.
  • the imaging device of the present embodiment is overexposed (corresponding to the first imaging state in the present embodiment) and underexposure (at the present embodiment, at regular time intervals). In this embodiment, it is configured such that shooting is performed by alternately switching to the second shooting state.
  • the imaging apparatus according to the present embodiment alternately outputs an overexposed image captured with overexposure and an underexposed image captured with underexposure to the image processing apparatus according to the present embodiment.
  • the image processing apparatus according to the present embodiment is described as an example in which the image processing apparatus is mounted on the imaging apparatus, but may be mounted on another device capable of capturing a moving image, or the imaging You may provide in the other apparatus which can acquire a picked-up image from an apparatus.
  • FIG. 16 is a block diagram illustrating a configuration example of the image processing apparatus 300. Note that, in the configuration of the image processing apparatus according to the present embodiment, blocks that are the same as those of the image processing apparatus 100 according to Embodiment 1 are denoted by the same reference numerals, and description thereof is omitted.
  • the image processing apparatus 300 is an image processing apparatus that generates an HDR image by combining captured images captured with overexposure and underexposure. As illustrated in FIG. 16, the target motion amount estimation unit 10 and the corrected image generation unit 20 and an HDR image generation unit 60. Note that the configurations of the target motion amount estimation unit 10 and the corrected image generation unit 20 are described as an example where they are the same as those in the first embodiment, but may be the same as those in the second embodiment or the third embodiment. .
  • the image processing apparatus 300 is configured to continuously and continuously acquire an overexposed image captured with overexposure and an underexposed image captured with underexposure from the imaging apparatus.
  • the overexposed image is the first image
  • the underexposed image taken immediately before the first image is the second image
  • the overexposed image taken immediately before the image will be described as a third image.
  • the exposure state of the first image and the third image is the same.
  • a predetermined overexposed image is the first image will be described as an example.
  • an HDR image can be generated by the same method even when the underexposure is used as the first image.
  • the target motion amount estimating unit 10 performs the first image (overexposed image in the present embodiment) and the second image (underexposed image in the present embodiment).
  • the positional deviation amount of the subject that occurs between and is estimated as the target motion amount and output to the corrected image generation unit 20.
  • the corrected image generation unit 20 performs motion compensation on the second image based on the target motion amount, and a corrected image in which the subject is not misaligned with the first image. And output to the subject distance measuring unit 30.
  • the HDR image generation unit 60 combines the first image and the corrected image to generate an HDR image.
  • FIG. 17 is a flowchart showing the processing procedure of the image processing method in the present embodiment
  • FIG. 18 is an explanatory diagram showing the relationship among the captured image, the target motion amount, and the first motion amount in the present embodiment. is there.
  • the processing flow of the first embodiment shown in FIG. 3 the processing flow of the second embodiment shown in FIG. 7, and the processing flow of the third embodiment shown in FIG.
  • Processes common to the process flow of the fourth embodiment shown in FIG. 14 are assigned the same reference numerals, and descriptions thereof are omitted.
  • the video camera 200 (imaging device) shown in FIG. 19 captures images in a plurality of exposure states and outputs them to the image processing device 100 (step S501).
  • the video camera 200 alternately and continuously repeats shooting with overexposure and underexposure, and performs image processing on the captured overexposure image and underexposure image. Output to the device 100. Specifically, switching between overexposure and underexposure is performed by, for example, turning on / off the neutral density filter, switching the exposure time between long exposure and short exposure, or switching the aperture. In the overexposed image, the dark part is reproduced, but the bright part is overexposed, whereas in the underexposed image, the bright part is overexposed, but the dark part is overexposed. It has not been reproduced.
  • one of the overexposed images taken with overexposure is a first image for generating an HDR image
  • the underexposed image taken with underexposure one image before is the second image.
  • an overexposed image taken with overexposure one image before is set as a third image.
  • step S501 is not an essential step of the present invention, but will be described as constituting a more preferable form. Any configuration may be used as long as the image processing apparatus 100 can acquire captured images in a plurality of shooting states. Further, the processing of steps S102 to S104 and S502 described below may be executed in parallel with the shooting by the video camera 200, or may be executed after shooting.
  • the image processing apparatus 100 first obtains the first motion amount between the first image and the third image by the target motion amount estimation unit 10 as shown in FIG. 17 (step S102). Then, the target motion amount between the first image and the second image is estimated using the first motion amount (step S103). This process is the same as that of the first embodiment (see FIG. 3) in the present embodiment. Instead of steps S102 and S103, step S102, step S201 and step S202 in the second embodiment (see FIG. 7), or step S102, step S201, step S301 and step S302 in the third embodiment (see FIG. 7). (See FIG. 10).
  • the corrected image generation unit 20 performs motion compensation of the second image based on the received target motion amount, and generates a corrected image (step S104).
  • This process is the same as that of the first embodiment (see FIG. 3) in the present embodiment.
  • the HDR image generating unit 60 when receiving the corrected image from the corrected image generating unit 20, the HDR image generating unit 60 combines the first image and the corrected image to generate a combined image having a wide dynamic range (step S502).
  • Conventional methods can be used as a method for generating an HDR image.
  • an HDR image is generated by combining regions closer to appropriate exposure from the first image and the corrected image.
  • the sum of the pixel value of the synthesis target pixel of the first image with the first weighting count and the sum of the pixel value of the correction target pixel of the correction image with the second weighting count are added, The pixel of the corrected image may be used.
  • a low weighting factor value is set for a region where the luminance is equal to or higher than a certain level, and a low luminance value region is set, and a high weighting factor value is set for a region where the luminance is close to the median value.
  • blurring may occur when the exposure time is switched between long exposure and short exposure in the shooting of a shot image (here, a moving image) in step S501.
  • a blur area determination unit 40 may be provided, and for an area determined to be a blur area, an image of the area may be generated from an image without blur.
  • the first image between the first image and the third image obtained with high accuracy by the block matching method.
  • the amount of motion between the first image and the second image can be estimated with high accuracy.
  • the brightness (S / N ratio) differs between the first image and the second image.
  • the blur of the area in which the subject moves is blurred. The amount will be different.
  • the depth of field is not only between the first image and the second image but also in the brightness (S / N ratio). Will be different. In any case, since the brightness (S / N ratio), blur amount, and depth of field are substantially the same between the first image and the third image, the first motion amount should be obtained with high accuracy. Can do.
  • the positional deviation between the first image and the corrected image can be eliminated, or the HDR image can be made small enough to generate the HDR image. Generation can be performed better.
  • Embodiments 1 to 5 described above the case where image processing is performed using two captured images of the first image and the second image captured in two capturing states has been described. You may comprise so that image processing may be performed using the 3 or more picked-up image image
  • the focus state is varied in a plurality of stages from the foreground focus (for example, the nearest neighbor) to the foreground focus (for example, infinity). Acquire the captured image.
  • the foreground focus for example, the nearest neighbor
  • the foreground focus for example, infinity
  • two captured images having the same focus state may be used as the first image and the third image, and any captured image captured between the two captured images may be used as the second image.
  • one photographed image in the foreground focus is used as the first image
  • one photographed image taken in the foreground focus before the first image is used as the third image
  • the first image and the third image are used.
  • a plurality of photographed images photographed between the images are defined as second images.
  • the target motion amount is obtained for each of the second images.
  • the target motion amount used for generating the interpolated image is the same as the first motion amount according to the ratio of the shooting time intervals, as in the case where the shooting time intervals are not equal (see step S103 in the first embodiment). It can be obtained by correcting the thickness.
  • a corrected image without a positional deviation of the subject is generated with respect to the first image using the corresponding target motion amount.
  • the several 2nd image without a position shift between 1st images is acquirable.
  • the subject distance is measured using the first image and the plurality of corrected images.
  • This configuration makes it possible to measure the subject distance with higher accuracy.
  • an HDR image in the case of the fifth embodiment
  • a photographed image obtained by varying the exposure state in multiple stages from overexposure to underexposure is acquired.
  • two captured images having the same exposure state may be used as the first image and the third image, and any captured image captured between the two captured images may be used as the second image.
  • one overexposed image is a first image
  • one overexposed image taken after the first image is a third image
  • the first image and the third image are between.
  • a plurality of photographed images photographed in the above are defined as second images.
  • the target motion amount is obtained for each of the second images.
  • the target motion amount used for generating the interpolated image is the same as the first motion amount according to the ratio of the shooting time intervals, as in the case where the shooting time intervals are not equal (see step S103 in the first embodiment). It can be obtained by correcting the thickness.
  • a corrected image without a positional deviation of the subject is generated with respect to the first image using the corresponding target motion amount.
  • the several 2nd image without a position shift between 1st images is acquirable.
  • an HDR image is generated using the first image and the plurality of corrected images.
  • This configuration makes it possible to generate an HDR image with higher image quality.
  • each functional block in the block diagrams is typically realized as an LSI that is an integrated circuit. . These may be individually made into one chip, or may be made into one chip so as to include a part or all of them. Although referred to as LSI here, it may be referred to as IC, system LSI, super LSI, or ultra LSI depending on the degree of integration.
  • the method of circuit integration is not limited to LSI, and implementation with a dedicated circuit or a general-purpose processor is also possible.
  • An FPGA Field Programmable Gate Array
  • a reconfigurable processor that can reconfigure the connection and setting of circuit cells inside the LSI may be used.
  • each component may be configured by dedicated hardware, or a component that can be realized by software may be realized by executing a program.
  • the image processing apparatus and the image processing method according to the present invention provide a more stable and high performance even when a subject is misaligned when image processing is performed using a plurality of captured images captured in a plurality of capturing states. It is possible to perform image processing with high accuracy.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Optics & Photonics (AREA)
  • Studio Devices (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

本画像処理装置は、複数の撮影状態で同一の被写体が時間的に連続して撮影されることにより得られた複数の撮影画像を用いて被写体距離を計測する画像処理装置であって、前記複数の撮影画像のうち、第一の撮影状態で撮影された第一画像と前記第一の撮影状態とは異なる第二の撮影状態で撮影された第二画像との間の前記被写体の位置ずれ量を表す対象動き量を推定する対象動き量推定部(10)と、前記対象動き量に基づいて前記第二画像を動き補償した補正画像を生成する補正画像生成部(20)と、前記第一画像と前記補正画像とを用いて、被写体距離の計測やHDR画像の生成等の画像処理を行う画像処理部とを備える。

Description

画像処理装置および画像処理方法
 本発明は、複数の撮影状態で撮影された複数の撮影画像から、被写体距離の計測やHDR画像の生成等の画像処理を行う画像処理装置および画像処理方法に関するものである。
 カメラの撮影で、被写体を撮影した撮影画像と同時に、3次元シーンの奥行き、すなわち、カメラから被写体までの距離を示す被写体距離を計測できれば、画像表示や変換、認識等において様々な応用が可能となる。被写体距離を用いた応用としては、例えば、1枚の撮影画像と、この撮影画像に対する被写体距離とから、三角測距の原理で異なる視点から見た画像を擬似的に生成することができ、ステレオ、あるいは、多視点に対応する3次元画像の生成が可能になる。また、被写体距離に基づいて撮影画像の領域分割を行えば、特定の被写体距離に存在する被写体だけを切り出したり、画質調整したりすることも可能になる。
 被写体距離を非接触で計測する主な方式は、以下の2つに大別できる。
 1つ目の手法は、赤外線や超音波、レーザーなどを照射し、反射波が戻ってくるまでの時間や反射波の角度などをもとに被写体距離を計測する能動的手法である。一般に、この手法を用いた場合には、被写体距離が近い時には高精度に計測できるものの、通常のカメラには必要のない能動的な照射/受光デバイスが必要になるという問題がある。また、被写体が遠方にあるときには、照射デバイスの出力レベルが低いと、被写体に届く照射光が弱くなり、被写体距離の計測精度が低下するという問題がある。一方、照射デバイスの出力レベルが高いと、消費電力が増大するという問題が生じる。さらに、レーザーを用いる場合には、照射デバイスの出力レベルが高いと、安全性の問題が生じる可能性があるため、使用できる環境が制限されるという問題がある。
 一方、2つ目の手法は、カメラで撮影された撮影画像だけを用いて被写体距離を計測する受動的手法である。受動的手法にも多くの手法が存在するが、その一つに、撮影画像に生じるぼけ量の相関値を利用するDepth from Defocus(以下、DFDと呼ぶ)と呼ばれる手法がある。一般に、撮影画像に生じるぼけ量は、撮影時のフォーカス状態(レンズの合焦状態)と被写体距離の関係に応じてカメラ毎に一意に決まる。DFDではこの特性を利用し、あらかじめ既知の被写体距離にある被写体を、フォーカス状態を異ならせて撮影することによって、被写体距離と撮影画像に生じるぼけ量の相関値の関係を計測しておく。これにより、実際の撮影において複数のフォーカス状態で撮影を行えば、画像間のぼけ量の相関値を算出することにより、被写体距離を計測することが可能となる(例えば、非特許文献1参照)。
 複数のフォーカス状態で画像を撮影する手法としては、非特許文献2に記載のように、カメラに入射した光を複数に分離した後、それぞれ異なる距離に配置した撮像素子で受光する手法がある。この手法では、フォーカス状態が異なる複数の画像を同時に撮影できるため、画像間に撮影タイミングのずれは生じないが、複数の撮像素子を用いる必要があることや、撮像素子までの距離を異なるように配置するという特殊な構成が必要という問題がある。
 一方、単板の撮像素子を用いたカメラ構成で、複数のフォーカス状態の画像を撮影する手法として、オートフォーカス等で実現されているフォーカス調整機構を利用する手法がある。この手法は、フォーカス調整機構を制御して順に複数画像を撮影するというものである。この場合、新たなデバイスを追加することなく、フォーカス調整機構と撮影タイミングを適切に制御するだけで、複数のフォーカス状態の画像を撮影し、被写体距離を計測することが可能になる。
特開2010-249794号公報
M.Subbarao and G.Surya,"Depth from Defocus:A Spatial Domain Approach,"International Journal of Computer Vision, Vol.13,No.3,pp.271-294,1994 松山隆司,竹村岳:"多重フォーカス画像を用いた実時間3次元距離計測",情報処理学会論文誌,Vol.39,No.7,pp.2149-2158,1998.7. 日浦慎作,松山隆司,"構造化瞳を持つ多重フォーカス距離画像センサ",電子情報通信学会論文誌,Vol.J82-D-II,No.11,pp.1912-1920,1999.11.
 しかし、フォーカス調整機構を制御して順に複数の撮影画像を撮影する手法では、複数の撮影画像の撮影タイミングが異なるため、被写体が動く場合やカメラの撮影方向が変化する場合は、撮影画像間で被写体の位置ずれが生じる。DFDを用いた被写体距離の計測では、被写体およびカメラが動かない、つまり、複数の撮影画像間で被写体の位置ずれが生じないことを前提とし、複数のフォーカス状態で撮影された画像間で、同じ被写体に対するぼけ量の相関値を比較する。このため、複数の撮影画像によるDFDを用いた被写体距離の計測では、被写体の位置ずれが生じると、この比較が正確に行えなくなり、被写体距離の計測精度が低下するという問題がある。
 言い換えると、撮影状態を異ならせて撮影された撮影画像を用いて画像処理を行う場合、撮影画像上の被写体の位置ずれが生じない場合は、良好に画像処理が行える。しかし、フォーカス状態や露出状態等の撮影状態に加え、被写体の位置ずれが同時に生じた場合は、画像処理の精度が低下するという問題が生じている。
 本発明は上記の課題に鑑みてなされたものであり、撮影状態が異なる複数の撮影画像間で被写体の位置ずれが生じた場合にも、より安定して高精度に画像処理を行うことを可能にする画像処理装置、および、画像処理方法を提供することを目的とする。
 上記の課題を解決するために、本発明の一態様に係る画像処理装置は、複数のフォーカス状態で同一の被写体が撮影されることにより得られた複数の撮影画像から被写体距離を計測する画像処理装置であって、前記複数の撮影画像のうち、第一のフォーカス状態で撮影された第一画像と、前記第一のフォーカス状態とは異なる第二のフォーカス状態で撮影された第二画像との間の前記被写体の位置ずれ量を表す対象動き量を推定する対象動き量推定部と、前記対象動き量に基づいて前記第2の画像を動き補償した補正画像を生成する補正画像生成部と、前記第一画像と前記補正画像との間のぼけ量の相関値に基づいて、前記第一画像における前記被写体距離を計測する被写体距離計測部とを備える。
 なお、これらの全般的または具体的な態様は、システム、方法、集積回路、またはコンピュータプログラムまたは記録媒体で実現されてもよく、システム、方法、集積回路、およびコンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。
 本発明によれば、撮影状態が異なる複数の撮影画像間で被写体の位置ずれが生じた場合にも、より安定して高精度に被写体距離を計測することが可能になる。
図1は、本発明の実施の形態1、2、3の画像処理装置の構成例を示すブロック図である。 図2は、本発明の実施の形態1の対象動き量推定部の構成例を示すブロック図である。 図3は、本発明の実施の形態1における画像処理方法の処理の流れの一例を示すフロー図である。 図4は、本発明の実施の形態1で用いる複数の撮影画像と、対象動き量と第一動き量との関係を示す図である。 図5Aは、ブロックマッチングの処理における探索元画像と注目ブロックとの関係の一例を示す説明図である。 図5Bは、ブロックマッチングの処理における探索先画像と探索エリアとの関係の一例を示す説明図である。 図6は、本発明の実施の形態2の対象動き量推定部の構成例を示すブロック図である。 図7は、本発明の実施の形態2における画像処理方法の処理の流れの一例を示すフロー図である。 図8は、本発明の実施の形態2で用いる複数の撮影画像と、対象動き量と第一動き量と第二動き量との関係を示す図である。 図9は、本発明の実施の形態3の対象動き量推定部の構成例を示すブロック図である。 図10は、本発明の実施の形態3における画像処理方法の処理の流れの一例を示すフロー図である。 図11は、本発明の実施の形態3で用いる複数の撮影画像と、対象動き量と第一動き量と第二動き量と第三動き量との関係を示す図である。 図12は、本発明の実施の形態3における3枚の撮影画像の間で推定する動き量の関係を示すベクトル図である。 図13は、本発明の実施の形態4の画像処理装置の構成例を示すブロック図である。 図14は、本発明の実施の形態4における画像処理方法の処理の流れの一例を示すフロー図である。 図15は、本発明の実施の形態4における被写体距離の補償処理に用いる画素位置の関係を示す図である。 図16は、本発明の実施の形態5の画像処理装置の構成例を示すブロック図である。 図17は、本発明の実施の形態5の処理の流れを示すフロー図である。 図18は、本発明の実施の形態5で用いる複数の撮影画像と、対象動き量と第一動き量との関係を示す図である。 図19は、本発明の画像処理装置を搭載したカメラの一例を示す外観図である。
 上述した問題を解決するために、本発明の一態様に係る画像処理装置は、複数のフォーカス状態で同一の被写体が撮影されることにより得られた複数の撮影画像から被写体距離を計測する画像処理装置であって、前記複数の撮影画像のうち、第一のフォーカス状態で撮影された第一画像と、前記第一のフォーカス状態とは異なる第二のフォーカス状態で撮影された第二画像との間の前記被写体の位置ずれ量を表す対象動き量を推定する対象動き量推定部と、前記対象動き量に基づいて前記第2の画像を動き補償した補正画像を生成する補正画像生成部と、前記第一画像と前記補正画像との間のぼけ量の相関値に基づいて、前記第一画像における前記被写体距離を計測する被写体距離計測部とを備える。
 本構成の画像処理装置によれば、動き補償により、第一画像との間で被写体の位置ずれを無くした、あるいは、被写体距離の算出が行えるように被写体の位置ずれ量を小さくした補正画像を生成し、第一画像と補正画像とを用いて被写体距離を算出するので、複数の撮影画像間で被写体の位置ずれが生じても、被写体距離を高精度に計測することが可能になる。言い換えると、本構成の画像処理装置では、フォーカス状態が異なる複数の撮影画像間で被写体の位置ずれが生じた場合においても、動き補償により、第一画像との間で被写体の位置が同じになるように補正画像を生成するので、第一画像と補正画像との間では、フォーカス状態のみが異なり、あるいは、位置ずれの程度が非常に小さくなり、DFDによる被写体距離の計測がより良好に行える。
 なお、ここでの被写体は、撮影画像に写るもの全体を示しており、人物等だけでなく、背景画像等も含んでいる。
 また、例えば、前記画像処理装置は、前記第一画像と、前記第一画像とは異なるタイミングにおいて前記第一のフォーカス状態で撮影された第三画像と、前記第一画像と前記第三画像との間で撮影された前記第二画像とを受け付け、前記対象動き量推定部は、前記第一画像と前記第三画像との間の被写体の位置ずれ量を表す第一動き量を推定する第一動き量推定部と、前記第一動き量を用いて前記対象動き量を推定する対象動き量決定部とを有する構成としてもよい。
 本構成によれば、フォーカス状態が同じ第一画像と第三画像との間で求めた高精度な第一動き量から対象動き量を求めるので、フォーカス状態が異なる撮影画像間であっても、高精度に対象動き量を推定することができ、結果として、被写体距離を高精度に計測することが可能になる。
 また、例えば、前記対象動き量決定部は、前記対象動き量の大きさを、前記第一動き量の大きさに前記第一画像と前記第三画像との間の撮影時間間隔に対する前記第一画像と前記第二画像との間の撮影時間間隔の比率を積算して求めることにより、前記対象動き量を推定する構成としてもよい。
 本構成により、第一画像、第二画像及び第三画像の撮影間隔が等間隔ではない場合でも、良好に対象動き量を求めることができる。特に、第二画像が複数の場合は、第一画像との間の撮影時間間隔と、第三画像との間の撮影時間間隔が異なることが多いため、有用である。
 また、例えば、前記対象動き量推定部は、さらに、前記第一画像と前記第二画像との間の位置ずれ量を表す第二動き量を推定する第二動き量推定部を有し、前記対象動き量決定部は、前記第一動き量と前記第二動き量とを用いて前記対象動き量を推定する構成としてもよい。
 また、例えば、前記対象動き量決定部は、前記第二画像を構成する画素のうちの前記対象動き量の算出対象画素と、前記算出対象画素に対応する前記第一画像上の画素との画素値の差に基づいて、前記第二動き量の精度を判定し、前記第二動き量の精度が閾値よりも高いと判定された場合は、前記第二動き量を前記対象動き量として推定し、前記第二動き量の精度が前記閾値よりも低いと判定された場合は、前記第一動き量を用いて前記対象動き量を推定する構成としてもよい。
 本構成によれば、第二動き量の精度が良好な場合、第一画像と第二画像との間で直接求めた第二動き量を用いるので、一般的に、間接的に求めた動き量より直接求めた動き量の精度がよいと考えられることから、さらに高精度に対象動き量の推定を行うことが可能になる。
 また、例えば、前記対象動き量推定部は、さらに、前記第二画像と前記第三画像との間の位置ずれ量を表す第三動き量を推定する第三動き量推定部を有し、前記対象動き量決定部は、前記第一動き量と前記第二動き量とに加え、前記第三動き量を用いて前記対象動き量を推定する構成としてもよい。
 また、例えば、前記対象動き量決定部は、前記第二動き量と前記第三動き量との合計が前記第一動き量と等しい場合は、前記第二動き量を前記対象動き量として推定し、前記第二動き量と前記第三動き量との合計が前記第一動き量と等しくない場合は、前記対象動き量の算出対象である前記第二画像の画素と、対応する前記第一画像上の画素との画素値の差に基づいて、前記第二動き量の精度を判定し、前記対象動き量の算出対象である前記第二画像の画素と、対応する前記第三画像上の画素との画素値の差に基づいて、前記第三動き量の精度を判定し、前記第二動き量の精度が閾値よりも高いと判定されたときは、前記第二動き量を前記対象動き量として推定し、前記第二動き量の精度が前記閾値よりも低いと判定されたときは、前記第一動き量から前記第三動き量を減算した動き量を前記対象動き量として推定する構成としてもよい。
 本構成によれば、第二動き量の精度が低い場合でも、直接的に求めた高精度な第一画像と第三画像とを用いて対象動き量を推定できるため、さらに高精度に対象動き量の推定を行うことが可能になる。なお、第一動き量から第三動き量の「減算」とは、ベクトル演算における減算である。
 また、例えば、前記対象動き量に基づいてブラーが生じている領域をブラー領域として判定するブラー領域判定部と、前記ブラー領域を構成する画素のそれぞれについて、前記第一画像の前記ブラーが生じていない領域である非ブラー領域の前記被写体距離、あるいは、予め前記被写体距離が求められた他の撮影画像の前記被写体距離を用いて、前記第一画像の前記被写体距離を計測する被写体距離補償部とを備え、前記被写体距離計測部は、前記非ブラー領域を構成する画素のそれぞれについて、前記第一画像と前記補正画像との間のぼけ量の相関値に基づいて、前記被写体距離を求める構成としてもよい。
 本構成により、撮影画像内にブラーが生じている場合でも、被写体距離を高精度に計測することが可能になる。
 ここで、ブラーとは、被写体の動きや撮影方向の変化が速く、露光時間中に被写体の位置が大きく変化するときに、撮影画像中に生じる動きぶれである。この場合、撮影画像には、被写体距離とフォーカス状態との不一致によって生じるぼけの影響だけでなく、ブラーの影響も重畳されることになる。このような場合、従来の画像処理方法では、これらの影響を考慮していないことから、被写体距離の計測精度が低下するという問題が生じている。これに対し、本構成の画像処理装置では、ブラーの影響のない領域について被写体距離の計測を行うので、被写体距離を高精度に計測することが可能になる。
 本構成では、一般的な被写体距離の測定に利用されるフォーカス状態を異ならせた撮影画像を用いるので、被写体距離の測定を行うにあたり、一般的な被写体距離の測定方法を用いることが可能になる。
 上述した問題を解決するために、本発明の一態様に係る画像処理装置は、複数の撮影状態で同一の被写体が撮影されることにより得られた複数の撮影画像を用いて画像処理を行う画像処理装置であって、前記複数の撮影画像のうち、第一の撮影状態で撮影された第一画像と、前記第一の撮影状態とは異なる第二の撮影状態で撮影された第二画像との間の前記被写体の位置ずれ量を表す対象動き量を推定する対象動き量推定部と、前記対象動き量に基づいて前記第2画像を動き補償した補正画像を生成する補正画像生成部と、前記第一画像と前記補正画像とを用いて画像処理を行う画像処理部とを備える。
 上述したように、撮影状態を異ならせて撮影された撮影画像を用いて画像処理を行う場合、撮影状態に加え、被写体の位置ずれが同時に生じた場合は、画像処理の精度が低下するという問題が生じている。
 本構成の画像処理装置によれば、動き補償により、第一画像との間で被写体の位置ずれを無くした補正画像を生成し、第一画像と補正画像とを用いて画像処理を行うので、撮影状態のみが異なる複数の撮影画像を用いて画像処理を行うことができ、画像処理の精度の低下を防止可能になる。
 また、例えば、前記画像処理装置は、第一の露出状態で撮影された前記第一画像と、第二の露出状態で撮影された前記第二画像とを受け付け、前記画像処理部は、前記画像処理として、前記第一画像と前記補正画像とを合成して、ダイナミックレンジの広い合成画像を生成する処理を行う構成としてもよい。
 本構成の画像処理装置によれば、動き補償により、第一画像との間で被写体の位置ずれを無くした補正画像を生成し、第一画像と補正画像とを用いてHDR(High Dynamic Range)画像の生成を行うので、複数の撮影画像間で被写体の位置ずれが生じても、HDR画像の生成を高精度に行うことが可能になる。
 本発明の一態様に係る画像処理方法は、複数のフォーカス状態で同一の被写体が撮影されることにより得られた複数の撮影画像から被写体距離を計測する画像処理方法であって、前記複数の撮影画像のうち、第一のフォーカス状態で撮影された第一画像と、前記第一のフォーカス状態とは異なる第二のフォーカス状態で撮影された第二画像との間の前記被写体の位置ずれ量を表す対象動き量を推定する対象動き量推定ステップと、前記対象動き量に基づいて前記第二画像を動き補償した補正画像を生成する補正画像生成ステップと、前記第一画像と前記補正画像との間のぼけ量の相関値に基づいて、前記第一画像における前記被写体距離を計測する被写体距離計測ステップとを含む。
 本発明の一態様に係る画像処理方法は、複数の撮影状態で同一の被写体が撮影されることにより得られた複数の撮影画像を用いて画像処理を行う画像処理方法であって、前記複数の撮影画像のうち、第一の撮影状態で撮影された第一画像と、前記第一の撮影状態とは異なる第二の撮影状態で撮影された第二画像との間の前記被写体の位置ずれ量を表す対象動き量を推定する対象動き量推定ステップと、前記対象動き量に基づいて前記第2画像を動き補償した補正画像を生成する補正画像生成ステップと、前記第一画像と前記補正画像とを用いて画像処理を行う画像処理ステップとを含む。
 以下、本発明の実施の形態を、図面を用いて詳細に説明する。なお、以下で説明する実施の形態は、いずれも本発明の望ましい一具体例を示すものである。以下の実施の形態で示される構成要素、構成要素の配置位置および接続形態、処理、処理の順序などは、一例であり、本発明を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、本発明の最上位概念を示す独立請求項に記載されていない構成要素については、より望ましい形態を構成する任意の構成要素として説明される。
 (実施の形態1)
 本発明の実施の形態1に係る画像処理装置について、図1~図5Bを基に説明する。
 本実施の形態の画像処理装置は、複数の撮影状態で撮影された複数の撮影画像から、DFDを利用して被写体距離を計測する装置であり、動画を撮影可能な撮像装置に搭載されている場合を例に説明する。
 ここで、撮影状態とは、フォーカス状態や露出状態、ISO感度などである。本実施の形態では、画像処理装置が、DFDを利用した被写体距離の計測を行うことから、撮影状態がフォーカス状態である場合を例に説明する。
 また、本実施の形態の撮像装置は、ビデオカメラである場合を例に説明する。図19は、ビデオカメラ200の一例を示す外観図である。当該ビデオカメラ200は、動画の撮影において、一定の時間間隔で、近景フォーカス(本実施の形態では、第一のフォーカス状態に相当)と遠景フォーカス(本実施の形態では、第二のフォーカス状態に相当)とを交互に切り替えて撮影を行うように構成されている。ビデオカメラ200は、遠景フォーカスで撮影した遠景撮影画像と近景フォーカスで撮影した近景撮影画像とを交互に、画像処理装置に出力する。なお、画像処理装置は、本実施の形態ではビデオカメラ200に搭載される場合を例に説明するが、動画を撮像可能なビデオカメラ200以外の機器(例えば、携帯電話機等)に搭載されていてもよいし、撮像装置から撮影画像を取得可能な他の装置に設けられていてもよい。
 また、ここでの近景フォーカスは、ビデオカメラ200の焦点が合う合焦範囲のうち、カメラからの距離が最も近い位置に焦点を合わせた撮影状態を示しており、遠景フォーカスは、上記合焦範囲のうち、カメラからの距離が最も遠い位置(無限遠)に焦点を合わせた撮影状態を示している。
  (実施の形態1における画像処理装置の構成)
 先ず、画像処理装置100の構成を、図1および図2を参照しながら説明する。図1は、画像処理装置100の構成例を示すブロック図である。
 画像処理装置100は、本実施の形態では、遠景フォーカスおよび近景フォーカスで撮影された複数の撮影画像から被写体距離を計測する装置であり、図1に示すように、対象動き量推定部10(本実施の形態では、10A)、補正画像生成部20、被写体距離計測部30を備えている。
 画像処理装置100は、ビデオカメラ200から、被写体が遠景フォーカスで撮影された遠景撮影画像と、同一の被写体が遠景撮影画像とは異なるタイミングにおいて近景フォーカスで撮影された近景撮影画像とを交互に連続して取得するように構成されている。また、被写体距離の算出対象の撮影画像を第一画像とし、第一画像の直前に撮影された撮影画像を第二画像とし、第二画像の直前に撮影された撮影画像を第三画像として説明する。第一画像と第三画像のフォーカス状態は、同じになる。なお、以下では、説明のため、所定の近景撮影画像を被写体距離の算出対象とする場合(近景フォーカスを第一のフォーカス状態とする場合)を例に説明するが、遠景撮影画像を被写体距離の算出対象とする場合(遠景フォーカスを第一のフォーカス状態とする場合)でも、同じ方法で被写体距離を算出できる。また、近景フォーカスおよび遠景フォーカス以外のフォーカス状態を用いてもよい。
 対象動き量推定部10Aは、ビデオカメラ200で撮影された撮影画像のうち、近景フォーカスで撮影された第一画像と遠景フォーカスで撮影された第二画像との間で生じた被写体の位置ずれ量を対象動き量として推定し、補正画像生成部20に出力する。なお、対象動き量はベクトル量であり、位置ずれの方向と位置ずれの大きさとで規定される。図2は、対象動き量推定部10Aの構成例を示すブロック図である。対象動き量推定部10Aは、図2に示すように、第一動き量推定部11Aと、動き量決定部12Aとを有する。
 第一動き量推定部11Aは、同じフォーカス状態で撮影された第一画像と第三画像とを受け付け、第一画像と第三画像との間で生じた被写体の位置ずれ量を第一動き量として推定し、動き量決定部12Aに出力する。なお、第一動き量はベクトル量であり、位置ずれの方向と位置ずれの大きさとで規定される。
 動き量決定部12Aは、第一動き量に基づき、第一画像と第二画像との間で生じた被写体の位置ずれ量を対象動き量として推定する。
 補正画像生成部20は、対象動き量に基づいて第二画像に対する動き補償を行い、第一画像との間で被写体の位置ずれがない補正画像を生成し、被写体距離計測部30に出力する。
 被写体距離計測部30は、第一画像と補正画像との間のぼけ量の相関値に基づき、DFDを用いて被写体距離を計測する。
 ここで、フォーカス状態の異なる複数の撮影画像から、ぼけ量の相関値に基づいて被写体距離を計測するDFDの原理について説明する。なお、このDFDの原理については、特許文献1や非特許文献3にも記載されている。
 一般に、カメラの光学系を通して撮影した画像を2次元フーリエ変換すると、その周波数情報I(u,v)は以下の式1のように表される。
Figure JPOXMLDOC01-appb-M000001
 ここで、変数uおよび変数vは、2次元フーリエ空間における周波数成分を表している。また、S(u,v)は、ぼけ量がゼロとなるように撮影した場合における全焦点画像の周波数情報を表している。さらに、OTF(u,v,d)は、撮影したときのフォーカス状態に関連し、カメラから距離dの位置に存在する被写体を撮影したときの光学系の伝達関数(Optical Transfer Function)を表している。式1から分かるように、撮影画像の周波数情報I(u,v)は、全焦点画像の周波数情報S(u,v)と、撮影時の光学系の伝達関数OTF(u,v,d)の積で表される。
 ここで、距離dにある被写体を2つの異なるフォーカス状態で撮影すると、撮影された2枚の撮影画像の周波数情報I(u,v)およびI(u,v)は、以下の式2および式3で表される。ただし、2枚の撮影画像間に被写体の位置ずれは生じていないものとする。
Figure JPOXMLDOC01-appb-M000002
Figure JPOXMLDOC01-appb-M000003
 これらの式の両辺を互いに除算した場合、全焦点画像S(u,v)に依存しない以下の式4が得られる。
Figure JPOXMLDOC01-appb-M000004
 ここで、OTF(u,v,d),OTF(u,v,d)は、各画像を撮影したときの光学系の特性を表すことから、あらかじめ距離dごとの特性を計測し、保持しておくことができる。従って、フォーカス状態が異なる2枚の画像I(u,v),I(u,v)を撮影すれば、式4の左辺に一致する右辺の距離dを求めることにより、被写体距離を計測することが可能となる。
 ただし、一般的に、撮影画像には、ノイズや量子化誤差などの影響が含まれるため、左辺と右辺の値が完全に一致する距離dが存在するとは限らない。このため、以下の式5に示すように、距離dをパラメータとする式4の左辺と右辺との差分の絶対値e(d)を求め、e(d)が最小になる距離dを被写体までの距離として推定してもよい。
Figure JPOXMLDOC01-appb-M000005
 e(d)が最小になる距離dを被写体までの距離として推定するように構成すれば、撮影画像の特性が、あらかじめ計測しておいた光学系の特性と完全に一致しない場合でも、被写体距離を計測することが可能となる。
  (実施の形態1における画像処理方法の処理手順)
 次に、本発明の実施の形態1に係る画像処理装置において、被写体距離を計測する場合の処理の流れ(画像処理方法の処理手順)について、図3および図4を用いて説明する。図3は、本実施の形態における画像処理方法の処理手順を示すフロー図であり、図4は、本実施の形態における撮影画像と対象動き量と第一動き量との関係を示す説明図である。
 まず、図19に示すビデオカメラ200(撮像装置)において、複数のフォーカス状態で画像を撮影し、画像処理装置100に対し出力する(ステップS101)。
 本実施の形態のビデオカメラ200は、図4に示すように、近景フォーカスでの撮影と、遠景フォーカスでの撮影を、時間的に連続して交互に繰り返し、撮影した近景撮影画像と遠景撮影画像とを画像処理装置100に出力する。なお、本実施の形態では、ビデオカメラ200は、同一の位置から同一の方向を撮影する場合、すなわち、複数の撮影画像で同じ被写体を撮影する場合を例に説明する。また、本実施の形態では、被写体は、カメラから近距離にいる人物およびその背景である。
 なお、本実施の形態では、説明のため、ビデオカメラ200の位置および撮影方向が同じ場合について説明するが、これに限るものではない。また、被写体の構成も、人物およびその背景に限られるものではない。
 図4において、近景フォーカスの撮影画像では、手前に立つ人物にフォーカスが合っているため(近距離に焦点が合っているため)、手前に立つ人物は、はっきりと写っているが、背景はぼやけている。一方、遠景フォーカスでは、背景にフォーカスが合っている(無限遠に焦点が合っている)ため、背景は、はっきりと写っているが、手前に立つ人物はぼやけている。また、上述したように、近景フォーカスで撮影された近景撮影画像のうちの1枚を被写体距離の計測を行う第一画像、その1枚前に遠景フォーカスで撮影された遠景撮影画像を第二画像、さらにその1枚前に近景フォーカスで撮影された近景撮影画像を第三画像とする。なお、本ステップS101は、本発明の必須行程ではないが、より好ましい形態を構成するものとして説明する。画像処理装置100が、複数の撮影状態による撮影画像を取得することができる構成であればよい。また、以下に説明するステップS102~ステップS105の処理は、ビデオカメラ200による撮影と並行して実行してもよいし、撮影後に実行してもよい。
 ここで、近景フォーカスによる第一画像と遠景フォーカスによる第二画像とを撮影する間に被写体の動きや撮影方向の変化がなければ、画像間で被写体の位置ずれは生じない。この場合は、第一画像と第二画像とをそのまま用いて、式5に基づくDFDの処理によって被写体距離を計測できる。しかし、第一画像と第二画像との間で被写体の位置ずれが生じた場合には、式2および式3で全焦点画像S(u,v)が異なるため、式4が成り立たず、被写体距離を計測することができない。そこで、本実施の形態では、第一画像および第二画像の全焦点画像S(u,v)を一致させるために、画像間の位置ずれに相当する動き量を推定した後、位置ずれが生じた被写体に対する動き補償を行って補正画像を生成する。以下では、第一画像と第二画像との間の動き量を対象動き量と呼ぶ。
 画像処理装置100は、被写体距離の計測にあたり、先ず、図3に示すように、対象動き量推定部10Aの第一動き量推定部11Aにおいて、第一画像と、第一画像と同じ近景フォーカス状態で撮影された第三画像との間の動き量を、第一動き量として推定する(ステップS102)。なお、この動き量の推定は、同じフォーカス状態で撮影された画像間での推定であり、被写体の位置のみが異なるため、高精度な推定結果が得られる。
 以下、第一画像と第三画像との間の第一動き量の推定方法について、図5Aおよび図5Bを用いて説明する。なお、本実施の形態では、動き量の推定に、ブロックマッチング法を用いる場合を例に説明する。
 ブロックマッチング法は、画像間の動き量をブロック領域毎に推定する手法であり、一方の画像(以下、探索元画像と呼ぶ)内に設定したブロック領域の画像と最も相関が高くなる領域を他方の画像(以下、探索先画像と呼ぶ)内から特定することで動き量を推定する。図5Aは、探索元画像と注目ブロックとの関係の一例を示す説明図であり、図5Bは、探索先画像と探索エリアとの関係の一例を示す説明図である。
 第一動き量推定部11Aは、図5Aに示すように、まず、探索元画像(つまり、第一画像)内において、複数の画素で構成される注目ブロックを設定する。この注目ブロックのサイズとしては、8×8画素や16×16画素など任意に設定できる。言い換えると、第一動き量推定部11Aは、探索元画像を、同じサイズの複数のブロック領域に分割し、複数のブロック領域を順次注目ブロックに設定する。
 次に、第一動き量推定部11Aは、探索先画像(つまり、第三画像)内に探索エリアを設定する。この探索エリアは、探索元画像内の注目ブロックと最も相関が高くなるエリア(領域)を探索する範囲を示すものであり、注目ブロックよりサイズの大きいエリアである。また、探索エリアは、探索元画像内における注目ブロックの位置と近い位置に設定することが好ましい。
 次に、第一動き量推定部11Aは、探索元画像内の注目ブロックと同じサイズのブロック領域を探索先画像の探索エリア内から切り出して探索ブロックとし、以下の式6に基づいて、画像の相関を表す評価値rx,yを算出する。
Figure JPOXMLDOC01-appb-M000006
 ここで、x,yは、ブロック領域の探索先画像内の位置を示す座標位置であり、図5Bに示す探索先画像の左上角部の画素の座標(x,y)を(0,0)としたときの座標位置である。また、(i,j)は、ブロック領域(注目ブロックおよび探索ブロック)を構成する画素のブロック領域内の相対的な座標位置であり、ブロック領域の左上角部の画素の座標(i,j)を(0,0)としたときの座標位置である。f(i,j)は、探索元画像内に設定した注目ブロックを構成する画素の画素値、gx,y(i,j)は、探索先画像内から切り出した探索ブロックの画素値をそれぞれ表す。探索先画像の探索エリア内から探索ブロックを切り出す座標位置(x,y)をずらしながら、式6に基づく評価値rx,yを算出し、この中から評価値rx,yが最も小さくなる座標位置を特定する。この座標位置と、探索元画像内における注目ブロックの座標位置との相対的な位置ずれが画像間の動き量を表す。第一動き量推定部11Aは、この処理を探索元画像内の全てのブロック領域に対して行うことにより、画像全体で動き量を推定できる。
 次に、対象動き量推定部10Aの動き量決定部12Aは、第一動き量に基づいて、第一画像と第二画像との間の動き量である対象動き量を推定する(ステップS103)。ここで、第一画像、第二画像、第三画像が時間的に等間隔に撮影されたとすると、対象動き量は、第一動き量と位置ずれの方向が同じで、大きさが半分となるように決定する。これは、短い時間であれば被写体の動きや撮影方向の変化はほぼ等速であるという特性を利用したものであり、第一画像と第二画像との間の撮影時間間隔が、第一画像と第三画像との間の撮影時間間隔の半分であれば、その間の動き量もほぼ半分になるという関係を利用している。
 なお、撮影時間間隔が等間隔でない場合には、撮影時間間隔の比率に応じて第一動き量の大きさを補正することで、対象動き量を決定してもよい。具体的には、例えば、対象動き量の大きさ=第一動き量の大きさ×((第一画像と第二画像との間の撮影時間間隔)/(第一画像と第三画像との間の撮影時間間隔))とし、対象動き量の方向=第一動き量の方向として、対象動き量を求める。なお、当該式に、第一画像と第二画像との間の撮影時間間隔が、第一画像と第三画像との間の撮影時間間隔の半分の場合を当てはめると、対象動き量の大きさ=第一動き量の大きさ×0.5となる。
 補正画像生成部20は、対象動き量推定部10Aから対象動き量を受け付けると、受け付けた対象動き量に基づいて、第二画像の動き補償を行い、補正画像を生成する(ステップS104)。この結果、第一画像と補正画像とは被写体の位置が一致することから、全焦点画像が共通となり、ぼけ量だけが異なるという関係になる。言い換えると、第一画像と補正画像とは被写体の状態が同じであり、フォーカス状態だけが異なる関係になる。
 被写体距離計測部30は、補正画像生成部20から補正画像を受け付けると、第一画像と補正画像との間のぼけ量の相関値に基づいて、DFDによる被写体距離の計測を行う(ステップS105)。ここでは、上述したように、式5が最小になる距離dを求めることで、被写体距離を計測できる。
 上記の手法によれば、同じフォーカス状態で撮影した第一画像と第三画像との間で推定した第一動き量を用いて、異なるフォーカス状態で撮影した第一画像と第二画像との間の対象動き量を推定することにより、高精度な対象動き量の推定が可能になる。この対象動き量を用いて第二画像を動き補償することで、第一画像と被写体の位置ずれがない補正画像を高精度に生成することができ、DFDによる被写体距離の計測処理をより良好に行うことが可能になる。
 なお、上記のブロックマッチング法を、第一画像と第二画像との間で行うことにより、フォーカス状態が異なっていても、第一画像と第二画像との間の動き量を直接的に算出することは可能である。特に、第一画像を撮影したときのフォーカス状態と第二画像を撮影したときのフォーカス状態との違いが小さい場合には、動き量を良好に推定できる可能性が高い。しかし、第一画像を撮影したときのフォーカス状態と第二画像を撮影したときのフォーカス状態との違いが大きい場合には、画像間でぼけ量が大きく異なるため、同じ被写体でも画像間で相関は低くなり、推定される動き量には多くの誤差が生じる可能性がある。一般に、DFDを用いて被写体距離を計測する場合には、画像間のフォーカス状態の違いが大きい方が被写体距離の計測精度が向上するため、後者の条件で撮影されることが多い。
 上記の手法によれば、フォーカス状態の異なる第一画像と第二画像とを用いた被写体距離の測定において、ブロックマッチング法により高精度に求められた第一画像と第三画像との間の第一動き量を用いることで、第一画像と第二画像との間の動き量を高精度に推定することができる。高精度に推定された対象動き量を用いることで、第一画像と補正画像との間の位置ずれを無くす、あるいは、被写体距離の計測を良好に行える程度に小さくすることができ、被写体距離の計測を良好に行うことが可能になる。
 (実施の形態2)
 本発明の実施の形態2に係る画像処理装置について、図1、図6~図8を基に説明する。
 なお、本実施の形態の画像処理装置が、実施の形態1の画像処理装置100と異なる点は、対象動き量推定部10Bが、第一画像と第三画像との間の第一動き量を求める第一動き量推定部11Aに加え、第一画像と第二画像との間の第二動き量を直接的に求める第二動き量推定部11Bを備える点である。
 本実施の形態では、実施の形態1と同様に、撮像装置が図19に示すビデオカメラ200であり、撮影状態が、近景フォーカス及び遠景フォーカスの2つのフォーカス状態である場合を例に説明する。
  (実施の形態2における画像処理装置の構成)
 先ず、実施の形態2における画像処理装置100の構成を、図1および図6を参照しながら説明する。
 図6は、対象動き量推定部10Bの構成例を示すブロック図である。なお、本実施の形態に係る画像処理装置の構成のうち、実施の形態1に係る画像処理装置100と共通のブロックには同じ符号を付し、説明を省略する。
 本実施の形態の画像処理装置の構成は、図1に示す実施の形態1の画像処理装置100と同じブロック構成であり、対象動き量推定部10B、補正画像生成部20、被写体距離計測部30を備えている。なお、補正画像生成部20および被写体距離計測部30の構成は、実施の形態1と同じである。また、本実施の形態の画像処理装置は、実施の形態1と同様に、ビデオカメラ200から、時間的に連続して撮影された遠景撮影画像と近景撮影画像とを、交互に連続して取得するように構成されている。また、被写体距離の算出対象の撮影画像を第一画像とし、第一画像の直前に撮影された撮影画像を第二画像とし、第二画像の直前に撮影された撮影画像を第三画像として説明する。
 対象動き量推定部10Bは、近景フォーカスで撮影された第一画像と遠景フォーカスで撮影された第二画像との間で生じた被写体の位置ずれ量を対象動き量として推定するように構成されており、図6に示すように、第一動き量推定部11Aと、第二動き量推定部11Bと、動き量決定部12Bとを有する。
 第一動き量推定部11Aの構成は、実施の形態1と同じであり、第一画像と第三画像との間の第一動き量を、ブロックマッチング法により求め、動き量決定部12Bに出力する。
 第二動き量推定部11Bは、実施の形態1で説明したブロックマッチング法により、第一画像と第二画像との間に生じた被写体の位置ずれ量を第二動き量(初期推定値に相当)として推定し、動き量決定部12Bに出力する。なお、第二動き量は、対象動き量および第一動き量と同様に、ベクトル量であり、位置ずれの方向と位置ずれの大きさとで規定される。
 動き量決定部12Bは、第一動き量推定部11Aで推定した第一動き量と、第二動き量推定部11Bで推定した第二動き量とに基づいて、第一画像と第二画像の間で生じた被写体の位置ずれを示す対象動き量を推定する。
  (実施の形態2における画像処理方法の処理手順)
 次に、本発明の実施の形態2に係る画像処理装置において、被写体距離を計測する場合の処理の流れについて、図7および図8を用いて説明する。図7は、本実施の形態における画像処理方法の処理手順を示すフロー図であり、図8は、本実施の形態における撮影画像と対象動き量と第一動き量と第二動き量との関係を示す説明図である。なお、図7に示す処理の流れのうち、図3に示した実施の形態1の処理の流れと共通の処理には同一の符号を付し、説明を省略する。
 まず、図19に示すビデオカメラ200(撮像装置)において、複数のフォーカス状態で画像を撮影し、画像処理装置100に対し出力する(ステップS101)。
 画像処理装置100は、被写体距離の計測にあたり、先ず、図7に示すように、対象動き量推定部10Bの第一動き量推定部11Aにおいて、第一画像と第三画像との間の動き量を、第一動き量として推定する(ステップS102)。ここまでは実施の形態1と同様である。
 次に、画像処理装置100は、対象動き量推定部10Bの第二動き量推定部11Bにより、第一画像と第二画像との間の動き量の初期推定値である第二動き量を推定する(ステップS201)。この推定には、ブロックマッチング法を行いることができる。
 次に、画像処理装置100は、対象動き量推定部10Bの動き量決定部12Bにより、第一動き量と第二動き量とを用いて、対象動き量を推定する(ステップS202)。
 ここで、フォーカス状態が同じであれば、一般的には、直接的に推定した第二動き量の方が、第一動き量から間接的に推定する場合に比べ、精度が高い。すなわち、直接的に第一画像と第二画像との間の第二動き量を推定した方が、精度が高くなる場合がある。ただし、上述したように、第一画像を撮影したときのフォーカス状態と第二画像を撮影したときのフォーカス状態は、特にDFDによる被写体距離の測定では、大きく異なる可能性が高い。このため、フォーカス状態の変更によるぼけ量が大きく異なると、同じ被写体でも画像間で相関は低くなり、推定される動き量には大きな誤差が生じることがある。
 従って、本実施の形態の動き量決定部12Bは、第二動き量の精度を判定し、被写体距離の測定に用いるのに必要な精度である場合は、第二動き量をそのまま対象動き量とし、必要な精度でない場合は、実施の形態1と同様に、第一動き量から対象動き量を推定する。なお、第一動き量から対象動き量を推定する方法は、実施の形態1のステップS103と同じである。
 ここでは、動き量決定部12Bは、第二動き量を推定するときに適用したブロックマッチング法における最小の評価値rx,y(最小評価値rmin)に基づいて、第二動き量の精度を判定する。より具体的には、動き量決定部12Bは、最小評価値rminが所定の閾値よりも小さいと判定された場合(精度が高いと判定された場合)は、第二動き量を対象動き量としてそのまま用い、最小評価値rminが所定の閾値よりも大きいと判定された場合(精度が低いと判定された場合)は、第一動き量から対象動き量を推定する。これは、ブロックマッチング法で算出された最小評価値rminが小さいときは、探索元画像における注目ブロックと探索先画像で特定された探索ブロックとの間の一致度が高く、動き量の推定精度が高いという特性を利用している。このような場合には、第一画像と第二画像の間にブロックマッチング法を適用して直接的に求めた第二動き量を用いる方が、対象動き量として高精度な推定結果が得られると考えられる。
 補正画像生成部20は、対象動き量推定部10Bから対象動き量を受け付けると、受け付けた対象動き量に基づいて、第二画像の動き補償を行い、補正画像を生成する(ステップS104)。当該ステップS104は、実施の形態1と同様である。
 さらに、被写体距離計測部30は、補正画像生成部20から補正画像を受け付けると、第一画像と補正画像との間のぼけ量の相関値に基づいて、DFDによる被写体距離の計測を行う(ステップS105)。当該ステップS105は、実施の形態1と同様である。
 上記の手法によれば、異なるフォーカス状態で撮影した第一画像と第二画像との間で推定した第二動き量の推定精度が高いと判断されるときには、対象動き量として第二動き量を利用し、第二動き量の推定精度が低いと判断されるときには、同じフォーカス状態で撮影した第一画像と第三画像の間で推定した第一動き量に基づいて対象動き量を推定することができ、高精度な推定が可能になる。
 なお、本実施の形態において、第一動き量推定部11Aは、第二動き量推定部11Bで求められた最小評価値rminが、所定の閾値より小さいと判定された場合は、第一動き量を算出しない構成にしてもよい。
 なお、ステップS202における対象動き量の推定方法としては、第一動き量と第二動き量を推定するときにそれぞれ適用したブロックマッチング法の最小評価値rminの比に基づき、第一動き量の半分の動き量と第二動き量とを内分して得た動き量を、対象動き量として使用してもよい。
 (実施の形態3)
 本発明の実施の形態3に係る画像処理装置について、図1、図9~図12を基に説明する。
 なお、本実施の形態の画像処理装置が、実施の形態2の画像処理装置100と異なる点は、対象動き量推定部10Cが、第一画像と第三画像との間の第一動き量を求める第一動き量推定部11Aと、第一画像と第二画像との間の第二動き量を直接的に求める第二動き量推定部11Bとに加え、第二画像と第三画像との間の第三動き量を求める第三動き量推定部11Cを備える点である。
 本実施の形態では、実施の形態1及び実施の形態2と同様に、撮像装置が図19に示すビデオカメラ200であり、撮影状態が、近景フォーカス及び遠景フォーカスの2つのフォーカス状態である場合を例に説明する。
  (実施の形態3における画像処理装置の構成)
 先ず、実施の形態3における画像処理装置100の構成を、図1および図9を参照しながら説明する。
 図9は、対象動き量推定部10Cの構成例を示すブロック図である。なお、本実施の形態に係る画像処理装置の構成のうち、実施の形態1または実施の形態2に係る画像処理装置と共通のブロックには同じ符号を付し、説明を省略する。
 本実施の形態の画像処理装置の構成は、図1に示す実施の形態1の画像処理装置100と同じブロック構成であり、対象動き量推定部10C、補正画像生成部20、被写体距離計測部30を備えている。なお、補正画像生成部20および被写体距離計測部30の構成は、実施の形態1および実施の形態2と同じである。また、本実施の形態の画像処理装置は、実施の形態1および実施の形態2と同様に、ビデオカメラ200から、遠景フォーカスで撮影された遠景撮影画像と近景フォーカスで撮影された近景撮影画像とを交互に連続して取得するように構成されている。また、被写体距離の算出対象の撮影画像を第一画像とし、第一画像の直前に撮影された撮影画像を第二画像とし、第二画像の直前に撮影された撮影画像を第三画像として説明する。
 対象動き量推定部10Cは、近景フォーカスで撮影された第一画像と遠景フォーカスで撮影された第二画像との間で生じた被写体の位置ずれ量を対象動き量として推定するように構成されており、図9に示すように、第一動き量推定部11Aと、第二動き量推定部11Bと、第三動き量推定部11Cと、動き量決定部12Cとを有する。
 第一動き量推定部11Aの構成は、実施の形態1および実施の形態2と同じであり、第一画像と第三画像との間の第一動き量を、ブロックマッチング法により求め、動き量決定部12Cに出力する。
 第二動き量推定部11Bの構成は、実施の形態2と同じであり、第一画像と第二画像との間の第二動き量(初期推定値)を、ブロックマッチング法により直接的に求め、動き量決定部12Cに出力する。
 第三動き量推定部11Cは、実施の形態1で説明したブロックマッチング法により、第二画像と第三画像との間に生じた被写体の位置ずれ量を第三動き量として推定し、動き量決定部12Cに出力する。
 動き量決定部12Cは、第一動き量推定部11Aで推定した第一動き量、第二動き量推定部11Bで推定した第二動き量、および、第三動き量推定部11Cで推定した第三動き量に基づいて、第一画像と第二画像との間で生じた被写体の位置ずれ量を示す対象動き量を推定する。
  (実施の形態3における画像処理方法の処理手順)
 次に、本発明の実施の形態3に係る画像処理装置において、被写体距離を計測する場合の処理の流れについて、図10~図12を用いて説明する。図10は、本実施の形態における画像処理方法の処理手順を示すフロー図であり、図11は、本実施の形態における撮影画像と対象動き量と第一動き量と第二動き量と第三動き量との関係を示す説明図である。また、図12は、第一動き量、第二動き量、第三動き量および対象動き量の関係を示すベクトル図である。なお、図10に示す処理の流れのうち、図3示す実施の形態1の処理の流れおよび図7に示す実施の形態2の処理の流れと共通の処理には同一の符号を付し、説明を省略する。
 まず、図19に示すビデオカメラ200(撮像装置)において、複数のフォーカス状態で画像を撮影し、画像処理装置100に対し出力する(ステップS101)。
 画像処理装置100は、被写体距離の計測にあたり、先ず、図10に示すように、対象動き量推定部10Cの第一動き量推定部11Aにおいて、第一画像と第三画像との間の動き量を、第一動き量として算出する(ステップS102)。ここまでは実施の形態1および実施の形態2と同様である。
 次に、画像処理装置100は、対象動き量推定部10Cの第二動き量推定部11Bにより、第一画像と第二画像との間の動き量の初期推定値である第二動き量を推定する(ステップS201)。この処理は実施の形態2と同様である。
 次に、画像処理装置100は、対象動き量推定部10Cの第三動き量推定部11Cにより、第二画像と第三画像との間の動き量である第三動き量を推定する(ステップS301)。この推定には、ブロックマッチング法を行いることができる。
 次に、画像処理装置100は、対象動き量推定部10Cの動き量決定部12Cにより、第一動き量、第二動き量および第三動き量に基づいて、対象動き量を推定する(ステップS302)。ここでは、第一動き量、第二動き量、第三動き量の関係から、推定精度が高いと判断される組合せを選択することで対象動き量を決定する方法を、図12を用いて説明する。
 なお、図12では、ステップS102で求めた第一動き量をV1と表す。また、ステップS201で求めた第二動き量をV2aと表し、このとき得られた評価値をr2aと表す。また、ステップS301で求めた第三動き量をV3aと表し、このとき得られた評価値をr3aと表す。ここで、V1、V2a、V3aは画像上の2次元的な動き量を表すため、図12に実線の矢印で示すようにベクトル量として表される。ここで、以下の式7の関係が成り立てば、V1、V2a、V3aは3枚の画像間の動きとして整合が取れるため、いずれも推定精度が高いと判断し、対象動き量として第二動き量V2aを用いる。
Figure JPOXMLDOC01-appb-M000007
 しかし、式7の関係が成り立たない場合は、第一動き量V1、第二動き量V2a、第三動き量V3aのうち少なくとも1つは推定精度が低いことになる。ただし、第一動き量V1については、同じフォーカス状態で撮影した撮影画像間で推定した動き量であるため、推定精度は高いと考えられる。さらに、第二動き量V2aおよび第三動き量V3aは、異なるフォーカス状態で撮影した撮影画像間で推定した動き量であるため、ここでは、第二動き量V2aまたは第三動き量V3aの一方、あるいは、両方の推定精度が低いと考えられる。
 ここで、第二動き量V2aの推定精度が高いと仮定すると、第二動き量V2aと実際の第三動き量とをベクトル加算した動き量は第一動き量V1に一致しなければならないことから、第三動き量の補正候補量V3bは式8によって算出できる。これは、図12において点線で表される。
Figure JPOXMLDOC01-appb-M000008
 これに対し、第三動き量V3aの推定精度が高いと仮定すると(第二動き量V2aの推定精度が低いと仮定すると)、第三動き量V3aと実際の第二動き量とをベクトル加算した動き量は第一動き量V1に一致しなければならないことから、第二動き量の補正候補量V2bは式9によって算出できる。これは、図12において破線で表される。
Figure JPOXMLDOC01-appb-M000009
 ここで、第三動き量の補正候補量V3bに対応する、探索元画像(第二画像)の注目ブロックと探索先画像(第三画像)のブロック領域とを切り出し、式6に基づいて評価値を算出した結果をr3bとする。また、第二動き量の補正候補量V2bに対応する、探索元画像(第一画像)の注目ブロックと探索先画像(第二画像)のブロック領域とを切り出し、式6に基づいて評価値を算出した結果をr2bとする。
 このとき、第二動き量V2aの推定精度が高いと仮定した場合において、第二動き量V2aと第三動き量の補正候補量V3bの組合せに対する合計の評価値は、(r2a+r3b)となる。一方、第三動き量V3aの推定精度が高いと仮定した場合において、第二動き量の補正候補量V2bと第三動き量V3aの組合せに対する合計の評価値は、(r2b+r3a)となる。
 ここで、合計の評価値(r2a+r3b)と(r2b+r3a)の小さい方が動き量の推定精度が高いことを表すことから、合計の評価値が小さい方の組合せにおける第二動き量V2aまたは第二動き量の補正候補量V2bを対象動き量として決定する。言い換えると、(r2a+r3b)が小さい場合は、第二動き量V2aの推定精度が高いと判定し、第二動き量V2aを対象動き量とする。一方、(r2b+r3a)が小さい場合は、第三動き量V3aの推定精度が高いと判定し、第二動き量の補正候補量V2bを対象動き量として決定する。
 ただし、合計の評価値(r2a+r3b)と(r2b+r3a)の両方が、所定の閾値よりも大きかった場合は、いずれの組合せも動き量の推定精度が低いことを表すことから、この場合は、第一動き量V1の半分の動き量を対象動き量として決定する。
 補正画像生成部20は、対象動き量推定部10Cから対象動き量を受け付けると、受け付けた対象動き量に基づいて、第二画像の動き補償を行い、補正画像を生成する(ステップS104)。当該ステップS104は、実施の形態1および実施の形態2と同様である。
 さらに、被写体距離計測部30は、補正画像生成部20から補正画像を受け付けると、第一画像と補正画像との間のぼけ量の相関値に基づいて、DFDによる被写体距離の計測を行う(ステップS105)。当該ステップS105は、実施の形態1および実施の形態2と同様である。
 上記の手法によれば、第一動き量、第二動き量、第三動き量の3つの動き量の関係から、推定精度が高いと判断される組合せを選択して対象動き量を決定できるため、さらに高精度な推定が可能になる。
 (実施の形態4)
 本発明の実施の形態4に係る画像処理装置について、図13~図15を基に説明する。
 なお、本実施の形態の画像処理装置が、実施の形態1~実施の形態3の画像処理装置100と異なる点は、被写体の動きや撮影方向の変化が速い場合等に生じるブラーの影響を考慮して、被写体距離の計測を行う点である。
 本実施の形態では、実施の形態1と同様に、撮像装置が図19に示すビデオカメラ200であり、撮影状態が、近景フォーカス及び遠景フォーカスの2つのフォーカス状態である場合を例に説明する。
  (実施の形態4における画像処理装置の構成)
 先ず、実施の形態4における画像処理装置100の構成を、図13を参照しながら説明する。
 図13は、画像処理装置100の構成例を示すブロック図である。なお、本実施の形態に係る画像処理装置の構成のうち、実施の形態1、実施の形態2、実施の形態3の何れかに係る画像処理装置100と共通のブロックには同じ符号を付し、説明を省略する。
 本画像処理装置100は、図13に示すように、対象動き量推定部10、補正画像生成部20、被写体距離計測部30、ブラー領域判定部40、被写体距離補償部50を備えている。なお、本実施の形態では、対象動き量推定部10の構成は、実施の形態1の対象動き量推定部10Aと同じである場合を例に説明するが、実施の形態2の対象動き量推定部10Bまたは実施の形態3の対象動き量推定部10Cと同じ構成であってもよい。
 また、本実施の形態の画像処理装置は、実施の形態1と同様に、ビデオカメラ200から、遠景フォーカスで撮影された遠景撮影画像と近景フォーカスで撮影された近景撮影画像とを交互に連続して取得するように構成されている。また、被写体距離の算出対象の撮影画像を第一画像とし、第一画像の直前に撮影された撮影画像を第二画像とし、第二画像の直前に撮影された撮影画像を第三画像として説明する。
 ブラー領域判定部40は、対象動き量推定部10から出力された対象動き量に基づいて、第一画像および第二画像内にブラーが生じているか否かを判定し、ブラーが生じていると判定された領域を示す情報(例えば、位置座表)を含むブラー領域判定結果を補正画像生成部20、被写体距離計測部30および被写体距離補償部50に出力する。
 補正画像生成部20は、対象動き量推定部10から出力された対象動き量に基づいて、第二画像に対する動き補償を行い、第一画像と被写体の位置ずれがない補正画像を生成し、被写体距離計測部30に出力する。ただし、本実施の形態では、ブラー領域判定部40から出力されたブラー領域判定結果においてブラーが生じていないと判定された領域(以下、非ブラー領域と呼ぶ)に対してのみ、補正画像を生成する。
 被写体距離計測部30は、実施の形態1~実施の形態3と同様に、第一画像と補正画像との間のぼけ量の相関値に基づき、DFDを用いて被写体距離を計測する。ただし、本実施の形態では、ブラー領域判定結果において非ブラー領域と判定された領域に対してのみ、被写体距離を計測する。
 被写体距離補償部50は、ブラー領域判定結果においてブラーが生じていると判定された領域(以下、ブラー領域と呼ぶ)に対する被写体距離の推定を行う。
  (実施の形態4における画像処理方法の処理手順)
 次に、本発明の実施の形態4に係る画像処理装置において、被写体距離を計測する場合の処理の流れについて、図14および図15を用いて説明する。図14は、本実施の形態における画像処理方法の処理手順を示すフロー図であり、図15は、ブラー領域の判定方法を示す説明図である。なお、図14に示す処理の流れのうち、図3に示す実施の形態1の処理の流れ、図7に示す実施の形態2の処理の流れ、および、図10に示す実施の形態3の処理の流れと共通の処理には同一の符号を付し、説明を省略する。
 まず、図19に示すビデオカメラ200(撮像装置)において、複数のフォーカス状態で画像を撮影し、画像処理装置100に対して出力する(ステップS101)。この処理は実施の形態1~実施の形態3と同様である。
 画像処理装置100は、被写体距離の計測にあたり、先ず、図14に示すように、対象動き量推定部10により、第一画像と第二画像との間の対象動き量を推定する(ステップS401)。この処理は、本実施の形態では、実施の形態1におけるステップS102およびステップS103(図3参照)に示す処理と同様である。なお、ステップS401の対象動き量の推定処理としては、実施の形態2におけるステップS102、ステップS201およびステップS202(図7参照)に示す処理、または、実施の形態3におけるステップS102、ステップS201、ステップS301およびステップS302(図10参照)に示す処理を用いてもよい。
 次に、画像処理装置100は、ブラー領域判定部40により、第一画像または第二画像の少なくとも何れか一方においてブラーが生じている領域の判定を行う(ステップS402)。なお、第一画像と第二画像との間に異なるブラーが生じている場合には、式2および式3の2つの式で全焦点画像S(u,v)が異なるため、式4が成り立たず、式5に基づいて被写体距離を計測することができなくなる。一方、第一画像と第二画像との間に同程度のブラーが生じている場合には、ブラーの影響も含まれた2つの撮影画像で全焦点画像S(u,v)が共通になるため、理論的には式4が成り立ち、式5に基づいて被写体距離を計測することが可能となる。しかし、ブラーの影響を強く受けると、撮影画像の高周波成分は大きく失われるため、共通の全焦点画像S(u,v)に相当する撮影画像の周波数情報は、異なるフォーカス状態で撮影した撮影画像間でほとんど差が出ない低周波成分しか残らない。従って、この場合にも、式5に基づくDFDの処理によって被写体距離を計測することは困難であると考えられる。
 従って、上記の特性から、第一画像および第二画像の少なくとも何れか一方に所定の閾値以上のブラーが生じているときには、式5に基づく手法では被写体距離を計測できないと判断し、これとは別の手法によって被写体距離を計測する。ここでは、第一画像および第二画像の少なくとも何れか一方で、所定の閾値以上のブラーが生じている領域を判定するために、第一画像と第二画像との間の動き量である対象動き量を用いる場合について説明する。本来、露光時間中に生じた被写体の動きや撮影方向の変化によって生じるブラーは、撮影画像間の被写体の位置ずれとは関係がない。しかし、短い時間であれば、被写体の動きや撮影方向の変化はほぼ等速であるという特性を利用することにより、第一画像や第二画像を撮影するための露光時間中に生じた被写体の動きや撮影方向の変化に基づくブラーが大きい場合には、第一画像と第二画像との間の対象動き量も大きくなると推定できる。
 以上より、ブラー領域判定部40は、この特性に基づき、対象動き量が所定の閾値より大きいときには、第一画像および第二画像の少なくとも何れか一方に、所定の大きさ以上のブラーが生じていると判定する。この判定を撮影画像全体(撮影画像に設定された全てのブロック領域)に対して行うことで、ブロック領域単位でブラー領域であるか非ブラー領域であるかを判定したブラー領域判定結果を得る。
 次に、補正画像生成部20は、対象動き量推定部10から対象動き量を、ブラー領域判定部40からブラー領域判定結果をそれぞれ受け付けると、受け付けた対象動き量に基づいて、第二画像の動き補償を行い、補正画像を生成する(ステップS104)。なお、本実施の形態では、補正画像生成部20は、ブラー領域と判定されたブロック領域については補正を行わず、非ブラー領域と判定されたブロック領域についてのみ動き補償を行う。非ブラー領域と判定されたブロック領域に対する処理は、実施の形態1~実施の形態3と同様である。
 被写体距離計測部30は、補正画像生成部20から補正画像を、ブラー領域判定部40からブラー領域判定結果をそれぞれ受け付けると、第一画像と補正画像との間のぼけ量の相関値に基づいて、DFDによる被写体距離の計測を行う(ステップS105)。なお、本実施の形態では、被写体距離計測部30は、ブラー領域と判定されたブロック領域についてはDFDによる被写体距離の計測を行わず、非ブラー領域と判定されたブロック領域についてのみDFDによる被写体距離の計測を行う。非ブラー領域と判定されたブロック領域に対する処理は、実施の形態1~実施の形態3と同様である。従って、ブラー領域と判定されたブロック領域においては、この時点ではまだ被写体距離は得られていない。
 被写体距離補償部50は、ブラー領域と判定されたブロック領域に対して被写体距離の補償処理を行い、撮影画像を構成する全ての画素に対する被写体距離を求める(ステップS403)。
  (被写体距離の補償処理1)
 ここでは、ブラー領域の各画素の被写体距離を、ブラー領域の周辺の(ブラー領域に隣接する)非ブラー領域の被写体距離を使って補間することで算出する。この処理の概要を、図15を用いて説明する。図15では、撮影された画像全体を表す画像領域のうち、ブラー領域と判定された領域を斜線で表し、非ブラー領域と判定された領域を白地で表している。また、被写体距離を補間生成するブラー領域の注目画素を丸い点で表し、この補償処理1で被写体距離を参照する非ブラー領域の参照画素を菱形の点で表している。本実施の形態では、被写体距離補償部50は、被写体距離を補間生成するブラー領域内の注目画素について、当該注目画素から横方向および縦方向に直線を引いたときに非ブラー領域と交わる位置の画素を参照画素として被写体距離を参照する。図15から分かるように、参照画素は非ブラー領域の画素である。さらに、被写体距離を補間生成する注目画素から参照画素まで引いた直線の長さの逆数に応じて、参照画素の被写体距離を重み付けした平均値を算出することで、注目画素の被写体距離を推定する。被写体距離補償部50は、注目画素を順次設定しながら、当該処理を行い、ブラー領域の全ての画素について被写体距離を補間生成する。
 上記の手法によれば、ブラーが生じているブラー領域に対して、ブラーが生じていない周辺領域と近い被写体距離を割り当てることが可能になる。このような被写体距離の補償処理を行った場合、周辺領域と不連続になる被写体距離が割り当てられることがない。このため、例えば、生成された被写体距離を3次元画像の生成に利用すると、見た目に不快な映像となることを避けることができる。
  (被写体距離の補償処理2)
 なお、被写体距離補償部50による被写体距離の補償処理の他の例としては、補償処理の対象となる画素について、1つ前に求められた第二画像の被写体距離を用い、対象動き量で当該被写体距離を補正する処理がある。
 ここで、動画の場合、撮影された順に撮影画像の計測処理を行う。すなわち、現在の第一画像に対する被写体距離の計測の前に、第二画像の計測処理が行われる。具体的には、第二画像と第三画像との間の対象動き量に基づいて、第三画像を動き補償した補正画像と第二画像の間で、ぼけ量の相関値に基づいて第二画像における被写体距離を計測する。従って、過去フレームである第二画像に対する被写体距離の計測により求められた被写体距離に対し、第一画像と第二画像の間の動き量である対象動き量を用いて、第二画像の被写体距離を動き補償することにより、第一画像に対する被写体距離を推定できる。第一画像のブラー領域に対しては、このように第二画像で計測された被写体距離を動き補償して生成した被写体距離を用いるようにしてもよい。
 上記の手法によれば、ブラーが生じているために、ぼけ量の相関値に基づく被写体距離の計測が困難な領域でも、過去フレームの計測結果に基づいて被写体距離を生成できるため、安定して高精度な被写体距離を生成することが可能になる。
 なお、上述した被写体距離の補償処理1および被写体距離の補償処理2の何れにおいても、補正画像の生成や、ぼけ量の相関値に基づく被写体距離の計測は、非ブラー領域だけでなく画像全体に対して行うようにしてもよい。この場合、最終的には用いない被写体距離まで計測することになるため、冗長な演算が含まれることになる。しかし、LSI(Large Scale Integration)などでは特定の条件に応じて処理を分岐するよりも、画像全体に対して均一に補正画像の生成やぼけ量の相関値に基づく被写体距離の計測を行うようにした方が、ブラー領域判定結果が出る前にこれらの処理を行うことができるため、遅延が少なくなる可能性がある。この場合、ブラー領域も含めた画像全体で、補正画像の生成、および、ぼけ量の相関値に基づく被写体距離の計測を行った後に、ブラー領域と判定された領域の被写体距離については、被写体距離補償部50によって生成された被写体距離で上書きするようにすればよい。このようにしても、被写体距離としては同じ結果が得られる。
 (実施の形態5)
 本発明の実施の形態5に係る画像処理装置について、図16~図18を基に説明する。
 なお、本実施の形態の画像処理装置が、実施の形態1~実施の形態4の画像処理装置100と異なる点は、被写体距離の計測ではなく、HDR画像の生成を行う点である。
 本実施の形態の画像処理装置は、複数の撮影状態で撮影された複数の撮影画像から、HDR画像を生成する装置であり、動画を撮影可能な撮像装置(例えば、監視カメラ等)に搭載されている場合を例に説明する。従って、本実施の形態では、撮影状態が、オーバー露出及びアンダー露出の2つの露出状態である場合を例に説明する。
 また、本実施の形態の撮像装置は、後で詳述するが、動画の撮影において、一定の時間間隔で、オーバー露出(本実施の形態では、第一の撮影状態に相当)とアンダー露出(本実施の形態では、第二の撮影状態に相当)とを交互に切り替えて撮影を行うように構成されている。本実施の形態の撮像装置は、オーバー露出で撮影したオーバー露出画像とアンダー露出で撮影したアンダー露出画像とを交互に、本実施の形態の画像処理装置に出力する。なお、本実施の形態の画像処理装置は、本実施の形態では、撮像装置に搭載される場合を例に説明するが、動画を撮像可能な他の機器に搭載されていてもよいし、撮像装置から撮影画像を取得可能な他の装置に設けられていてもよい。
  (実施の形態5における画像処理装置の構成)
 先ず、実施の形態5における画像処理装置300の構成を、図16を参照しながら説明する。図16は、画像処理装置300の構成例を示すブロック図である。なお、本実施の形態に係る画像処理装置の構成のうち、実施の形態1に係る画像処理装置100と共通のブロックには同じ符号を付し、説明を省略する。
 画像処理装置300は、オーバー露出およびアンダー露出で撮影された撮影画像を合成してHDR画像を生成する画像処理装置であり、図16に示すように、対象動き量推定部10、補正画像生成部20およびHDR画像生成部60を備えている。なお、対象動き量推定部10および補正画像生成部20の構成は、実施の形態1と同じである場合を例に説明するが、実施の形態2または実施の形態3と同じであってもよい。
 画像処理装置300は、撮像装置から、オーバー露出で撮影されたオーバー露出画像とアンダー露出で撮影されたアンダー露出画像とを交互に連続して取得するように構成されている。また、HDR画像の生成に用いる2枚のオーバー露出画像およびアンダー露出画像のうち、オーバー露出画像を第一画像とし、第一画像の直前に撮影されたアンダー露出画像を第二画像とし、第二画像の直前に撮影されたオーバー露出画像を第三画像として説明する。第一画像と第三画像の露出状態は、同じになる。なお、以下では、説明のため、所定のオーバー露出画像を第一画像とする場合を例に説明するが、アンダー露出を第一画像としても、同じ方法でHDR画像を生成できる。
 対象動き量推定部10は、実施の形態1~実施の形態4と同様に、第一画像(本実施の形態では、オーバー露出画像)と第二画像(本実施の形態では、アンダー露出画像)との間で生じた被写体の位置ずれ量を対象動き量として推定し、補正画像生成部20に出力する。
 補正画像生成部20は、実施の形態1~実施の形態4と同様に、対象動き量に基づいて第二画像に対する動き補償を行い、第一画像との間で被写体の位置ずれがない補正画像を生成し、被写体距離計測部30に出力する。
 HDR画像生成部60は、第一画像と補正画像とを合成して、HDR画像を生成する。
  (実施の形態5における画像処理方法の処理手順)
 次に、本発明の実施の形態5に係る画像処理装置において、被写体距離を計測する場合の処理の流れ(画像処理方法の処理手順)について、図17および図18を用いて説明する。図17は、本実施の形態における画像処理方法の処理手順を示すフロー図であり、図18は、本実施の形態における撮影画像と対象動き量と第一動き量との関係を示す説明図である。なお、図17に示す処理の流れのうち、図3に示す実施の形態1の処理の流れ、図7に示す実施の形態2の処理の流れ、図10に示す実施の形態3の処理の流れ、および、図14に示す実施の形態4の処理の流れと共通の処理には同一の符号を付し、説明を省略する。
 まず、図19に示すビデオカメラ200(撮像装置)において、複数の露出状態で画像を撮影し、画像処理装置100に対して出力する(ステップS501)。
 本実施の形態のビデオカメラ200は、図18に示すように、オーバー露出での撮影と、アンダー露出での撮影を交互に連続して繰り返し、撮影したオーバー露出画像とアンダー露出画像とを画像処理装置100に出力する。オーバー露出とアンダー露出との切り替えは、具体的には、例えば、減光フィルタのON/OFF、露出時間を長露光と短露光で切り替える、あるいは、絞りの開閉を切り替えることにより行う。なお、オーバー露出の撮影画像は、暗い部分は再現されているが、明るい部分が白飛びしているのに対し、アンダー露出の撮影画像は、明るい部分の白飛びは抑えられるが、暗い部分が再現されていない。
 また、上述したように、オーバー露出で撮影されたオーバー露出画像のうちの1枚をHDR画像の生成を行う第一画像、その1枚前にアンダー露出で撮影されたアンダー露出画像を第二画像、さらにその1枚前にオーバー露出で撮影されたオーバー露出画像を第三画像とする。なお、本ステップS501は、本発明の必須行程ではないが、より好ましい形態を構成するものとして説明する。画像処理装置100が、複数の撮影状態による撮影画像を取得することができる構成であればよい。また、以下に説明するステップS102~ステップS104、S502の処理は、ビデオカメラ200による撮影と平行して実行してもよいし、撮影後に実行してもよい。
 画像処理装置100は、HDR画像の生成にあたり、先ず、図17に示すように、対象動き量推定部10により、第一画像と第三画像との間の第一動き量を求め(ステップS102)、第一動き量を用いて第一画像と第二画像との間の対象動き量を推定する(ステップS103)。この処理は、本実施の形態では、実施の形態1(図3参照)と同様である。なお、当該ステップS102およびステップS103に代えて、実施の形態2におけるステップS102、ステップS201およびステップS202(図7参照)、または、実施の形態3におけるステップS102、ステップS201、ステップS301およびステップS302(図10参照)を実行してもよい。
 次に、補正画像生成部20は、対象動き量推定部10から対象動き量を受け付けると、受け付けた対象動き量に基づいて、第二画像の動き補償を行い、補正画像を生成する(ステップS104)。この処理は、本実施の形態では、実施の形態1(図3参照)と同様である。
 次に、HDR画像生成部60は、補正画像生成部20から補正画像を受け付けると、第一画像と補正画像とを合成して、ダイナミックレンジの広い合成画像を生成する(ステップS502)。HDR画像の生成方法は、従来の手法を用いることができる。例えば、第一画像および補正画像から、より適正露出に近い領域を組み合わせることにより、HDR画像を生成する。また、例えば、第一画像の合成対象画素の画素値に第一の重み付け計数を積算したものと、補正画像の合成対象画素の画素値に第二の重み付け計数を積算したものを足し合わせて、補正画像の画素としてもよい。この場合には、例えば、輝度が一定以上の領域、および、輝度一定以下の領域については、重み付け係数の値を低く設定し、輝度が中央値に近い領域については、重み付け係数の値を大きく設定する。
 なお、例えば、ステップS501の撮影画像(ここでは、動画)の撮影において、露出時間を長露光と短露光で切り替える場合などには、ブラーが生じる場合がある。この場合には、ブラー領域判定部40を設け、ブラー領域と判定された領域については、ブラーの生じていない画像から、当該領域の画像を生成する等してもよい。
 上記の手法によれば、露出状態の異なる第一画像と第二画像とを用いたHDR画像の生成において、ブロックマッチング法により高精度に求められた第一画像と第三画像との間の第一動き量を用いることで、第一画像と第二画像との間の動き量を高精度に推定することができる。
 なお、オーバー露出とアンダー露出との切り替えを減光フィルタのON/OFFで行った場合は、第一画像と第二画像との間で、明るさ(S/N比)が異なることになる。また、オーバー露出とアンダー露出との切り替えを露出時間の切り替えで行った場合は、第一画像と第二画像との間で、明るさ(S/N比)に加え、被写体が動く領域のブラー量が異なることになる。さらに、オーバー露出とアンダー露出との切り替えを絞りの開閉の切り替えにより行った場合は、第一画像と第二画像との間で、明るさ(S/N比)に加え、被写界深度が異なることになる。何れの場合でも、第一画像と第三画像との間では、明るさ(S/N比)やブラー量、被写界深度は略同じになるので、高精度に第一動き量を求めることができる。
 高精度に推定された推定動き量を用いることで、第一画像と補正画像との間の位置ずれを無くす、あるいは、HDR画像の生成を良好に行える程度に小さくすることができ、HDR画像の生成をより良好に行うことが可能になる。
 (変形例)
 (1)上記実施の形態1~実施の形態5では、動画の場合について説明したが、静止画の場合でも、第一画像、第二画像および第三画像の3枚の画像を撮影することで、適応可能である。なお、実施の形態4において、ブラー領域の各画素の被写体距離の補間は、被写体距離の補償処理1を用いることで、静止画に対応できる。
 (2)上記実施の形態1~実施の形態5では、2つの撮影状態で撮影された第一画像および第二画像の2つの撮影画像を用いて、画像処理を行う場合について説明したが、3以上の撮影状態で撮影された3枚以上の撮影画像を用いて画像処理を行うように構成してもよい。
 例えば、被写体距離の計測を行う場合(実施の形態1~実施の形態4の場合)、近景フォーカス(例えば、最近傍)から遠景フォーカス(例えば、無限遠)まで、フォーカス状態を複数段階で異ならせて撮影した撮影画像を取得する。この場合は、フォーカス状態が同じ2枚の撮影画像を、第一画像および第三画像とし、当該2枚の撮影画像の間に撮影された任意の撮影画像を、第二画像とすればよい。
 具体的には、例えば、1枚の近景フォーカスの撮影画像を第一画像とし、第一画像の前に近景フォーカスで撮影された1枚の撮影画像を第三画像とし、第一画像と第三画像との間に撮影された複数の撮影画像を第二画像とする。
 そして、第二画像のそれぞれについて、対象動き量を求める。この場合、補間画像の生成に用いる対象動き量は、撮影時間間隔が等間隔でない場合と同様に(実施の形態1のステップS103参照)、撮影時間間隔の比率に応じて第一動き量の大きさを補正して求めることができる。
 さらに、第二画像のそれぞれについて、対応する対象動き量を用いて、第一画像との間で被写体の位置ずれのない補正画像を生成する。これにより、第一画像との間で位置ずれのない複数の第二画像を取得できる。最後に、第一画像と複数の補正画像とを用いて、被写体距離の計測を行う。
 このように構成すれば、より高精度に被写体距離の計測を行うことが可能になる。
 また、例えば、HDR画像の生成を行う場合(実施の形態5の場合)、オーバー露出からアンダー露出まで、露出状態を複数段階で異ならせて撮影した撮影画像を取得する。この場合、露出状態が同じ2枚の撮影画像を、第一画像および第三画像とし、当該2枚の撮影画像の間に撮影された任意の撮影画像を、第二画像とすればよい。
 具体的には、例えば、1枚のオーバー露出画像を第一画像とし、第一画像の次に撮影された1枚のオーバー露出画像を第三画像とし、第一画像と第三画像との間に撮影された複数の撮影画像を第二画像とする。
 そして、第二画像のそれぞれについて、対象動き量を求める。この場合、補間画像の生成に用いる対象動き量は、撮影時間間隔が等間隔でない場合と同様に(実施の形態1のステップS103参照)、撮影時間間隔の比率に応じて第一動き量の大きさを補正して求めることができる。
 さらに、第二画像のそれぞれについて、対応する対象動き量を用いて、第一画像との間で被写体の位置ずれのない補正画像を生成する。これにより、第一画像との間で位置ずれのない複数の第二画像を取得できる。最後に、第一画像と複数の補正画像とを用いて、HDR画像の生成を行う。
 このように構成すれば、より画質の高いHDR画像を生成することが可能になる。
 (3)なお、上記実施の形態において、ブロック図(図1,図2,図6,図9,図13,図16)の各機能ブロックは典型的には集積回路であるLSIとして実現される。これらは個別に1チップ化されてもよいし、一部または全てを含むように1チップ化されてもよい。ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。
 また、集積回路化の手法はLSIに限るものではなく、専用回路または汎用プロセッサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。
 さらには、半導体技術の進歩または派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適応等が可能性としてありえる。
 また、上記実施の形態において、各構成要素は専用のハードウェアにより構成されてもよく、あるいは、ソフトウェアにより実現可能な構成要素については、プログラムを実行することによって実現されてもよい。
 以上、図面を参照して本発明の実施の形態を説明したが、本発明は、これらに限定されるものではない。上述した実施の形態に対して、本発明と同一の範囲において、あるいは均等の範囲内において、様々な変形や追加、変更が可能である。
 本発明に係る画像処理装置および画像処理方法は、複数の撮影状態で撮影された複数の撮影画像を用いて画像処理を行う場合に、被写体の位置ずれが生じた場合でも、より安定して高精度に画像処理を行うことを可能にする。
 これらの構成は、例えば民生用もしくは業務用の撮像装置(デジタルスチルカメラ、ビデオカメラ)などの分野において有用である。
 10、10A、10B、10C  対象動き量推定部
 11A 第一動き量推定部
 11B 第二動き量推定部
 11C 第三動き量推定部
 12A、12B、12C 動き量決定部
 20  補正画像生成部
 30  被写体距離計測部
 40  ブラー領域判定部
 50  被写体距離補償部
 60  HDR画像生成部
 100、300 画像処理装置
 200 ビデオカメラ

Claims (12)

  1.  複数のフォーカス状態で同一の被写体が撮影されることにより得られた複数の撮影画像から被写体距離を計測する画像処理装置であって、
     前記複数の撮影画像のうち、第一のフォーカス状態で撮影された第一画像と、前記第一のフォーカス状態とは異なる第二のフォーカス状態で撮影された第二画像との間の前記被写体の位置ずれ量を表す対象動き量を推定する対象動き量推定部と、
     前記対象動き量に基づいて前記第2の画像を動き補償した補正画像を生成する補正画像生成部と、
     前記第一画像と前記補正画像との間のぼけ量の相関値に基づいて、前記第一画像における前記被写体距離を計測する被写体距離計測部とを備える
     画像処理装置。
  2.  前記画像処理装置は、前記第一画像と、前記第一画像とは異なるタイミングにおいて前記第一のフォーカス状態で撮影された第三画像と、前記第一画像と前記第三画像との間で撮影された前記第二画像とを受け付け、
     前記対象動き量推定部は、
      前記第一画像と前記第三画像との間の被写体の位置ずれ量を表す第一動き量を推定する第一動き量推定部と、
      前記第一動き量を用いて前記対象動き量を推定する対象動き量決定部とを有する
     請求項1に記載の画像処理装置。
  3.  前記対象動き量決定部は、前記対象動き量の大きさを、前記第一動き量の大きさに前記第一画像と前記第三画像との間の撮影時間間隔に対する前記第一画像と前記第二画像との間の撮影時間間隔の比率を積算して求めることにより、前記対象動き量を推定する
     請求項2に記載の画像処理装置。
  4.  前記対象動き量推定部は、さらに、前記第一画像と前記第二画像との間の位置ずれ量を表す第二動き量を推定する第二動き量推定部を有し、
     前記対象動き量決定部は、前記第一動き量と前記第二動き量とを用いて前記対象動き量を推定する
     請求項2に記載の画像処理装置。
  5.  前記対象動き量決定部は、前記第二画像を構成する画素のうちの前記対象動き量の算出対象画素と、前記算出対象画素に対応する前記第一画像上の画素との画素値の差に基づいて、前記第二動き量の精度を判定し、前記第二動き量の精度が閾値よりも高いと判定された場合は、前記第二動き量を前記対象動き量として推定し、前記第二動き量の精度が前記閾値よりも低いと判定された場合は、前記第一動き量を用いて前記対象動き量を推定する
     請求項4に記載の画像処理装置。
  6.  前記対象動き量推定部は、さらに、前記第二画像と前記第三画像との間の位置ずれ量を表す第三動き量を推定する第三動き量推定部を有し、
     前記対象動き量決定部は、前記第一動き量と前記第二動き量とに加え、前記第三動き量を用いて前記対象動き量を推定する
     請求項4に記載の画像処理装置。
  7.  前記対象動き量決定部は、
      前記第二動き量と前記第三動き量との合計が前記第一動き量と等しい場合は、前記第二動き量を前記対象動き量として推定し、
      前記第二動き量と前記第三動き量との合計が前記第一動き量と等しくない場合は、前記対象動き量の算出対象である前記第二画像の画素と、対応する前記第一画像上の画素との画素値の差に基づいて、前記第二動き量の精度を判定し、前記対象動き量の算出対象である前記第二画像の画素と、対応する前記第三画像上の画素との画素値の差に基づいて、前記第三動き量の精度を判定し、前記第二動き量の精度が閾値よりも高いと判定されたときは、前記第二動き量を前記対象動き量として推定し、前記第二動き量の精度が前記閾値よりも低いと判定されたときは、前記第一動き量から前記第三動き量を減算した動き量を前記対象動き量として推定する
     請求項6に記載の画像処理装置。
  8.  前記対象動き量に基づいてブラーが生じている領域をブラー領域として判定するブラー領域判定部と、
     前記ブラー領域を構成する画素のそれぞれについて、前記第一画像の前記ブラーが生じていない領域である非ブラー領域の前記被写体距離、あるいは、予め前記被写体距離が求められた他の撮影画像の前記被写体距離を用いて、前記第一画像の前記被写体距離を計測する被写体距離補償部とを備え、
     前記被写体距離計測部は、前記非ブラー領域を構成する画素のそれぞれについて、前記第一画像と前記補正画像との間のぼけ量の相関値に基づいて、前記被写体距離を求める
     請求項1~7の何れか1項に記載の画像処理装置。
  9.  複数の撮影状態で同一の被写体が撮影されることにより得られた複数の撮影画像を用いて画像処理を行う画像処理装置であって、
     前記複数の撮影画像のうち、第一の撮影状態で撮影された第一画像と、前記第一の撮影状態とは異なる第二の撮影状態で撮影された第二画像との間の前記被写体の位置ずれ量を表す対象動き量を推定する対象動き量推定部と、
     前記対象動き量に基づいて前記第二画像を動き補償した補正画像を生成する補正画像生成部と、
     前記第一画像と前記補正画像とを用いて画像処理を行う画像処理部とを備える
     画像処理装置。
  10.  前記画像処理装置は、第一の露出状態で撮影された前記第一画像と、第二の露出状態で撮影された前記第二画像とを受け付け、
     前記画像処理部は、前記画像処理として、前記第一画像と前記補正画像とを合成して、ダイナミックレンジの広い合成画像を生成する処理を行う
     請求項9に記載の画像処理装置。
  11.  複数のフォーカス状態で同一の被写体が撮影されることにより得られた複数の撮影画像から被写体距離を計測する画像処理方法であって、
     前記複数の撮影画像のうち、第一のフォーカス状態で撮影された第一画像と、前記第一のフォーカス状態とは異なる第二のフォーカス状態で撮影された第二画像との間の前記被写体の位置ずれ量を表す対象動き量を推定する対象動き量推定ステップと、
     前記対象動き量に基づいて前記第二画像を動き補償した補正画像を生成する補正画像生成ステップと、
     前記第一画像と前記補正画像との間のぼけ量の相関値に基づいて、前記第一画像における前記被写体距離を計測する被写体距離計測ステップとを含む
     画像処理方法。
  12.  複数の撮影状態で同一の被写体が撮影されることにより得られた複数の撮影画像を用いて画像処理を行う画像処理方法であって、
     前記複数の撮影画像のうち、第一の撮影状態で撮影された第一画像と、前記第一の撮影状態とは異なる第二の撮影状態で撮影された第二画像との間の前記被写体の位置ずれ量を表す対象動き量を推定する対象動き量推定ステップと、
     前記対象動き量に基づいて前記第二画像を動き補償した補正画像を生成する補正画像生成ステップと、
     前記第一画像と前記補正画像とを用いて画像処理を行う画像処理ステップとを含む
     画像処理方法。
PCT/JP2012/003398 2011-05-27 2012-05-24 画像処理装置および画像処理方法 WO2012164881A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
US13/812,038 US9068831B2 (en) 2011-05-27 2012-05-24 Image processing apparatus and image processing method
EP16176575.5A EP3101387B1 (en) 2011-05-27 2012-05-24 Image processing apparatus and image processing method
CN201280002102.6A CN103026171B (zh) 2011-05-27 2012-05-24 图像处理装置及图像处理方法
EP12792516.2A EP2717012B1 (en) 2011-05-27 2012-05-24 Image processing apparatus and image processing method
JP2012540192A JP5934929B2 (ja) 2011-05-27 2012-05-24 画像処理装置および画像処理方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011-119049 2011-05-27
JP2011119049 2011-05-27

Publications (1)

Publication Number Publication Date
WO2012164881A1 true WO2012164881A1 (ja) 2012-12-06

Family

ID=47258758

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/003398 WO2012164881A1 (ja) 2011-05-27 2012-05-24 画像処理装置および画像処理方法

Country Status (5)

Country Link
US (1) US9068831B2 (ja)
EP (2) EP2717012B1 (ja)
JP (1) JP5934929B2 (ja)
CN (1) CN103026171B (ja)
WO (1) WO2012164881A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014171051A1 (ja) * 2013-04-15 2014-10-23 パナソニック株式会社 距離測定装置、及び、距離測定方法
JP2015036632A (ja) * 2013-08-12 2015-02-23 キヤノン株式会社 距離計測装置、撮像装置、距離計測方法
WO2015053113A1 (ja) * 2013-10-08 2015-04-16 オリンパス株式会社 撮像装置及び電子機器
JP2015152484A (ja) * 2014-02-17 2015-08-24 キヤノン株式会社 距離計測装置、撮像装置、距離計測方法、およびプログラム
JP2016114528A (ja) * 2014-12-16 2016-06-23 東洋ゴム工業株式会社 流体計測方法、流体計測装置、流体計測用データ生成方法、流体計測用データ生成装置、及びコンピュータプログラム

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012060434A (ja) * 2010-09-09 2012-03-22 Fuji Xerox Co Ltd 画素補間装置、画像読取装置、及び画素補間プログラム
JP5587930B2 (ja) * 2012-03-09 2014-09-10 日立オートモティブシステムズ株式会社 距離算出装置及び距離算出方法
KR102126355B1 (ko) * 2013-06-04 2020-06-25 삼성전자주식회사 방사선 촬영 장치 및 방사선 영상 생성 방법
US20150009355A1 (en) * 2013-07-05 2015-01-08 Himax Imaging Limited Motion adaptive cmos imaging system
US10136063B2 (en) * 2013-07-12 2018-11-20 Hanwha Aerospace Co., Ltd Image stabilizing method and apparatus
JP6270413B2 (ja) * 2013-10-29 2018-01-31 キヤノン株式会社 画像処理装置、撮像装置、および画像処理方法
US20150116525A1 (en) * 2013-10-31 2015-04-30 Himax Imaging Limited Method for generating high dynamic range images
AU2013273843A1 (en) * 2013-12-23 2015-07-09 Canon Kabushiki Kaisha Motion blur compensation for depth from defocus
JP6136019B2 (ja) * 2014-02-03 2017-05-31 パナソニックIpマネジメント株式会社 動画像撮影装置、および、動画像撮影装置の合焦方法
DE102014204360A1 (de) * 2014-03-10 2015-09-10 Ford Global Technologies, Llc Verfahren sowie Vorrichtung zur Abschätzung des Abstandes eines in Bewegung befindlichen Fahrzeuges von einem Objekt
JP6432038B2 (ja) * 2014-03-19 2018-12-05 パナソニックIpマネジメント株式会社 撮像装置
JP6395429B2 (ja) * 2014-04-18 2018-09-26 キヤノン株式会社 画像処理装置、その制御方法及び記憶媒体
JP6317635B2 (ja) * 2014-06-30 2018-04-25 株式会社東芝 画像処理装置、画像処理方法及び画像処理プログラム
FR3028611A1 (fr) * 2014-11-13 2016-05-20 Valeo Schalter & Sensoren Gmbh Dispositif et procede de determination de positions de points dans un environnement tridimensionnel, dispositif de detection d'obstacles et vehicule equipe d'un tel dispositif
US20160232672A1 (en) * 2015-02-06 2016-08-11 Qualcomm Incorporated Detecting motion regions in a scene using ambient-flash-ambient images
US9684970B2 (en) * 2015-02-27 2017-06-20 Qualcomm Incorporated Fast adaptive estimation of motion blur for coherent rendering
CN107408302B (zh) * 2015-03-02 2020-09-01 三菱电机株式会社 图像处理装置和图像处理方法
JP2016170522A (ja) * 2015-03-11 2016-09-23 株式会社東芝 移動体検出装置
AU2015202286A1 (en) 2015-05-01 2016-11-17 Canon Kabushiki Kaisha Method, system and apparatus for determining distance to an object in a scene
US10091436B2 (en) * 2015-05-13 2018-10-02 Samsung Electronics Co., Ltd. Electronic device for processing image and method for controlling the same
CN106289157B (zh) * 2015-06-12 2019-10-29 联想(北京)有限公司 一种信息处理方法及电子设备
JP6608763B2 (ja) * 2015-08-20 2019-11-20 株式会社東芝 画像処理装置及び撮影装置
CN105258673B (zh) * 2015-11-02 2017-05-31 南京航空航天大学 一种基于双目合成孔径聚焦图像的目标测距方法、装置
WO2018209603A1 (zh) * 2017-05-17 2018-11-22 深圳配天智能技术研究院有限公司 图像处理方法、图像处理设备及存储介质
US10834309B2 (en) * 2017-11-16 2020-11-10 Canon Kabushiki Kaisha Lens control apparatus and control method for tracking moving object
CN107945112B (zh) * 2017-11-17 2020-12-08 浙江大华技术股份有限公司 一种全景图像拼接方法及装置
US10594940B1 (en) * 2018-01-12 2020-03-17 Vulcan Inc. Reduction of temporal and spatial jitter in high-precision motion quantification systems
CN109688322B (zh) * 2018-11-26 2021-04-02 维沃移动通信(杭州)有限公司 一种生成高动态范围图像的方法、装置及移动终端
US11044404B1 (en) 2018-11-28 2021-06-22 Vulcan Inc. High-precision detection of homogeneous object activity in a sequence of images
US10872400B1 (en) 2018-11-28 2020-12-22 Vulcan Inc. Spectral selection and transformation of image frames
EP3820138A1 (en) * 2019-11-06 2021-05-12 Koninklijke Philips N.V. A system for performing image motion compensation
US20230034727A1 (en) * 2021-07-29 2023-02-02 Rakuten Group, Inc. Blur-robust image segmentation
DE102022117726A1 (de) 2022-07-15 2024-01-18 Carl Zeiss Industrielle Messtechnik Gmbh Koordinatenmessgerät, Verfahren und Computerprogrammprodukt

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000050173A (ja) * 1998-07-24 2000-02-18 Olympus Optical Co Ltd 撮像装置および撮像プログラムを記録した記録媒体
JP2002259987A (ja) * 2001-03-06 2002-09-13 Sony Corp 画像処理装置及び方法、記憶媒体、コンピュータ・プログラム
JP2002296494A (ja) * 2001-03-30 2002-10-09 Minolta Co Ltd 結像位置検出プログラムおよびカメラ
JP2003134385A (ja) * 2001-10-23 2003-05-09 Olympus Optical Co Ltd 画像合成装置
JP2007036743A (ja) * 2005-07-27 2007-02-08 Matsushita Electric Works Ltd 複数画像合成方法及び撮像装置
JP2010183207A (ja) * 2009-02-03 2010-08-19 Panasonic Electric Works Co Ltd 画像処理方法および画像処理装置
JP2010249794A (ja) 2009-03-26 2010-11-04 Kyocera Corp 被写体距離計測装置

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4065778A (en) * 1976-06-17 1977-12-27 Eastman Kodak Company Automatic rangefinder and focusing apparatus
JPH07109625B2 (ja) * 1985-04-17 1995-11-22 株式会社日立製作所 三次元立体視方法
DE3905619C2 (de) * 1988-02-23 2000-04-13 Olympus Optical Co Bildeingabe-/Ausgabevorrichtung
JP3218730B2 (ja) * 1992-10-19 2001-10-15 株式会社ニコン 予測機能を有する焦点調節装置
US5539493A (en) * 1992-12-15 1996-07-23 Nikon Corporation Autofocus camera
JP3450449B2 (ja) * 1994-07-18 2003-09-22 キヤノン株式会社 撮像装置およびその撮像方法
JP3697745B2 (ja) * 1995-06-30 2005-09-21 ソニー株式会社 オートフォーカス制御装置及び方法
JPH10311945A (ja) * 1997-05-12 1998-11-24 Canon Inc 焦点検出装置
JP2003066321A (ja) * 2001-08-29 2003-03-05 Mega Chips Corp Af制御装置およびaf制御方法
JP2004240054A (ja) * 2003-02-04 2004-08-26 Olympus Corp カメラ
WO2006121088A1 (ja) * 2005-05-10 2006-11-16 Olympus Corporation 画像処理装置、画像処理方法および画像処理プログラム
US7538813B2 (en) * 2005-05-11 2009-05-26 Sony Ericsson Mobile Communications Ab Digital cameras with triangulation autofocus systems and related methods
EP1887382A1 (en) * 2005-05-19 2008-02-13 Olympus Corporation Distance measuring apparatus, distance measuring method and distance measuring program
US7912337B2 (en) * 2005-11-02 2011-03-22 Apple Inc. Spatial and temporal alignment of video sequences
US7903168B2 (en) * 2006-04-06 2011-03-08 Eastman Kodak Company Camera and method with additional evaluation image capture based on scene brightness changes
JP4806329B2 (ja) * 2006-10-23 2011-11-02 三洋電機株式会社 撮像装置及び撮像方法
DE102006055908A1 (de) * 2006-11-27 2008-05-29 Adc Automotive Distance Control Systems Gmbh Verfahren zur automatischen Fernlichtsteuerung
US8390733B2 (en) * 2007-02-15 2013-03-05 Panasonic Corporation Imaging device with interchangeable lens and camera body for imaging device
JP2009159092A (ja) 2007-12-25 2009-07-16 Canon Inc 撮像装置及びその制御方法
US8098957B2 (en) * 2008-02-13 2012-01-17 Qualcomm Incorporated Shared block comparison architechture for image registration and video coding
KR20100013171A (ko) * 2008-07-30 2010-02-09 삼성디지털이미징 주식회사 오토 포커스 영역의 움직임 보상 방법 및 장치, 이를이용한 오토 포커스 방법 및 장치
JP5294805B2 (ja) * 2008-11-05 2013-09-18 キヤノン株式会社 撮影システム及びレンズ装置
US8339475B2 (en) * 2008-12-19 2012-12-25 Qualcomm Incorporated High dynamic range image combining
JP5206494B2 (ja) * 2009-02-27 2013-06-12 株式会社リコー 撮像装置、画像表示装置と、撮像方法及び画像表示方法並びに合焦領域枠の位置補正方法
US8390698B2 (en) * 2009-04-08 2013-03-05 Panasonic Corporation Image capturing apparatus, reproduction apparatus, image capturing method, and reproduction method
US8482622B2 (en) * 2009-08-27 2013-07-09 Sony Corporation Method, system and computer program product for reducing motion blur
JP5829018B2 (ja) * 2010-11-22 2015-12-09 オリンパス株式会社 撮像装置
JP5867996B2 (ja) * 2010-12-27 2016-02-24 キヤノン株式会社 焦点検出装置及びそれを有する撮像装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000050173A (ja) * 1998-07-24 2000-02-18 Olympus Optical Co Ltd 撮像装置および撮像プログラムを記録した記録媒体
JP2002259987A (ja) * 2001-03-06 2002-09-13 Sony Corp 画像処理装置及び方法、記憶媒体、コンピュータ・プログラム
JP2002296494A (ja) * 2001-03-30 2002-10-09 Minolta Co Ltd 結像位置検出プログラムおよびカメラ
JP2003134385A (ja) * 2001-10-23 2003-05-09 Olympus Optical Co Ltd 画像合成装置
JP2007036743A (ja) * 2005-07-27 2007-02-08 Matsushita Electric Works Ltd 複数画像合成方法及び撮像装置
JP2010183207A (ja) * 2009-02-03 2010-08-19 Panasonic Electric Works Co Ltd 画像処理方法および画像処理装置
JP2010249794A (ja) 2009-03-26 2010-11-04 Kyocera Corp 被写体距離計測装置

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
M. SUBBARAO; G. SURYA: "Depth from Defocus: A Spatial Domain Approach", INTERNATIONAL JOURNAL OF COMPUTER VISION, vol. 13, no. 3, 1994, pages 271 - 294
S. HIURA, T.; MATSUYAMA: "Multi-Focus Range Finder with Coded Aperture", TRANSACTIONS OF INSTITUTE OF ELECTRONICS, INFORMATION AND COMMUNICATION ENGINEERS OF JAPAN, vol. J82-D-II, no. 11, November 1999 (1999-11-01), pages 1912 - 1920
See also references of EP2717012A4
T. MATSUYAMA; T. TAKEMURA: "Real-Time Depth Sensing from Multi-Focus Images", TRANSACTIONS OF INFORMATION PROCESSING SOCIETY OF JAPAN, vol. 39, no. 7, July 1998 (1998-07-01), pages 2149 - 2158

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014171051A1 (ja) * 2013-04-15 2014-10-23 パナソニック株式会社 距離測定装置、及び、距離測定方法
US9467616B2 (en) 2013-04-15 2016-10-11 Panasonic Intellectual Property Management Co., Ltd. Distance measurement apparatus and distance measurement method
JPWO2014171051A1 (ja) * 2013-04-15 2017-02-16 パナソニックIpマネジメント株式会社 距離測定装置、及び、距離測定方法
JP2015036632A (ja) * 2013-08-12 2015-02-23 キヤノン株式会社 距離計測装置、撮像装置、距離計測方法
WO2015053113A1 (ja) * 2013-10-08 2015-04-16 オリンパス株式会社 撮像装置及び電子機器
JPWO2015053113A1 (ja) * 2013-10-08 2017-03-09 オリンパス株式会社 撮像装置及び電子機器
US9888177B2 (en) 2013-10-08 2018-02-06 Olympus Corporation Imaging device and electronic device
JP2015152484A (ja) * 2014-02-17 2015-08-24 キヤノン株式会社 距離計測装置、撮像装置、距離計測方法、およびプログラム
JP2016114528A (ja) * 2014-12-16 2016-06-23 東洋ゴム工業株式会社 流体計測方法、流体計測装置、流体計測用データ生成方法、流体計測用データ生成装置、及びコンピュータプログラム

Also Published As

Publication number Publication date
EP2717012B1 (en) 2016-07-27
CN103026171B (zh) 2016-03-16
EP3101387A1 (en) 2016-12-07
US9068831B2 (en) 2015-06-30
EP2717012A4 (en) 2015-06-24
EP2717012A1 (en) 2014-04-09
CN103026171A (zh) 2013-04-03
JPWO2012164881A1 (ja) 2015-02-23
EP3101387B1 (en) 2018-09-12
JP5934929B2 (ja) 2016-06-15
US20130121537A1 (en) 2013-05-16

Similar Documents

Publication Publication Date Title
JP5934929B2 (ja) 画像処理装置および画像処理方法
US9092875B2 (en) Motion estimation apparatus, depth estimation apparatus, and motion estimation method
JP6140935B2 (ja) 画像処理装置、画像処理方法、画像処理プログラム、および撮像装置
KR101233013B1 (ko) 화상 촬영 장치 및 그 거리 연산 방법과 합초 화상 취득 방법
JP6245885B2 (ja) 撮像装置およびその制御方法
JP4782899B2 (ja) 視差検出装置、測距装置及び視差検出方法
JP6436783B2 (ja) 画像処理装置、撮像装置、画像処理方法、プログラム、および、記憶媒体
US20070189750A1 (en) Method of and apparatus for simultaneously capturing and generating multiple blurred images
WO2012056686A1 (ja) 3次元画像補間装置、3次元撮像装置および3次元画像補間方法
JP2019510234A (ja) 奥行き情報取得方法および装置、ならびに画像取得デバイス
WO2011158508A1 (ja) 画像処理装置および画像処理方法
JP6786225B2 (ja) 画像処理装置、撮像装置および画像処理プログラム
US9619886B2 (en) Image processing apparatus, imaging apparatus, image processing method and program
JP2014044408A (ja) 撮像装置、距離情報取得方法およびプログラム
JP6071257B2 (ja) 画像処理装置及びその制御方法、並びにプログラム
JP7378219B2 (ja) 撮像装置、画像処理装置、制御方法、及びプログラム
JP2013044844A (ja) 画像処理装置および画像処理方法
JP2017092983A (ja) 画像処理装置、画像処理方法、画像処理プログラム、および撮像装置
US20140192163A1 (en) Image pickup apparatus and integrated circuit therefor, image pickup method, image pickup program, and image pickup system
US11348271B2 (en) Image processing device and three-dimensional measuring system
JP2014022806A (ja) 撮像装置および撮像装置制御方法
CN107845108B (zh) 一种光流值计算方法、装置及电子设备
JP2022173069A (ja) 画像処理装置及び方法、及び、撮像装置及びその制御方法、プログラム、記憶媒体
WO2016194576A1 (ja) 情報処理装置および方法
JP7479840B2 (ja) 画像処理装置、画像処理方法およびプログラム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201280002102.6

Country of ref document: CN

ENP Entry into the national phase

Ref document number: 2012540192

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12792516

Country of ref document: EP

Kind code of ref document: A1

REEP Request for entry into the european phase

Ref document number: 2012792516

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 13812038

Country of ref document: US

Ref document number: 2012792516

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE