WO2017175441A1 - 画像処理装置と画像処理方法 - Google Patents

画像処理装置と画像処理方法 Download PDF

Info

Publication number
WO2017175441A1
WO2017175441A1 PCT/JP2017/001198 JP2017001198W WO2017175441A1 WO 2017175441 A1 WO2017175441 A1 WO 2017175441A1 JP 2017001198 W JP2017001198 W JP 2017001198W WO 2017175441 A1 WO2017175441 A1 WO 2017175441A1
Authority
WO
WIPO (PCT)
Prior art keywords
depth
image
pixel
value
past
Prior art date
Application number
PCT/JP2017/001198
Other languages
English (en)
French (fr)
Inventor
佳宏 明官
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to DE112017001926.5T priority Critical patent/DE112017001926T5/de
Priority to CN201780020216.6A priority patent/CN108885778B/zh
Priority to US16/089,822 priority patent/US10846826B2/en
Priority to JP2018510234A priority patent/JP6908025B2/ja
Priority to KR1020187027177A priority patent/KR20180133394A/ko
Publication of WO2017175441A1 publication Critical patent/WO2017175441A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20072Graph-based image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Definitions

  • This technology relates to an image processing apparatus and an image processing method, and makes it possible to improve the stability of the depth image in the spatio-temporal direction.
  • a depth image that represents an image of the distance to a subject is generated and used for a gesture user interface or the like.
  • the depth image is generated by performing matching or the like using the left eye image and the right eye image as disclosed in, for example, Patent Document 1.
  • Patent Document 2 In image processing, proposals have been made to improve stability in the spatio-temporal direction. For example, in the invention of Patent Document 2, motion compensation is performed based on spatial information of a reference image having a spatial correlation with an input image, and an interpolation output image is generated. Further, the input image and the interpolation output image are mixed based on the feedback adjustment amount calculated based on the time direction change of the reference image to generate an image with less noise.
  • the depth values are averaged in the boundary region between the foreground and the background, and the depth values differ from both the foreground and the background, thereby improving the stability in the spatio-temporal direction. I can't.
  • an object of this technique is to provide an image processing apparatus and an image processing method capable of improving the stability of the depth image in the spatio-temporal direction.
  • the first aspect of this technology is Input image depth distribution feature information based on pixel values and depth values of pixels in the peripheral region with respect to the target pixel of the input image, and the periphery of the pixel corresponding to the pixel position of the target pixel in the past image that is a past image from the input image
  • the past image depth distribution feature information is synthesized based on the pixel value and depth value of the pixel in the region and the pixel value of the target pixel, and the depth representative value calculated from the generated synthesized depth distribution feature information is the depth value of the target pixel.
  • the image processing apparatus includes a depth value processing unit.
  • the input image information generation processing unit calculates the similarity of the pixel information with the target pixel for each pixel in the peripheral area based on the pixel value and the depth value of the pixel in the peripheral area with respect to the target pixel in the input image.
  • the corresponding weight is associated with the depth value, and a depth histogram in which the weight is accumulated for each depth value or a depth table indicating the weight for each depth value is generated as the input image depth distribution feature information.
  • the past image information generation processing unit uses the pixel position of the target pixel in the past image that is a past image from the input image as the corresponding pixel, based on the pixel value and depth value of the pixel in the peripheral region with respect to the corresponding pixel, and the pixel value of the target pixel For example, for each pixel in the past image peripheral area, a weight corresponding to the degree of similarity of the pixel information with the target pixel is associated with the depth value, and the weight is accumulated for each depth value or the weight is indicated for each depth value.
  • a depth table is generated as past image depth distribution feature information.
  • the input image information generation processing unit and the past image information generation processing unit increase the weight as the pixel information, for example, the degree of similarity of luminance and color increases.
  • the compositing control unit sets a compositing ratio according to the amount of difference in pixel information between the target pixel and the corresponding pixel, and the input image information generation processing unit does not increase as the amount of difference in pixel information between the target pixel and the corresponding pixel increases.
  • the synthesis ratio of the input image depth distribution feature information generated in step 1 is increased.
  • the depth value processing unit is the composition ratio set by the composition control unit, the input image depth distribution feature information generated by the input image information generation processing unit, and the past image depth distribution feature information generated by the past image information generation processing unit. Are combined to generate combined depth distribution feature information.
  • the depth value processing unit performs synthesis of the depth histogram or the depth table by using the weight of the depth histogram or the depth table as a weight corresponding to the synthesis ratio, and generates a synthesized depth histogram or a synthesized depth table.
  • the depth value processing unit uses the depth representative value calculated from the combined depth distribution feature information, for example, the combined depth distribution feature information as depth value order information, and sets the depth value at which the weight cumulative value is an intermediate value as the depth representative value.
  • the depth value processing unit calculates a ratio of the sum of the weights in the predetermined depth range based on the depth representative value with respect to the sum of the weights of the combined depth distribution feature information as the reliability of the depth representative value.
  • the depth value processing unit when the reliability of the depth body surface value is greater than or equal to a predetermined determination threshold value, when the depth representative value is the depth value of the target pixel and the reliability is less than the predetermined determination threshold value
  • the depth value of the target pixel is set as an invalid value. Further, the depth value processing unit can change the determination threshold.
  • the past image information generation processing unit generates depth distribution feature information by excluding pixels indicating invalid values from pixels in the peripheral area for the corresponding pixel. Further, the past image information generation processing unit may generate the past image depth distribution feature information based on the pixel value, the depth value, the reliability, and the pixel value of the target pixel in the peripheral region with respect to the corresponding pixel. .
  • a viewpoint conversion processing unit that converts at least one of the input image and the past image into an image having the same viewpoint as the other image is provided, and the input image information generation processing unit and the past image information generation processing unit perform viewpoint conversion.
  • Input image depth distribution feature information and past image depth distribution feature information are generated using images whose viewpoints are matched by the processing unit.
  • the second aspect of this technology is Input image depth distribution feature information based on pixel values and depth values of pixels in the peripheral region with respect to the target pixel of the input image, and the periphery of the pixel corresponding to the pixel position of the target pixel in the past image that is a past image from the input image
  • the past image depth distribution feature information is synthesized based on the pixel value and depth value of the pixel in the region and the pixel value of the target pixel, and the depth representative value calculated from the generated synthesized depth distribution feature information is the depth value of the target pixel.
  • an image processing method including:
  • the input image depth distribution feature information based on the pixel value and the depth value of the pixel in the peripheral region with respect to the target pixel of the input image, and the pixel of the target pixel in the past image that is a past image from the input image
  • the past image depth distribution feature information is synthesized based on the pixel value and depth value of the pixel in the peripheral region with respect to the corresponding pixel at the position and the pixel value of the target pixel, and the depth representative value calculated from the generated synthesized depth distribution feature information is The depth value of the target pixel is used.
  • a depth value with high certainty is set as the depth value of the target image based on the pixel information and the depth value of the pixel in the spatio-temporal direction with respect to the target image, and the stability of the depth image in the spatio-temporal direction can be improved.
  • the effects described in the present specification are merely examples and are not limited, and may have additional effects.
  • the configuration of the third embodiment is illustrated. It is the figure which illustrated the composition of a 4th embodiment. It is a figure for demonstrating viewpoint conversion. It is a flowchart which shows a viewpoint conversion operation
  • FIG. 1 illustrates a configuration of a depth image generation system using the image processing apparatus of the present technology.
  • the depth image system 10 includes a depth image generation device 15 and an image processing device 20.
  • the depth image generation apparatus 15 performs matching processing using the right viewpoint image and the left viewpoint image, and uses the right viewpoint image or the left viewpoint image as a reference, and a viewpoint image based on the reference (hereinafter referred to as “guide image”).
  • a depth image also referred to as a depth map
  • FIG. 1 illustrates a case where the right viewpoint image is a guide image.
  • any method such as region-based matching or feature-based matching template matching may be used.
  • the depth image generation device 15 executes matching processing, and based on the shift amount of the corresponding pixel position in the left viewpoint image with respect to the target pixel in the right viewpoint image (guide image), the depth image generating device 15 The distance (depth value) is calculated. Further, the depth image generation device 15 sequentially performs the matching process by sequentially moving the pixel position of the pixel of interest on the right viewpoint image, and calculates the depth value calculated at each pixel position or pixel information (for example, luminance) corresponding to the depth value. The depth image shown is generated. The depth image generation device 15 outputs the generated depth image to the image processing device 20.
  • the image processing device 20 generates depth distribution feature information based on the pixel value and the depth value of the pixel in the peripheral area with respect to the target pixel in the input image. Further, with the pixel position of the target pixel in the past image that is a past image from the input image as the corresponding pixel, the depth distribution based on the pixel value and depth value of the pixel in the past image peripheral region with respect to the corresponding pixel and the pixel value of the target pixel Generate feature information. Furthermore, the synthesized depth distribution feature information generated by synthesizing the depth distribution feature information generated from each of the input image and the past image at the synthesis ratio set according to the difference amount of the pixel information between the target pixel and the corresponding pixel.
  • the image processing apparatus 20 By using the depth representative value calculated from the above as the depth value of the target pixel, the stability of the depth image in the spatio-temporal direction is improved. Further, the image processing apparatus 20 generates a reliability map indicating the reliability of the depth value of each pixel in the depth image with improved stability.
  • FIG. 2 illustrates the configuration of the first embodiment of the image processing apparatus.
  • the image processing apparatus 20 includes an input image information generation processing unit 21, a past guide image storage unit 22, a past image information generation processing unit 24, a composition control unit 25, a depth value processing unit 26, and a past depth image storage unit 27. Yes.
  • the input image information generation processing unit 21 uses depth distribution feature information (hereinafter referred to as “input image depth”) based on the pixel value and depth value of a pixel in the peripheral area (hereinafter referred to as “pixel in the input image peripheral area”) with respect to the target pixel in the input image. Distribution characteristic information ”).
  • the input image information generation processing unit 21 includes an input image similarity calculation unit 211 and an input image distribution feature information generation unit 212.
  • the peripheral area is a predetermined area including the attention area based on the attention pixel, and the pixels in the peripheral area include the attention pixel. Further, the peripheral area in the input image (input guide image and input depth image) is set as the input image peripheral area.
  • the input image similarity calculation unit 211 calculates a weight according to the similarity of the pixel information between the target pixel in the input guide image and the pixel in the peripheral area of the input image, and the similarity of the pixel information is high. As it becomes, the weight is increased.
  • the input image similarity calculation unit 211 calculates the weight Wpresent (n, x, x ′) based on Expression (1) using the luminance of the target pixel and the pixels in the input image peripheral area as pixel information.
  • Expression (1) the frame number of the input guide image is “n”, and the luminance of the input guide image is I (n).
  • a two-dimensional vector representing the position of the pixel of interest is indicated as “x”
  • a two-dimensional vector representing the position of the pixel in the peripheral area of the input image is indicated as “x ′”.
  • a Gaussian coefficient “ ⁇ ” is used to set a weight corresponding to the Gaussian distribution for the luminance difference. Note that the value of the Gaussian coefficient ⁇ is set in advance.
  • FIG. 3 is a diagram for explaining a weight calculation operation using an input guide image.
  • FIG. 3A shows the luminance of the pixel of interest and the pixels in the peripheral area of the input image in the input guide image.
  • FIG. 3B shows the relationship between the luminance difference and the weight shown in Equation (1), and the weight is increased as the luminance difference decreases, that is, the similarity increases.
  • the input image similarity calculation unit 211 calculates a weight according to the luminance difference between the target pixel of the input guide image and the pixel in the input image peripheral area based on Expression (1).
  • FIG. 3C illustrates the weight Wpresent calculated for each pixel in the input image peripheral area.
  • the input image similarity calculation unit 211 is not limited to calculating weights using only luminance as pixel information, and may calculate weights from information such as color or texture shape. The weight may be calculated.
  • the input image distribution feature information generation unit 212 generates input image depth distribution feature information by associating the depth value of the pixel in the peripheral area of the input image with the weight obtained by the input image similarity calculation unit 211 for each target pixel.
  • the input image depth distribution feature information is information indicating the relationship between the depth value and the weight in the peripheral area of the input image. For example, in the first embodiment, a current depth histogram indicating a weight cumulative value for each depth value is generated as the input image depth distribution feature information.
  • the input image distribution feature information generation unit 212 generates a current depth histogram Hpresent (n, x, d) based on Expression (2).
  • the depth value of the target pixel in the input guide image is “D (n, x)”, and the integer value representing the depth value is “d (for example, 0 ⁇ d ⁇ 255)”.
  • the peripheral area of the input image based on the target pixel x is designated by the local window function W (x), and the current depth is calculated using the depth value and weight of the pixel in the area indicated by the local window function W (x).
  • the integer value d representing the depth value corresponds to the class (bins) of the current depth histogram, and the integer value d is obtained by adding the weights of surrounding pixels having the same depth value as the integer value d based on the equation (3).
  • the past guide image storage unit 22 stores a past guide image (for example, a guide image one frame before) indicating a past image from the input guide image.
  • the past guide image storage unit 22 outputs the stored past guide image to the past image information generation processing unit 24 and the composition control unit 25.
  • the past image information generation processing unit 24 uses an input guide image, a past guide image, and a past depth image indicating the distance to the subject in the past guide image.
  • the past image information generation processing unit 24 sets the pixel position of the target pixel in the past guide image, which is an image past the input guide image, as the corresponding pixel.
  • the past image information generation processing unit 24 calculates the depth distribution feature information (hereinafter referred to as “past depth distribution feature information”) based on the pixel value and depth value of the pixel in the past image peripheral region with respect to the corresponding pixel and the pixel value of the target pixel. Generate.
  • the past image information generation processing unit 24 includes a past image similarity calculation unit 241 and a past image distribution feature information generation unit 242.
  • the past image similarity calculation unit 241 calculates, for each target pixel, a weight according to the similarity of the pixel information between the target pixel in the input guide image and the pixels in the past image peripheral area in the past guide image, and the pixel information As the similarity increases, the weight is increased. For example, the past image similarity calculation unit 241 calculates the weight Wprevious (n, x, x ′) based on Expression (4) using the luminance of the pixel of interest and the pixels in the past image peripheral area as pixel information.
  • the frame number of the input guide image is “n”
  • the luminance of the input guide image is I (n)
  • the frame number of the past guide image (for example, the guide image one frame before) is “n ⁇ 1”
  • the luminance of the past guide image is shown as I (n-1).
  • a two-dimensional vector representing the position of the pixel of interest is indicated as “x”
  • a two-dimensional vector representing the position of the pixel in the peripheral area of the past image is indicated as “x ′”.
  • the Gaussian coefficient “ ⁇ ” is used in the same manner as Expression (1), so that the weight corresponding to the Gaussian distribution is set for the luminance difference.
  • the value of the Gaussian coefficient ⁇ is not limited to a value equal to that in the equation (1), and may be set to a value different from that in the equation (1).
  • the past image peripheral area is not limited to the case where the same pixel size is set at the same position as the input image peripheral area with respect to the target pixel, and may be different area sizes, for example.
  • FIG. 4 is a diagram for explaining a weight calculation operation using a past guide image.
  • FIG. 4A shows a guide image (for example, a luminance image) in the peripheral area of the past image.
  • FIG. 4B shows the relationship between the luminance difference and the weight shown in Equation (4), and the weight increases as the luminance difference decreases.
  • the past image similarity calculation unit 241 obtains, for each pixel in the past image peripheral area, a weight corresponding to the luminance difference between the target pixel of the input guide image and the pixel in the past image peripheral area based on Expression (4).
  • FIG. 4C illustrates the weight Wpresent calculated for each pixel in the past image peripheral area.
  • the past image similarity calculation unit 241 calculates the weight from information such as color or texture shape, not only when calculating the weight using only the luminance.
  • the weight may be calculated using a plurality of pieces of information.
  • the past image distribution feature information generation unit 242 associates the depth values of the pixels in the past image peripheral area of the past depth image stored in the past depth image storage unit 27 with the weights obtained by the past image similarity calculation unit 241 in the past. Image depth distribution feature information is generated.
  • the past image depth distribution feature information is information indicating the relationship between the depth value and the weight in the peripheral area of the past image. For example, in the first embodiment, as the past image depth distribution feature information, a past depth histogram indicating the depth value of the pixels in the past image peripheral area in the past depth image and the weight accumulated value for each depth value is generated.
  • the past image distribution feature information generation unit 242 generates a past depth histogram Hprevious (n, x, d) based on Expression (5).
  • the depth value of the pixel at the position “x ′” in the peripheral area of the past image is “Dfilterted (n ⁇ 1, x ′)”, and the integer value representing the depth value is “d (for example, 0 ⁇ d ⁇ 255) ”.
  • the past image peripheral area based on the target pixel x is designated by the local window function W (x), and the past depth is used by using the depth value and the weight of the pixel in the area indicated by the local window function W (x).
  • the integer value d representing the depth value corresponds to a class (bins) of the past depth histogram, and the integer value d is obtained by adding weights of peripheral pixels having the same depth value as the integer value d based on the equation (6).
  • the composition control unit 25 synthesizes the input image depth distribution feature information and the past image depth distribution feature information according to the difference in pixel information between the target pixel in the input guide image and the corresponding pixel corresponding to the target pixel in the past guide image. The ratio is set for each pixel of interest.
  • the composition control unit 25 includes a difference amount calculation unit 251 and a composition ratio setting unit 252.
  • the difference amount calculation unit 251 uses the input guide image and the past guide image stored in the past guide image storage unit 22 to calculate the target pixel of the input guide image and the corresponding pixel of the past image corresponding to the position of the target pixel. A difference amount of pixel information is calculated. For example, the difference amount calculation unit 251 generates the difference amount Idiff (n, x) from the luminance I (n, x) of the target pixel and the luminance (n ⁇ 1, x) of the corresponding pixel based on Expression (7).
  • the difference amount Idiff (n, x) is, for example, a value that is larger than that in the case where the corresponding pixel is a pixel in the subject region and the target pixel becomes a pixel in the background region because the subject has moved. Become.
  • the difference amount calculation unit 251 is not limited to calculating the difference amount using only luminance as pixel information, and may calculate the difference amount from information such as color, and may use a plurality of pieces of information to calculate the difference amount. May be calculated.
  • the synthesis ratio setting unit 252 Based on the difference amount Idiff (n, x) calculated by the difference amount calculation unit 251, the synthesis ratio setting unit 252 generates the input image information generation processing unit 21 even if the difference amount between the target pixel and the corresponding pixel increases.
  • the composition ratio is set so that the ratio of the input image depth distribution feature information is increased.
  • the composition ratio setting unit 252 sets the composition ratio ⁇ (n, x) based on Expression (8).
  • the thresholds Th0 and Th1 are set in advance so that a depth image stable in the spatio-temporal direction can be obtained in consideration of noise and the like of input images from a plurality of viewpoints.
  • the composition ratio setting unit 252 outputs the composition ratio ⁇ (n, x) set for each target pixel to the depth value processing unit 26.
  • the synthesis ratios ⁇ 0 and ⁇ 1 are set in advance and have values of “0 ⁇ ⁇ 0 ⁇ 1”.
  • the composition ratio setting unit 252 sets the composition ratio so that the ratio of the input image depth distribution feature information increases as the amount of difference in pixel information between the target pixel and the corresponding pixel increases. Therefore, for example, when the subject moves and the amount of difference increases, the ratio of the depth distribution feature information before the movement is reduced, thereby preventing the influence of the subject movement.
  • the depth value processing unit 26 has the composition ratio set by the composition control unit 25, the input image depth distribution feature information generated by the input image information generation processing unit 21, and the past image generated by the past image information generation processing unit 24. Depth distribution feature information is synthesized for each pixel of interest. In addition, the depth value processing unit 26 generates an output depth image using the depth representative value calculated from the combined depth distribution feature information (hereinafter referred to as “synthesized depth distribution feature information”) as the depth value of the target pixel.
  • the depth value processing unit 26 includes an information synthesis unit 261 and a synthesis information analysis unit 262.
  • the information synthesizing unit 261 for example, combines the current depth histogram generated by the input image information generation processing unit 21 and the past depth histogram generated by the past image information generation processing unit 24 with the synthesis ratio ⁇ set by the synthesis control unit 25. Synthesize with (n, x).
  • Expression (9) represents a composition processing expression
  • the information composition unit 261 performs the operation represented by Expression (9), and uses the weights of the current depth histogram and the past depth histogram as weights according to the composition ratio for each depth value. Are combined to generate a combined depth histogram which is combined depth distribution feature information.
  • FIG. 6 exemplifies a combined depth histogram, where the depth value is a class (bins), and the weight of the current depth histogram and the past depth histogram is added to each class according to the composition ratio to obtain the frequency.
  • the synthesis information analysis unit 262 performs statistical analysis based on the synthesis depth histogram and calculates a depth representative value. Also, the composite information analysis unit 262 calculates the reliability of the depth representative value, sets the depth representative value that is equal to or higher than the determination threshold value set in advance as the depth value of the target pixel, and the reliability is less than the determination threshold value. If it is, the depth value of the target pixel is set as an invalid value. The composite information analysis unit 262 calculates, for example, the depth intermediate value of the composite depth histogram as the depth representative value.
  • the composite information analysis unit 262 calculates, as the reliability, the ratio of the sum of the weights of the reliability determination area (predetermined class width) based on the depth representative value with respect to the sum of the weights of all the class widths in the composite depth histogram. To do.
  • the composite information analysis unit 262 calculates the depth intermediate value Dmedian (n, x) of the composite depth histogram Hmerged (n, x) as the depth representative value. In the calculation of the depth intermediate value Dmedian (n, x), the composite information analysis unit 262 excludes the invalid value Dinvalid. As illustrated in FIG. 6, the composite information analysis unit 262 performs a reliability determination region (Dmedian (n, x) ⁇ Dthr) ⁇ d ⁇ (Dmedian (n) based on the calculated depth intermediate value Dmedian (n, x). , X) + Dthr), the sum of weights Wsum_around_med (n, x) is calculated using equation (10). Further, the composite information analysis unit 262 calculates the sum Wtotal (n, x) of the weights of all class widths based on the equation (11).
  • the composite information analysis unit 262 calculates the ratio of the weight sum Wsum_around_med (n, x) of the reliability determination area to the sum Wweight (n, x) of all class width weights as the reliability Dconfidence ( n, x).
  • the composite information analysis unit 262 performs the process shown in Expression (13) using the preset determination threshold value Thhist_ratio, and the depth intermediate value Dmedian (reliability Dconfidence (n, x)) is equal to or greater than the determination threshold value Thhist_ratio.
  • n, x) be the depth value Dfiltered (n, x) of the pixel of interest.
  • Thhist_ratio the determination threshold
  • the composite information analysis unit 262 sets the depth value Dfiltered (n, x) of the target pixel as the invalid value Dinvalid.
  • the invalid value Dinvalid is a value that can be distinguished from the depth value shown in the depth image.
  • the composite information analysis unit 262 can change the determination threshold Thhist_ratio. For example, when generating an output depth image with high reliability, the composite information analysis unit 262 increases the determination threshold Thhist_ratio and sets only the depth representative value with high reliability as the depth value of the target pixel. Further, when the number of pixels for which the depth value is not obtained in the output depth image is reduced, the synthesis information analysis unit 262 reduces the determination threshold Thhist_ratio so that the calculated depth representative value is easily set as the depth value of the target pixel. .
  • the composite information analysis unit 262 calculates a depth value Dfiltered (n, x) for each pixel of interest and generates an output depth image.
  • the composite information analysis unit 262 outputs the reliability Dconfidence (n, x) calculated for each target pixel in association with the output depth image.
  • the composite information analysis unit 262 stores the generated output depth image in the past depth image storage unit 27 as a past depth image.
  • the past depth image stored in the past depth image storage unit 27 is a depth image indicating the distance to the subject in the past guide image stored in the past guide image storage unit 22.
  • FIG. 7 is a flowchart showing the operation of the first embodiment.
  • the image processing apparatus sets a weight for each pixel in the peripheral area.
  • the input image similarity calculation unit 211 of the input image information generation processing unit 21 in the image processing device 20 calculates the similarity of pixel information between the pixel of interest in the input guide image and the pixels in the input image peripheral area, and calculates the similarity.
  • a weight corresponding to the degree is set for each pixel in the input image peripheral area.
  • the past image similarity calculation unit 241 of the past image information generation processing unit 24 calculates the similarity of pixel information between the pixel of interest and the pixels in the past image peripheral area in the past guide image, and the calculated similarity is obtained.
  • a corresponding weight is set for each pixel in the past image peripheral area.
  • the image processing apparatus 20 sets a weight for each pixel of the input image peripheral area pixel and the past image peripheral area pixel, and proceeds to step ST2.
  • the image processing apparatus In step ST2, the image processing apparatus generates depth distribution feature information.
  • the input image distribution feature information generation unit 212 of the input image information generation processing unit 21 in the image processing device 20 includes the depth values of the pixels in the input image peripheral region and the pixels in the input image peripheral region obtained by the input image similarity calculation unit 211.
  • the input image depth distribution feature information is generated in association with the weight.
  • the input image distribution feature information generation unit 212 generates, as input image depth distribution feature information, a current depth histogram having a depth value as a class and a cumulative weight value for each depth value as a frequency.
  • the past image distribution feature information generation unit 242 of the past image information generation processing unit 24 calculates the depth value of the pixels in the past image peripheral region in the past depth image and the weight of the pixels in the past image peripheral region calculated by the past image similarity calculation unit 241. To generate past image depth distribution feature information.
  • the past image distribution feature information generation unit 242 generates, as past image depth distribution feature information, a past depth histogram in which the depth value is a class and the cumulative value of weights for each depth value is a frequency.
  • the image processing device 20 generates input image depth distribution feature information and past image depth distribution feature information, and proceeds to step ST3.
  • step ST3 the image processing apparatus sets a composition ratio.
  • the composition control unit 25 in the image processing device 20 sets the composition ratio of the input image depth distribution feature information and the past image depth distribution feature information according to the amount of difference between the pixel information of the target pixel of the input guide image and the corresponding pixel in the past guide image. Set.
  • the composition control unit 25 sets the composition ratio so that the ratio of the input image depth distribution feature information increases as the amount of difference in pixel information between the target pixel and the corresponding pixel increases, and the process proceeds to step ST4.
  • step ST4 the image processing apparatus generates composite depth distribution feature information.
  • the information synthesizing unit 261 of the image processing device 20 synthesizes the input image depth distribution feature information and the past image depth distribution feature information generated in step ST2 at the synthesis ratio set in step ST3, thereby generating synthesized depth distribution feature information.
  • the information synthesizing unit 261 generates a combined depth histogram by combining the weights of the current depth histogram and the past depth histogram with the combining ratio for each depth value, and proceeds to step ST5.
  • step ST5 the image processing apparatus calculates a depth representative value.
  • the composite information analysis unit 262 of the image processing apparatus 20 calculates a depth representative value from the composite depth distribution feature information generated in step ST4.
  • the synthesis information analysis unit 262 calculates the depth intermediate value of the synthesis depth histogram as the depth representative value, and proceeds to step ST6.
  • step ST6 the image processing apparatus determines the depth value of the target pixel.
  • the composite information analysis unit 262 of the image processing device 20 calculates the reliability of the depth representative value calculated in step ST5, and sets the depth representative value whose reliability is equal to or higher than the determination threshold as the depth value of the target pixel. For example, the composite information analysis unit 262 calculates the ratio of the weight sum of the reliability determination area to the sum of the weights of all class widths of the composite depth histogram as the reliability. When the reliability is equal to or higher than a predetermined determination threshold, the composite information analysis unit 262 sets the depth representative value calculated in step ST5 as the depth value of the target pixel. Further, when the composite information analysis unit 262 determines that the reliability is less than a preset determination threshold, the composite information analysis unit 262 sets the depth value of the target pixel as an invalid value.
  • the image processing apparatus performs the processing from step ST1 to step ST6 for each target pixel, and calculates the depth value of the target pixel. Note that the processing illustrated in FIG. 7 is not limited to sequential processing in which the processing is performed in the order of steps, but may be performed by pipeline processing, parallel processing, or the like.
  • the depth representative value is calculated from the combined depth distribution feature information obtained by synthesizing the input image depth distribution feature information and the past image depth distribution feature information, and is more reliable than the determination threshold.
  • a high depth representative value is set as the depth value of the target pixel. Therefore, a depth value with high certainty is set as the depth value of the target image based on the pixel information and the depth value of the pixel in the spatiotemporal direction with respect to the target image, and the stability of the depth image in the spatiotemporal direction can be improved.
  • the image processing apparatus selects the depth representative value from the combined depth distribution feature information obtained by synthesizing the input image depth distribution feature information and the past image depth distribution feature information, and the depth representative value with high reliability is the depth value. It is said. For this reason, the image processing apparatus can remove the noise of the depth image.
  • the input depth image is subjected to filtering in the spatio-temporal direction using the guide image or the past depth image, and the stability in the spatio-temporal direction is improved as compared with the input depth image.
  • An output depth image can be generated.
  • the input image depth distribution feature information is generated using weights based on the pixel values of the pixels in the peripheral area of the input image in the input guide image.
  • the image processing apparatus generates past image depth distribution feature information using weights based on pixel values of pixels in the past image peripheral area in the past guide image.
  • the depth representative value selected from the combined depth distribution feature information is a value that takes into account the image of the peripheral region in the guide image.
  • the edge shape can be refined so that pixels indicating the background in the boundary portion of the foreground object do not indicate the depth value of the foreground object.
  • FIG. 8 is a diagram schematically illustrating the effect of the image processing apparatus.
  • FIG. 8A is a guide image input to the image processing apparatus
  • FIG. 8B is input to the image processing apparatus.
  • Depth image, FIG. 8C shows an output depth image output from the image processing apparatus.
  • the depth image input to the image processing apparatus is a depth image in which the outline of the foreground object is expanded relative to the guide image.
  • the image processing apparatus can generate an output depth image in which the outline of the foreground object is not expanded by performing the above-described processing on the input depth image.
  • the depth representative value is not limited to the intermediate depth value, and other statistical values may be used.
  • the depth mode value that is the depth value at which the depth histogram is maximized may be used as the depth representative value.
  • a statistical value having the highest reliability from a plurality of statistical values may be used as the depth representative value.
  • the image processing apparatus can simultaneously generate the reliability map of the output depth image, the output depth image can be used according to the accuracy required as an application.
  • the image processing apparatus is configured to recursively use past images (past guide images and past depth images), for example, a wide range of integration in the time-space direction is achieved while reducing the amount of calculation per unit frame. realizable.
  • the image processing apparatus generates an output depth image for each target pixel using the target pixel, the input image peripheral area pixel, and the past image peripheral area pixel. That is, since the generation of the output depth image is configured only by local processing, parallel computing resources can be effectively used in implementation using a GPU (Graphics Processing Unit) or the like.
  • GPU Graphics Processing Unit
  • the image processing apparatus combines the input image depth distribution feature information and the past image depth distribution feature information according to the amount of difference between the pixel information of the target pixel of the input guide image and the corresponding pixel corresponding to the target pixel of the past guide image.
  • the ratio is controlled. Therefore, it is possible to avoid the shape failure of the subject that caused the movement in the output depth image.
  • Second Embodiment> Next, a second embodiment of the image processing apparatus will be described. In the second embodiment, a case where a depth table is generated as depth distribution feature information will be described.
  • the second embodiment is configured similarly to the first embodiment. Further, in the second embodiment, the input image distribution feature information generation unit 212 of the input image information generation processing unit 21 and the past image distribution feature information generation unit 242 of the past image information generation processing unit 24 have the depth value and the weight. Generate a depth table showing the relationship.
  • the input image distribution feature information generation unit 212 generates a current depth table by associating the depth value with the weight calculated by the input image similarity calculation unit 211 for each pixel in the input image peripheral area.
  • the past image distribution feature information generation unit 242 generates a past depth table by associating the depth value with the weight calculated by the past image similarity calculation unit 241 for each pixel in the past image peripheral area.
  • FIG. 9 illustrates the operation of the past image distribution feature information generation unit.
  • FIG. 9A illustrates the depth values of the pixels in the past image peripheral area in the past depth image.
  • a pixel “x” indicates that the depth value is an invalid value.
  • FIG. 9B illustrates the weights calculated by the past image similarity calculation unit 241 for the pixels in the past image peripheral area.
  • the past image distribution feature information generation unit 242 excludes the invalid value pixels from the pixels in the past image peripheral area, and displays the past depth table shown in FIG. 9C showing the relationship between the depth value and the weight of the remaining pixels. Generate.
  • the information synthesizing unit 261 of the depth value processing unit 26 synthesizes the depth table by using the weights of the current depth table and the past depth table as weights according to the synthesis ratio set by the synthesis control unit 25. For example, the information synthesizing unit 261 multiplies the weight of the past depth table by the composition ratio ⁇ (n, x) and obtains the composition ratio (1 ⁇ (n, x)) for the weight of the current depth table. Multiply. The information synthesizing unit 261 generates a synthesized depth table obtained by combining the current depth table and the past depth table, which are weighted according to the synthesis ratio, as synthesized depth distribution feature information.
  • the composite information analysis unit 262 calculates the depth representative value from the composite depth table, sets the depth representative value that is equal to or higher than the determination threshold value set in advance as the depth value of the target pixel, and the reliability is less than the determination threshold value. In some cases, the depth value of the target pixel is set as an invalid value.
  • FIG. 10 is a diagram for explaining the operation of the depth value processing unit.
  • 10A illustrates the current depth table
  • FIG. 10B illustrates the past depth table
  • FIG. 10C illustrates the combined depth table.
  • “x” in FIG. 10 indicates that the depth value is an invalid value.
  • the depth value processing unit 26 generates a composite depth table by concatenating the current depth table and the past depth table, except for invalid values. Further, in order to obtain the depth median, the depth value processing unit 26 rearranges the data in the order of the depth values, for example.
  • FIG. 10C shows a combined depth table in the order of depth values. For example, the depth value processing unit 26 calculates the cumulative weight value in ascending order of the depth value.
  • the depth intermediate value Dmedian (n, x) 96.
  • the reliability determination area is “94 to 98”
  • the depth representative value is calculated because the depth table is used instead of the depth histogram. Can be easily performed.
  • a past reliability map storage unit 28 is provided in addition to the configuration of the first embodiment.
  • FIG. 11 illustrates the configuration of the third embodiment.
  • the image processing apparatus 20 includes an input image information generation processing unit 21, a past guide image storage unit 22, a past image information generation processing unit 24, a composition control unit 25, a depth value processing unit 26, a past depth.
  • An image storage unit 27 is included.
  • the image processing apparatus 20 includes a past reliability map storage unit 28.
  • the input image information generation processing unit 21 uses the input guide image and the input depth image to generate the input image depth distribution feature information for each pixel of interest based on the pixel value and the depth value of the pixel in the peripheral area of the input image.
  • the past guide image storage unit 22 stores a past guide image (for example, a guide image one frame before).
  • the past guide image storage unit 22 outputs the stored past guide image to the past image information generation processing unit 24 and the composition control unit 25.
  • the past image information generation processing unit 24 calculates the past image depth distribution feature information for each target pixel based on the pixel value of the target pixel, the pixel value and depth value of the pixel in the past image peripheral area, and the reliability of the pixel in the past image peripheral area. To generate.
  • the past image information generation processing unit 24 includes a past image similarity calculation unit 241 and a past image distribution feature information generation unit 242a.
  • the past image similarity calculation unit 241 calculates, for each target pixel, a weight according to the similarity of the pixel information between the target pixel in the input guide image and the pixels in the past image peripheral area in the past guide image, and the pixel information As the similarity increases, the weight is increased. For example, the past image similarity calculation unit 241 calculates the weight Wprevious (n, x, x ′) based on the above formula (4) using the luminance values of the target pixel and the pixels in the past image peripheral area.
  • the past image distribution feature information generation unit 242a generates past image depth distribution feature information by associating the depth value of the pixels in the past image peripheral area with the reliability and the weight obtained by the past image similarity calculation unit 241.
  • the past image depth distribution feature information is information indicating the relationship between the depth value in the peripheral area of the past image and the weight according to the reliability.
  • the past image distribution feature information generation unit 242a generates a past depth histogram Hprevious (n, x, d) based on Expression (14).
  • the reliability of the pixel at the position “x ′” in the peripheral area of the past image is “Dconfidence (n ⁇ 1, x ′)”, and the depth value of this pixel is “Dfilterted (n ⁇ 1, x ′) ')', And the integer value representing the depth value is "d (for example, 0 ⁇ d ⁇ 255)".
  • the past image peripheral area for the target pixel x is designated by the local window function W (x), and the past depth is calculated using the depth value, weight, and reliability of the pixel in the area indicated by the local window function W (x). Generate a histogram.
  • the integer value d representing the depth value corresponds to the class (bins) of the past depth histogram, and the integer value d is obtained by adding the weights of peripheral pixels having the same depth value as the integer value d based on the equation (15).
  • the frequency for. As the reliability, a reliability map stored in the past reliability map storage unit 28 is used.
  • the composition control unit 25 sets a composition ratio according to the amount of difference in pixel information between the target pixel in the input guide image and the corresponding pixel in the past image, and outputs the composition ratio to the depth value processing unit 26.
  • the depth value processing unit 26 has the composition ratio set by the composition control unit 25, the input image depth distribution feature information generated by the input image information generation processing unit 21, and the past image generated by the past image information generation processing unit 24. Depth distribution feature information is synthesized. Further, the depth value processing unit 26 calculates a depth representative value based on the combined depth distribution feature information. Furthermore, when the reliability of the depth representative value is greater than or equal to the determination threshold, the depth value processing unit 26 sets the depth representative value as the depth value of the target pixel. In addition, the depth value processing unit 26 causes the past depth image storage unit 27 to store an output depth image indicating the depth value calculated for each pixel of interest as a past depth image. Further, the depth value processing unit 26 uses a reliability map indicating the reliability calculated for each pixel of interest as a reliability map corresponding to the past depth image stored in the past depth image storage unit 27, and the past reliability map storage unit 28.
  • a reliability map indicating the reliability calculated for each pixel of interest as a reliability map corresponding to the past depth image stored in the past
  • the same processing as that in the flowchart shown in FIG. 7 is performed for each pixel of interest.
  • the past image is based on the depth value, reliability, and weight of the pixels in the past image peripheral area. Depth distribution feature information is generated.
  • the same effects as those of the first embodiment can be obtained.
  • the reliability map corresponding to the past depth image is reflected in the past image depth distribution feature information, it is more appropriate than the case where the reliability map is not used. Depth value.
  • the accuracy of the reliability map that is output simultaneously with the output depth image can be expected to improve.
  • the subject may be imaged by moving the viewpoint. Therefore, in the fourth embodiment, the stability of the depth image in the spatio-temporal direction can be improved even when the viewpoint moves.
  • the image processing apparatus matches at least one of an input image (an input guide image and an input depth image) and a past image (a past guide image and a past depth image) with a viewpoint of the other image. A viewpoint conversion process for converting to an image is performed. Further, the image processing apparatus performs processing similar to that in any of the first to third embodiments described above using the input image and the past image having the same viewpoint, and generates an output depth image.
  • a viewpoint conversion processing unit that matches the viewpoint of the past image with the viewpoint of the input image is provided in the configuration of the first embodiment will be described.
  • FIG. 12 illustrates the configuration of the fourth embodiment.
  • the image processing apparatus 20 includes an input image information generation processing unit 21, a past guide image storage unit 22, a past image information generation processing unit 24, a composition control unit 25, a depth value processing unit 26, and a past depth image storage unit 27. Yes.
  • the image processing apparatus 20 according to the fourth embodiment includes a viewpoint conversion processing unit 23.
  • the input image information generation processing unit 21 generates input image depth distribution feature information based on the pixel values and depth values of the pixels in the input image peripheral area.
  • the past guide image storage unit 22 stores a past guide image that is in the past direction than the input guide image.
  • the past guide image storage unit 22 outputs the stored past guide image to the viewpoint conversion processing unit 23.
  • the viewpoint conversion processing unit 23 converts the past guide image output from the past guide image storage unit 22 into the viewpoint image of the input image. In addition, the viewpoint conversion processing unit 23 converts the past depth image stored in the past depth image storage unit 27 into a depth image of the viewpoint of the input image.
  • the viewpoint conversion processing unit 23 includes a position / orientation detection unit 231, a past position / orientation storage unit 232, a viewpoint conversion parameter generation unit 233, a guide image viewpoint conversion unit 234, and a depth image viewpoint conversion unit 235.
  • the position / orientation detection unit 231 detects the self-position and orientation of the imaging apparatus that has generated the guide image based on the input guide image.
  • the position / orientation detection unit 231 is disclosed in, for example, a document “Davison,“ Andrew ”J.“ Real-time “simultaneous” “localization” and “mapping” with “a” singlele “camera.” “Computer” Vision, “2003.” Proceedings.
  • the self-position and orientation of the imaging apparatus that has generated the input guide image are detected by using the above-described technique, and the detection result is output to the past position and orientation storage unit 232 and the viewpoint conversion parameter generation unit 233.
  • the past position / orientation storage unit 232 stores the detection result output from the position / orientation detection unit 231. In addition, the past position and orientation storage unit 232 outputs the stored detection result, that is, the detection result based on the past guide image, to the viewpoint conversion parameter generation unit 233.
  • the viewpoint conversion parameter generation unit 233 generates viewpoint conversion parameters for performing viewpoint conversion processing so that the past guide image and the past depth image have the same viewpoint as the input image.
  • the viewpoint conversion parameter generation unit 233 outputs the generated viewpoint conversion parameters to the guide image viewpoint conversion unit 234 and the depth image viewpoint conversion unit 235.
  • FIG. 13 is a diagram for explaining viewpoint conversion.
  • 13A shows a two-dimensional depth image before viewpoint conversion
  • FIG. 13B shows a moving state of the imaging apparatus
  • FIG. 13C shows a two-dimensional depth image after viewpoint conversion.
  • the imaging device CAM viewpoint
  • the depth image past depth image
  • the case of converting to a depth image of the viewpoint of the input depth image is illustrated.
  • Z0 indicates the depth value of the position (x0, y0)
  • f indicates the focal length
  • Cx, Cy indicates the center of the image.
  • the external parameters R0 and R1 are parameters related to viewpoint rotation
  • the external parameters T0 and T1 are parameters related to viewpoint translation.
  • Z1 is the depth value of the position (x1, y1).
  • the viewpoint conversion parameter generation unit 233 stores the focal length f acquired in advance, the detection result output from the position / orientation detection unit 231 (corresponding to the external parameters R 1 and T 1 after the viewpoint is moved), and the past position / orientation storage unit 232. Based on the detected result (corresponding to the external parameters R0 and T0 before the viewpoint movement), a viewpoint conversion parameter for converting the point Z0 (x0, y0) of the two-dimensional depth image into the point Z1 (x1, y1) is generated. .
  • the guide image viewpoint conversion unit 234 performs viewpoint conversion using the conversion parameter, converts the past guide image stored in the past guide image storage unit 22 into a guide image having the same viewpoint as the input guide image, and stores the past image information.
  • the data is output to the generation processing unit 24.
  • the depth image viewpoint conversion unit 235 performs viewpoint conversion using the conversion parameter, converts the past depth image stored in the past depth image storage unit 27 into a depth image having the same viewpoint as the input depth image, and stores the past image information.
  • the data is output to the generation processing unit 24.
  • the past image information generation processing unit 24 uses the past guide image past depth image after the viewpoint conversion, based on the pixel value of the target pixel, the pixel value of the pixel in the peripheral area of the past image, the depth value, and the weight. Generate past image depth distribution feature information.
  • the composition control unit 25 sets a composition ratio according to the amount of difference in pixel information between the target pixel in the input guide image and the corresponding pixel in the past guide image after viewpoint conversion, and outputs the composition ratio to the depth value processing unit 26.
  • the depth value processing unit 26 sets the input image depth distribution feature information generated by the input image information generation processing unit 21 and the past image depth distribution feature information generated by the past image information generation processing unit 24 by the synthesis control unit 25. Synthesize with the synthesis ratio. Further, the depth value processing unit 26 calculates a depth representative value based on the combined depth distribution feature information. Furthermore, when the reliability of the depth representative value is greater than or equal to the determination threshold, the depth value processing unit 26 sets the depth representative value as the depth value of the target pixel. In addition, the depth value processing unit 26 causes the past depth image storage unit 27 to store an output depth image indicating the depth value calculated for each pixel of interest as a past depth image. In addition, the depth value processing unit 26 stores a reliability map indicating the calculated reliability in the past reliability map storage unit 28.
  • FIG. 14 is a flowchart showing the viewpoint conversion operation.
  • the image processing apparatus performs position and orientation detection.
  • the viewpoint conversion processing unit 23 of the image processing device 20 detects the position and orientation of the imaging device that generated the input image based on the input image, and proceeds to step ST12.
  • step ST12 the image processing apparatus generates viewpoint conversion parameters.
  • the viewpoint conversion processing unit 23 performs viewpoint conversion for matching the viewpoints of the input image and the past image based on the detection result of the position and orientation detected in step ST11 and the detection result of the position and orientation calculated based on the past guide image.
  • the parameter is generated and the process proceeds to step ST13.
  • step ST13 the image processing apparatus performs viewpoint conversion.
  • the viewpoint conversion processing unit 23 performs viewpoint conversion using the viewpoint conversion parameter generated in step ST12, and based on the detection result and the position and orientation detection result calculated based on the past guide image, Match the viewpoints of past images.
  • the image processing apparatus performs the process of the flowchart shown in FIG. 7 for each target pixel sequentially set for the input image after matching the viewpoints of the input image and the past image by performing the viewpoint conversion operation of FIG. And generate an output depth image with improved spatio-temporal stability. Further, every time a new image is input, the process of the flowchart shown in FIG. 14 and the process of the flowchart shown in FIG. 7 are performed.
  • FIG. 15 illustrates the movement of the viewpoint and the foreground object
  • FIG. 16 illustrates the operation of the fourth embodiment when the viewpoint and the foreground object move as illustrated in FIG.
  • the imaging device CAM viewpoint
  • the reference numerals of the blocks that perform the corresponding processing in FIG. 12 are shown.
  • FIG. 15 shows the difference amount detection result, and the black region indicates a pixel region in which the pixel information differs, and the other region indicates a pixel region in which the pixel information matches.
  • the input image depth distribution feature information and the past image depth distribution feature information are synthesized at the synthesis ratio set by the synthesis control unit, and the depth representative value calculated from the synthesized depth distribution feature information is noted.
  • An output depth image is generated as the pixel depth value.
  • the same effect as that of the first embodiment can be obtained.
  • the stability of the depth image in the spatio-temporal direction can be improved even if the viewpoint changes, so that the mobile device (for example, by compensating for the change in the position and orientation of the imaging device between frames, for example)
  • a mobile terminal such as a smartphone or a feature phone
  • a wearable device for example, a head mounted display
  • the series of processes described in the specification can be executed by hardware, software, or a combined configuration of both.
  • a program in which a processing sequence is recorded is installed and executed in a memory in a computer incorporated in dedicated hardware.
  • the program can be installed and executed on a general-purpose computer capable of executing various processes.
  • the program can be recorded in advance on a hard disk, SSD (Solid State Drive), or ROM (Read Only Memory) as a recording medium.
  • the program is a flexible disk, CD-ROM (Compact Disc Read Only Memory), MO (Magneto optical disc), DVD (Digital Versatile Disc), BD (Blu-Ray Disc (registered trademark)), magnetic disk, semiconductor memory card It can be stored (recorded) in a removable recording medium such as temporarily or permanently.
  • a removable recording medium can be provided as so-called package software.
  • the program may be transferred from the download site to the computer wirelessly or by wire via a network such as a LAN (Local Area Network) or the Internet.
  • the computer can receive the program transferred in this way and install it on a recording medium such as a built-in hard disk.
  • the image processing apparatus may have the following configuration. (1) Correspondence between input image depth distribution feature information based on pixel values and depth values of pixels in a peripheral region with respect to a target pixel of the input image, and a pixel position of the target pixel in a past image that is a past image from the input image The past pixel depth distribution feature information is synthesized based on the pixel value and depth value of the pixel in the peripheral region with respect to the pixel and the pixel value of the target pixel, and the depth representative value calculated from the generated synthesized depth distribution feature information is used as the target pixel.
  • An image processing apparatus comprising a depth value processing unit for obtaining a depth value of (2) an input image information generation processing unit for generating the input image depth distribution feature information; A past image information generation processing unit for generating the past image depth distribution feature information;
  • the input image information generation processing unit generates the input image depth distribution feature information by associating a weight corresponding to the degree of similarity of pixel information with the target pixel for each pixel in the peripheral region, with the depth value.
  • the past image information generation processing unit generates the past image depth distribution feature information by associating a weight corresponding to the degree of similarity of pixel information with the target pixel for each pixel in the peripheral region with respect to the corresponding pixel, with a depth value.
  • a synthesis control unit that sets a synthesis ratio according to a difference amount of pixel information between the target pixel and the corresponding pixel;
  • the image processing apparatus according to (2) wherein the depth value processing unit synthesizes the input image depth distribution feature information and the past image depth distribution feature information at a synthesis ratio set by the synthesis control unit.
  • the composition control unit may determine a composition ratio of the input image depth distribution feature information generated by the input image information generation processing unit as the amount of difference in pixel information between the target pixel and the corresponding pixel increases.
  • the image processing apparatus described in (3).
  • the input image information generation processing unit and the past image information generation processing unit increase the weight as the similarity of the pixel information with the target pixel increases.
  • the image processing apparatus described. The depth value processing unit calculates the reliability of the depth representative value, and when the reliability is equal to or higher than a predetermined determination threshold, the depth representative value is used as the depth value of the target pixel.
  • the depth value processing unit sets the depth value of the target pixel as an invalid value.
  • the past image information generation processing unit generates the past image depth distribution feature information by excluding the pixel indicating the invalid value from the pixels in the peripheral area with respect to the corresponding pixel.
  • the image according to any one of (7) to (8) Processing equipment.
  • the image processing apparatus according to any one of (7) to (9), wherein the depth value processing unit can change the determination threshold.
  • the depth value processing unit uses the combined depth distribution feature information as depth value order information, and sets a depth value at which a weight cumulative value is an intermediate value as the depth representative value.
  • the input image information generation processing unit generates, as the depth distribution feature information, a depth histogram in which a weight is accumulated for each depth value based on a depth value and a weight of a pixel in a peripheral region with respect to the target pixel.
  • the past image information generation processing unit generates, as the past image depth distribution feature information, a depth histogram in which a weight is accumulated for each depth value based on a depth value and a weight of a pixel in a peripheral region with respect to the corresponding pixel.
  • the depth value processing unit performs synthesis by using the weights of the histograms generated by the input image information generation processing unit and the past image information generation processing unit as weights according to the synthesis ratio set by the synthesis control unit.
  • the image processing apparatus according to any one of (2) to (11), wherein the combined depth histogram is used as the combined depth distribution feature information.
  • the input image information generation processing unit generates, as the depth distribution feature information, a depth table indicating a weight for each depth value based on a depth value and a weight of a pixel in a peripheral region with respect to the target pixel
  • the past image information generation processing unit generates, as the depth distribution feature information, a depth table indicating a weight for each depth value, based on a depth value and a weight of a pixel in the past image peripheral region with respect to the corresponding pixel
  • the depth value processing unit synthesizes the weights of the depth tables generated by the input image information generation processing unit and the past image information generation processing unit as weights according to the combination ratio set by the combination control unit,
  • the image processing apparatus according to any one of (2) to (11), wherein the generated combined depth table is used as the combined depth distribution feature information.
  • the depth value processing unit uses the reliability calculated for the depth representative value as the depth value of the pixel of interest as the reliability of the pixel of interest.
  • the past image information generation processing unit generates the past image depth distribution feature information on the basis of a pixel value, a depth value, reliability, and a pixel value of the pixel of interest in the peripheral region with respect to the corresponding pixel (2).
  • the image processing device according to any one of (13) to (13).
  • a viewpoint conversion processing unit that converts at least one of the input image and the past image into an image whose viewpoint matches that of the other image.
  • the input image information generation processing unit and the past image information generation processing unit generate the input image depth distribution feature information and the past image depth distribution feature information using images whose viewpoints are matched by the viewpoint conversion processing unit.
  • the image processing apparatus according to any one of (2) to (14).
  • a depth value with high certainty is set as the depth value of the target image based on the pixel information and the depth value of the pixels in the space-time direction with respect to the target image. Therefore, the stability of the depth image in the spatiotemporal direction can be improved. Therefore, the present invention can be applied to fields that require a stable depth image in the spatio-temporal direction, for example, electronic devices (such as mobile devices and wearable devices) that can be used for 3D user interfaces, SLAM (Simultaneous Localization and Mapping), and the like.
  • electronic devices such as mobile devices and wearable devices
  • SLAM Simultaneous Localization and Mapping
  • DESCRIPTION OF SYMBOLS 10 ... Depth image system 15 ... Depth image generation apparatus 20 ... Image processing apparatus 21 ... Input image information generation process part 22 ... Past guide image storage part 23 ... Viewpoint conversion process part 24 ... past image information generation processing unit 25 ... composition control unit 26 ... depth value processing unit 27 ... past depth image storage unit 28 ... past reliability map storage unit 211 ... input image similarity Degree calculation unit 212 ... Input image distribution feature information generation unit 231 ... Position and orientation detection unit 232 ... Past position and orientation storage unit 233 ... Viewpoint conversion parameter generation unit 234 ... Guide image viewpoint conversion unit 235 ... Depth image viewpoint conversion unit 241 ... Past image similarity calculation unit 242, 242a ... Past image distribution feature information generation unit 251 ... Difference calculation unit 252 ... Composition ratio Tough 261 ... information combining unit 262 ... synthetic information analysis unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

入力画像情報生成処理部21は、入力画像における注目画素に対する周辺領域内画素の画素値とデプス値に基づいて、デプス分布特徴情報を生成する。過去画像情報生成処理部24は、入力画像より過去の画像である過去画像における注目画素の画素位置を対応画素として、対応画素に対する過去画像周辺領域内画素の画素値とデプス値および注目画素の画素値に基づいて、デプス分布特徴情報を生成する。合成制御部25は、注目画素と対応画素との画素情報の相違量に応じて合成比率を設定する。デプス値設定部26は、合成制御部25で設定された合成比率で、入力画像情報生成処理部21と過去画像情報生成処理部24で生成されたデプス分布特徴情報を合成して、合成デプス分布特徴情報から算出したデプス代表値を注目画素のデプス値とする。デプス画像の時空間方向の安定性を改善できる。

Description

画像処理装置と画像処理方法
 この技術は、画像処理装置と画像処理方法に関し、デプス画像の時空間方向の安定性を改善できるようにする。
 近年、被写体までの距離を画像で表現したデプス画像を生成して、ジェスチャユーザインタフェース等に利用することが行われている。また、デプス画像の生成では、例えば特許文献1に開示されているように、左眼画像と右眼画像を用いてマッチング等を行うことで生成されている。
 また、画像処理では、時空間方向の安定性を改善する提案がなされている。例えば特許文献2の発明では、入力画像と空間的な相関を有する参照画像の空間情報に基づいて動き補償を行い、補間出力画像を生成する。また、参照画像の時間方向の変化に基づいて算出したフィードバック調整量に基づき入力画像と補間出力画像を混合してノイズの少ない画像が生成している。
特開2012-244396号公報 特開2013-059016号公報
 ところで、特許文献2のような処理を行うと、前景と背景の境界領域などにおいてデプス値が平均化されて、前景と背景のいずれとも異なるデプス値となり、時空間方向の安定性を改善することができない。
 そこで、この技術ではデプス画像の時空間方向の安定性を改善できる画像処理装置と画像処理方法を提供することを目的とする。
 この技術の第1の側面は、
 入力画像の注目画素に対する周辺領域内画素の画素値とデプス値に基づいた入力画像デプス分布特徴情報と、前記入力画像より過去の画像である過去画像における前記注目画素の画素位置の対応画素に対する周辺領域内画素の画素値とデプス値および前記注目画素の画素値に基づいた過去画像デプス分布特徴情報の合成を行い、生成した合成デプス分布特徴情報から算出したデプス代表値を前記注目画素のデプス値とするデプス値処理部
を備える画像処理装置にある。
 この技術において、入力画像情報生成処理部は、入力画像における注目画素に対する周辺領域内画素の画素値とデプス値に基づいて、例えば周辺領域内画素毎に、注目画素との画素情報の類似度に応じた重みをデプス値に関連付けて、デプス値毎に重みを累積したデプスヒストグラムまたはデプス値毎に重みを示すデプステーブルを入力画像デプス分布特徴情報として生成する。
 過去画像情報生成処理部は、入力画像より過去の画像である過去画像における注目画素の画素位置を対応画素として、対応画素に対する周辺領域内画素の画素値とデプス値および注目画素の画素値に基づいて、例えば過去画像周辺領域内画素毎に、注目画素との画素情報の類似度に応じた重みをデプス値に関連付けて、デプス値毎に重みを累積したデプスヒストグラムまたはデプス値毎に重みを示すデプステーブルを過去画像デプス分布特徴情報として生成する。
 また、入力画像情報生成処理部と過去画像情報生成処理部は、画素情報例えば輝度や色の類似度が高くなるに伴い重みを大きくする。
 合成制御部は、注目画素と対応画素との画素情報の相違量に応じて合成比率の設定を行い、注目画素と対応画素との画素情報の相違量が大きくなるともない、入力画像情報生成処理部で生成された入力画像デプス分布特徴情報の合成比率を高くする。
 デプス値処理部は、合成制御部で設定された合成比率で、入力画像情報生成処理部で生成された入力画像デプス分布特徴情報と過去画像情報生成処理部で生成された過去画像デプス分布特徴情報を合成して合成デプス分布特徴情報を生成する。デプス値処理部は、例えばデプスヒストグラムまたはデプステーブルの重みを合成比率に応じた重みとして、デプスヒストグラムまたはデプステーブルの合成を行い、合成デプスヒストグラムまたは合成デプステーブルを生成する。デプス値処理部は、合成デプス分布特徴情報から算出したデプス代表値、例えば合成デプス分布特徴情報をデプス値順の情報として、重み累積値が中間値となるデプス値をデプス代表値とする。また、デプス値処理部は、合成デプス分布特徴情報の重みの総和に対するデプス代表値を基準とした所定デプス範囲の重みの総和の割合をデプス代表値の信頼度として算出する。デプス値処理部は、デプス体表値の信頼度が予め設定された判定閾値以上である場合に、デプス代表値を注目画素のデプス値として、信頼度が予め設定された判定閾値未満である場合に、注目画素のデプス値を無効値とする。さらに、デプス値処理部は、判定閾値を変更可能とする。
 また、過去画像情報生成処理部は、対応画素に対する周辺領域内画素から無効値を示す画素を除いてデプス分布特徴情報を生成する。さらに、過去画像情報生成処理部は、対応画素に対する周辺領域内画素の画素値とデプス値と信頼度および注目画素の画素値に基づいて、過去画像デプス分布特徴情報を生成するようにしてもよい。
 また、入力画像と過去画像の少なくとも一方の画像を他方の画像と視点が一致する画像に変換する視点変換処理部を設けて、入力画像情報生成処理部と過去画像情報生成処理部は、視点変換処理部によって視点を一致させた画像を用いて入力画像デプス分布特徴情報と過去画像デプス分布特徴情報を生成する。
 この技術の第2の側面は、
 入力画像の注目画素に対する周辺領域内画素の画素値とデプス値に基づいた入力画像デプス分布特徴情報と、前記入力画像より過去の画像である過去画像における前記注目画素の画素位置の対応画素に対する周辺領域内画素の画素値とデプス値および前記注目画素の画素値に基づいた過去画像デプス分布特徴情報の合成を行い、生成した合成デプス分布特徴情報から算出したデプス代表値を前記注目画素のデプス値とすること
を含む画像処理方法にある。
 この技術によれば、入力画像の注目画素に対する周辺領域内画素の画素値とデプス値に基づいた入力画像デプス分布特徴情報と、前記入力画像より過去の画像である過去画像における前記注目画素の画素位置の対応画素に対する周辺領域内画素の画素値とデプス値および前記注目画素の画素値に基づいた過去画像デプス分布特徴情報の合成を行い、生成した合成デプス分布特徴情報から算出したデプス代表値が前記注目画素のデプス値とされる。このため、注目画像に対して時空間方向の画素の画素情報とデプス値に基づき確実性の高いデプス値が注目画像のデプス値とされて、デプス画像の時空間方向の安定性を改善できる。なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、また付加的な効果があってもよい。
デプス画像生成システムの構成を例示した図である。 第1の実施の形態の構成を例示した図である。 入力ガイド画像を用いた重みの算出動作を説明するための図である。 過去ガイド画像を用いた重みの算出動作を説明するための図である。 相違量と合成比率の関係を例示した図である。 合成デプスヒストグラムを例示した図である。 第1の実施の形態の動作を示すフローチャートである。 画像処理装置の効果を模式化して示した図である。 過去画像分布特徴情報生成部の動作を例示した図である。 デプス値処理部の動作を説明するための図である。 第3の実施の形態の構成を例示している。 第4の実施の形態の構成を例示した図である。 視点変換を説明するための図である。 視点変換動作を示すフローチャートである。 視点と前景物の動きを例示した図である。 第4の実施の形態の動作を例示した図である。
 以下、本技術を実施するための形態について説明する。なお、説明は以下の順序で行う。
 1.デプス画像生成システムの構成
 2.第1の実施の形態
 3.第2の実施の形態
 4.第3の実施の形態
 5.第4の実施の形態
 <1.デプス画像生成システムの構成>
 図1は、本技術の画像処理装置を用いたデプス画像生成システムの構成を例示している。デプス画像システム10は、デプス画像生成装置15と画像処理装置20を有している。
 デプス画像生成装置15は、右視点画像と左視点画像を用いてマッチング処理を行い、右視点画像と左視点画像のいずれか一方を基準として、基準とした視点画像(以下「ガイド画像」という)における被写体までの距離(デプス値)を示すデプス画像(デプスマップともいう)を生成する。なお、図1では、右視点画像をガイド画像とした場合を例示している。マッチング処理は、領域ベースマッチングや特徴ベースマッチングテンプレートマッチングなどいずれの手法を用いてもよい。デプス画像生成装置15は、マッチング処理を実行して、右視点画像(ガイド画像)における注目画素に対して左視点画像における対応画素位置のずれ量に基づき、右視点画像の注目画素の被写体までの距離(デプス値)を算出する。また、デプス画像生成装置15は、右視点画像上における注目画素の画素位置を順次移動してマッチング処理を行い、各画素位置で算出したデプス値またはデプス値に応じた画素情報(例えば輝度)を示すデプス画像を生成する。デプス画像生成装置15は、生成したデプス画像を画像処理装置20へ出力する。
 画像処理装置20は、入力画像における注目画素に対する周辺領域内画素の画素値とデプス値に基づいて、デプス分布特徴情報を生成する。また、入力画像より過去の画像である過去画像における注目画素の画素位置を対応画素として、対応画素に対する過去画像周辺領域内画素の画素値とデプス値および注目画素の画素値に基づいて、デプス分布特徴情報を生成する。さらに、注目画素と対応画素との画素情報の相違量に応じて設定した合成比率で、入力画像と過去画像のそれぞれから生成されたデプス分布特徴情報の合成を行い、生成した合成デプス分布特徴情報から算出したデプス代表値を注目画素のデプス値とすることで、デプス画像の時空間方向の安定性を改善する。また、画像処理装置20は安定性が改善されたデプス画像における各画素のデプス値の信頼度を示す信頼度マップを生成する。
 <2.第1の実施の形態>
 次に画像処理装置の第1の実施の形態について説明する。図2は、画像処理装置の第1の実施の形態の構成を例示している。画像処理装置20は、入力画像情報生成処理部21、過去ガイド画像記憶部22、過去画像情報生成処理部24、合成制御部25、デプス値処理部26、過去デプス画像記憶部27を有している。
 入力画像情報生成処理部21は、入力画像における注目画素に対する周辺領域内画素(以下「入力画像周辺領域内画素」という)の画素値とデプス値に基づき、デプス分布特徴情報(以下「入力画像デプス分布特徴情報」という)を生成する。入力画像情報生成処理部21は、入力画像類似度算出部211と入力画像分布特徴情報生成部212を有している。なお、周辺領域は注目画素を基準とした注目領域を含む所定領域であり、周辺領域内画素には注目画素も含まれる。また、入力画像(入力ガイド画像と入力デプス画像)における周辺領域を入力画像周辺領域とする。
 入力画像類似度算出部211は、注目画素毎に、入力ガイド画像における注目画素と入力画像周辺領域内画素との画素情報の類似度に応じた重みの算出を行い、画素情報の類似度が高くなるに伴い重みを大きくする。例えば、入力画像類似度算出部211は、注目画素と入力画像周辺領域内画素の輝度を画素情報として用いて、式(1)に基づき重みWpresent(n,x,x’)を算出する。式(1)において、入力ガイド画像のフレーム番号を「n」、入力ガイド画像の輝度をI(n)として示している。また、注目画素の位置を表す二次元ベクトルを「x」、入力画像周辺領域内画素の位置を表す二次元ベクトルを「x’」として示している(二次元ベクトルの基準は例えば左上端の画素とする)。また、式(1)ではガウシアン係数「σ」を用いることで、輝度差に対してガウス分布に応じた重みを設定している。なお、ガウシアン係数σの値は、予め設定されている。
Figure JPOXMLDOC01-appb-M000001
 図3は、入力ガイド画像を用いた重みの算出動作を説明するための図である。図3の(a)は、入力ガイド画像における注目画素と入力画像周辺領域内画素の輝度を示している。また、図3の(b)は、式(1)に示す輝度差と重みの関係を示しており、輝度差が少なくなるほどすなわち類似度が高くなるほど重みを大きくする。入力画像類似度算出部211は、入力ガイド画像の注目画素と入力画像周辺領域内画素との輝度差に応じた重みを、式(1)に基づき算出する。図3の(c)は、入力画像周辺領域内画素毎に算出した重みWpresentを例示している。
 なお、入力画像類似度算出部211は、画素情報として輝度のみを利用して重みを算出する場合に限らず、色またはテクスチャ形状などの情報から重みを算出してもよく、複数の情報を用いて重みを算出してもよい。
 入力画像分布特徴情報生成部212は、注目画素毎に、入力画像周辺領域内画素のデプス値と入力画像類似度算出部211で求めた重みを関連付けて入力画像デプス分布特徴情報を生成する。入力画像デプス分布特徴情報は、入力画像周辺領域内のデプス値と重みの関係を示した情報である。例えば第1の実施の形態では、入力画像デプス分布特徴情報として、デプス値毎の重み累積値を示す現在デプスヒストグラムを生成する。入力画像分布特徴情報生成部212は、式(2)に基づき現在デプスヒストグラムHpresent(n,x,d)を生成する。式(2)において、入力ガイド画像における注目画素のデプス値を「D(n,x)」、デプス値を表す整数値を「d(例えば0≦d≦255)」としている。また、注目画素xを基準とする入力画像周辺領域をローカルウィンドウ関数W(x)で指定して、ローカルウィンドウ関数W(x)で示される領域内の画素のデプス値と重みを用いて現在デプスヒストグラムを生成する。なお、デプス値を表す整数値dは、現在デプスヒストグラムの階級(bins)に相当しており、式(3)に基づき整数値dとデプス値が等しい周辺画素の重みを加算して整数値dに対する度数としている。
Figure JPOXMLDOC01-appb-M000002
 過去ガイド画像記憶部22は、入力ガイド画像より過去の画像を示す過去ガイド画像(例えば1フレーム前のガイド画像)を記憶する。また、過去ガイド画像記憶部22は、記憶している過去ガイド画像を過去画像情報生成処理部24と合成制御部25へ出力する。
 過去画像情報生成処理部24は、入力ガイド画像と過去ガイド画像と過去ガイド画像における被写体までの距離を示す過去デプス画像を用いる。過去画像情報生成処理部24は、入力ガイド画像より過去の画像である過去ガイド画像における注目画素の画素位置を対応画素とする。過去画像情報生成処理部24は、対応画素に対する過去画像周辺領域内画素の画素値とデプス値および注目画素の画素値に基づいて、デプス分布特徴情報(以下「過去デプス分布特徴情報」という)を生成する。過去画像情報生成処理部24は、過去画像類似度算出部241と過去画像分布特徴情報生成部242を有している。
 過去画像類似度算出部241は、注目画素毎に、入力ガイド画像における注目画素と過去ガイド画像における過去画像周辺領域内画素との画素情報の類似度に応じた重みの算出を行い、画素情報の類似度が高くなるに伴い重みを大きくする。例えば、過去画像類似度算出部241は、注目画素と過去画像周辺領域内画素の輝度を画素情報として用いて、式(4)に基づき重みWprevious(n,x,x’)を算出する。式(4)において、入力ガイド画像のフレーム番号を「n」、入力ガイド画像の輝度をI(n)、過去ガイド画像(例えば1フレーム前のガイド画像)のフレーム番号を「n-1」、過去ガイド画像の輝度をI(n-1)として示している。また、注目画素の位置を表す二次元ベクトルを「x」、過去画像周辺領域内画素の位置を表す二次元ベクトルを「x’」として示している(二次元ベクトルの基準は例えば左上端の画素とする)。また、式(4)では式(1)と同様にガウシアン係数「σ」を用いることで、輝度差に対してガウス分布に応じた重みを設定している。なお、ガウシアン係数σの値は、式(1)と等しい値とする場合に限らず、式(1)と異なる値に設定してもよい。また、過去画像周辺領域は、注目画素に対して入力画像周辺領域と等しい位置で等しい領域サイズに設定する場合に限らず、例えば異なる領域サイズとしてもよい。
Figure JPOXMLDOC01-appb-M000003
 図4は、過去ガイド画像を用いた重みの算出動作を説明するための図である。図4の(a)は、過去画像周辺領域のガイド画像(例えば輝度画像)を示している。また、図4の(b)は、式(4)に示す輝度差と重みの関係を示しており、輝度差が小さくなるほど重みが大きくなる。過去画像類似度算出部241は、過去画像周辺領域内画素毎に、入力ガイド画像の注目画素と過去画像周辺領域内画素との輝度差に応じた重みを、式(4)に基づき求める。図4の(c)は、過去画像周辺領域内画素毎に算出した重みWpresentを例示している。
 なお、過去画像類似度算出部241は、入力画像類似度算出部211と同様に、輝度のみを利用して重みを算出する場合に限らず、色またはテクスチャ形状などの情報から重みを算出してもよく、複数の情報を用いて重みを算出してもよい。
 過去画像分布特徴情報生成部242は、過去デプス画像記憶部27に記憶されている過去デプス画像の過去画像周辺領域内画素のデプス値と過去画像類似度算出部241で求めた重みを関連付けて過去画像デプス分布特徴情報を生成する。過去画像デプス分布特徴情報は、過去画像周辺領域内のデプス値と重みの関係を示した情報である。例えば第1の実施の形態では、過去画像デプス分布特徴情報として、過去デプス画像における過去画像周辺領域内画素のデプス値とデプス値毎の重み累積値を示す過去デプスヒストグラムを生成する。過去画像分布特徴情報生成部242は、式(5)に基づき過去デプスヒストグラムHprevious(n,x,d)を生成する。式(5)において、過去画像周辺領域内である位置「x’」の画素のデプス値を「Dfilterted(n-1,x’)」、デプス値を表す整数値を「d(例えば0≦d≦255)」としている。また、注目画素xを基準とする過去画像周辺領域をローカルウィンドウ関数W(x)で指定して、ローカルウィンドウ関数W(x)で示される領域内の画素のデプス値と重みを用いて過去デプスヒストグラムを生成する。なお、デプス値を表す整数値dは、過去デプスヒストグラムの階級(bins)に相当しており、式(6)に基づき整数値dとデプス値が等しい周辺画素の重みを加算して整数値dに対する度数とする。
Figure JPOXMLDOC01-appb-M000004
 合成制御部25は、入力ガイド画像における注目画素と過去ガイド画像における注目画素に対応する対応画素との画素情報の相違に応じて、入力画像デプス分布特徴情報と過去画像デプス分布特徴情報との合成比率を注目画素毎に設定する。合成制御部25は、相違量算出部251と合成比率設定部252を有している。
 相違量算出部251は、入力ガイド画像と過去ガイド画像記憶部22に記憶されている過去ガイド画像を用いて、入力ガイド画像の注目画素と注目画素の位置に対応する過去画像の対応画素との画素情報の相違量を算出する。例えば相違量算出部251は、式(7)に基づき注目画素の輝度I(n,x)と対応画素との輝度(n-1,x)から相違量Idiff(n,x)を生成する。相違量Idiff(n,x)は、例えば対応画素が被写体領域の画素であり、被写体が移動したことで注目画素が背景領域の画素となると、被写体が移動していない場合に比べて大きな値となる。なお、相違量算出部251は、画素情報として輝度のみを利用して相違量を算出する場合に限らず、色などの情報から相違量を算出してもよく、複数の情報を用いて相違量を算出してもよい。
Figure JPOXMLDOC01-appb-M000005
 合成比率設定部252は、相違量算出部251で算出された相違量Idiff(n,x)に基づき、注目画素と対応画素との相違量が大きくなるともない、入力画像情報生成処理部21で生成された入力画像デプス分布特徴情報の割合が高くなるように合成比率を設定する。例えば、合成比率設定部252は、合成比率α(n,x)を、式(8)に基づき設定する。式(8)において、閾値Th0,Th1は、複数視点の入力画像のノイズ等を考慮して時空間方向に安定したデプス画像が得られるように予め設定されている。また、式(7)に示す相違量Idiff(n,x)と合成比率α(n,x)の関係は、図5に示す関係となる。合成比率設定部252は、注目画素毎に設定した合成比率α(n,x)をデプス値処理部26へ出力する。なお、合成比率はα0,α1は、予め設定されており「0≦α0<α1」の値となっている。
Figure JPOXMLDOC01-appb-M000006
 このように、合成比率設定部252は、注目画素と対応画素との画素情報の相違量が大きくなるともない、入力画像デプス分布特徴情報の割合が高くなるように合成比率を設定する。したがって、例えば被写体が動きを生じて相違量が大きくなったとき、移動前のデプス分布特徴情報の割合が少なくされて、被写体の動きによる影響を防止できる。
 デプス値処理部26は、合成制御部25で設定された合成比率で、入力画像情報生成処理部21で生成された入力画像デプス分布特徴情報と過去画像情報生成処理部24で生成された過去画像デプス分布特徴情報を注目画素毎に合成する。また、デプス値処理部26は、合成後のデプス分布特徴情報(以下「合成デプス分布特徴情報」という)から算出したデプス代表値を注目画素のデプス値として出力デプス画像を生成する。デプス値処理部26は、情報合成部261と合成情報解析部262を有している。
 情報合成部261は、例えば入力画像情報生成処理部21で生成された現在デプスヒストグラムと、過去画像情報生成処理部24で生成された過去デプスヒストグラムを、合成制御部25で設定された合成比率α(n,x)で合成する。式(9)は、合成処理式を示しており、情報合成部261は、式(9)に示す演算を行い、現在デプスヒストグラムと過去デプスヒストグラムの重みを合成比率に応じて重みとしてデプス値毎に合成することで、合成デプス分布特徴情報である合成デプスヒストグラムを生成する。
Figure JPOXMLDOC01-appb-M000007
 図6は、合成デプスヒストグラムを例示しており、デプス値を階級(bins)として、階級毎に合成比率に応じて現在デプスヒストグラムと過去デプスヒストグラムの重みを加算して度数としている。
 合成情報解析部262は、合成デプスヒストグラムに基づき統計分析を行い、デプス代表値を算出する。また、合成情報解析部262は、デプス代表値の信頼度を算出して、信頼度が予め設定されている判定閾値以上であるデプス代表値を注目画素のデプス値として、信頼度が判定閾値未満である場合は注目画素のデプス値を無効値とする。合成情報解析部262は、例えば合成デプスヒストグラムのデプス中間値をデプス代表値として算出する。また、合成情報解析部262は、合成デプスヒストグラムにおける全階級幅の重みの和に対してデプス代表値を基準とした信頼度判定領域(所定階級幅)の重みの和の割合を信頼度として算出する。
 例えば、合成情報解析部262は、合成デプスヒストグラムHmerged(n,x)のデプス中間値Dmedian(n,x)をデプス代表値として算出する。なお、デプス中間値Dmedian(n,x)の算出において、合成情報解析部262は、無効値Dinvalidを除外する。合成情報解析部262は、図6に示すように、算出したデプス中間値Dmedian(n,x)を基準とした信頼度判定領域(Dmedian(n,x)-Dthr)≦d≦(Dmedian(n,x)+Dthr)における重みの和Wsum_around_med(n,x)を、式(10)を用いて算出する。また、合成情報解析部262は、式(11)に基づき、全階級幅の重みの和Wtotal(n,x)を算出する。
Figure JPOXMLDOC01-appb-M000008
 合成情報解析部262は、式(12)に示すように、全階級幅の重みの和Wtotal(n,x)に対する信頼度判定領域の重み和Wsum_around_med(n,x)の割合を信頼度Dconfidence(n,x)として算出する。
Figure JPOXMLDOC01-appb-M000009
 さらに、合成情報解析部262は、予め設定されている判定閾値Thhist_ratioを用いて式(13)に示す処理を行い、信頼度Dconfidence(n,x)が判定閾値Thhist_ratio以上であるデプス中間値Dmedian(n,x)を注目画素のデプス値Dfiltered(n,x)とする。また、合成情報解析部262は、信頼度Dconfidence(n,x)が判定閾値Thhist_ratio未満である場合、注目画素のデプス値Dfiltered(n,x)は無効値Dinvalidとする。なお、無効値Dinvalidは、デプス画像で示されているデプス値と区別可能な値とする。
Figure JPOXMLDOC01-appb-M000010
 また、合成情報解析部262は、判定閾値Thhist_ratioを変更可能する。例えば信頼度の高い出力デプス画像を生成する場合、合成情報解析部262は、判定閾値Thhist_ratioを高くして、信頼度の高いデプス代表値のみを注目画素のデプス値とする。また、出力デプス画像においてデプス値が得られていない画素を少なくする場合、合成情報解析部262は、判定閾値Thhist_ratioを低くして、算出されたデプス代表値が注目画素のデプス値とされやすくする。
 合成情報解析部262は、注目画素毎にデプス値Dfiltered(n,x)を算出して出力デプス画像を生成する。合成情報解析部262は、注目画素毎に算出した信頼度Dconfidence(n,x)を出力デプス画像に関連付けて出力する。また、合成情報解析部262は、生成した出力デプス画像を過去デプス画像として過去デプス画像記憶部27に記憶させる。なお、過去デプス画像記憶部27に記憶されている過去デプス画像は、過去ガイド画像記憶部22に記憶されている過去ガイド画像における被写体までの距離を示すデプス画像である。
 次に、第1の実施の形態の動作について説明する。図7は、第1の実施の形態の動作を示すフローチャートである。ステップST1で画像処理装置は周辺領域内画素毎に重みを設定する。画像処理装置20における入力画像情報生成処理部21の入力画像類似度算出部211は、入力ガイド画像における注目画素と入力画像周辺領域内画素との画素情報の類似度を算出して、算出した類似度に応じた重みを入力画像周辺領域内画素毎に設定する。同様に、過去画像情報生成処理部24の過去画像類似度算出部241は、注目画素と過去ガイド画像における過去画像周辺領域内画素との画素情報の類似度を算出して、算出した類似度に応じた重みを過去画像周辺領域内画素毎に設定する。画像処理装置20は、入力画像周辺領域内画素と過去画像周辺領域内画素の画素毎に重みを設定してステップST2に進む。
 ステップST2で画像処理装置はデプス分布特徴情報を生成する。画像処理装置20における入力画像情報生成処理部21の入力画像分布特徴情報生成部212は、入力画像周辺領域内画素のデプス値と入力画像類似度算出部211で求めた入力画像周辺領域内画素の重みを関連付けて入力画像デプス分布特徴情報を生成する。例えば、入力画像分布特徴情報生成部212は、デプス値を階級としてデプス値毎の重みの累積値を度数とする現在デプスヒストグラムを入力画像デプス分布特徴情報として生成する。過去画像情報生成処理部24の過去画像分布特徴情報生成部242は、過去デプス画像における過去画像周辺領域内画素のデプス値と過去画像類似度算出部241で算出した過去画像周辺領域内画素の重みを関連付けて過去画像デプス分布特徴情報を生成する。例えば、過去画像分布特徴情報生成部242は、デプス値を階級としてデプス値毎の重みの累積値を度数とする過去デプスヒストグラムを過去画像デプス分布特徴情報として生成する。画像処理装置20は入力画像デプス分布特徴情報と過去画像デプス分布特徴情報を生成してステップST3に進む。
 ステップST3で画像処理装置は合成比率を設定する。画像処理装置20における合成制御部25は、入力ガイド画像の注目画素と過去ガイド画像における対応画素の画素情報の相違量に応じて入力画像デプス分布特徴情報と過去画像デプス分布特徴情報の合成比率を設定する。合成制御部25は、注目画素と対応画素との画素情報の相違量が大きくなるともない、入力画像デプス分布特徴情報の割合が高くなるように合成比率を設定してステップST4に進む。
 ステップST4で画像処理装置は合成デプス分布特徴情報を生成する。画像処理装置20の情報合成部261は、ステップST2で生成した入力画像デプス分布特徴情報と過去画像デプス分布特徴情報を、ステップST3で設定した合成比率で合成して合成デプス分布特徴情報を生成する。例えば、情報合成部261は、デプス値毎に現在デプスヒストグラムと過去デプスヒストグラムの重みを合成比率で合成することで合成デプスヒストグラムを生成してステップST5に進む。
 ステップST5で画像処理装置はデプス代表値を算出する。画像処理装置20の合成情報解析部262は、ステップST4で生成した合成デプス分布特徴情報からデプス代表値を算出する。例えば、合成情報解析部262は、合成デプスヒストグラムのデプス中間値をデプス代表値として算出してステップST6に進む。
 ステップST6で画像処理装置は注目画素のデプス値を決定する。画像処理装置20の合成情報解析部262は、ステップST5で算出したデプス代表値の信頼度を算出して、信頼度が判定閾値以上であるデプス代表値を注目画素のデプス値とする。例えば、合成情報解析部262は、合成デプスヒストグラムの全階級幅の重みの和に対する信頼度判定領域の重み和の割合を信頼度として算出する。合成情報解析部262は、信頼度が予め設定されている判定閾値以上である場合はステップST5で算出したデプス代表値を注目画素のデプス値とする。また、合成情報解析部262は、信頼度が予め設定されている判定閾値未満であると判別した場合には注目画素のデプス値を無効値とする。
 画像処理装置は、注目画素毎にステップST1からステップST6の処理を行い、注目画素のデプス値を算出する。なお、図7に示す処理は、ステップ順に処理を行う順序処理に限らず、パイプライン処理や並列処理等で行うようにしてもよい。
 このような第1の実施の形態によれば、入力画像デプス分布特徴情報と過去画像デプス分布特徴情報を合成した合成デプス分布特徴情報からデプス代表値が算出されて、判定閾値よりも信頼度の高いデプス代表値が注目画素のデプス値とされる。したがって、注目画像に対して時空間方向の画素の画素情報とデプス値に基づき確実性の高いデプス値が注目画像のデプス値とされて、デプス画像の時空間方向の安定性を改善できる。例えば、マッチング処理に用いる右視点画像や左視点画像に撮像素子のショットノイズ等が生じると、ノイズ等の影響によってマッチング処理に誤りが生じてデプス画像に誤ったデプス値を示すノイズが生じる場合がある。このような場合、画像処理装置では、入力画像デプス分布特徴情報と過去画像デプス分布特徴情報を合成した合成デプス分布特徴情報からデプス代表値が選択されて、信頼度の高いデプス代表値がデプス値とされる。このため、画像処理装置は、デプス画像のノイズを除去することが可能となる。このように、画像処理装置では、入力デプス画像に対してガイド画像や過去デプス画像を用いて時空間方向のフィルタ処理が行われて、入力デプス画像よりも時空間方向の安定性が改善された出力デプス画像を生成できる。
 また、デプス値を算出する際にマッチング処理のウィンドウサイズを大きく設けると、例えばデプス値の算出画素位置が前景物の輪郭から離れても、ウィンドウ内の画像が一致して算出画素位置のデプス値が前景物のデプス値とされてしまう場合がある。このため、デプス画像は、前景物の輪郭が膨張した画像となってしまうおそれがある。しかし、画像処理装置では、入力ガイド画像における入力画像周辺領域内画素の画素値に基づいた重みを用いて入力画像デプス分布特徴情報を生成している。また、画像処理装置は、過去ガイド画像における過去画像周辺領域内画素の画素値に基づいた重みを用いて過去画像デプス分布特徴情報を生成している。このため、合成デプス分布特徴情報から選択されたデプス代表値は、ガイド画像における周辺領域の画像を考慮された値となる。すなわち、前景物の境界部分において背景を示す画素が前景物のデプス値を示すことがないようにエッジ形状のリファイメントが可能となる。図8は、画像処理装置の効果を模式化して示した図であり、図8の(a)は画像処理装置に入力されたガイド画像、図8の(b)は画像処理装置に入力されたデプス画像、図8の(c)は画像処理装置から出力される出力デプス画像を示している。画像処理装置に入力されたデプス画像では、ガイド画像に対して前景物の輪郭が膨張したデプス画像となっている。画像処理装置は、入力されたデプス画像に対して上述の処理を行うことで、前景物の輪郭が膨張していない出力デプス画像を生成できる。このように、画像処理装置では、過去画像(過去ガイド画像と過去デプス画像)を再帰的に利用していることから、時空間的に広範囲に渡るフィルタを適応することが可能となる。なお、デプス代表値はデプス中間値に限らず他の統計値を用いてもよい。例えばデプスヒストグラムが最大となるデプス値であるデプス最頻値をデプス代表値としてもよい。また、複数の統計値から最も信頼度が高い統計値をデプス代表値としてもよい。
 また、画像処理装置は、出力デプス画像の信頼度マップを同時に生成することができるので、アプリケーションとして要求される精度に応じて、出力デプス画像を利用することが可能となる。また、画像処理装置は、過去画像(過去ガイド画像と過去デプス画像)を再帰的に利用する構成であることから、例えば単位フレームあたりの演算量を削減しつつ、時間空間方向に関して広範囲な統合を実現できる。また、画像処理装置は、出力デプス画像の生成を、注目画素および入力画像周辺領域内画素と過去画像周辺領域内画素を用いて注目画素毎に行う。すなわち、出力デプス画像の生成は、局所処理のみで構成されていることから、GPU(Graphics Processing Unit)等での実装において並列演算リソースを効果的に活用できる。
 さらに、画像処理装置は、入力ガイド画像の注目画素と過去ガイド画像における注目画素に対応する対応画素の画素情報の相違量に応じて、入力画像デプス分布特徴情報と過去画像デプス分布特徴情報の合成比率が制御される。したがって、出力デプス画像において動きを生じた被写体の形状破綻を回避することも可能である。
 <3.第2の実施の形態>
 次に画像処理装置の第2の実施の形態について説明する。第2の実施の形態では、デプス分布特徴情報としてデプステーブルを生成する場合について説明する。
 第2の実施の形態は、第1の実施の形態と同様に構成されている。また、第2の実施の形態において、入力画像情報生成処理部21の入力画像分布特徴情報生成部212と過去画像情報生成処理部24の過去画像分布特徴情報生成部242は、デプス値と重みの関係を示すデプステーブルを生成する。
 入力画像分布特徴情報生成部212は、入力画像周辺領域内画素毎に、デプス値と入力画像類似度算出部211で算出された重みを関連付けて現在デプステーブルを生成する。また、過去画像分布特徴情報生成部242は、過去画像周辺領域内画素毎に、デプス値と過去画像類似度算出部241で算出された重みを関連付けて過去デプステーブルを生成する。
 図9は、過去画像分布特徴情報生成部の動作を例示している。図9の(a)は、過去デプス画像における過去画像周辺領域内画素のデプス値を例示している。なお、図9の(a)において「×」の画素は、デプス値が無効値であることを示している。図9の(b)は、過去画像周辺領域内画素について過去画像類似度算出部241で算出された重みを例示している。過去画像分布特徴情報生成部242は、過去画像周辺領域内画素から無効値の画素を場外して、残りの画素のデプス値と重みの関係を示す図9の(c)に示す過去デプステーブルを生成する。
 デプス値処理部26の情報合成部261は、現在デプステーブルと過去デプステーブルの重みを合成制御部25で設定された合成比率に応じた重みとしてデプステーブルを合成する。例えば、情報合成部261は、過去デプステーブルの重みに対して合成比率α(n,x)を乗算して、現在デプステーブルの重みに対して合成比率(1-α(n,x))を乗算する。情報合成部261は、合成比率に応じた重みとされた現在デプステーブルと過去デプステーブルを結合した合成デプステーブルを合成デプス分布特徴情報として生成する。
 合成情報解析部262は、合成デプステーブルからデプス代表値を算出して、信頼度が予め設定されている判定閾値以上であるデプス代表値を注目画素のデプス値として、信頼度が判定閾値未満である場合は注目画素のデプス値を無効値とする。
 図10は、デプス値処理部の動作を説明するための図である。図10の(a)は現在デプステーブル、図10の(b)は過去デプスデーブル、図10の(c)は合成デプステーブルを例示している。また、現在デプステーブルと過去デプスデーブルでは、例えば合成比率「α(n,x)=0.2」の場合の重みを合成比率分として示している。また、図10の「×」は、デプス値が無効値であることを示している。
 デプス値処理部26は、無効値を除き、現在デプステーブルと過去デプスデーブルを連結して合成デプステーブルを生成する。また、デプス値処理部26はデプス中央値を求めるため、例えばデプス値順にデータを並べ替える。図10の(c)はデプス値順とされた合成デプステーブルを示している。デプス値処理部26は、例えばデプス値の小さい順から重みの累積値を算出する。
 ここで、重みの累積値は「8.36」であるからデプス中間値Dmedian(n,x)=96となる。また、領域設定幅「Dthr=2」とすると、信頼度判定領域は「94~98」となり、信頼度判定領域の和「Wsum_around_med(n,x)=6.16」となる。全階級幅の重みの和Wtotal(n,x)は、重みの累積値「8.9」に対して無効値の重みの和「0.2」を加えて「Wtotal(n,x)=9.1」となる。信頼度Dconfidence(n,x)は「Dconfidence(n,x)=Wsum_around_med/Wtotal≒0.67」となる。また、判定閾値「Thhist_ratio=0.5」とした場合、信頼度Dconfidence(n,x)は判定閾値Thhist_ratioよりも大きいことから注目画素のデプス値は「96」となる。
 このような第2の実施の形態によれば、第1の実施の形態と同様な効果を得られるだけでなく、デプスヒストグラムに替えてデプステーブルを用いる構成であることからデプス代表値の算出等を容易に行える。
 <4.第3の実施の形態>
 次に画像処理装置の第3の実施の形態について説明する。第3の実施の形態では、過去デプス画像の信頼度を用いて過去画像デプス分布特徴情報を生成する場合について説明する。
 第3の実施の形態は、第1の実施の形態の構成に加えて、過去信頼度マップ記憶部28を設けている。
 図11は、第3の実施の形態の構成を例示している。なお、図11において、第1の実施の形態と等しい構成部分については同一符号を付している。第3の実施の形態において、画像処理装置20は、入力画像情報生成処理部21、過去ガイド画像記憶部22、過去画像情報生成処理部24、合成制御部25、デプス値処理部26、過去デプス画像記憶部27を有している。また、画像処理装置20は、過去信頼度マップ記憶部28を有している。
 入力画像情報生成処理部21は、入力ガイド画像と入力デプス画像を用いて、入力画像周辺領域内画素の画素値とデプス値に基づき入力画像デプス分布特徴情報を注目画素毎に生成する。
 過去ガイド画像記憶部22は、過去ガイド画像(例えば1フレーム前のガイド画像)を記憶する。また、過去ガイド画像記憶部22は、記憶している過去ガイド画像を過去画像情報生成処理部24と合成制御部25へ出力する。
 過去画像情報生成処理部24は、注目画素の画素値、過去画像周辺領域内画素の画素値とデプス値、および過去画像周辺領域内画素に対する信頼度に基づき過去画像デプス分布特徴情報を注目画素毎に生成する。過去画像情報生成処理部24は、過去画像類似度算出部241と過去画像分布特徴情報生成部242aを有している。
 過去画像類似度算出部241は、注目画素毎に、入力ガイド画像における注目画素と過去ガイド画像における過去画像周辺領域内画素との画素情報の類似度に応じた重みの算出を行い、画素情報の類似度が高くなるに伴い重みを大きくする。例えば、過去画像類似度算出部241は、注目画素と過去画像周辺領域内画素の輝度値を用いて、上述の式(4)に基づき重みWprevious(n,x,x’)を算出する。
 過去画像分布特徴情報生成部242aは、過去画像周辺領域内画素のデプス値と信頼度および過去画像類似度算出部241で求めた重みを関連付けて過去画像デプス分布特徴情報を生成する。過去画像デプス分布特徴情報は、過去画像周辺領域内のデプス値と信頼度に応じた重みの関係を示した情報である。例えば、過去画像分布特徴情報生成部242aは、式(14)に基づき過去デプスヒストグラムHprevious(n,x,d)を生成する。式(14)において、過去画像周辺領域内である位置「x’」の画素の信頼度を「Dconfidence(n-1,x’)」、この画素のデプス値を「Dfilterted(n-1,x’)」、デプス値を表す整数値を「d(例えば0≦d≦255)」としている。また、注目画素xに対する過去画像周辺領域をローカルウィンドウ関数W(x)で指定して、ローカルウィンドウ関数W(x)で示される領域内の画素のデプス値と重みと信頼度を用いて過去デプスヒストグラムを生成する。なお、デプス値を表す整数値dは、過去デプスヒストグラムの階級(bins)に相当しており、式(15)に基づき整数値dとデプス値が等しい周辺画素の重みを加算して整数値dに対する度数とする。信頼度は、過去信頼度マップ記憶部28に記憶されている信頼度マップを用いる。
Figure JPOXMLDOC01-appb-M000011
 合成制御部25は、入力ガイド画像における注目画素と過去画像における対応画素との画素情報の相違量に応じて合成比率を設定してデプス値処理部26へ出力する。
 デプス値処理部26は、合成制御部25で設定された合成比率で、入力画像情報生成処理部21で生成された入力画像デプス分布特徴情報と過去画像情報生成処理部24で生成された過去画像デプス分布特徴情報を合成する。また、デプス値処理部26は、合成デプス分布特徴情報に基づいてデプス代表値を算出する。さらに、デプス値処理部26は、デプス代表値の信頼度が判定閾値以上である場合、デプス代表値を注目画素のデプス値とする。また、デプス値処理部26は、注目画素毎に算出したデプス値を示す出力デプス画像を過去デプス画像として過去デプス画像記憶部27に記憶させる。さらに、デプス値処理部26は、注目画素毎に算出した信頼度を示す信頼度マップを、過去デプス画像記憶部27に記憶した過去デプス画像に対応する信頼度マップとして過去信頼度マップ記憶部28に記憶させる。
 また、第3の実施の形態では、図7に示すフローチャートと同様な処理を注目画素毎に行い、ステップST2の処理では、過去画像周辺領域内画素のデプス値と信頼度と重みに基づき過去画像デプス分布特徴情報を生成する。
 このような第3の実施の形態によれば、第1の実施の形態と同様な効果を得られる。また、第3の実施の形態では、過去デプス画像に対応する信頼度マップを、過去画像デプス分布特徴情報へ反映させていることから、信頼度マップを用いていない場合に比べて、より適切なデプス値となる。また出力デプス画像と同時に出力する信頼度マップの精度の改善も期待できる。
 <5.第4の実施の形態>
 ところで、被写体の撮像は、視点を移動して行われる場合もある。そこで、第4の実施の形態では、視点が移動する場合でもデプス画像の時空間方向の安定性を改善できるようにする。第4の実施の形態において、画像処理装置は、入力画像(入力ガイド画像と入力デプス画像)と過去画像(過去ガイド画像と過去デプス画像)の少なくとも一方の画像を他方の画像と視点が一致する画像に変換する視点変換処理を行う。また、画像処理装置は、視点が一致した入力画像と過去画像を用いて、上述の第1乃至第3の実施の形態のいずれかと同様な処理を行い、出力デプス画像を生成する。以下、過去画像の視点を入力画像の視点に一致させる視点変換処理部を第1の実施の形態の構成に設けた場合について説明する。
 図12は、第4の実施の形態の構成を例示している。なお、図12において、第1の実施の形態と等しい構成部分については同一符号を付している。画像処理装置20は、入力画像情報生成処理部21、過去ガイド画像記憶部22、過去画像情報生成処理部24、合成制御部25、デプス値処理部26、過去デプス画像記憶部27を有している。さらに、第4の実施の形態の画像処理装置20は、視点変換処理部23を有している。
 入力画像情報生成処理部21は、入力画像周辺領域内画素の画素値とデプス値に基づき入力画像デプス分布特徴情報を生成する。
 過去ガイド画像記憶部22は、入力ガイド画像よりも過去方向である過去ガイド画像を記憶する。また、過去ガイド画像記憶部22は、記憶している過去ガイド画像を視点変換処理部23へ出力する。
 視点変換処理部23は、過去ガイド画像記憶部22から出力された過去ガイド画像を入力画像の視点の画像に変換する。また、視点変換処理部23は、過去デプス画像記憶部27に記憶されている過去デプス画像を入力画像の視点のデプス画像に変換する。
 視点変換処理部23は、位置姿勢検出部231、過去位置姿勢記憶部232、視点変換パラメータ生成部233、ガイド画像視点変換部234、デプス画像視点変換部235を有している。
 位置姿勢検出部231は、入力ガイド画像に基づいてガイド画像を生成した撮像装置の自己位置と姿勢を検出する。位置姿勢検出部231は、例えば文献「Davison, Andrew J. "Real-time simultaneous localisation and mapping with a single camera." Computer Vision, 2003. Proceedings. Ninth IEEE International Conference on. IEEE, 2003.」等に開示されている手法を用いて、入力ガイド画像を生成した撮像装置の自己位置と姿勢を検出して、検出結果を過去位置姿勢記憶部232と視点変換パラメータ生成部233へ出力する。
 過去位置姿勢記憶部232は、位置姿勢検出部231から出力された検出結果を記憶する。また、過去位置姿勢記憶部232は、記憶している検出結果すなわち過去ガイド画像に基づく検出結果を視点変換パラメータ生成部233へ出力する。
 視点変換パラメータ生成部233は、過去ガイド画像と過去デプス画像を、入力画像と同じ視点となるように視点変換処理を行う視点変換パラメータを生成する。視点変換パラメータ生成部233は、生成した視点変換パラメータをガイド画像視点変換部234とデプス画像視点変換部235へ出力する。
 図13は、視点変換を説明するための図である。図13の(a)は視点変換前の二次元デプス画像、図13の(b)は撮像装置の移動状態、図13の(c)は視点変換後の二次元デプス画像を示している。なお、図13は、時点t=t0から時点t=t1の期間に撮像装置CAM(視点)が移動しており、時点t=t0のデプス画像(過去デプス画像)を時点t=t1の視点(入力デプス画像の視点)のデプス画像に変換する場合を例示している。
 時点t=t0における二次元デプス画像の点Z0(x0,y0)は、式(16)(17)に基づき三次元点(X0,Y0,Z0)に変換できる。なお、「Z0」は位置(x0,y0)のデプス値、「f」は焦点距離、「Cx,Cy」は画像中心を示している。
Figure JPOXMLDOC01-appb-M000012
 時点t=t0における三次元点(X0,Y0,Z0)は、視点移動前の外部パラメータR0,T0と視点移動後の外部パラメータR1,T1を用いることで、式(18)に基づき時点t=t1における三次元点(X1,Y1,Z1)に変換できる。なお、外部パラメータR0,R1は視点の回転に関するパラメータであり、外部パラメータT0,T1は視点の並進に関するパラメータである。
Figure JPOXMLDOC01-appb-M000013
 また、時点t=t1における三次元点(X1,Y1,Z1)は、式(19),(20)に基づき、時点t=t1における二次元デプス画像の点Z1(x1,y1)に変換できる。なお「Z1」は位置(x1,y1)のデプス値である。
Figure JPOXMLDOC01-appb-M000014
 このようにして、時点t=t0のデプス画像を時点t=t1の視点のデプス画像に変換できる。したがって、視点変換パラメータ生成部233は、予め取得した焦点距離fと位置姿勢検出部231から出力された検出結果(視点移動後の外部パラメータR1,T1に相当)と過去位置姿勢記憶部232に記憶している検出結果(視点移動前の外部パラメータR0,T0に相当)に基づき、二次元デプス画像の点Z0(x0,y0)を点Z1(x1,y1)に変換する視点変換パラメータを生成する。
 ガイド画像視点変換部234は、変換パラメータを用いて視点変換を行い、過去ガイド画像記憶部22に記憶されている過去ガイド画像を、入力ガイド画像と等しい視点のガイド画像に変換して過去画像情報生成処理部24へ出力する。
 デプス画像視点変換部235は、変換パラメータを用いて視点変換を行い、過去デプス画像記憶部27に記憶されている過去デプス画像を、入力デプス画像と等しい視点のデプス画像に変換して過去画像情報生成処理部24へ出力する。
 過去画像情報生成処理部24は、視点変換後の過去ガイド画像過去デプス画像を用いて、注目画素の画素値と過去画像周辺領域領域内画素の画素値とデプス値および重みに基づき、注目画素に対する過去画像デプス分布特徴情報を生成する。
 合成制御部25は、入力ガイド画像における注目画素と視点変換後の過去ガイド画像における対応画素との画素情報の相違量に応じて合成比率を設定してデプス値処理部26へ出力する。
 デプス値処理部26は、入力画像情報生成処理部21で生成された入力画像デプス分布特徴情報と過去画像情報生成処理部24で生成された過去画像デプス分布特徴情報を、合成制御部25で設定された合成比率で合成する。また、デプス値処理部26は、合成デプス分布特徴情報に基づいてデプス代表値を算出する。さらに、デプス値処理部26は、デプス代表値の信頼度が判定閾値以上である場合、デプス代表値を注目画素のデプス値とする。また、デプス値処理部26は、注目画素毎に算出したデプス値を示す出力デプス画像を過去デプス画像として過去デプス画像記憶部27に記憶させる。また、デプス値処理部26は、算出した信頼度を示す信頼度マップを過去信頼度マップ記憶部28に記憶させる。
 図14は、視点変換動作を示すフローチャートである。ステップST11で画像処理装置は位置姿勢検出を行う。画像処理装置20の視点変換処理部23は、入力画像を生成した撮像装置の位置と姿勢を入力画像に基づき検出してステップST12に進む。
 ステップST12で画像処理装置は、視点変換パラメータを生成する。視点変換処理部23は、ステップST11で検出した位置と姿勢の検出結果および過去ガイド画像に基づいて算出されている位置と姿勢の検出結果に基づき、入力画像と過去画像の視点を一致させる視点変換パラメータを生成してステップST13に進む。
 ステップST13で画像処理装置は視点変換を行う。視点変換処理部23は、ステップST12で生成された視点変換パラメータを用いて視点変換を行い、の検出結果および過去ガイド画像に基づいて算出されている位置と姿勢の検出結果に基づき、入力画像と過去画像の視点を一致させる。
 画像処理装置は、図14の視点変換動作を行うことで、入力画像と過去画像の視点を一致させたのち、入力画像に対して順次設定した注目画素毎に、図7に示すフローチャートの処理を行い、時空間方向の安定性を改善した出力デプス画像を生成する。また、新たな画像が入力される毎に図14に示すフローチャートの処理と図7に示すフローチャートの処理を行う。
 図15は、視点と前景物の動きを例示しており、図16は、図15のように視点と前景物が移動したときの第4の実施の形態の動作を例示している。
 図14において、時点t=t0から時点t=t1の期間に撮像装置CAM(視点)と前景被写体が移動している。
 図15は、時点t=t1の入力画像に対して時空間方向の安定性を改善する場合を例示している。この場合、過去ガイド画像記憶部には、時点t=t0のガイド画像が過去ガイド画像として記憶されている。また、過去デプス画像記憶部には、時点t=t0のデプス画像に対して時空間方向の安定性を改善する処理を行って生成された出力デプス画像が過去デプス画像として記憶されている。さらに、視点変換処理部には、時点t=t0のガイド画像に基づき、ガイド画像を生成した撮像装置の位置と姿勢の検出結果が記憶されている。なお、図15に示すブロックに対しては、図12において対応する処理を行うブロックの符号を示している。
 位置姿勢検出処理では、時点t=t1のガイド画像に基づき、ガイド画像を生成した撮像装置の位置と姿勢を検出する。姿勢変換パラメータ生成処理では、時点t=t0のガイド画像に基づく位置姿勢検出結果と、時点t=t1のガイド画像に基づく位置姿勢検出結果に基づき、過去ガイド画像と過去デプス画像を、時点t=t1のガイド画像とデプス画像の視点の画像に変換する視点変換パラメータを生成する。
 視点変換処理では、視点変換パラメータを用いて過去ガイド画像と過去デプス画像の視点変換を行い、時点t=t1のガイド画像とデプス画像の視点の過去ガイド画像と過去デプス画像を生成する。
 合成制御処理では、時点t=t1のガイド画像と視点変換後の過去ガイド画像を用いて注目画素毎に画素情報の相違量に基づき重みを算出する。なお、図15では相違量検出結果を示しており、黒色領域は画素情報の相違を生じた画素領域、他の領域は画素情報が一致している画素領域であることを示している。
 デプス画像時空間統合処理では、合成制御部で設定された合成比率で、入力画像デプス分布特徴情報と過去画像デプス分布特徴情報を合成して、合成デプス分布特徴情報から算出したデプス代表値を注目画素のデプス値として出力デプス画像を生成する。
 このような第4の実施の形態によれば、第1の実施の形態と同様な効果を得ることができる。また、第4の実施の形態では、視点が変化してもデプス画像の時空間方向の安定性を改善できるので、例えばフレーム間の撮像装置の位置姿勢変化を補償することによって、モバイル機器(例えばスマートフォンやフィーチャーフォンなどの携帯端末)やウェアラブルデバイス(例えばヘッドマウントディスプレイなど)に撮像装置を搭載するような用途に対しても対応することが可能となる。
 明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させる。または、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。
 例えば、プログラムは記録媒体としてのハードディスクやSSD(Solid State Drive)、ROM(Read Only Memory)に予め記録しておくことができる。あるいは、プログラムはフレキシブルディスク、CD-ROM(Compact Disc Read Only Memory),MO(Magneto optical)ディスク、DVD(Digital Versatile Disc)、BD(Blu-Ray Disc(登録商標))、磁気ディスク、半導体メモリカード等のリムーバブル記録媒体に、一時的または永続的に格納(記録)しておくことができる。このようなリムーバブル記録媒体は、いわゆるパッケージソフトウェアとして提供することができる。
 また、プログラムは、リムーバブル記録媒体からコンピュータにインストールする他、ダウンロードサイトからLAN(Local Area Network)やインターネット等のネットワークを介して、コンピュータに無線または有線で転送してもよい。コンピュータでは、そのようにして転送されてくるプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。
 なお、本明細書に記載した効果はあくまで例示であって限定されるものではなく、記載されていない付加的な効果があってもよい。また、本技術は、上述した技術の実施の形態に限定して解釈されるべきではない。この技術の実施の形態は、例示という形態で本技術を開示しており、本技術の要旨を逸脱しない範囲で当業者が実施の形態の修正や代用をなし得ることは自明である。すなわち、本技術の要旨を判断するためには、請求の範囲を参酌すべきである。
 また、本技術の画像処理装置は以下のような構成も取ることができる。
 (1) 入力画像の注目画素に対する周辺領域内画素の画素値とデプス値に基づいた入力画像デプス分布特徴情報と、前記入力画像より過去の画像である過去画像における前記注目画素の画素位置の対応画素に対する周辺領域内画素の画素値とデプス値および前記注目画素の画素値に基づいた過去画像デプス分布特徴情報の合成を行い、生成した合成デプス分布特徴情報から算出したデプス代表値を前記注目画素のデプス値とするデプス値処理部
を備える画像処理装置。
 (2) 前記入力画像デプス分布特徴情報を生成する入力画像情報生成処理部と、
 前記過去画像デプス分布特徴情報を生成する過去画像情報生成処理部をさらに備え、
 前記入力画像情報生成処理部は、前記周辺領域内画素毎に、前記注目画素との画素情報の類似度に応じた重みを前記デプス値に関連付けて前記入力画像デプス分布特徴情報を生成して、
 前記過去画像情報生成処理部は、前記対応画素に対する周辺領域内画素毎に、前記注目画素との画素情報の類似度に応じた重みをデプス値に関連付けて前記過去画像デプス分布特徴情報を生成する(1)に記載の画像処理装置。
 (3) 前記注目画素と前記対応画素との画素情報の相違量に応じて合成比率を設定する合成制御部をさらに備え、
 前記デプス値処理部は、前記合成制御部で設定された合成比率で、前記入力画像デプス分布特徴情報と前記過去画像デプス分布特徴情報を合成する(2)に記載の画像処理装置。
 (4) 前記合成制御部は、前記注目画素と前記対応画素との画素情報の相違量が大きくなるともない、前記入力画像情報生成処理部で生成された前記入力画像デプス分布特徴情報の合成比率を高くする(3)に記載の画像処理装置。
 (5) 前記画素情報は、輝度または色の情報を含む(3)または(4)に記載の画像処理装置。
 (6) 前記入力画像情報生成処理部と前記過去画像情報生成処理部は、前記注目画素との画素情報の類似度が高くなるに伴い重みを大きくする(2)乃至(5)のいずれかに記載の画像処理装置。
 (7) 前記デプス値処理部は、前記デプス代表値の信頼度を算出して、前記信頼度が予め設定された判定閾値以上である場合に、前記デプス代表値を前記注目画素のデプス値とする(2)乃至(6)のいずれかに記載の画像処理装置。
 (8) 前記デプス値処理部は、前記合成デプス分布特徴情報の重みの総和に対する前記デプス代表値を基準とした所定デプス範囲の重みの総和の割合を前記信頼度とする(7)に記載の画像処理装置。
 (9) 前記デプス値処理部は、前記信頼度が予め設定された判定閾値未満である場合に、前記注目画素のデプス値を無効値として、
 過去画像情報生成処理部は、前記対応画素に対する周辺領域内画素から前記無効値を示す画素を除いて前記過去画像デプス分布特徴情報を生成する(7)乃至(8)のいずれかに記載の画像処理装置。
 (10) 前記デプス値処理部は、前記判定閾値を変更可能とする(7)乃至(9)のいずれかに記載の画像処理装置。
 (11) 前記デプス値処理部は、前記合成デプス分布特徴情報をデプス値順の情報として、重み累積値が中間値となるデプス値を前記デプス代表値とする(2)乃至(10)のいずれかに記載の画像処理装置。
 (12) 前記入力画像情報生成処理部は、前記デプス分布特徴情報として、前記注目画素に対する周辺領域内画素のデプス値と重みに基づき、デプス値毎に重みを累積したデプスヒストグラムを生成して、
 前記過去画像情報生成処理部は、前記過去画像デプス分布特徴情報として、前記対応画素に対する周辺領域内画素のデプス値と重みに基づき、デプス値毎に重みを累積したデプスヒストグラムを生成して、
 前記デプス値処理部は、前記入力画像情報生成処理部と前記過去画像情報生成処理部で生成されたヒストグラムの重みを前記合成制御部で設定された合成比率に応じた重みとして合成を行い、生成した合成デプスヒストグラムを前記合成デプス分布特徴情報とする(2)乃至(11)のいずれかに記載の画像処理装置。
 (13) 前記入力画像情報生成処理部は、前記デプス分布特徴情報として、前記注目画素に対する周辺領域内画素のデプス値と重みに基づき、デプス値毎に重みを示すデプステーブルを生成して、
 前記過去画像情報生成処理部は、前記デプス分布特徴情報として、前記対応画素に対する過去画像周辺領域内画素のデプス値と重みに基づき、デプス値毎に重みを示すデプステーブルを生成して、
 前記デプス値処理部は、前記入力画像情報生成処理部と前記過去画像情報生成処理部で生成されたデプステーブルの重みを前記合成制御部で設定された合成比率に応じた重みとして合成を行い、生成した合成デプステーブルを前記合成デプス分布特徴情報とする(2)乃至(11)のいずれかに記載の画像処理装置。
 (14) 前記デプス値処理部は、前記注目画素のデプス値としたデプス代表値について算出した信頼度を前記注目画素の信頼度として、
 前記過去画像情報生成処理部は、前記対応画素に対する周辺領域内画素の画素値とデプス値と信頼度および前記注目画素の画素値に基づいて、前記過去画像デプス分布特徴情報を生成する(2)乃至(13)のいずれかに記載の画像処理装置。
 (15) 前記入力画像と前記過去画像の少なくとも一方の画像を他方の画像と視点が一致する画像に変換する視点変換処理部をさらに備え、
 前記入力画像情報生成処理部と前記過去画像情報生成処理部は、前記視点変換処理部で視点を一致させた画像を用いて、前記入力画像デプス分布特徴情報と前記過去画像デプス分布特徴情報を生成する(2)乃至(14)のいずれかに記載の画像処理装置。
 この技術の画像処理装置によれば、注目画像に対して時空間方向の画素の画素情報とデプス値に基づき確実性の高いデプス値が注目画像のデプス値とされる。したがって、デプス画像の時空間方向の安定性を改善できる。このため、時空間方向の安定したデプス画像が必要とされる分野、例えば三次元ユーザインタフェースやSLAM(Simultaneous Localization and Mapping)等に利用可能な電子機器(モバイル機器やウェアラブルデバイス等)に適用できる。
 10・・・デプス画像システム
 15・・・デプス画像生成装置
 20・・・画像処理装置
 21・・・入力画像情報生成処理部
 22・・・過去ガイド画像記憶部
 23・・・視点変換処理部
 24・・・過去画像情報生成処理部
 25・・・合成制御部
 26・・・デプス値処理部
 27・・・過去デプス画像記憶部
 28・・・過去信頼度マップ記憶部
 211・・・入力画像類似度算出部
 212・・・入力画像分布特徴情報生成部
 231・・・位置姿勢検出部
 232・・・過去位置姿勢記憶部
 233・・・視点変換パラメータ生成部
 234・・・ガイド画像視点変換部
 235・・・デプス画像視点変換部
 241・・・過去画像類似度算出部
 242,242a・・・過去画像分布特徴情報生成部
 251・・・相違量算出部
 252・・・合成比率設定部
 261・・・情報合成部
 262・・・合成情報解析部

Claims (16)

  1.  入力画像の注目画素に対する周辺領域内画素の画素値とデプス値に基づいた入力画像デプス分布特徴情報と、前記入力画像より過去の画像である過去画像における前記注目画素の画素位置の対応画素に対する周辺領域内画素の画素値とデプス値および前記注目画素の画素値に基づいた過去画像デプス分布特徴情報の合成を行い、生成した合成デプス分布特徴情報から算出したデプス代表値を前記注目画素のデプス値とするデプス値処理部
    を備える画像処理装置。
  2.  前記入力画像デプス分布特徴情報を生成する入力画像情報生成処理部と、
     前記過去画像デプス分布特徴情報を生成する過去画像情報生成処理部をさらに備え、
     前記入力画像情報生成処理部は、前記周辺領域内画素毎に、前記注目画素との画素情報の類似度に応じた重みを前記デプス値に関連付けて前記入力画像デプス分布特徴情報を生成して、
     前記過去画像情報生成処理部は、前記対応画素に対する周辺領域内画素毎に、前記注目画素との画素情報の類似度に応じた重みをデプス値に関連付けて前記過去画像デプス分布特徴情報を生成する
    請求項1に記載の画像処理装置。
  3.  前記注目画素と前記対応画素との画素情報の相違量に応じて合成比率を設定する合成制御部をさらに備え、
     前記デプス値処理部は、前記合成制御部で設定された合成比率で、前記入力画像デプス分布特徴情報と前記過去画像デプス分布特徴情報を合成する
    請求項2に記載の画像処理装置。
  4.  前記合成制御部は、前記注目画素と前記対応画素との画素情報の相違量が大きくなるともない、前記入力画像情報生成処理部で生成された前記入力画像デプス分布特徴情報の合成比率を高くする
    請求項3に記載の画像処理装置。
  5.  前記画素情報は、輝度または色の情報を含む
    請求項3に記載の画像処理装置。
  6.  前記入力画像情報生成処理部と前記過去画像情報生成処理部は、前記注目画素との画素情報の類似度が高くなるに伴い重みを大きくする
    請求項2に記載の画像処理装置。
  7.  前記デプス値処理部は、前記デプス代表値の信頼度を算出して、前記信頼度が予め設定された判定閾値以上である場合に、前記デプス代表値を前記注目画素のデプス値とする
    請求項2に記載の画像処理装置。
  8.  前記デプス値処理部は、前記合成デプス分布特徴情報の重みの総和に対する前記デプス代表値を基準とした所定デプス範囲の重みの総和の割合を前記信頼度とする
    請求項7に記載の画像処理装置。
  9.  前記デプス値処理部は、前記信頼度が予め設定された判定閾値未満である場合に、前記注目画素のデプス値を無効値として、
     過去画像情報生成処理部は、前記対応画素に対する周辺領域内画素から前記無効値を示す画素を除いて前記過去画像デプス分布特徴情報を生成する
    請求項7に記載の画像処理装置。
  10.  前記デプス値処理部は、前記判定閾値を変更可能とする
    請求項7に記載の画像処理装置。
  11.  前記デプス値処理部は、前記合成デプス分布特徴情報をデプス値順の情報として、重み累積値が中間値となるデプス値を前記デプス代表値とする
    請求項2に記載の画像処理装置。
  12.  前記入力画像情報生成処理部は、前記デプス分布特徴情報として、前記注目画素に対する周辺領域内画素のデプス値と重みに基づき、デプス値毎に重みを累積したデプスヒストグラムを生成して、
     前記過去画像情報生成処理部は、前記過去画像デプス分布特徴情報として、前記対応画素に対する周辺領域内画素のデプス値と重みに基づき、デプス値毎に重みを累積したデプスヒストグラムを生成して、
     前記デプス値処理部は、前記入力画像情報生成処理部と前記過去画像情報生成処理部で生成されたヒストグラムの重みを前記合成制御部で設定された合成比率に応じた重みとして合成を行い、生成した合成デプスヒストグラムを前記合成デプス分布特徴情報とする
    請求項2に記載の画像処理装置。
  13.  前記入力画像情報生成処理部は、前記デプス分布特徴情報として、前記注目画素に対する周辺領域内画素のデプス値と重みに基づき、デプス値毎に重みを示すデプステーブルを生成して、
     前記過去画像情報生成処理部は、前記デプス分布特徴情報として、前記対応画素に対する過去画像周辺領域内画素のデプス値と重みに基づき、デプス値毎に重みを示すデプステーブルを生成して、
     前記デプス値処理部は、前記入力画像情報生成処理部と前記過去画像情報生成処理部で生成されたデプステーブルの重みを前記合成制御部で設定された合成比率に応じた重みとして合成を行い、生成した合成デプステーブルを前記合成デプス分布特徴情報とする
    請求項2に記載の画像処理装置。
  14.  前記デプス値処理部は、前記注目画素のデプス値としたデプス代表値について算出した信頼度を前記注目画素の信頼度として、
     前記過去画像情報生成処理部は、前記対応画素に対する周辺領域内画素の画素値とデプス値と信頼度および前記注目画素の画素値に基づいて、前記過去画像デプス分布特徴情報を生成する
    請求項2に記載の画像処理装置。
  15.  前記入力画像と前記過去画像の少なくとも一方の画像を他方の画像と視点が一致する画像に変換する視点変換処理部をさらに備え、
     前記入力画像情報生成処理部と前記過去画像情報生成処理部は、前記視点変換処理部で視点を一致させた画像を用いて、前記入力画像デプス分布特徴情報と前記過去画像デプス分布特徴情報を生成する
    請求項2に記載の画像処理装置。
  16.  入力画像の注目画素に対する周辺領域内画素の画素値とデプス値に基づいた入力画像デプス分布特徴情報と、前記入力画像より過去の画像である過去画像における前記注目画素の画素位置の対応画素に対する周辺領域内画素の画素値とデプス値および前記注目画素の画素値に基づいた過去画像デプス分布特徴情報の合成を行い、生成した合成デプス分布特徴情報から算出したデプス代表値を前記注目画素のデプス値とすること
    を含む画像処理方法。
PCT/JP2017/001198 2016-04-06 2017-01-16 画像処理装置と画像処理方法 WO2017175441A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
DE112017001926.5T DE112017001926T5 (de) 2016-04-06 2017-01-16 Bildverarbeitungseinrichtung und Bildverarbeitungsverfahren
CN201780020216.6A CN108885778B (zh) 2016-04-06 2017-01-16 图像处理设备和图像处理方法
US16/089,822 US10846826B2 (en) 2016-04-06 2017-01-16 Image processing device and image processing method
JP2018510234A JP6908025B2 (ja) 2016-04-06 2017-01-16 画像処理装置と画像処理方法
KR1020187027177A KR20180133394A (ko) 2016-04-06 2017-01-16 화상 처리 장치와 화상 처리 방법

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016076571 2016-04-06
JP2016-076571 2016-04-06

Publications (1)

Publication Number Publication Date
WO2017175441A1 true WO2017175441A1 (ja) 2017-10-12

Family

ID=60000987

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/001198 WO2017175441A1 (ja) 2016-04-06 2017-01-16 画像処理装置と画像処理方法

Country Status (6)

Country Link
US (1) US10846826B2 (ja)
JP (1) JP6908025B2 (ja)
KR (1) KR20180133394A (ja)
CN (1) CN108885778B (ja)
DE (1) DE112017001926T5 (ja)
WO (1) WO2017175441A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12033335B2 (en) 2021-03-22 2024-07-09 Kabushiki Kaisha Toshiba Motion estimation device and motion estimation method using motion estimation device

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10776992B2 (en) * 2017-07-05 2020-09-15 Qualcomm Incorporated Asynchronous time warp with depth data
CN115115683A (zh) * 2021-03-22 2022-09-27 北京小米移动软件有限公司 图像处理方法及装置
CN114659450B (zh) * 2022-03-25 2023-11-14 北京小米机器人技术有限公司 机器人跟随方法、装置、机器人及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04329481A (ja) * 1991-05-01 1992-11-18 Matsushita Electric Ind Co Ltd 3次元データ獲得方法及び3次元データ獲得装置
JP2006185033A (ja) * 2004-12-27 2006-07-13 Victor Co Of Japan Ltd 擬似立体画像生成装置及び擬似立体画像生成プログラム並びに擬似立体画像表示システム
JP2013178684A (ja) * 2012-02-28 2013-09-09 Casio Comput Co Ltd 奥行き推定装置、再構成画像生成装置、奥行き推定方法、再構成画像生成方法及びプログラム

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8164594B2 (en) * 2006-05-23 2012-04-24 Panasonic Corporation Image processing device, image processing method, program, storage medium and integrated circuit
KR20090052889A (ko) * 2006-09-04 2009-05-26 코닌클리케 필립스 일렉트로닉스 엔.브이. 이미지들로부터 깊이 맵을 결정하기 위한 방법 및 깊이 맵을 결정하기 위한 디바이스
US8131098B2 (en) * 2007-07-06 2012-03-06 Panasonic Corporation Image processing device, image processing method, image processing system, program, storage medium, and integrated circuit
WO2009040871A1 (ja) * 2007-09-25 2009-04-02 Fujitsu Limited 画像合成装置及び方法
JP5253835B2 (ja) * 2008-02-19 2013-07-31 株式会社キーエンス 画像生成装置、画像生成方法及びコンピュータプログラム
JP4655239B2 (ja) * 2008-09-24 2011-03-23 ソニー株式会社 撮像装置、その制御方法およびプログラム
JP5276539B2 (ja) * 2009-07-23 2013-08-28 キヤノン株式会社 画像処理方法および画像処理装置およびプログラム
JP2011091584A (ja) * 2009-10-21 2011-05-06 Seiko Epson Corp 撮像装置、撮像方法及び電子機器
JP5802364B2 (ja) * 2009-11-13 2015-10-28 オリンパス株式会社 画像処理装置、電子機器、内視鏡システム及びプログラム
JP5658873B2 (ja) * 2009-11-13 2015-01-28 オリンパス株式会社 画像処理装置、電子機器、内視鏡システム及びプログラム
US20120056982A1 (en) * 2010-09-08 2012-03-08 Microsoft Corporation Depth camera based on structured light and stereo vision
JP5450330B2 (ja) * 2010-09-16 2014-03-26 株式会社ジャパンディスプレイ 画像処理装置および方法、ならびに立体画像表示装置
JP2012105225A (ja) * 2010-11-12 2012-05-31 Sony Corp 画像処理装置、撮像装置、および画像処理方法、並びにプログラム
JP2012120057A (ja) * 2010-12-02 2012-06-21 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
WO2012128241A1 (ja) * 2011-03-18 2012-09-27 ソニー株式会社 画像処理装置、画像処理方法、及び、プログラム
WO2012137511A1 (ja) * 2011-04-07 2012-10-11 パナソニック株式会社 画像処理装置および画像処理方法
JP2012244396A (ja) 2011-05-19 2012-12-10 Sony Corp 画像処理装置、画像処理方法、およびプログラム
US9401039B2 (en) * 2011-07-01 2016-07-26 Panasonic Intellectual Property Management Co., Ltd. Image processing device, image processing method, program, and integrated circuit
JP2013059016A (ja) 2011-08-12 2013-03-28 Sony Corp 画像処理装置および方法、並びにプログラム
CN103748878A (zh) * 2011-08-31 2014-04-23 索尼公司 图像处理装置和方法
TWI458256B (zh) * 2012-01-02 2014-10-21 Anpec Electronics Corp 基極偏壓控制裝置及放大器
JP5911166B2 (ja) * 2012-01-10 2016-04-27 シャープ株式会社 画像処理装置、画像処理方法、画像処理プログラム、撮像装置、及び画像表示装置
JP5896788B2 (ja) * 2012-03-07 2016-03-30 キヤノン株式会社 画像合成装置及び画像合成方法
JP6115781B2 (ja) * 2012-03-29 2017-04-19 パナソニックIpマネジメント株式会社 画像処理装置及び画像処理方法
CN104603796A (zh) * 2012-04-26 2015-05-06 纽约市哥伦比亚大学理事会 在图像中交互式调焦的系统、方法和媒体
JP6470506B2 (ja) * 2014-06-09 2019-02-13 株式会社キーエンス 検査装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04329481A (ja) * 1991-05-01 1992-11-18 Matsushita Electric Ind Co Ltd 3次元データ獲得方法及び3次元データ獲得装置
JP2006185033A (ja) * 2004-12-27 2006-07-13 Victor Co Of Japan Ltd 擬似立体画像生成装置及び擬似立体画像生成プログラム並びに擬似立体画像表示システム
JP2013178684A (ja) * 2012-02-28 2013-09-09 Casio Comput Co Ltd 奥行き推定装置、再構成画像生成装置、奥行き推定方法、再構成画像生成方法及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12033335B2 (en) 2021-03-22 2024-07-09 Kabushiki Kaisha Toshiba Motion estimation device and motion estimation method using motion estimation device

Also Published As

Publication number Publication date
JPWO2017175441A1 (ja) 2019-02-14
CN108885778A (zh) 2018-11-23
JP6908025B2 (ja) 2021-07-21
KR20180133394A (ko) 2018-12-14
CN108885778B (zh) 2023-04-07
US10846826B2 (en) 2020-11-24
DE112017001926T5 (de) 2019-01-10
US20190139197A1 (en) 2019-05-09

Similar Documents

Publication Publication Date Title
US8942506B2 (en) Image processing apparatus, image processing method, and program
JP6377258B2 (ja) 画像処理装置及び方法、並びにプログラム及び記録媒体
US10559095B2 (en) Image processing apparatus, image processing method, and medium
US9280828B2 (en) Image processing apparatus, image processing method, and program
WO2010024479A1 (en) Apparatus and method for converting 2d image signals into 3d image signals
JPWO2014069247A1 (ja) 画像処理装置および画像処理方法、並びにプログラム
JPWO2018139461A1 (ja) 移動物体検出装置、移動物体検出方法及び記憶媒体
WO2017175441A1 (ja) 画像処理装置と画像処理方法
JP2016038886A (ja) 情報処理装置および情報処理方法
JP2016039618A (ja) 情報処理装置および情報処理方法
JP2020067748A (ja) 画像処理装置、画像処理方法、およびプログラム
JP4892113B2 (ja) 画像処理方法及び装置
JP2012194751A (ja) 画像処理方法、画像処理装置及びコンピュータプログラム
JP2013185905A (ja) 情報処理装置及び方法、並びにプログラム
JP2020061080A (ja) 画像処理装置、撮像装置、画像処理方法
JP6017279B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2016048467A (ja) 運動視差再現方法、装置およびプログラム
KR20110112143A (ko) Ldi 기법 깊이맵을 참조한 2d 동영상의 3d 동영상 전환방법
JP5200042B2 (ja) 視差推定装置およびそのプログラム
US9270883B2 (en) Image processing apparatus, image pickup apparatus, image pickup system, image processing method, and non-transitory computer-readable storage medium
WO2013089183A1 (ja) 画像処理装置、画像処理方法、コンピュータプログラム、記録媒体、立体画像表示装置
JP2005354201A (ja) 画像処理装置及び画像処理方法
JP5478533B2 (ja) 全方位画像生成方法、画像生成装置およびプログラム
JP2001222707A (ja) 中間画像合成方法、中間画像合成装置、中間画像合成プログラムを記録した記録媒体
JP6854629B2 (ja) 画像処理装置、画像処理方法

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2018510234

Country of ref document: JP

ENP Entry into the national phase

Ref document number: 20187027177

Country of ref document: KR

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17778820

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 17778820

Country of ref document: EP

Kind code of ref document: A1