WO2014083752A1 - 別視点画像生成装置および別視点画像生成方法 - Google Patents

別視点画像生成装置および別視点画像生成方法 Download PDF

Info

Publication number
WO2014083752A1
WO2014083752A1 PCT/JP2013/006141 JP2013006141W WO2014083752A1 WO 2014083752 A1 WO2014083752 A1 WO 2014083752A1 JP 2013006141 W JP2013006141 W JP 2013006141W WO 2014083752 A1 WO2014083752 A1 WO 2014083752A1
Authority
WO
WIPO (PCT)
Prior art keywords
viewpoint image
image
viewpoint
hole
different
Prior art date
Application number
PCT/JP2013/006141
Other languages
English (en)
French (fr)
Inventor
邦昭 磯貝
物部 祐亮
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to US14/374,379 priority Critical patent/US9596445B2/en
Priority to CN201380006913.8A priority patent/CN104081768B/zh
Priority to JP2014513852A priority patent/JP6195076B2/ja
Publication of WO2014083752A1 publication Critical patent/WO2014083752A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity

Definitions

  • the present disclosure relates to an image processing technique for three-dimensional (3D) display, and in particular, generates another image having a viewpoint position different from the two or more images from two or more images captured at different viewpoint positions.
  • the present invention relates to another viewpoint image generation apparatus.
  • a technique is known in which an image having parallax (hereinafter also referred to as a stereo image) is displayed on the left and right eyes of the viewer so that the viewer perceives a flat image as a stereoscopic image.
  • a stereo image an image having parallax
  • Patent Document 1 is a technique for generating another viewpoint image by using a depth map indicating the distance in the depth direction of the image and moving the pixel in the horizontal direction according to the distance in the depth direction.
  • DIBR Depth Image Based Rendering
  • An image generated by DIBR may include an area that does not appear in the original stereo image. Since such a region is a region to which no pixel value is assigned (hereinafter referred to as a hole region), it needs to be interpolated by some processing.
  • the present disclosure provides a different viewpoint image generation device that can interpolate a hole region generated in a different viewpoint image with high quality.
  • the different viewpoint image generation device includes the two or more images from each of two or more images acquired at each of two or more viewpoint positions based on distance information indicating the depth of each pixel in the image.
  • Another viewpoint image that is an image corresponding to an image acquired at a virtual viewpoint position different from the viewpoint position, and that generates another viewpoint image that is an image including a hole region that is a region in which pixel values are missing one by one
  • a combination that calculates a combination ratio of each of the two or more different viewpoint images for each processing unit With the ratio calculator And a separate viewpoint image synthesizing unit for synthesizing on the basis of another viewpoint images of the two or more, the calculated combination ratio.
  • a recording medium such as a system, a method, an integrated circuit, a computer program, or a computer-readable CD-ROM.
  • the system, method, integrated circuit, computer program, and You may implement
  • the different viewpoint image generation device According to the different viewpoint image generation device according to the present disclosure, it is possible to interpolate the hole area generated in the different viewpoint image with high quality.
  • FIG. 1 is an overall configuration diagram of another viewpoint image generation apparatus according to an embodiment.
  • FIG. 2 is a diagram illustrating an example of an image and a depth map input to the different viewpoint image generation unit.
  • FIG. 3 is a diagram illustrating a different viewpoint image generated by the different viewpoint image generation unit.
  • FIG. 4 is a diagram illustrating a hole density calculation method of the hole density calculation unit.
  • FIG. 5 is a schematic diagram for explaining a specific example of the hole density calculation method.
  • FIG. 6 is a diagram illustrating a composite ratio map generated by the composite ratio calculation unit.
  • FIG. 7 is a diagram illustrating the relationship between the difference between the hole density of the left viewpoint image and the hole density of the right viewpoint image and the composition ratio ⁇ .
  • FIG. 1 is an overall configuration diagram of another viewpoint image generation apparatus according to an embodiment.
  • FIG. 2 is a diagram illustrating an example of an image and a depth map input to the different viewpoint image generation unit.
  • FIG. 3 is a diagram illustrating a different viewpoint image generated
  • FIG. 8 is a schematic diagram showing the left-side viewpoint image after the hole filling process and the right-side viewpoint image after the hole filling process.
  • FIG. 9 is a diagram illustrating an output image generated by the different viewpoint image synthesis unit.
  • FIG. 10 is a flowchart of the operation of the different viewpoint image generation device according to the embodiment.
  • FIG. 11 is an overall configuration diagram of another viewpoint image generation apparatus according to another embodiment.
  • FIG. 12 is a flowchart of the operation of the different viewpoint image generation device according to another embodiment.
  • FIG. 13 is a first diagram illustrating an application example of the different viewpoint image generation device.
  • FIG. 14 is a second diagram illustrating an application example of the different viewpoint image generation device.
  • the amount of parallax of the stereo image is determined by the distance between the lenses of the stereo camera that captures the stereo image, but it is desirable that the amount of parallax of the stereo image after shooting can be changed afterwards to adjust the stereoscopic effect.
  • a stereo image with a different viewpoint position is displayed according to the position of the viewer.
  • DIBR a technique called DIBR that generates an image of a viewpoint different from the stereo image from a stereo image
  • An image generated by DIBR may include a hole area which is an area to which no pixel value is assigned, and the hole area needs to be interpolated by some processing.
  • the hole area can be simply interpolated by linear interpolation processing using the pixel values of the peripheral area of the hole area.
  • a method has a problem that image quality deterioration due to interpolation is conspicuous. is there.
  • Patent Document 1 applies the pixel value of the corresponding region of the right viewpoint image to the hole region of the different viewpoint image generated from the left viewpoint image of the stereo image. This is a technique for interpolating a region.
  • Patent Document 1 since the technique described in Patent Document 1 applies the pixel value of the image at the opposite viewpoint as it is to the hole region, there is a problem that the boundary between the hole region after interpolation and the peripheral region is not smoothly connected.
  • another viewpoint image generation device includes two or more acquired at each of two or more viewpoint positions based on distance information indicating the depth of each pixel in the image.
  • Another viewpoint image that is an image corresponding to an image acquired from each of the images at a virtual viewpoint position different from the two or more viewpoint positions and includes a hole area that is an area in which pixel values are missing.
  • the separate viewpoint image generation unit that generates one by one Based on the hole density of each of the two or more different viewpoint images, and the composition ratio of each of the two or more different viewpoint images, based on the hole density calculation unit that calculates the hole density that is the ratio of the hole region in the viewpoint image
  • the processing unit Comprising a synthesis ratio calculation unit for calculating, and another viewpoint image synthesizing unit for synthesizing on the basis of another viewpoint images of the two or more, the calculated synthesis ratio to.
  • the image processing apparatus further includes a hole area interpolation unit that interpolates each hole area of the two or more different viewpoint images using a pixel value in the different viewpoint image, and the different viewpoint image composition unit interpolates the hole area.
  • the two or more different viewpoint images may be combined based on the calculated combining ratio.
  • a hole area interpolation unit that interpolates a hole area in the image synthesized by the different viewpoint image synthesis unit using a pixel value in the image may be provided.
  • the hole density calculation unit for each of the two or more different viewpoint images, for each processing unit, the ratio of the hole area in the window that is the predetermined area centered on the processing unit as the hole density It may be calculated.
  • the hole density calculating unit may calculate the hole density by giving different weights to a hole region located in a central portion in the window and a hole region located in a peripheral portion in the window. .
  • composition ratio calculation unit calculates the composition ratio of each of the two or more different viewpoint images for each processing unit so that the composition ratio becomes larger as the different viewpoint image having a smaller hole density. Also good.
  • the synthesis ratio calculation unit is configured so that each of the two or more different viewpoint images has a higher synthesis ratio as another viewpoint image whose viewpoint position is closer to the virtual viewpoint position. May be calculated for each processing unit.
  • the processing unit is a pixel
  • the hole density calculating unit calculates a hole density for each pixel for each of the two or more different viewpoint images
  • the synthesis ratio calculating unit is the two or more different viewpoints.
  • the composition ratio of each viewpoint image may be calculated for each pixel.
  • FIG. 1 is an overall configuration diagram of another viewpoint image generation apparatus 100 according to the embodiment.
  • Another viewpoint image generation device 100 includes a left another viewpoint image generation unit 101, a right another viewpoint image generation unit 102, a hole density calculation unit 103, a composition ratio calculation unit 104, a hole region interpolation unit 105, and another viewpoint image. And a combining unit 106.
  • another viewpoint image generation apparatus 100 generates an image of another viewpoint from a left viewpoint image and a right viewpoint image that are stereo images.
  • the left another viewpoint image generation unit 101 moves each pixel included in the left viewpoint image in the horizontal direction based on the depth of the pixel. Another left viewpoint image is generated.
  • the right-specific viewpoint image generation unit 102 moves each pixel included in the right viewpoint image in the horizontal direction based on the depth of the pixel based on the right viewpoint image and the depth map (right depth map) of the right viewpoint image. Another right viewpoint image is generated.
  • the left viewpoint image is an image photographed at the left viewpoint position
  • the right viewpoint image is an image photographed at a right viewpoint position different from the left viewpoint position.
  • the left-side viewpoint image and the right-side viewpoint image are both images corresponding to images acquired at the same virtual viewpoint position (a position different from both the left viewpoint position and the right viewpoint position).
  • the depth map is distance information indicating the depth of each pixel in the image (the distance from the viewpoint position to the subject displayed on each pixel).
  • one different viewpoint image generation unit may generate a left viewpoint image and a right viewpoint image from the left and right viewpoint images and the left and right depth maps, respectively.
  • the different viewpoint image generation unit based on distance information indicating the depth of each pixel in the image, from each of the two images acquired at each of the two viewpoint positions, a virtual viewpoint that is different from the two viewpoint positions.
  • Another viewpoint image corresponding to the image acquired at the position is generated one by one.
  • the hole density calculation unit 103 indicates the hole density indicating the distribution of the hole area for each processing unit for each of the left viewpoint image and the right viewpoint image generated by the left viewpoint image generation unit 101 and the right viewpoint image generation unit 102. Generate a map. Specifically, for each of the two different viewpoint images generated, the hole density calculation unit 103 calculates the ratio of the hole area in a predetermined area including the processing unit for each processing unit including one or more pixels. Calculate a certain hole density. Note that the hole region is a region in which pixel values in another viewpoint image are missing.
  • the processing unit is a pixel
  • the hole density calculation unit 103 calculates the hole density for each pixel for each of the two different viewpoint images.
  • a window described later is used as the predetermined area.
  • the composition ratio calculation unit 104 generates a composition ratio map indicating the ratio when the left another viewpoint image and the right another viewpoint image are combined based on the hole density map generated by the hole density calculation unit 103. Specifically, the composition ratio calculation unit 104 compares the size of the hole density of each of the two different viewpoint images for each corresponding pixel (processing unit), and compares the two according to the size of the compared hole density. The composition ratio of each different viewpoint image is calculated for each pixel (processing unit).
  • the hole area interpolation unit 105 sets the hole area of each of the left viewpoint image and the right viewpoint image generated by the left viewpoint image generation unit 101 and the right viewpoint image generation unit 102 as a hole area in the same image.
  • a hole filling process for interpolation is performed using pixel values located in the periphery. That is, the hole area interpolation unit 105 interpolates each hole area of two different viewpoint images using the pixel values in the different viewpoint images.
  • the pixel value is information indicating at least the luminance and color of the pixel.
  • the pixel value is information including luminance values of RGB color components, information including luminance values and color differences, and the like. Further, the pixel value may include additional information such as a depth value in addition to the information regarding the color.
  • the different viewpoint image composition unit 106 synthesizes the left viewpoint image and the right another viewpoint image that have been subjected to the hole filling processing by the hole region interpolation unit 105 based on the composition ratio indicated by the composition ratio map generated by the composition ratio calculation unit 104.
  • the processed output image (output-specific viewpoint image) is generated.
  • the different viewpoint image combining unit 106 combines two different viewpoint images in which the hole regions are interpolated based on the calculated combination ratio.
  • each component of the different viewpoint image generation device 100 may be configured by dedicated hardware or may be realized by executing a software program suitable for each component.
  • Each component may be realized by a program execution unit such as a CPU or a processor reading and executing a software program recorded on a recording medium such as a hard disk or a semiconductor memory.
  • FIG. 2 is a diagram illustrating an example of an image and a depth map input to the left-side viewpoint image generation unit 101 and the right-side viewpoint image generation unit 102.
  • the left viewpoint image 211 is an image obtained by photographing the subject 201 and the subject 202 at the left viewpoint position 210.
  • the right viewpoint image 221 is an image obtained by photographing the subject 201 and the subject 202 at the right viewpoint position 220.
  • the left viewpoint image 211 and the right viewpoint image 221 are stereoscopic images obtained by photographing the same subject 201 and subject 202, and the relative positions of the subject 201 and the subject 202 in the images are different.
  • the left depth map 212 is an image showing the background of the left viewpoint image 211 and the depth of the subject 201.
  • the right depth map 222 is an image showing the background of the right viewpoint image 221 and the depth of the subject 201. That is, the left depth map 212 indicates the distance from the left viewpoint position 210 to the subject 201, and the right depth map 222 indicates the distance from the right viewpoint position 220 to the subject 201.
  • the depth of the subject 202 is also shown in the left depth map 212 and the right depth map 222, but in this embodiment, the depth of the subject 202 is omitted for the sake of simplicity of explanation.
  • the depth map of the present embodiment has a brighter luminance value for pixels where a subject located near the viewpoint position is photographed, and a darker luminance value for pixels where a subject located far away from the viewpoint position is photographed. Become.
  • the left another viewpoint image generation unit 101 generates another left viewpoint image corresponding to an image acquired at the virtual viewpoint position from the left viewpoint image and the left depth map as shown in FIG.
  • the right-specific viewpoint image generation unit 102 generates a right-specific viewpoint image corresponding to an image acquired at the virtual viewpoint position from the right viewpoint image and the right depth map as shown in FIG.
  • FIG. 3 is a diagram illustrating a left another viewpoint image generated by the left another viewpoint image generating unit 101 and a right another viewpoint image generated by the right another viewpoint image generating unit 102.
  • the subject 201 closer to the viewpoint position has a larger movement amount due to the difference in viewpoint position than the subject 202 far from the viewpoint position.
  • the left-side viewpoint image generation unit 101 and the right-side viewpoint image generation unit 102 consider the distance from the viewpoint position of the input image (the left viewpoint image 211 and the right viewpoint image 221) to the virtual viewpoint position, and input image pixels. Move horizontally. At this time.
  • the left-side viewpoint image generation unit 101 and the right-side viewpoint image generation unit 102 use the depth map indicating the distance in the depth direction of the image, and adjust the movement amount of each pixel according to the distance in the depth direction.
  • the left another viewpoint image generation unit 101 generates a left another viewpoint image 302 corresponding to an image obtained when the subjects 201 and 202 are photographed at the virtual viewpoint position 301.
  • the right-specific viewpoint image generation unit 102 generates a right-specific viewpoint image 303 obtained when the subjects 201 and 202 are photographed at the virtual viewpoint position 301.
  • the movement amount of the subject 201 on the near side is larger than the movement amount of the subject 202 on the back side.
  • the viewpoint position moves from the right viewpoint position 220 to the virtual viewpoint position 301 except that the moving direction is reversed. That is, the movement amount ⁇ x of the pixel value of each pixel accompanying the movement of the viewpoint position is obtained by the following (Equation 1).
  • d is a depth value (depth map value) of each pixel, and becomes a smaller value on the far side farther from the viewpoint position, and a larger value on the near side closer to the viewpoint position.
  • ⁇ b represents the movement amount of the viewpoint position (movement amount from the left viewpoint position 210 to the virtual viewpoint position 301 or movement amount from the right viewpoint position 220 to the virtual viewpoint position 301).
  • a certain hole area is generated. Specifically, in the left another viewpoint image 302 generated from the left viewpoint image 211, a hole region 310 is generated on the right side of the subject 201 in the image, and in the right another viewpoint image 303 generated from the right viewpoint image 221, A hole region 311 is generated on the left side of the subject 201 in the image.
  • FIG. 3 unless the subject 202 exists at the same distance as the background, a hole region is also formed on the side of the subject 202 in the image. However, in FIG. Is omitted.
  • FIG. 4 is a diagram illustrating a hole density calculation method performed by the hole density calculation unit 103.
  • the hole density calculation unit 103 extracts a hole map 401 (FIG. 4A) in which only the hole area is extracted from the left viewpoint image 302, and a hole map 402 (FIG. 4) in which only the hole area is extracted from the right viewpoint image 303.
  • the window 403 is scanned.
  • the ratio of the hole area to the entire window 403 when the center of the window 403 overlaps with the pixel is calculated as the hole density Den.
  • the hole density calculation unit 103 obtains hole density maps 406 and 407 including the calculated hole density by the following (Equation 2).
  • Equation 2 N is the total number of pixels in the window, and H [x + dx, y + dy] is a component on the coordinates [x + dx, y + dy] in the hole map.
  • dx and dy mean relative positions from the window center.
  • the hole density calculation unit 103 calculates the hole density Den of the pixel located at the coordinates (x, y) by adding the number of H [x + dx, y + dy] as the hole area and dividing by N. For example, in FIG. 4, the hole density of the window 404 of the hole map 401 is smaller than the hole density of the window 405 of the hole map 402.
  • FIG. 5 is a schematic diagram for explaining a specific example of the hole density calculation method.
  • the hole map 408 shown in FIG. 5A there is a hole region 409 having a size of 4 ⁇ 5 pixels.
  • the window shape described above may be square or rectangular. Further, the shape of the window is not limited to a rectangle, and may be a circle or an ellipse.
  • the hole density calculation unit 103 may calculate the hole density Den by giving different weights to the hole region located in the central part in the window and the hole region located in the peripheral part in the window.
  • the hole density calculation unit 103 calculates one hole for the hole region located at the center of the window 410b in calculating the hole density of the pixel B.
  • the hole density calculation unit 103 calculates one pixel as one point for the hole region located in the peripheral part of the window 410b. Thereby, the composition ratio described later is calculated in consideration of the position of the hole region in the window.
  • the window size may be configured so that the user can specify the parameter by inputting parameters to the different viewpoint image generation apparatus 100 of the user.
  • a hole density map 406 (FIG. 4C) is an image of the hole density calculated for each pixel in the left viewpoint image 302, and the hole density calculated for each pixel in the right viewpoint image 303 is shown.
  • the imaged image is a hole density map 407 ((d) in FIG. 4).
  • the pixel located near the edge of the hole region has a low hole density
  • the pixel located near the center of the hole region has a high hole density
  • the composition ratio calculation unit 104 compares the hole densities of the hole density maps 406 and 407 for each pixel at the same position, and combines the left viewpoint image and the right viewpoint image together (composition weight of pixel values). Find ⁇ . As a result, a composite ratio map 510 shown in FIG. 6 is generated.
  • composition ratio ⁇ is obtained by the following (Equation 3).
  • FIG. 7 is a diagram illustrating the relationship between the difference between the hole density of the left-side viewpoint image 302 and the hole density of the right-side viewpoint image 303 and the composition ratio ⁇ determined by (Equation 3).
  • the composition ratio calculation unit 104 sets the composition ratio ⁇ of the left viewpoint image to 1. In addition, for the pixels with Den (L) ⁇ Den (R) equal to or greater than the threshold T, the composition ratio calculation unit 104 sets the composition ratio ⁇ to zero. For a pixel with 0 ⁇ Den (L) ⁇ Den (R) ⁇ T, the composition ratio is determined linearly according to the size of Den (L) and Den (R).
  • the composition ratio calculation unit 104 calculates the composition ratio of each of the two different viewpoint images for each pixel so that the composition ratio of the different viewpoint images having a smaller hole density is larger.
  • the threshold value T may be configured to be changeable by the user by inputting parameters to the different viewpoint image generation device 100 of the user. Further, the value of the composition ratio ⁇ of the pixels satisfying 0 ⁇ Den (L) ⁇ Den (R) ⁇ T may be determined nonlinearly.
  • the distance from the left viewpoint position 210 to the virtual viewpoint position 301 is closer than the distance from the right viewpoint position 220 to the virtual viewpoint position 301. Therefore, in principle, the pixel value of the left another viewpoint image 302 with a small hole area is used as the pixel value of the different viewpoint image after synthesis.
  • the horizontal axis of the graph 500 shown in FIG. 7 (the formula serving as a reference for (Formula 3)) is Den (L) -Den (R).
  • the horizontal axis of the graph shown in FIG. Is expressed as Den (R) -Den (L).
  • the composition ratio with respect to the pixel value of the left-side viewpoint image 302 is high.
  • the synthesis ratio calculation unit 104 sets each of the two different viewpoint images so that the synthesis ratio becomes larger as the different viewpoint image is closer to the virtual viewpoint position 301. A composition ratio is calculated for each pixel.
  • the pixel values in the image with a small hole area are often used, so that the different viewpoint image generation device 100 outputs with higher accuracy.
  • An image can be generated.
  • calculation method of the synthesis ratio is not limited to (Equation 3), and other calculation methods may be used.
  • the hole area interpolation unit 105 acquires the left another viewpoint image 302 and the right another viewpoint image 303 from the left another viewpoint image generation unit 101 and the right another viewpoint image generation unit 102, respectively, and the left another viewpoint image 302 and the right another viewpoint image 303.
  • the hole filling process (interpolation process) of the inner hole region is performed.
  • FIG. 8 is a schematic diagram showing a left-side viewpoint image after the hole filling process (hereinafter also referred to as an image after left interpolation) and a right-side viewpoint image after the hole filling process (hereinafter also referred to as an image after right interpolation).
  • the interpolated region 601 (region that was originally a hole region) of the post-left interpolation image 600 shown in FIG. 8A has pixel values of pixels located to the left and right of the hole region. Interpolated to stretch. The same applies to the interpolated area 611 of the post-right interpolation image 610 shown in FIG.
  • the interpolation processing (in-plane interpolation processing) of the hole region interpolation unit 105 may be processing other than linear interpolation.
  • the depth values of the depth maps at coordinates adjacent to the hole region in the horizontal direction may be compared, and extrapolation processing may be performed using the pixel values on the side farther from the viewpoint.
  • the different viewpoint image composition unit 106 obtains the post-left interpolation image 600 and the post-right interpolation image 610, and obtains the composition ratio map 510 from the hole density calculation unit 103. Then, the different viewpoint image synthesis unit 106 generates an output image obtained by synthesizing the two post-interpolation images (the post-left interpolation image 600 and the post-right interpolation image 610).
  • FIG. 9 is a diagram illustrating an output image generated by the different viewpoint image composition unit 106.
  • O (x, y) L (x, y) .alpha. (X, y) + R (x, y). ⁇ 1-.alpha. (X, y) ⁇ ... (Formula 4)
  • the right area 701 of the subject 201 in the output image 700 shown in FIG. 9 corresponds to the area 511 in the composition ratio map 510.
  • the pixel value of the right-interpolated image 610 is assigned to the pixel located in the central portion of the right region 701. Pixel values in the region other than the right region 701 are assigned the pixel values of the left interpolated image 600. A pixel value obtained by mixing the pixel value of the left interpolated image 600 and the pixel value of the right interpolated image 610 in accordance with the composition ratio ⁇ is assigned to the pixel located in the peripheral portion of the right region 701.
  • FIG. 10 is a flowchart of the operation of the different viewpoint image generation apparatus 100.
  • the left another viewpoint image generation unit 101 and the right another viewpoint image generation unit 102 generate the left another viewpoint image 302 and the right another viewpoint image 303 from the input image (the left viewpoint image 211 and the right viewpoint image 221) and the depth map. (S101).
  • the hole density calculation unit 103 calculates the hole density for each pixel with respect to the hole area in each of the left viewpoint image 302 and the right viewpoint image 303 (S102). Then, the composition ratio calculation unit 104 calculates a composition ratio when the left viewpoint image 302 and the right viewpoint image 303 are combined (S103).
  • the hole area interpolation unit 105 interpolates the hole areas in the left-side viewpoint image 302 and the right-side viewpoint image 303 (S104).
  • the separate viewpoint image composition unit 106 combines the left separate viewpoint image and the interpolated right separate viewpoint image interpolated in step S104 based on the composition ratio calculated in step S103 (S105).
  • step S102, step S103, and step S104 is not particularly limited.
  • the different viewpoint image generation apparatus 100 may perform processing in the order of step S102, step S103, and step S104, or may perform processing in the order of step S104, step S102, and step S103.
  • the process of step S102, step S103, and step S104 may be performed in parallel.
  • the hole ratio calculation unit 103 and the combination ratio calculation unit 104 calculate the combination ratio map 510. Then, the different viewpoint image combining unit 106 combines the two different viewpoint images generated from the left viewpoint image and the right viewpoint image in accordance with the calculated combining ratio.
  • the interpolation process is performed only on the hole area that needs to be interpolated, and the interpolation process reflects the composite ratio calculated based on the hole density, so that the hole area is smoothly interpolated. That is, according to the different viewpoint image generation device 100, the hole area generated in the different viewpoint image can be interpolated with high quality. In other words, the different viewpoint image generation device 100 can generate a high-quality different viewpoint image (output image).
  • FIG. 11 is an overall configuration diagram of another viewpoint image generation apparatus 100a according to another embodiment.
  • FIG. 12 is a flowchart of the operation of the different viewpoint image generation device 100a. In the following description, differences from the different viewpoint image generation device 100 will be mainly described, and description overlapping with the above embodiment will be omitted.
  • the separate viewpoint image composition unit 106 combines the left separate viewpoint image 302 and the right separate viewpoint image 303 according to the composition ratio calculated by the composition ratio calculation unit 104 (S106 in FIG. 12). At this time, when both corresponding pixels (pixels located at the same coordinates) of the left-side viewpoint image 302 and the right-side viewpoint image 303 are hole regions, the pixel is handled as a hole region. Therefore, the image synthesized by the different viewpoint image synthesis unit 106 includes a hole area.
  • the hole area interpolation unit 105a interpolates the hole area in the image synthesized by the different viewpoint image synthesis unit 106 using the pixel value in the image (S107 in FIG. 12).
  • any existing method may be used as described in the above embodiment.
  • the different viewpoint image generation device 100a can generate a high-quality different viewpoint image (output image).
  • the different viewpoint image generation devices 100 and 100a generate different viewpoint images having different viewpoint positions from the two images captured at different viewpoint positions.
  • the different viewpoint image generation devices 100 and 100a may generate different viewpoint images having different viewpoint positions from the two or more images captured at different viewpoint positions.
  • the different viewpoint image generation apparatuses 100 and 100a may generate different viewpoint images having different viewpoint positions from the three images captured at different viewpoint positions.
  • the composition ratio calculation unit 104 calculates, for example, the composition ratio of each viewpoint image that is proportional to the size of the hole density of the three images.
  • the hole density is calculated for each pixel.
  • the hole density is calculated for each processing unit composed of one or more pixels (for example, a processing unit having a block size of 4 ⁇ 4 pixels). Good.
  • a window is set for each processing unit, and the hole density is also compared for each processing unit.
  • the different viewpoint image generation devices 100 and 100a generate different viewpoint images between two viewpoint positions from two images captured at different viewpoint positions. It is also possible to generate another viewpoint image at a viewpoint position other than between. Further, the two images do not have to be taken for stereoscopic viewing, and may be images obtained by photographing the same subject.
  • the different viewpoint image generation devices 100 and 100a are realized, for example, as a television 800 shown in FIG.
  • the different viewpoint image generation devices 100 and 100a generate different viewpoint images from two images for stereoscopic viewing that have been taken in advance.
  • the different viewpoint image generation devices 100 and 100a can display the generated different viewpoint image and two images of the stereoscopic images taken in advance in combination with each other and display them to the user.
  • a configuration in which the user adjusts the parallax of the image displayed on the television 800 with the remote controller can be realized.
  • the different viewpoint image generation apparatuses 100 and 100a are realized as a Blu-Ray (registered trademark) player 810, for example.
  • the different viewpoint image generation apparatuses 100 and 100a generate different viewpoint images from the two images for stereoscopic viewing recorded on the inserted Blu-Ray (registered trademark) disc.
  • the different viewpoint image generation apparatuses 100 and 100a may be realized as the set top box 820. In this case, the different viewpoint image generation apparatuses 100 and 100a generate different viewpoint images from two images for stereoscopic viewing acquired from cable television broadcasting or the like.
  • the different viewpoint image generation apparatuses 100 and 100a include a DSC (Digital Still Camera) having a 3D shooting function shown in FIG. 14A and a digital video having a 3D shooting function shown in FIG. 14B. It may be realized as a camera.
  • the different viewpoint image generation devices 100 and 100a generate different viewpoint images from two images for stereoscopic viewing taken in advance.
  • the different viewpoint image generation devices 100 and 100a may be realized by a server / client method.
  • the different viewpoint images generated by the different viewpoint image generation apparatuses 100 and 100a are mainly used for parallax adjustment as described above, but may be used for other purposes.
  • the different viewpoint image generation device is specifically a computer system including a microprocessor, a ROM, a RAM, a hard disk unit, a display unit, a keyboard, a mouse, and the like.
  • a computer program is stored in the RAM or hard disk unit.
  • the different viewpoint image generation apparatus achieves its function by the microprocessor operating according to the computer program.
  • the computer program is configured by combining a plurality of instruction codes indicating instructions for the computer in order to achieve a predetermined function.
  • a part or all of the components constituting the above-described another viewpoint image generation device may be configured by a single system LSI (Large Scale Integration).
  • the system LSI is an ultra-multifunctional LSI manufactured by integrating a plurality of components on a single chip, and specifically, a computer system including a microprocessor, ROM, RAM, and the like. .
  • a computer program is stored in the RAM.
  • the system LSI achieves its functions by the microprocessor operating according to the computer program.
  • a part or all of the components constituting the different viewpoint image generation device may be configured as an IC card that can be attached to and detached from the different viewpoint image generation device or a single module.
  • the IC card or the module is a computer system including a microprocessor, ROM, RAM, and the like.
  • the IC card or the module may include the super multifunctional LSI described above.
  • the IC card or the module achieves its function by the microprocessor operating according to the computer program. This IC card or this module may have tamper resistance.
  • the present disclosure may be the method described above. Further, the present invention may be a computer program that realizes these methods by a computer, or may be a digital signal composed of the computer program.
  • the present disclosure also relates to a computer-readable recording medium such as a flexible disk, hard disk, CD-ROM, MO, DVD, DVD-ROM, DVD-RAM, BD (Blu-ray ( (Registered trademark) Disc), or recorded in a semiconductor memory or the like.
  • the digital signal may be recorded on these recording media.
  • the computer program or the digital signal may be transmitted via an electric communication line, a wireless or wired communication line, a network represented by the Internet, a data broadcast, or the like.
  • the present disclosure may be a computer system including a microprocessor and a memory, and the memory may store the computer program, and the microprocessor may operate according to the computer program.
  • the program or the digital signal is recorded on the recording medium and transferred, or the program or the digital signal is transferred via the network or the like, and executed by another independent computer system. It is good.
  • the different viewpoint image generation device and the different viewpoint image generation method according to the present disclosure it is possible to generate a high-quality different viewpoint image from an image with depth map information captured by the imaging device.
  • These configurations can be applied to devices such as consumer or commercial imaging devices (digital still cameras and video cameras) or portable terminals.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

 別視点画像生成装置(100)は、2以上の視点位置それぞれにおいて取得された2以上の画像から、仮想視点位置において取得される画像に相当する画像であって、画素値が欠落した領域である穴領域が含まれる画像である別視点画像を1つずつ生成する別視点画像生成部(101、102)と、生成された2以上の別視点画像の各々について、処理単位ごとに、当該処理単位を含む所定領域内に占める穴領域の割合である穴密度を算出する穴密度算出部(103)と、2以上の別視点画像の各々の穴密度の大きさに基づいて2以上の別視点画像の各々の合成比率を処理単位ごとに算出する合成比率算出部(104)と、2以上の別視点画像を、算出された合成比率に基づいて合成する別視点画像合成部(106)とを備える。

Description

別視点画像生成装置および別視点画像生成方法
 本開示は、3次元(3D)表示用の画像処理技術に関し、特に、互いに異なる視点位置で撮影された2以上の画像から、当該2以上の画像とは視点位置が異なる別の画像を生成する別視点画像生成装置に関する。
 視聴者の左右の目に対して視差のある画像(以下、ステレオ画像とも記載する)を表示することにより、視聴者に平面映像を立体映像として知覚させる技術が知られている。
 また、一組のステレオ画像から、当該ステレオ画像とは別の視点の画像(別視点画像)を生成する技術が知られている(例えば、特許文献1参照)。
 特許文献1に記載の技術は、画像の奥行き方向の距離を示すデプスマップを使用し、奥行き方向の距離に応じて画素を水平方向に移動することにより、別視点画像を生成する技術である。このような技術は、一般的に、DIBR(Depth Image Based Rendering)と呼ばれる。
 DIBRにより生成された画像は、元のステレオ画像には現れない領域を含む場合がある。このような領域は、画素値の割り当てられていない領域(以下、穴領域と記載する)であるため、なんらかの処理によって補間される必要がある。
特開2010-218548号公報
 そこで、本開示は、別視点画像に生じた穴領域を、高品質に補間することができる別視点画像生成装置を提供する。
 本開示の一態様に係る別視点画像生成装置は、画像内の各画素の奥行きを示す距離情報に基づいて、2以上の視点位置それぞれにおいて取得された2以上の画像の各々から、前記2以上の視点位置とは異なる仮想視点位置において取得される画像に相当する画像であって、画素値が欠落した領域である穴領域が含まれる画像である別視点画像を1つずつ生成する別視点画像生成部と、生成された2以上の別視点画像の各々について、1以上の画素からなる処理単位ごとに、当該処理単位を含む所定領域内に占める、当該別視点画像内の穴領域の割合である穴密度を算出する穴密度算出部と、前記2以上の別視点画像の各々の前記穴密度に基づいて、前記2以上の別視点画像の各々の合成比率を前記処理単位ごとに算出する合成比率算出部と、前記2以上の別視点画像を、算出された合成比率に基づいて合成する別視点画像合成部とを備える。
 なお、この包括的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD-ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。
 本開示に係る別視点画像生成装置によれば、別視点画像に生じた穴領域を、高品質に補間することができる。
図1は、実施の形態に係る別視点画像生成装置の全体構成図である。 図2は、別視点画像生成部に入力される画像およびデプスマップの一例を示す図である。 図3は、別視点画像生成部が生成する別視点画像を示す図である。 図4は、穴密度算出部の穴密度の算出方法を示す図である。 図5は、穴密度の算出方法の具体例を説明するための模式図である。 図6は、合成比率算出部が生成する合成比率マップを示す図である。 図7は、左別視点画像の穴密度と右別視点画像の穴密度との差と、合成比率αとの関係を示す図である。 図8は、穴埋め処理後の左別視点画像および穴埋め処理後の右別視点画像を示す模式図である。 図9は、別視点画像合成部が生成した出力画像を示す図である。 図10は、実施の形態に係る別視点画像生成装置の動作のフローチャートである。 図11は、その他の実施の形態に係る別視点画像生成装置の全体構成図である。 図12は、その他の実施の形態に係る別視点画像生成装置の動作のフローチャートである。 図13は、別視点画像生成装置の適用例を示す第1の図である。 図14は、別視点画像生成装置の適用例を示す第2の図である。
 (本開示の基礎となった知見)
 3D映画や3DTV等の立体映像を表示する方法としては様々な技術が存在する。これらの技術は、視聴者の左右の目に対して視差のあるステレオ画像を表示することにより、視聴者に平面映像を立体映像として知覚させる点において共通している。視聴者の左右の目に表示するステレオ画像の間の視差量が大きい程、視聴者の感じる立体感は強くなる。逆に、ステレオ画像の視差量が小さい場合は、視聴者の感じる立体感は弱まる。
 ステレオ画像の視差量は、ステレオ画像を撮影するステレオカメラのレンズ間距離によって決まるが、撮影後のステレオ画像の視差量は、事後的に変更されて立体感を調整できる構成であることが望ましい。
 また、レンチキュラレンズ等を用いた裸眼3Dディスプレイでは、視聴者の位置に応じて視点位置の異なるステレオ画像を表示する。このような場合、表示されるステレオ画像の切り替えが目立たないようにするためには、あらかじめ多数の視点位置において撮影された画像を撮影しておく必要があるが、多数の視点位置における画像の撮影は、非常にコストがかかる。したがって、ステレオ画像を変形して、視点位置の異なる複数の画像を生成する必要がある。
 ここで、背景技術で説明したように、ステレオ画像から当該ステレオ画像とは別の視点の画像を生成するDIBRと呼ばれる技術が知られている。
 DIBRにより生成された画像は、画素値の割り当てられていない領域である穴領域を含む場合があり、穴領域は、なんらかの処理によって補間される必要がある。
 穴領域は、穴領域の周辺領域の画素値を用いた線形補間処理によって単純に補間することができるが、このような方法は、穴領域が大きい場合、補間による画質の劣化が目立つという課題がある。
 これに対し、特許文献1の記載の技術は、ステレオ画像のうちの左視点画像から生成された別視点画像の穴領域に対して、右視点画像の対応する領域の画素値を当てはめることで穴領域を補間する技術である。
 しかしながら、特許文献1に記載の技術は、穴領域に対してそのまま反対視点の画像の画素値をあてはめるので、補間後の穴領域と周辺領域との境界が滑らかに繋がらないという課題がある。
 上記の課題を解決するために、本開示の一態様に係る別視点画像生成装置は、画像内の各画素の奥行きを示す距離情報に基づいて、2以上の視点位置それぞれにおいて取得された2以上の画像の各々から、前記2以上の視点位置とは異なる仮想視点位置において取得される画像に相当する画像であって、画素値が欠落した領域である穴領域が含まれる画像である別視点画像を1つずつ生成する別視点画像生成部と、生成された2以上の別視点画像の各々について、1以上の画素からなる処理単位ごとに、当該処理単位を含む所定領域内に占める、当該別視点画像内の穴領域の割合である穴密度を算出する穴密度算出部と、前記2以上の別視点画像の各々の前記穴密度に基づいて、前記2以上の別視点画像の各々の合成比率を前記処理単位ごとに算出する合成比率算出部と、前記2以上の別視点画像を、算出された合成比率に基づいて合成する別視点画像合成部とを備える。
 これにより、別視点画像を生成する際に生じる穴領域を高品質に補間することができる。したがって、2以上の画像から高品質な別視点画像を生成することができる。
 また、さらに、前記2以上の別視点画像の各々の穴領域を当該別視点画像内の画素値を用いて補間する穴領域補間部を備え、前記別視点画像合成部は、穴領域が補間された前記2以上の別視点画像を、算出された合成比率に基づいて合成してもよい。
 また、さらに、前記別視点画像合成部が合成した画像内の穴領域を当該画像内の画素値を用いて補間する穴領域補間部を備えてもよい。
 また、前記穴密度算出部は、前記2以上の別視点画像の各々について、処理単位ごとに、当該処理単位を中心とした前記所定領域であるウィンドウ内に占める穴領域の割合を前記穴密度として算出してもよい。
 また、前記穴密度算出部は、前記ウィンドウ内の中央部に位置する穴領域と、前記ウィンドウ内の周辺部に位置する穴領域とにそれぞれ異なる重みを与えて前記穴密度を算出してもよい。
 また、前記合成比率算出部は、前記穴密度の大きさが小さい別視点画像ほど合成比率が大きくなるように、前記2以上の別視点画像の各々の合成比率を前記処理単位ごとに算出してもよい。
 また、前記合成比率算出部は、穴密度の大きさが等しい場合には、視点位置が前記仮想視点位置と近い別視点画像ほど合成比率が大きくなるように、前記2以上の別視点画像の各々の合成比率を前記処理単位ごとに算出してもよい。
 また、前記処理単位は、画素であり、前記穴密度算出部は、前記2以上の別視点画像の各々について、画素ごとに穴密度を算出し、前記合成比率算出部は、前記2以上の別視点画像の各々の合成比率を画素ごとに算出してもよい。
 なお、これらの包括的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD-ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。
 以下、実施の形態について、図面を参照しながら説明する。
 なお、以下で説明する実施の形態は、いずれも包括的または具体的な例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置および接続形態、ステップ、ステップの順序などは、一例であり、本開示を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。
 (実施の形態)
 図1は、実施の形態に係る別視点画像生成装置100の全体構成図である。
 別視点画像生成装置100は、左別視点画像生成部101と、右別視点画像生成部102と、穴密度算出部103と、合成比率算出部104と、穴領域補間部105と、別視点画像合成部106とを備える。本実施の形態では、別視点画像生成装置100がステレオ画像である左視点画像および右視点画像から、別視点の画像を生成する例について説明する。
 左別視点画像生成部101は、左視点画像と左視点画像のデプスマップ(左デプスマップ)とに基づいて、左視点画像に含まれる各画素を当該画素の奥行きに基づいて水平方向に移動させた左別視点画像を生成する。
 右別視点画像生成部102は、右視点画像と右視点画像のデプスマップ(右デプスマップ)とに基づいて、右視点画像に含まれる各画素を当該画素の奥行きに基づいて水平方向に移動させた右別視点画像を生成する。
 なお、左視点画像は、左視点位置において撮影された画像であり、右視点画像は、左視点位置とは異なる右視点位置において撮影された画像である。また、左別視点画像と右別視点画像とは、いずれも同一の仮想視点位置(左視点位置および右視点位置のいずれの視点位置とも異なる位置)において取得される画像に相当する画像である。デプスマップとは、画像内の各画素の奥行き(視点位置から当該各画素に表示されている被写体までの距離)を示す距離情報である。
 なお、左別視点画像生成部101および右別視点画像生成部102は、図1に示されるようにそれぞれ分離した構成でなくてもよい。すなわち、1つの別視点画像生成部が、左右の視点画像および左右のデプスマップから、左別視点画像および右別視点画像をそれぞれ生成してもよい。言い換えれば、別視点画像生成部は、画像内の各画素の奥行きを示す距離情報に基づいて、2つの視点位置それぞれにおいて取得された2つの画像の各々から、2つの視点位置とは異なる仮想視点位置において取得される画像に相当する別視点画像を1つずつ生成する。
 穴密度算出部103は、左別視点画像生成部101および右別視点画像生成部102が生成した左別視点画像および右別視点画像のそれぞれについて、処理単位ごとの穴領域の分布を示す穴密度マップを生成する。具体的には、穴密度算出部103は、生成された2つの別視点画像の各々について、1以上の画素からなる処理単位ごとに、当該処理単位を含む所定領域内に占める穴領域の割合である穴密度を算出する。なお、穴領域とは、別視点画像内の画素値が欠落した領域である。
 また、本実施の形態では、上記処理単位は、画素であり、穴密度算出部103は、2つの別視点画像の各々について、画素ごとに穴密度を算出する。また、本実施の形態では、上記所定領域として、後述するウィンドウが用いられる。
 合成比率算出部104は、穴密度算出部103が生成した穴密度マップに基づいて、左別視点画像と右別視点画像とを合成する際の比率を示す合成比率マップを生成する。具体的には、合成比率算出部104は、2つの別視点画像の各々の穴密度の大きさを対応する画素(処理単位)ごとに比較し、比較した穴密度の大きさに応じて2つの別視点画像の各々の合成比率を画素(処理単位)ごとに算出する。
 穴領域補間部105は、左別視点画像生成部101および右別視点画像生成部102が生成した左別視点画像および右別視点画像の各々に対して、穴領域を同一画像内の穴領域の周辺に位置する画素値を用いて補間する穴埋め処理を施す。つまり、穴領域補間部105は、2つの別視点画像の各々の穴領域を当該別視点画像内の画素値を用いて補間する。
 なお、画素値とは、少なくとも画素の輝度および色を示す情報である。画素値は、具体的には、RGBの色成分の各輝度値からなる情報や、輝度値と色差とからなる情報などである。また、画素値には、色に関する情報に加えて、デプス値のような付加情報が含まれてもよい。
 別視点画像合成部106は、合成比率算出部104が生成した合成比率マップによって示される合成比率に基づき、穴領域補間部105により穴埋め処理済みの左別視点画像および右別視点画像に対して合成処理を行った出力画像(出力別視点画像)を生成する。具体的には、別視点画像合成部106は、穴領域が補間された2つの別視点画像を算出された合成比率に基づいて合成する。
 なお、別視点画像生成装置100の各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。
 次に、別視点画像生成装置100の各構成要素が行う動作について詳細に説明する。まず、左別視点画像生成部101および右別視点画像生成部102が行う別視点画像の生成処理について詳細に説明する。
 図2は、左別視点画像生成部101および右別視点画像生成部102に入力される画像およびデプスマップの一例を示す図である。
 左視点画像211は、左視点位置210において被写体201および被写体202を撮影した画像である。右視点画像221は、右視点位置220において被写体201および被写体202を撮影した画像である。左視点画像211と、右視点画像221とは、同一の被写体201および被写体202を撮影した立体視用の画像であり、被写体201および被写体202の画像内における相対位置がそれぞれ異なる。
 左デプスマップ212は、左視点画像211の背景および被写体201のデプスを示す画像である。右デプスマップ222は、右視点画像221の背景および被写体201のデプスを示す画像である。つまり、左デプスマップ212は、左視点位置210から被写体201までの距離を示し、右デプスマップ222は、右視点位置220から被写体201までの距離を示す。なお、実際には、左デプスマップ212および右デプスマップ222において被写体202のデプスも示されるが、本実施の形態では、被写体202のデプスは、説明の簡略化のために省略される。
 なお、本実施の形態のデプスマップは、視点位置から近い距離に位置する被写体が撮影された画素ほど明るい輝度値となり、視点位置から遠い距離に位置する被写体が撮影された画素ほど暗い輝度値となる。
 左別視点画像生成部101は、図2に示されるような左視点画像および左デプスマップから仮想視点位置において取得される画像に相当する左別視点画像を生成する。同様に、右別視点画像生成部102は、図2に示されるような右視点画像および右デプスマップから仮想視点位置において取得される画像に相当する右別視点画像を生成する。
 図3は、左別視点画像生成部101が生成する左別視点画像と、右別視点画像生成部102が生成する右別視点画像を示す図である。
 一般に、視点位置から近い被写体201は、視点位置から遠い被写体202よりも視点位置の違いによる移動量が大きくなる。そこで、左別視点画像生成部101および右別視点画像生成部102は、入力画像(左視点画像211および右視点画像221)の視点位置から仮想視点位置までの距離を考慮して入力画像の画素を水平方向に移動する。このとき。左別視点画像生成部101および右別視点画像生成部102は、画像の奥行き方向の距離を示すデプスマップを使用し、奥行き方向の距離に応じて各画素の移動量を調整する。
 図3に示されるように、左別視点画像生成部101は、仮想視点位置301において被写体201および202を撮影した場合に得られる画像に相当する左別視点画像302を生成する。また、右別視点画像生成部102は、仮想視点位置301において被写体201および202を撮影した場合に得られる右別視点画像303を生成する。
 ここで、上述のように、視点位置が左視点位置210から仮想視点位置301へ移動した場合、手前側の被写体201の移動量は、奥側の被写体202の移動量よりも大きい。視点位置が右視点位置220から仮想視点位置301へ移動する場合についても、移動方向が逆になる点以外は同様である。つまり、視点位置の移動に伴う各画素の画素値の移動量Δxは、以下の(式1)により求められる。
  Δx = d・Δb   ・・・(式1)
 ここで、dは、各画素のデプス値(デプスマップの値)であり、視点位置から遠い奥側ほど小さい値となり、視点位置に近い手前側ほど大きい値となる。Δbは、視点位置の移動量(左視点位置210から仮想視点位置301までの移動量または右視点位置220から仮想視点位置301までの移動量)を表す。
 デプス値dが大きい画素ほど、移動量Δxの値が大きくなるため、視点移動後の左別視点画像302および右別視点画像303内のそれぞれ被写体201の横側に、画素値の存在しない領域である穴領域が発生する。具体的には、左視点画像211から生成された左別視点画像302は、画像内の被写体201の右側に穴領域310が発生し、右視点画像221から生成された右別視点画像303では、画像内の被写体201の左側に穴領域311が発生する。
 なお、実際には、図3において、被写体202が背景と同じ距離に存在しない限り、画像内の被写体202の横側にも穴領域が生じるが、図3では被写体202に生じる穴領域に関しては図示が省略されている。
 次に、穴密度算出部103の穴密度の算出方法について説明する。図4は、穴密度算出部103の穴密度の算出方法を示す図である。
 穴密度算出部103は、左別視点画像302から穴領域のみを抽出した穴マップ401(図4の(a))と、右別視点画像303から穴領域のみを抽出した穴マップ402(図4の(b))のそれぞれについて、ウィンドウ403を走査する。そして、穴マップ401および402のそれぞれについて画素(処理単位)ごとに、当該画素にウィンドウ403の中心が重なったときのウィンドウ403全体に占める穴領域の割合を穴密度Denとして算出する。そして、穴密度算出部103は、算出された穴密度からなる穴密度マップ406および407を、以下の(式2)によって求める。
 Den(x,y) = ΣisHole(H[x+dx,y+dy])/N
                           ・・・(式2)
 式2において、Nはウィンドウ内の画素数の合計であり、H[x+dx,y+dy]は、穴マップ内の座標[x+dx,y+dy]上の成分である。dxおよびdyは、ウィンドウ中心からの相対位置を意味する。
 穴密度算出部103は、H[x+dx,y+dy]が穴領域である数を合計してNで割ることで、座標(x,y)に位置する画素の穴密度Denを算出する。例えば、図4において、穴マップ401のウィンドウ404の穴密度は、穴マップ402のウィンドウ405の穴密度よりも小さい。
 以下、図5を用いて穴密度の算出方法の具体例について説明する。図5は、穴密度の算出方法の具体例を説明するための模式図である。
 図5の(a)に示される穴マップ408においては、4×5画素の大きさの穴領域409が存在する。画素Aの穴密度は、例えば、画素Aを中心とした5×5画素の大きさのウィンドウ410aに占める、穴領域409に含まれる画素の数で求められる。すわなち、画素Aの穴密度は、3/25=0.12と算出される。同様に、画素Bの穴密度は、ウィンドウ410bに占める、穴領域409に含まれる画素の数で求められ、10/25=0.4と算出される。
 なお、上述したウィンドウの形状は、正方形であっても長方形であってもかまわない。また、ウィンドウの形状は、矩形に限定されず、円や楕円であってもよい。
 また、穴密度算出部103は、ウィンドウ内の中央部に位置する穴領域とウィンドウ内の周辺部に位置する穴領域とにそれぞれ異なる重みを与えて穴密度Denを算出してもよい。
 穴密度算出部103は、例えば、図5の(b)に示されるように、画素Bの穴密度の算出において、ウィンドウ410bの中央部に位置する穴領域については、1画素を2ポイントとして計算し、これに対し、穴密度算出部103は、ウィンドウ410bの周辺部に位置する穴領域については、1画素を1ポイントとして計算する。これにより、ウィンドウ内の穴領域の位置を考慮して、後述する合成比率が算出される。
 また、ウィンドウのサイズは、ユーザの別視点画像生成装置100へのパラメータ入力によりユーザが指定可能な構成であってもよい。
 以上のような穴密度算出部103の処理によって、左別視点画像302および右別視点画像303のそれぞれについて画素ごとに穴密度が算出される。左別視点画像302において画素ごとに算出された穴密度を画像化したものが穴密度マップ406(図4の(c))であり、右別視点画像303において画素ごとに算出された穴密度を画像化したものが穴密度マップ407(図4の(d))である。
 穴密度マップ406および407に示されるように、穴領域のエッジ付近に位置する画素は穴密度が低く、穴領域の中央付近に位置する画素は穴密度が高い。
 次に、合成比率算出部104の合成比率の算出方法について説明する。合成比率算出部104は、穴密度マップ406および407の穴密度を同じ位置の画素ごとに比較し、左視点画像と右視点画像とを合成する際に用いる合成比率(画素値の混合の重み)αを求める。この結果、図6に示される合成比率マップ510が生成される。
 本実施の形態では、合成比率αは、0から1の値をとり、右別視点画像303に対してどの程度左別視点画像302を合成するかの割合となる。すなわちα=1の画素には、左別視点画像302の画素値をそのまま使用し右別視点画像303の画素値を使用しない。一方、α=0の画素は、左別視点画像302の画素値を使用せず右別視点画像303の画素値をそのまま使用する。
 合成比率αは、具体的には、以下の(式3)により求められる。
 α=1 : 0≧Den(L)-Den(R)
 α=0 : Den(L)-Den(R)≧T
 α=1-((Den(L)-Den(R))/T) :
   0<Den(L)-Den(R)<T
                          ・・・(式3)
 (式3)では、左別視点画像302の穴密度をDen(L)、右別視点画像303の穴密度をDen(R)とし、Tは閾値を表す。また、図7は、(式3)で定められる左別視点画像302の穴密度と右別視点画像303の穴密度との差と、合成比率αとの関係を示す図である。
 Den(L)-Den(R)≦0である画素については、合成比率算出部104は、左視点画像の合成比率αを1とする。また、Den(L)-Den(R)が閾値T以上の画素については、合成比率算出部104は、合成比率αを0とする。0<Den(L)-Den(R)<Tとなる画素については、Den(L)とDen(R)との大きさに応じて線形的に合成比率が決定される。
 このように、合成比率算出部104は、比較した穴密度の大きさが小さい別視点画像ほど合成比率が大きくなるように、2つの別視点画像の各々の合成比率を画素ごとに算出する。
 なお、図6に示される合成比率マップ510中において、領域511(白色でない領域)はα<1となる領域であり、それ以外の領域(白色の領域)はα=1である。
 なお、(式3)において、閾値Tは、ユーザの別視点画像生成装置100へのパラメータ入力によりユーザによって変更可能な構成であってもよい。また、0<Den(L)-Den(R)<Tとなる画素の合成比率αの値は、非線形に決定されてもよい。
 本実施の形態では、図3に示されるように、左視点位置210から仮想視点位置301までの距離が、右視点位置220から仮想視点位置301までの距離よりも近い。よって、原則的には、穴領域の少ない左別視点画像302の画素値が、合成後の別視点画像の画素値として用いられる。
 よって、図7に示されるグラフ500の横軸((式3)の基準となる式)は、横軸がDen(L)-Den(R)となる。逆に、左視点位置210から仮想視点位置301までの距離が、右視点位置220から仮想視点位置301の距離よりも遠い場合、図7に示されるグラフの横軸((式3)の基準となる式)は、Den(R)-Den(L)となる。
 このように、本実施の形態では、Den(L)=Den(R)となる場合には、左別視点画像302の画素値に対する合成比率が高くなる。言い換えれば、合成比率算出部104は、穴密度の大きさが等しい場合には、視点位置が仮想視点位置301と近い別視点画像ほど合成比率が大きくなるように、2つの別視点画像の各々の合成比率を画素ごとに算出する。
 これにより、結果的には、合成後の別視点画像(出力画像)においては、穴領域の少ない画像中の画素値が多く使用されるため、別視点画像生成装置100は、より精度の高い出力画像を生成することができる。
 なお、合成比率の算出方法は、(式3)に限定されるものではなく、その他の算出方法であってもよい。
 次に、穴領域補間部105の穴領域の補間方法について説明する。穴領域補間部105は、左別視点画像生成部101および右別視点画像生成部102から左別視点画像302および右別視点画像303をそれぞれ取得し、左別視点画像302および右別視点画像303内の穴領域の穴埋め処理(補間処理)を行う。
 本実施の形態では、穴領域補間部105は、穴領域の周辺の画素値を用いて穴埋め処理を行う。図8は、穴埋め処理後の左別視点画像(以下、左補間後画像とも記載する)および穴埋め処理後の右別視点画像(以下、右補間後画像とも記載する)を示す模式図である。
 図8では、一例として穴領域補間部105が水平方向に隣接する画素値を用いて水平補間処理(水平方向の線形補間処理)を行った場合の左補間後画像600(図8の(a))および右補間後画像610(図8の(b))が図示されている。水平補間処理を用いた場合、図8の(a)に示される左補間後画像600の被補間領域601(元々穴領域であった領域)は、穴領域の左右に位置する画素の画素値が引き伸ばされるように補間される。図8の(b)に示される右補間後画像610の被補間領域611についても同様である。
 なお、穴領域補間部105の補間処理(面内補間処理)は、線形補間以外の処理でもかまわない。例えば、穴領域の水平方向に隣接する座標におけるデプスマップのデプス値を比較して、より視点から遠い側の画素値を用いて外挿処理をしてもよい。
 次に、別視点画像合成部106の画像の合成方法について説明する。別視点画像合成部106は、左補間後画像600および右補間後画像610を取得し、穴密度算出部103から合成比率マップ510を取得する。そして、別視点画像合成部106は、2つの補間後画像(左補間後画像600および右補間後画像610)を合成した出力画像を生成する。図9は、別視点画像合成部106が生成した出力画像を示す図である。
 左補間後画像600をL(x,y)、右補間後画像610をR(x,y)、合成比率マップ510をα(x,y)とすると、出力画像700(O(x,y))は、以下の(式4)により求められる。
 O(x,y)=L(x,y)・α(x,y)+R(x,y)・{1-α(x,y)}
                           ・・・(式4)
 図9に示される出力画像700内の被写体201の右側領域701は、合成比率マップ510内の領域511に相当する。
 右側領域701のうちの中央部分に位置する画素には、右補間後画像610の画素値が割り当てられる。右側領域701以外の領域に位置する画素には、左補間後画像600の画素値が割り当てられる。右側領域701うちの周辺部分に位置する画素には、左補間後画像600の画素値および右補間後画像610の画素値が合成比率αに応じて混合された画素値が割り当てられる。
 最後に、別視点画像生成装置100の動作順序について図10を用いて説明する。図10は、別視点画像生成装置100の動作のフローチャートである。
 まず、左別視点画像生成部101および右別視点画像生成部102は、入力画像(左視点画像211および右視点画像221)およびデプスマップから左別視点画像302および右別視点画像303を生成する(S101)。
 次に、穴密度算出部103は、左別視点画像302および右別視点画像303のそれぞれにおける穴領域に対して画素ごとに穴密度を算出する(S102)。そして、合成比率算出部104は、左別視点画像302および右別視点画像303を合成する際の合成比率を算出する(S103)。
 また、穴領域補間部105は、左別視点画像302および右別視点画像303における穴領域を補間する(S104)。
 最後に、別視点画像合成部106は、ステップS104において補間された左別視点画像および補間された右別視点画像を、ステップS103において算出された合成比率に基づいて合成する(S105)。
 なお、ステップS102、ステップS103、およびステップS104の順番は、特に限定されるものではない。別視点画像生成装置100は、ステップS102、ステップS103、ステップS104の順で処理を行ってもよいし、ステップS104、ステップS102、ステップS103の順で処理を行ってもよい。また、ステップS102、ステップS103、およびステップS104の処理が並列に行われてもよい。
 以上説明したように、別視点画像生成装置100では、穴密度算出部103と合成比率算出部104とにより合成比率マップ510を算出する。そして、別視点画像合成部106は、左視点画像および右視点画像から生成された2つの別視点画像の各々を、算出された合成比率に応じて合成する。
 これにより、穴領域のうち補間が必要な領域にのみ補間処理が行われ、当該補間処理では穴密度に基づいて算出された合成比率が反映されるため、穴領域が滑らかに補間される。つまり、別視点画像生成装置100によれば、別視点画像に生じた穴領域を、高品質に補間することができる。言い換えれば、別視点画像生成装置100は、高品質な別視点画像(出力画像)を生成することができる。
 (その他の実施の形態)
 以上のように、本出願において開示する技術の例示として、実施の形態を説明した。しかしながら、本開示における技術は、これに限定されず、適宜、変更、置き換え、付加、省略などを行った実施の形態にも適用可能である。また、上記実施の形態で説明した各構成要素を組み合わせて、新たな実施の形態とすることも可能である。
 上記実施の形態では、穴領域が補間された2つの別視点画像を合成したが、穴領域を有する2つの別視点画像を合成した後に、合成後の画像に含まれる穴領域が補間されてもよい。
 図11は、その他の実施の形態に係る別視点画像生成装置100aの全体構成図である。図12は、別視点画像生成装置100aの動作のフローチャートである。なお、以下の説明では、別視点画像生成装置100との相違点を中心に説明し、上記実施の形態と重複する説明については省略される。
 別視点画像合成部106は、左別視点画像302と、右別視点画像303とを合成比率算出部104が算出した合成比率に応じて合成する(図12のS106)。このとき、左別視点画像302と、右別視点画像303との対応する画素(同じ座標に位置する画素)の両方が穴領域である場合に当該画素を穴領域として取り扱う。したがって、別視点画像合成部106が合成した画像には、穴領域が含まれる。
 次に、穴領域補間部105aは、別視点画像合成部106が合成した画像内の穴領域を当該画像内の画素値を用いて補間する(図12のS107)。このときの補間の方法は、上記実施の形態で述べたように既存のどのような手法が用いられてもよい。
 別視点画像生成装置100aのような構成であっても、2つの別視点画像のうち穴領域の少ないほうの画素値が優先して合成することができる。したがって、別視点画像生成装置100aは、高品質な別視点画像(出力画像)を生成することができる。
 また、上記実施の形態では、別視点画像生成装置100および100aは、互いに異なる視点位置で撮影された2つの画像から、当該2つの画像とは視点位置が異なる別視点画像を生成した。しかしながら、別視点画像生成装置100および100aは、互いに異なる視点位置で撮影された2以上の画像から、当該2以上の画像とは視点位置が異なる別視点画像を生成してもよい。
 具体的には、例えば、別視点画像生成装置100および100aは、互いに異なる視点位置で撮影された3つの画像から、当該3つの画像とは視点位置が異なる別視点画像を生成してもよい。この場合、合成比率算出部104は、例えば、3つの画像の穴密度の大きさそれぞれに比例する各別視点画像の合成比率を算出する。
 また、上記実施の形態では、画素ごとに穴密度が算出されたが、1以上の画素からなる処理単位(例えば、ブロックサイズが4×4画素の処理単位)ごとに穴密度が算出されてもよい。この場合、処理単位ごとにウィンドウが設定され、穴密度の比較も処理単位ごとに行われる。
 また、上記実施の形態では、別視点画像生成装置100および100aは、互いに異なる視点位置で撮影された2つの画像から、2つの視点位置の間の別視点画像を生成したが、2つの視点位置の間以外の視点位置の別視点画像を生成することも可能である。また、2つの画像は、立体視用に撮影されたものでなくてもよく、同一の被写体を撮影した画像であればよい。
 また、別視点画像生成装置100および100aは、例えば、図13に示されるテレビ800として実現される。この場合、別視点画像生成装置100および100aは、あらかじめ撮影された立体視用の2つの画像から、別視点画像を生成する。そして、別視点画像生成装置100および100aは、生成された別視点画像、およびあらかじめ撮影された立体視用の2つの画像のうちから2つの画像を組み合わせてユーザに表示することができる。これにより、ユーザがリモートコントローラでテレビ800に表示される画像の視差を調整するような構成が実現可能となる。
 また、別視点画像生成装置100および100aは、例えば、Blu-Ray(登録商標)プレーヤ810として実現される。この場合、別視点画像生成装置100および100aは、挿入されるBlu-Ray(登録商標)ディスクに記録された立体視用の2つの画像から別視点画像を生成する。また、別視点画像生成装置100および100aは、セットトップボックス820として実現されてもよい。この場合、別視点画像生成装置100および100aは、ケーブルテレビ放送等から取得した立体視用の2つの画像から別視点画像を生成する。
 また、別視点画像生成装置100および100aは、図14の(a)に示される3D撮影機能を有するDSC(Digital Still Camera)や、図14の(b)に示される3D撮影機能を有するデジタルビデオカメラとして実現されてもよい。別視点画像生成装置100および100aは、あらかじめ撮影された立体視用の2つの画像から、別視点画像を生成する。
 また、別視点画像生成装置100および100aは、サーバ・クライアント方式で実現されてもよい。
 なお、別視点画像生成装置100および100aによって生成された別視点画像は、主に、上述のような視差の調整に用いられるが、その他の用途に用いられてもよい。
 また、以下のような場合も本開示に含まれる。
 (1)上記の別視点画像生成装置は、具体的には、マイクロプロセッサ、ROM、RAM、ハードディスクユニット、ディスプレイユニット、キーボード、マウスなどから構成されるコンピュータシステムである。前記RAMまたはハードディスクユニットには、コンピュータプログラムが記憶されている。前記マイクロプロセッサが、前記コンピュータプログラムにしたがって動作することにより、別視点画像生成装置は、その機能を達成する。ここでコンピュータプログラムは、所定の機能を達成するために、コンピュータに対する指令を示す命令コードが複数個組み合わされて構成されたものである。
 (2)上記の別視点画像生成装置を構成する構成要素の一部または全部は、1個のシステムLSI(Large Scale Integration:大規模集積回路)から構成されているとしてもよい。システムLSIは、複数の構成部を1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM、RAMなどを含んで構成されるコンピュータシステムである。前記RAMには、コンピュータプログラムが記憶されている。前記マイクロプロセッサが、前記コンピュータプログラムにしたがって動作することにより、システムLSIは、その機能を達成する。
 (3)上記の別視点画像生成装置を構成する構成要素の一部または全部は、別視点画像生成装置に脱着可能なICカードまたは単体のモジュールから構成されているとしてもよい。前記ICカードまたは前記モジュールは、マイクロプロセッサ、ROM、RAMなどから構成されるコンピュータシステムである。前記ICカードまたは前記モジュールは、上記の超多機能LSIを含むとしてもよい。マイクロプロセッサが、コンピュータプログラムにしたがって動作することにより、前記ICカードまたは前記モジュールは、その機能を達成する。このICカードまたはこのモジュールは、耐タンパ性を有するとしてもよい。
 (4)本開示は、上記に示す方法であるとしてもよい。また、これらの方法をコンピュータにより実現するコンピュータプログラムであるとしてもよいし、前記コンピュータプログラムからなるデジタル信号であるとしてもよい。
 また、本開示は、前記コンピュータプログラムまたは前記デジタル信号をコンピュータ読み取り可能な記録媒体、例えば、フレキシブルディスク、ハードディスク、CD-ROM、MO、DVD、DVD-ROM、DVD-RAM、BD(Blu-ray(登録商標) Disc)、半導体メモリなどに記録したものとしてもよい。また、これらの記録媒体に記録されている前記デジタル信号であるとしてもよい。
 また、本開示は、前記コンピュータプログラムまたは前記デジタル信号を、電気通信回線、無線または有線通信回線、インターネットを代表とするネットワーク、データ放送等を経由して伝送するものとしてもよい。
 また、本開示は、マイクロプロセッサとメモリを備えたコンピュータシステムであって、前記メモリは、上記コンピュータプログラムを記憶しており、前記マイクロプロセッサは、前記コンピュータプログラムにしたがって動作するとしてもよい。
 また、前記プログラムまたは前記デジタル信号を前記記録媒体に記録して移送することにより、または前記プログラムまたは前記デジタル信号を前記ネットワーク等を経由して移送することにより、独立した他のコンピュータシステムにより実施するとしてもよい。
 (5)上記実施の形態および上記変形例をそれぞれ組み合わせるとしてもよい。
 なお、本開示は、この実施の形態またはその変形例に限定されるものではない。本開示の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態またはその変形例に施したもの、あるいは異なる実施の形態またはその変形例における構成要素を組み合わせて構築される形態も、本開示の範囲内に含まれる。
 本開示に係る別視点画像生成装置および別視点画像生成方法によれば、撮像装置により撮像されたデプスマップ情報付きの画像から、高品質な別視点画像を生成することができる。これらの構成は、例えば民生用もしくは業務用の撮像装置(デジタルスチルカメラ、およびビデオカメラ)、または携帯端末などの機器に適用することができる。
 100、100a 別視点画像生成装置
 101 左別視点画像生成部
 102 右別視点画像生成部
 103 穴密度算出部
 104 合成比率算出部
 105、105a 穴領域補間部
 106 別視点画像合成部
 201、202 被写体
 210 左視点位置
 211 左視点画像
 212 左デプスマップ
 220 右視点位置
 221 右視点画像
 222 右デプスマップ
 301 仮想視点位置
 302 左別視点画像
 303 右別視点画像
 310、311、409 穴領域
 401、402、408 穴マップ
 403、404、405、410a、410b ウィンドウ
 406、407 穴密度マップ
 500 グラフ
 510 合成比率マップ
 511 領域
 600 左補間後画像
 610 右補間後画像
 601、611 被補間領域
 700 出力画像
 701 右側領域
 800 テレビ
 810 Blu-Ray(登録商標)プレーヤ
 820 セットトップボックス

Claims (11)

  1.  画像内の各画素の奥行きを示す距離情報に基づいて、2以上の視点位置それぞれにおいて取得された2以上の画像の各々から、前記2以上の視点位置とは異なる仮想視点位置において取得される画像に相当する画像であって、画素値が欠落した領域である穴領域が含まれる画像である別視点画像を1つずつ生成する別視点画像生成部と、
     生成された2以上の別視点画像の各々について、1以上の画素からなる処理単位ごとに、当該処理単位を含む所定領域内に占める、当該別視点画像内の穴領域の割合である穴密度を算出する穴密度算出部と、
     前記2以上の別視点画像の各々の前記穴密度に基づいて、前記2以上の別視点画像の各々の合成比率を前記処理単位ごとに算出する合成比率算出部と、
     前記2以上の別視点画像を、算出された合成比率に基づいて合成する別視点画像合成部とを備える
     別視点画像生成装置。
  2.  さらに、前記2以上の別視点画像の各々の穴領域を当該別視点画像内の画素値を用いて補間する穴領域補間部を備え、
     前記別視点画像合成部は、穴領域が補間された前記2以上の別視点画像を、算出された合成比率に基づいて合成する
     請求項1に記載の別視点画像生成装置。
  3.  さらに、前記別視点画像合成部が合成した画像内の穴領域を当該画像内の画素値を用いて補間する穴領域補間部を備える
     請求項1に記載の別視点画像生成装置。
  4.  前記穴密度算出部は、前記2以上の別視点画像の各々について、処理単位ごとに、当該処理単位を中心とした前記所定領域であるウィンドウ内に占める穴領域の割合を前記穴密度として算出する
     請求項1~3のいずれか1項に記載の別視点画像生成装置。
  5.  前記穴密度算出部は、前記ウィンドウ内の中央部に位置する穴領域と、前記ウィンドウ内の周辺部に位置する穴領域とにそれぞれ異なる重みを与えて前記穴密度を算出する
     請求項4に記載の別視点画像生成装置。
  6.  前記合成比率算出部は、前記穴密度の大きさが小さい別視点画像ほど合成比率が大きくなるように、前記2以上の別視点画像の各々の合成比率を前記処理単位ごとに算出する
     請求項1~5のいずれか1項に記載の別視点画像生成装置。
  7.  前記合成比率算出部は、穴密度の大きさが等しい場合には、視点位置が前記仮想視点位置と近い別視点画像ほど合成比率が大きくなるように、前記2以上の別視点画像の各々の合成比率を前記処理単位ごとに算出する
     請求項1~6のいずれか1項に記載の別視点画像生成装置。
  8.  前記処理単位は、画素であり、
     前記穴密度算出部は、前記2以上の別視点画像の各々について、画素ごとに穴密度を算出し、
     前記合成比率算出部は、前記2以上の別視点画像の各々の合成比率を画素ごとに算出する
     請求項1~7のいずれか1項に記載の別視点画像生成装置。
  9.  画像内の各画素の奥行きを示す距離情報に基づいて、2以上の視点位置それぞれにおいて取得された2以上の画像の各々から、前記2以上の視点位置とは異なる仮想視点位置において取得される画像に相当する画像であって、画素値が欠落した領域である穴領域が含まれる画像である別視点画像を1つずつ生成する別視点画像生成ステップと、
     生成された2以上の別視点画像の各々について、1以上の画素からなる処理単位ごとに、当該処理単位を含む所定領域内に占める、当該別視点画像内の前記穴領域の割合である穴密度を算出する穴密度算出ステップと、
     前記2以上の別視点画像の各々の前記穴密度に基づいて、前記2以上の別視点画像の各々の合成比率を前記処理単位ごとに算出する合成比率算出ステップと、
     前記2以上の別視点画像を、算出された合成比率に基づいて合成する別視点画像合成ステップとを含む
     別視点画像生成方法。
  10.  請求項9に記載の別視点画像生成方法をコンピュータに実行させるためのプログラム。
  11.  画像内の各画素の奥行きを示す距離情報に基づいて、2以上の視点位置それぞれにおいて取得された2以上の画像の各々から、前記2以上の視点位置とは異なる仮想視点位置において取得される画像に相当する画像であって、画素値が欠落した領域である穴領域が含まれる画像である別視点画像を1つずつ生成する別視点画像生成部と、
     生成された2以上の別視点画像の各々について、1以上の画素からなる処理単位ごとに、当該処理単位を含む所定領域内に占める、当該別視点画像内の前記穴領域の割合である穴密度を算出する穴密度算出部と、
     前記2以上の別視点画像の各々の前記穴密度に基づいて、前記2以上の別視点画像の各々の合成比率を前記処理単位ごとに算出する合成比率算出部と、
     前記2以上の別視点画像を、算出された合成比率に基づいて合成する別視点画像合成部とを備える
     集積回路。
PCT/JP2013/006141 2012-11-30 2013-10-16 別視点画像生成装置および別視点画像生成方法 WO2014083752A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US14/374,379 US9596445B2 (en) 2012-11-30 2013-10-16 Different-view image generating apparatus and different-view image generating method
CN201380006913.8A CN104081768B (zh) 2012-11-30 2013-10-16 异视点图像生成装置以及异视点图像生成方法
JP2014513852A JP6195076B2 (ja) 2012-11-30 2013-10-16 別視点画像生成装置および別視点画像生成方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012-263627 2012-11-30
JP2012263627 2012-11-30

Publications (1)

Publication Number Publication Date
WO2014083752A1 true WO2014083752A1 (ja) 2014-06-05

Family

ID=50827417

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/006141 WO2014083752A1 (ja) 2012-11-30 2013-10-16 別視点画像生成装置および別視点画像生成方法

Country Status (4)

Country Link
US (1) US9596445B2 (ja)
JP (1) JP6195076B2 (ja)
CN (1) CN104081768B (ja)
WO (1) WO2014083752A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6000520B2 (ja) * 2011-07-25 2016-09-28 キヤノン株式会社 撮像装置およびその制御方法およびプログラム
JP2015129846A (ja) * 2014-01-07 2015-07-16 キヤノン株式会社 撮像装置およびその制御方法
JP6381266B2 (ja) * 2014-04-15 2018-08-29 キヤノン株式会社 撮像装置、制御装置、制御方法、プログラム、および、記憶媒体
TWI573433B (zh) * 2014-04-30 2017-03-01 聚晶半導體股份有限公司 優化深度資訊的方法與裝置
JP6555056B2 (ja) * 2015-09-30 2019-08-07 アイシン精機株式会社 周辺監視装置
CN105847782A (zh) * 2016-04-15 2016-08-10 乐视控股(北京)有限公司 一种三维图像生成方法和装置
US11348269B1 (en) 2017-07-27 2022-05-31 AI Incorporated Method and apparatus for combining data to construct a floor plan
US10915114B2 (en) 2017-07-27 2021-02-09 AI Incorporated Method and apparatus for combining data to construct a floor plan
US10521963B1 (en) * 2018-06-08 2019-12-31 Verizon Patent And Licensing Inc. Methods and systems for representing a pre-modeled object within virtual reality data
US10510155B1 (en) * 2019-06-11 2019-12-17 Mujin, Inc. Method and processing system for updating a first image generated by a first camera based on a second image generated by a second camera

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012501494A (ja) * 2008-08-29 2012-01-19 トムソン ライセンシング ヒューリスティックなビューブレンディングによるビュー合成
WO2012147329A1 (ja) * 2011-04-28 2012-11-01 パナソニック株式会社 立体視強度調整装置、立体視強度調整方法、プログラム、集積回路、記録媒体
WO2012153513A1 (ja) * 2011-05-12 2012-11-15 パナソニック株式会社 画像生成装置、及び画像生成方法
WO2013005365A1 (ja) * 2011-07-01 2013-01-10 パナソニック株式会社 画像処理装置、画像処理方法、プログラム、集積回路

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8395642B2 (en) 2009-03-17 2013-03-12 Mitsubishi Electric Research Laboratories, Inc. Method for virtual image synthesis
JP4939639B2 (ja) 2010-09-28 2012-05-30 シャープ株式会社 画像処理装置、画像処理方法、プログラム及び記録媒体
CN102325259A (zh) * 2011-09-09 2012-01-18 青岛海信数字多媒体技术国家重点实验室有限公司 多视点视频中虚拟视点合成方法及装置
CN102447925B (zh) * 2011-09-09 2014-09-10 海信集团有限公司 一种虚拟视点图像合成方法及装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012501494A (ja) * 2008-08-29 2012-01-19 トムソン ライセンシング ヒューリスティックなビューブレンディングによるビュー合成
WO2012147329A1 (ja) * 2011-04-28 2012-11-01 パナソニック株式会社 立体視強度調整装置、立体視強度調整方法、プログラム、集積回路、記録媒体
WO2012153513A1 (ja) * 2011-05-12 2012-11-15 パナソニック株式会社 画像生成装置、及び画像生成方法
WO2013005365A1 (ja) * 2011-07-01 2013-01-10 パナソニック株式会社 画像処理装置、画像処理方法、プログラム、集積回路

Also Published As

Publication number Publication date
US20150109409A1 (en) 2015-04-23
CN104081768B (zh) 2017-03-01
JPWO2014083752A1 (ja) 2017-01-05
CN104081768A (zh) 2014-10-01
JP6195076B2 (ja) 2017-09-13
US9596445B2 (en) 2017-03-14

Similar Documents

Publication Publication Date Title
JP6195076B2 (ja) 別視点画像生成装置および別視点画像生成方法
US8488869B2 (en) Image processing method and apparatus
US9219911B2 (en) Image processing apparatus, image processing method, and program
JP4939639B2 (ja) 画像処理装置、画像処理方法、プログラム及び記録媒体
WO2012176431A1 (ja) 多視点画像生成装置、多視点画像生成方法
JP2014056466A (ja) 画像処理装置及び方法
JP5755571B2 (ja) 仮想視点画像生成装置、仮想視点画像生成方法、制御プログラム、記録媒体、および立体表示装置
JP2012227797A (ja) 立体視画像生成方法および立体視画像生成システム
JP2012244396A (ja) 画像処理装置、画像処理方法、およびプログラム
JP2017510092A (ja) オートステレオスコピックマルチビューディスプレイのための画像の生成
WO2019050038A1 (ja) 画像生成方法および画像生成装置
JP6033625B2 (ja) 多視点画像生成装置、画像生成方法、表示装置、プログラム、及び、記録媒体
JP2013223008A (ja) 画像処理装置及び方法
JP6148154B2 (ja) 画像処理装置及び画像処理プログラム
JP5691965B2 (ja) 奥行き推定データの生成装置、生成方法及び生成プログラム、並びに疑似立体画像の生成装置、生成方法及び生成プログラム
JP5861114B2 (ja) 画像処理装置、及び画像処理方法
JP2014042238A (ja) 3dビジュアルコンテントのデプスベースイメージスケーリング用の装置及び方法
JP5627498B2 (ja) 立体画像生成装置及び方法
US20130187907A1 (en) Image processing apparatus, image processing method, and program
JP4815004B2 (ja) 多視点画像符号化装置
US20150334364A1 (en) Method and device for generating stereoscopic video pair
WO2014045471A1 (ja) 画像信号処理装置および画像信号処理方法
JP6217486B2 (ja) 立体画像生成装置、立体画像生成方法、及び立体画像生成プログラム
US20140055579A1 (en) Parallax adjustment device, three-dimensional image generation device, and method of adjusting parallax amount
JP6217485B2 (ja) 立体画像生成装置、立体画像生成方法、及び立体画像生成プログラム

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2014513852

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13858382

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14374379

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13858382

Country of ref document: EP

Kind code of ref document: A1