WO2013054632A1 - 画像処理装置、および画像処理方法、並びにプログラム - Google Patents

画像処理装置、および画像処理方法、並びにプログラム Download PDF

Info

Publication number
WO2013054632A1
WO2013054632A1 PCT/JP2012/073423 JP2012073423W WO2013054632A1 WO 2013054632 A1 WO2013054632 A1 WO 2013054632A1 JP 2012073423 W JP2012073423 W JP 2012073423W WO 2013054632 A1 WO2013054632 A1 WO 2013054632A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
reliability
parallax
viewpoint image
unit
Prior art date
Application number
PCT/JP2012/073423
Other languages
English (en)
French (fr)
Inventor
雅人 赤尾
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to EP12840103.1A priority Critical patent/EP2744207A4/en
Priority to US14/241,144 priority patent/US20140218357A1/en
Priority to CN201280049221.7A priority patent/CN103843336B/zh
Publication of WO2013054632A1 publication Critical patent/WO2013054632A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Definitions

  • the present disclosure relates to an image processing apparatus, an image processing method, and a program.
  • the present invention relates to an image processing apparatus, an image processing method, and a program for generating a multi-viewpoint image to be applied to three-dimensional (3D) image display.
  • the naked-eye 3D display device includes, for example, a lenticular sheet and a parallax barrier (parallax barrier) on a display surface, and controls an image entering the left eye and the right eye according to a viewing position. That is, control is performed such that a left viewpoint image corresponding to an image observed from the left eye is observed on the left eye, and a right viewpoint image corresponding to an image observed from the right eye is observed on the right eye.
  • a parallax barrier parallax barrier
  • a correct stereoscopic view can be obtained only at a limited viewing position with respect to the display. Accordingly, when the user's observation position is different from the specified position, the right eye image (right viewpoint image) enters the left eye and the left eye image (left viewpoint image) enters the right eye. Crosstalk in which the left eye image and the right eye image are mixed occurs.
  • a viewpoint image of a virtual viewpoint other than these two viewpoints is generated. For example, ten different viewpoints including the original LR image are generated.
  • 3D that suppresses crosstalk in which left viewpoint image and right viewpoint image are mixed at various observation positions by combining two optimal images corresponding to the user's observation position with respect to the display from the generated multi-viewpoint images. Images can be displayed and observed.
  • Patent Document 1 Japanese Patent Application Laid-Open No. 2006-115198
  • an original left viewpoint image (L image) and a right viewpoint image (R image) are input, and parallax detection is executed from these two images.
  • a method for generating images of a plurality of virtual viewpoints based on detected parallax information is disclosed. Specifically, the parallax is detected from two original 3D images of the input left viewpoint image (L image) and the right viewpoint image (R image), and the input LR image is determined based on the crosstalk amount and the fusion parallax range.
  • a method for determining different virtual viewpoint positions is disclosed.
  • Patent Document 1 does not consider the quality of the generated virtual viewpoint image, and is configured to determine the virtual viewpoint position based on the center of the left viewpoint image and the right viewpoint image. Therefore, the quality of the generated virtual viewpoint image is degraded, and an image that cannot be observed may be displayed.
  • the viewpoint position of the input L image is 0.0
  • the viewpoint position of the input R image is 1.0
  • the relationship between the newly generated virtual viewpoint image and the image quality has the following characteristics.
  • (Feature 1) At a virtual viewpoint position between 0.0 and 1.0 between the L image (0.0) and the R image (1.0), The virtual viewpoint image of 0.5, which is the center position of the LR image, has the lowest image quality compared to other virtual viewpoint positions.
  • (Feature 2) At a virtual viewpoint position of 0.0 or less, 1.0 or more on the left side of the L image or on the right side of the R image, The further away from the L or R image, the lower the video quality.
  • this Patent Document 1 Japanese Patent Laid-Open No. 2006-115198 detects the maximum amount of parallax from a 3D image of an original left viewpoint image (L image) and a right viewpoint image (R image) to be input, and crosstalk.
  • L image left viewpoint image
  • R image right viewpoint image
  • the image of the image area having the maximum parallax and the ease of attention of the image area are not considered. Therefore, for example, the following problems occur. -When detecting the maximum parallax, the area of the image area having the maximum parallax is not considered, so if an object with a small area has the maximum parallax, depending on the presence of the maximum parallax image area that has little visual impact, There is a possibility that the virtual viewpoint interval is unnecessarily narrowed.
  • the virtual viewpoint interval may be unnecessarily narrowed or widened.
  • Patent Document 2 Japanese Patent Laid-Open No. 2006-126965 uses an original left viewpoint image (L image) and a right viewpoint image (R image) to be input, and performs parallax synthesis using these images. Discloses a configuration for performing filter processing according to an estimation error.
  • the present disclosure solves, for example, the above-described problem, and performs image processing for generating a high-quality multi-viewpoint image based on a left viewpoint image (L image) and a right viewpoint image (R image) for 3D images
  • An object is to provide an apparatus, an image processing method, and a program.
  • the present disclosure is configured to perform multi-viewpoint image generation processing based on a left-viewpoint image (L image) and a right-viewpoint image (R image) for a 3D image, for example, a parallax estimation process and a result of the estimation process
  • An image processing apparatus, an image processing method, and a program capable of generating a high-quality multi-viewpoint image by executing reliability calculation and performing parallax adjustment according to the calculated reliability It is.
  • the first aspect of the present disclosure is: A left viewpoint image input unit for inputting a left viewpoint image (L image) which is an image signal for the left eye applied to three-dimensional image display; A right viewpoint image input unit for inputting a right viewpoint image (R image) that is an image signal for the right eye applied to three-dimensional image display; A parallax estimation unit that generates parallax information from the left viewpoint image (L image) and the right viewpoint image (R image); A reliability calculation unit for calculating the reliability of the parallax information generated by the parallax estimation unit; The left viewpoint image (L image), the right viewpoint image (R image), the parallax information, and the reliability are input, and a virtual viewpoint image including viewpoint images other than the viewpoint of the input LR image is generated.
  • a virtual viewpoint image generator, The virtual viewpoint image generation unit The image processing apparatus generates a virtual viewpoint image in which a parallax interval of a virtual viewpoint image to be generated is set wide when the reliability is high and is set narrow when the reliability is low.
  • the reliability calculation unit calculates a plurality of reliability information by a plurality of different reliability calculation processes, and performs weighted addition on the calculated plurality of reliability information. Calculate the final confidence.
  • the reliability calculation unit is obtained by calculating a difference between a parallax compensation image generated by parallax compensation according to parallax information estimated by the parallax estimation unit and an input image.
  • the reliability calculation according to the residual component amount is executed.
  • the reliability calculation unit may perform the left viewpoint image (L image) or the right viewpoint image (R image) in the reliability calculation processing according to the residual component. ) To change the reliability calculation mode according to the spatial activity of the pixel area unit.
  • the reliability calculation unit may perform the left viewpoint image (L image) or the right viewpoint image (R image) in the reliability calculation processing according to the residual component. ) To change the reliability calculation mode according to the dynamic range of the pixel area unit.
  • the reliability calculation unit performs reliability calculation according to a parallax difference between horizontally adjacent pixels of the parallax information estimated by the parallax estimation unit.
  • the reliability calculation unit performs reliability calculation according to a parallax difference between vertically adjacent pixels of the parallax information estimated by the parallax estimation unit.
  • the reliability calculation unit includes a reliability according to whether or not the disparity information estimated by the disparity estimation unit has reached a predetermined upper limit value or lower limit value. Perform the calculation.
  • the reliability calculation unit is configured to estimate the parallax estimation unit based on a left viewpoint image (L image) input from the left viewpoint image (L image) input unit.
  • the reliability calculation according to the consistency between the disparity information obtained and the disparity information estimated by the disparity estimation unit based on the right viewpoint image (R image) input from the right viewpoint image (R image) input unit is executed. To do.
  • the virtual viewpoint image generation unit has a high reliability for a parallax interval of a generated virtual viewpoint image according to the reliability calculated by the reliability calculation unit.
  • a parallax adjustment unit that determines the viewpoint position of the virtual viewpoint image that is set wide in the case and narrow in the case of low, and an image synthesis unit that generates a virtual viewpoint image according to the viewpoint position determined by the parallax adjustment unit Have.
  • the virtual viewpoint image generation unit includes a reliability database that stores relationship information between the reliability and the optimal amount of parallax
  • the parallax adjustment unit includes: By applying the relationship information between the reliability and the optimum parallax amount stored in the reliability database, the optimum parallax amount according to the reliability input from the reliability calculation unit is obtained, and the virtual according to the obtained parallax amount is obtained. Determine the viewpoint image position.
  • the virtual viewpoint image generation unit includes: (A) parallax information estimated by the parallax estimation unit; (B) LPF-applied disparity information that is a result of applying a low-pass filter (LPF) to a disparity map that represents the disparity information as an image;
  • LPF low-pass filter
  • a disparity information selection unit that selects the disparity information for the pixels with high reliability, and the disparity information selection unit for the pixels with low reliability.
  • an image synthesis unit that generates a virtual viewpoint image based on the parallax information selected by the parallax information selection unit.
  • the virtual viewpoint image generation unit further includes: (A) a virtual viewpoint image generated by the image composition unit; (B) The LPF-applied virtual viewpoint image that is the result of applying the low-pass filter (LPF) to the virtual viewpoint image generated by the image synthesizing unit, and (a) and (b) the two virtual viewpoint images that have high reliability.
  • a virtual viewpoint image selection unit that selects the virtual viewpoint image for the pixel and a low-reliability pixel for the LPF-applied virtual viewpoint image is provided.
  • the second aspect of the present disclosure is: A left viewpoint image input unit for inputting a left viewpoint image (L image) which is an image signal for the left eye applied to three-dimensional image display; A right viewpoint image input unit for inputting a right viewpoint image (R image) that is an image signal for the right eye applied to three-dimensional image display; A first parallax estimation unit that generates parallax information from the left viewpoint image (L image) and the right viewpoint image (R image); A first reliability calculation unit that calculates a first reliability of the parallax information generated by the first parallax estimation unit; A resolution conversion unit that performs resolution conversion of the left viewpoint image (L image) and the right viewpoint image (R image); A second parallax estimation unit that performs parallax information estimation based on a low-resolution left viewpoint image (L image) and a right viewpoint image (R image) output from the resolution conversion unit; A second reliability calculation unit that calculates a second reliability of the second parallax information generated by the second parallax estimation unit; A resolution
  • the third aspect of the present disclosure is: An image processing method executed in an image processing apparatus, Via the image input unit, a left viewpoint image (L image) that is an image signal for the left eye applied to a three-dimensional image display and a right viewpoint image (R image) that is an image signal for the right eye are input, A parallax estimation unit generates parallax information from the left viewpoint image (L image) and the right viewpoint image (R image); A reliability calculation unit calculates the reliability of the parallax information generated by the parallax estimation unit; A virtual viewpoint image generation unit inputs the left viewpoint image (L image), the right viewpoint image (R image), the parallax information, and the reliability, and generates a viewpoint image other than the viewpoint of the input LR image. Execute virtual viewpoint image generation processing to generate a virtual viewpoint image including The virtual viewpoint image generation unit In the image processing method, the parallax interval of the generated virtual viewpoint image is set to be wide when the reliability is high and is set to be narrow when the reliability is low.
  • the fourth aspect of the present disclosure is: A program for executing image processing in an image processing apparatus; Processing for inputting a left viewpoint image (L image) that is an image signal for the left eye to be applied to the three-dimensional image display and a right viewpoint image (R image) that is an image signal for the right eye via the image input unit
  • a left viewpoint image (L image) that is an image signal for the left eye to be applied to the three-dimensional image display
  • a right viewpoint image (R image) that is an image signal for the right eye via the image input unit
  • the parallax estimation unit processing for generating parallax information from the left viewpoint image (L image) and the right viewpoint image (R image)
  • the reliability calculation unit a process of calculating the reliability of the parallax information generated by the parallax estimation unit
  • the virtual viewpoint image generation unit the left viewpoint image (L image), the right viewpoint image (R image), the parallax information, and the reliability are input, and a viewpoint image other than the viewpoint of the input LR image is input.
  • Execute virtual viewpoint image generation processing for generating a virtual viewpoint image including
  • a program for executing a process of generating a virtual viewpoint image in which a parallax interval of a virtual viewpoint image to be generated is set wide when the reliability is high, and is set narrow when the reliability is low.
  • the program of this indication is a program which can be provided with the storage medium and communication medium which are provided with a computer-readable format with respect to the general purpose system which can execute various program codes, for example.
  • a program in a computer-readable format, processing corresponding to the program is realized on the computer system.
  • system is a logical set configuration of a plurality of devices, and is not limited to one in which the devices of each configuration are in the same casing.
  • a configuration for generating an optimal multi-viewpoint image according to the reliability of estimated parallax based on an LR image as a three-dimensional image is realized.
  • a left viewpoint image (L image) and a right viewpoint image (R image) to be applied to 3D image display are input, and based on the left viewpoint image (L image) and the right viewpoint image (R image).
  • To generate disparity information and calculate the reliability of the generated disparity information For example, a plurality of different reliability levels are calculated by a plurality of different analysis processes, and a final reliability level is calculated by weighted addition of the calculated reliability levels.
  • the generation mode of the virtual viewpoint image is changed according to the calculated reliability. For example, when the reliability is high, the parallax interval of the virtual viewpoint image is set wide, and when it is low, the setting is narrowed. With this process, an optimal multi-viewpoint image according to the reliability of the estimated parallax can be generated.
  • the image processing apparatus 100 includes a left viewpoint image (L image) input unit 101, a right viewpoint image (R image) input unit 102, a parallax estimation unit 103, a reliability calculation unit 104, and a virtual viewpoint image generation.
  • An image generated by the image processing apparatus 100 is output to the display unit 110.
  • the display unit 110 is illustrated as an external configuration of the image processing apparatus 100. However, the display unit 110 may be included in the image processing apparatus 100.
  • FIG. 1 shows a main configuration of the image processing apparatus.
  • the image processing apparatus 100 includes a control unit having a program execution function such as a CPU for executing data processing control, A program executed in the control unit, a storage unit storing various parameters, and an input unit for inputting parameters, image data, and the like.
  • a control part performs the process demonstrated below according to the program previously stored in the memory
  • the left viewpoint image (L image) input unit 101 and the right viewpoint image (R image) input unit 102 include a left viewpoint image (L image) for displaying a three-dimensional (3D) image generated in advance and a right viewpoint image ( R image).
  • the left viewpoint image (L image) corresponds to an image observed from the left eye
  • the right viewpoint image (R image) corresponds to an image observed from the right eye.
  • these two images are two standard LR images. That is, in an autostereoscopic 3D display device provided with, for example, a lenticular sheet or a parallax barrier (parallax barrier) on the display surface, an LR image that is observed as a correct 3D image when the display is observed from the front center position. is there.
  • an LR image that is observed as a correct 3D image when the display is observed from the front center position. is there.
  • the left eye has an image for the right eye (right viewpoint image) and the right eye has an image for the left eye (left viewpoint image).
  • Crosstalk occurs in which the left viewpoint image and the right viewpoint image are mixed.
  • the image processing apparatus 100 performs various processing based on an input LR image corresponding to one normal observation position, that is, a standard left viewpoint image (L image) and a right viewpoint image (R image). An image from a new viewpoint (virtual viewpoint) that does not generate crosstalk when observed at various observation positions is generated.
  • L image left viewpoint image
  • R image right viewpoint image
  • the parallax estimation unit 103 receives a left viewpoint image (L image) and a right viewpoint image (R image), and generates parallax information based on these images.
  • the parallax information corresponds to a shift (pixel shift in the left-right direction) between images of the same subject included in the input LR image, and is information corresponding to the distance of the subject. Specifically, for example, data having parallax information (subject distance information) for each pixel unit or pixel region unit is generated.
  • the reliability calculation unit 104 calculates the reliability of the parallax information of each pixel unit or pixel region unit estimated by the parallax estimation unit 103 based on the input LR image.
  • the virtual viewpoint image generation unit 105 From the left viewpoint image (L image) input unit 101, an L image, R image from the right viewpoint image (R image) input unit 102, Parallax information from the parallax estimation unit 103, Reliability information from the reliability calculation unit 104, Each of these pieces of information is input to generate a virtual viewpoint image.
  • the virtual viewpoint image generation unit 105 executes a virtual viewpoint position determination process or the like according to the reliability information input from the reliability calculation unit 104, for example, and generates a virtual viewpoint image corresponding to the determined virtual viewpoint position.
  • the virtual viewpoint image generation unit 105 executes a virtual viewpoint image generation process with reference to reliability information input from the reliability calculation unit 104. In other words, in addition to the two viewpoint images of the input LR image, another N viewpoint images are further generated and output. For example, the virtual viewpoint image generation unit 105 sets the parallax interval of the generated virtual viewpoint image widely when the reliability calculated by the reliability calculation unit 104 is high, and sets the virtual viewpoint image set narrow when the reliability is low. Generate. Details of this processing will be described later.
  • the virtual viewpoint image generated by the virtual viewpoint image generation unit 105 is output and displayed on the display unit 110 via the display control unit 106.
  • the display image generated by the image processing apparatus of the present disclosure is a display image in a naked-eye 3D display apparatus that allows a user to view a stereoscopic image without wearing glasses.
  • the display unit 110 is a display unit that performs naked-eye 3D display.
  • the display unit 110 includes, for example, a lenticular sheet or a parallax barrier (parallax barrier) on the display surface, and is capable of controlling an image entering the left eye and the right eye according to a viewing position. Part.
  • the display control unit 106 outputs the N viewpoint images generated by the virtual viewpoint image generation unit 105 to the display unit 110.
  • the display control unit 106 generates display information according to the display configuration of the display unit 110.
  • the image processing apparatus 100 can also be configured as an imaging apparatus such as a camera including an imaging unit, or a display apparatus such as a PC or a television, and when configured as these apparatuses, functions corresponding to the respective apparatuses. It is set as the structure provided with. For example, in the case of a camera, an imaging unit that captures an LR image as an image from a different viewpoint is used, and a multi-viewpoint image is generated using the LR image input from the imaging unit.
  • the parallax estimation unit 103 receives a left viewpoint image (L image) and a right viewpoint image (R image), and generates parallax information based on these images.
  • the disparity information corresponds to a shift (pixel shift in the left-right direction) between images of the same subject included in the standard LR image, and is information corresponding to the distance of the subject. Specifically, for example, data having parallax information (subject distance information) for each pixel unit is generated.
  • the acquisition of the parallax information is executed by the following existing method, for example.
  • A Block matching-based disparity information acquisition processing
  • DP dynamic programming matching-based disparity information acquisition processing
  • Segmentation-based disparity information acquisition processing d
  • Learning-based disparity information acquisition processing e
  • Disparity information acquisition processing by a combination of methods
  • disparity information is acquired by any one of the methods (a) to (e).
  • a block matching-based disparity information acquisition process will be briefly described with reference to FIG. As shown in FIG. 2, it is an original standard image that has been input.
  • L image Left viewpoint image
  • R image Right viewpoint image
  • a pixel region (block) 121 of the L image is selected, and a block similar to the selected block is detected from the R image. That is, a block (matching block) that is determined to be a shooting area of the same subject is selected from the LR image.
  • the positional deviation (the number of pixels in the horizontal direction, etc.) of the matching block between the LR images is measured.
  • the displacement of the block varies according to the distance of the subject photographed in the block. That is, the block displacement corresponds to the subject distance, and this displacement information is acquired as parallax information.
  • An example of the parallax information expression format is a depth map (distance image or parallax map).
  • the depth map is an image in which the parallax (subject distance) of each pixel unit of the L image and the R image, for example, is expressed by the luminance of the pixel unit.
  • the high luminance region is a close subject (close to the camera)
  • the low luminance area indicates a subject that is far (far from the camera). That is, it is an image in which the subject distance is indicated by luminance.
  • the virtual viewpoint image generation unit 105 From the left viewpoint image (L image) input unit 101, an L image, R image from the right viewpoint image (R image) input unit 102, Parallax information from the parallax estimation unit 103, Reliability information from the reliability calculation unit 104, Each of these pieces of information is input to generate a virtual viewpoint image.
  • a predetermined number for example, 10
  • virtual viewpoint images corresponding to these virtual viewpoints are generated.
  • the virtual viewpoint image is generated using the input standard LR image. That is, the left viewpoint image (L image) and the right viewpoint image (R image) that are input images are used.
  • L image left viewpoint image
  • R image right viewpoint image
  • FIG. 3 shows an original left viewpoint image (L image) 131 and right viewpoint image (R image) 132 input to the image processing apparatus, and a virtual viewpoint image 133 generated based on these LR images.
  • the left viewpoint image (L image) 131 is an image observed from the left eye viewpoint position at the standard position
  • the right viewpoint image (R image) 132 is an image observed from the right eye viewpoint position at the standard position.
  • the viewpoint position of the left viewpoint image (L image) 131 is 0.0
  • the viewpoint position of the right viewpoint image (R image) 132 is 1.0.
  • the left viewpoint image (L image) 131 and the right viewpoint image (R image) 132 the same subject (apple) is photographed at different positions.
  • the position of the same subject is different because the viewpoint position is different.
  • the position of the subject (apple) is set by linear interpolation.
  • the virtual viewpoint image of each virtual viewpoint position is generated by the linear interpolation process based on the input LR image.
  • a virtual viewpoint image when generating a virtual viewpoint image, it can be generated by a process of blending two images using both of the input LR images. Alternatively, it is possible to generate only one image by processing only the L image or only the R image to shift the subject position according to the virtual viewpoint position. Alternatively, a process of generating a virtual viewpoint image using only the L image at a virtual viewpoint position close to the L image side and generating a virtual viewpoint image using only the R image at a position close to the R image may be performed. Good.
  • FIG. 1 An example of a process for determining the pixel value of the virtual viewpoint image 131 based on the blend process of the input LR image will be described with reference to FIG.
  • Pixel P (x, y) 141 of the input left viewpoint image (L image) where the viewpoint position 0,
  • the corresponding pixel 142 of the pixel P of the L image in the input right viewpoint image (R image) where the viewpoint position 1.
  • the corresponding pixel 143 of the pixel P of the L image in the virtual viewpoint image with the viewpoint position ⁇ , These are shown.
  • 0 ⁇ 1 It is.
  • the pixel value of each pixel of the virtual viewpoint image is set based on the parallax information of the pixel of the left viewpoint image (L image).
  • L image the parallax information of the pixel of the left viewpoint image
  • the arrow shown in the figure is a line connecting the pixel position of the left viewpoint image (L image) and the pixel position of the right viewpoint image (R image) applicable to determine the pixel value of the horizontal line 153 of the virtual viewpoint image. is there.
  • the setting of the pixel value of the virtual viewpoint image is executed by the following three processes, for example. 1. For each pixel of the left viewpoint image (L image), a corresponding pixel position is obtained at the output viewpoint position, and the pixel value of the left viewpoint image (L image) is interpolated at that pixel position. 2. For each pixel of the right viewpoint image (R image), the corresponding pixel position is obtained at the output viewpoint position, and the pixel value of the right viewpoint image (R image) is interpolated at that pixel position. 3. The pixels of the output viewpoint image that are not interpolated by the processes 1 and 2 are subjected to interpolation processing based on adjacent pixels.
  • the processing described with reference to FIGS. 4 and 5 is basic processing for generating an image from a virtual viewpoint different from these LR images based on the input LR images.
  • the virtual viewpoint image generation unit 105 of the image processing apparatus according to the present disclosure further applies the reliability information input from the reliability calculation unit 104 to generate based on the reliability information.
  • a virtual viewpoint position is determined and a final virtual viewpoint image is generated. This process will be described in detail later.
  • the reliability calculation unit 104 calculates the reliability of the parallax information for each pixel or pixel area estimated by the parallax estimation unit 103 based on the input LR image.
  • the reliability calculation unit 104 calculates a plurality of reliability (R0 to R4) by a plurality of different processes in the first to fifth reliability calculation units 171 to 175, and calculates the calculation unit 181. Then, the reliability information of the final estimated parallax information is calculated by applying the plurality of reliability levels (R0 to R4) and output to the virtual viewpoint image generation unit 105.
  • the calculation unit 181 applies weighting factors ⁇ 0, ⁇ 1, ⁇ 2, ⁇ 3, ⁇ 4 set in advance to the reliability R0, R1, R2, R3, R4 calculated by the first to fifth reliability calculation units 171 to 175.
  • the weighted sum (R) is calculated according to the following expression, and the calculated value is output to the virtual viewpoint image generation unit 105 as final reliability information.
  • R ⁇ 0 ⁇ R0 + ⁇ 1 ⁇ R1 + ⁇ 2 ⁇ R2 + ⁇ 3 ⁇ R3 + ⁇ 4 ⁇ R4
  • FIG. 6 shows the first to fifth reliability calculation units 171 to 175 and these five types of reliability calculation units, but a configuration using one or more reliability calculation units instead of all of these five types. It is good. Alternatively, it is possible to adopt a configuration to which another reliability is applied. Details of the reliability calculation processing executed by the first to fifth reliability calculation units 171 to 175 shown in FIG. 6 will be described below.
  • the first reliability calculation unit 171 calculates the reliability (R0) based on the residual component of the parallax compensation. That is, the parallax compensation image is generated by applying the pixel unit estimated parallax information input from the parallax estimation unit 103, and the estimated parallax information generated by the parallax estimation unit 103 is generated based on the pixel value included in the parallax compensation image. Determine reliability. A plurality of processing examples relating to the reliability (R0) calculation processing example based on the residual component of the parallax compensation will be described.
  • FIG. 7 is a diagram illustrating a reliability (R0) calculation processing example 1 based on a residual component executed by the first reliability calculation unit 171.
  • the first reliability calculation unit 171 applies the parallax estimation parallax information 202 input from the parallax estimation unit 103 to the L image 201 input from the left viewpoint image (L image) input unit 101 to generate the parallax.
  • a compensation image 203 is generated.
  • the estimated parallax information 202 is also called, for example, a parallax map, and is image data that represents the parallax information generated by the parallax estimation unit 103 with luminance.
  • the parallax map is an image in which parallax (subject distance) is expressed by luminance in units of pixels. For example, a high luminance area indicates a near subject (close to the camera), and a low luminance region indicates a far subject (far from the camera). That is, it is an image in which the subject distance is indicated by luminance.
  • the parallax compensation image 203 is a virtual viewpoint image generated by applying the estimated parallax information 202 in units of pixels input from the parallax estimation unit 103 to the L image 201.
  • the parallax compensation image 203 generated by applying the estimated parallax information 202 is an R image input from the right viewpoint image (R image) input unit 102 if the pixel unit estimated parallax information 202 generated by the parallax estimation unit 103 is correct. Will match.
  • the estimated parallax information 202 generated by the parallax estimation unit 103 includes an estimation error and the like, and the parallax compensation image 203 generated based on the L image 201 and the right viewpoint image (R image) input unit A difference occurs between the input R image 204 input from 102.
  • a map obtained by calculating the pixel value difference of the corresponding pixel unit between the parallax compensation image 203 and the input R image 204 in units of the image, that is, a residual map 205 illustrated in the drawing is generated.
  • a residual map 205 shown in the figure is a map in which pixel value differences between corresponding parallax images of the parallax compensation image 203 and the input R image 204 are expressed by shading information. For example, a black part indicates that the difference is larger.
  • a residual that is a pixel-by-pixel difference is compared with a preset threshold (Th), and the number of pixels having a residual larger than the threshold (Th) is counted. With this count value as N, the reliability R0 of the estimated parallax information generated by the parallax estimation unit 103 is determined according to the value of N.
  • the reliability R0 of the estimated parallax information generated by the parallax estimation unit 103 is low.
  • the reliability R0 of the estimated parallax information generated by the parallax estimation unit 103 is high.
  • the correspondence relationship between the number N of pixels having a residual larger than the threshold (Th) and the reliability R0 of the estimated disparity information generated by the disparity estimation unit 103 is, for example, as illustrated in FIG. It is prescribed.
  • Nmin, Nmax, R0min, R0max are predetermined values. In the range of Nmin ⁇ N ⁇ Nmax, the reliability R0 changes linearly between R0max and R0min.
  • the processing example in which the parallax compensation image is generated based on the L image on the basis of the L image has been described.
  • the processing in which the L image in the above processing is replaced with the R image may be performed.
  • the configuration may be such that the parallax compensation image is generated and processed based on the R image with the R image as a reference.
  • processing that is executed based on the L image will be described. However, these processing may be executed as processing that replaces the LR image.
  • the corresponding pixel position is obtained.
  • a difference D between each pixel of the L image and the pixel value of the corresponding pixel position of the R image obtained by the above processing is calculated as a residual D.
  • the reliability of the estimated parallax information generated by the parallax estimation unit 103 is determined.
  • FIG. 9 is a diagram illustrating a reliability (R0) calculation processing example 2 based on a residual component executed by the first reliability calculation unit 171.
  • the first reliability calculation unit 171 first calculates disparity information corresponding to each pixel of the L image 211 input from the left viewpoint image (L image) input unit 101 based on the estimated disparity information 212 generated by the disparity estimation unit 103. Get.
  • parallax exists only in the horizontal direction (X direction).
  • the parallax with respect to the pixel (x, y) of the L image 211 is defined as d (x).
  • d (x) is expressed as the number of pixels corresponding to parallax such as 2 pixels (2 pixels).
  • the first reliability calculation unit 171 determines the corresponding pixel position of the R image 213 input from the right viewpoint image (R image) input unit 102 based on the parallax d (x) with respect to the pixel (x, y) of the L image 211. decide. That is, the distance corresponding to the parallax d (x) from the pixel position (x, y) of the same R image 213 as the pixel (x, y) of the L image 211 and the position moved in the horizontal direction are set as the corresponding pixel position.
  • the pixel value at the corresponding pixel position in the R image 213 has the same pixel value as the pixel (x, y) of the L image 211.
  • the pixel value at the corresponding pixel position in the R image 213 may be different from the pixel (x, y) of the L image 211. Is expensive.
  • a pixel value difference between corresponding pixels of the L image 211 and the R image 213 is calculated as a residual component (D).
  • a residual map 214 is generated in which residual components of the entire image are expressed by shading information.
  • the residual map 214 shown in the figure is a map that expresses pixel value differences (residuals) of corresponding pixels of the L image 211 and the R image 213 using light and shade information. For example, a black part indicates that the difference is larger.
  • a value obtained by adding the differences (residuals) in pixel units shown in the residual map 214 over the entire image is calculated as a residual component amount D.
  • the reliability R0 of the estimated parallax information generated by the parallax estimation unit 103 is determined according to the value of the residual component amount D.
  • the reliability R0 of the estimated parallax information generated by the parallax estimation unit 103 is low.
  • the residual component amount D is small, it is determined that the reliability R0 of the estimated parallax information generated by the parallax estimation unit 103 is high.
  • the correspondence relationship between the residual component amount D and the reliability R0 of the estimated disparity information generated by the disparity estimation unit 103 is specifically defined as a correspondence relationship as shown in FIG.
  • Dmin, Dmax, R0min, R0max are predetermined values. In the range of Dmin ⁇ D ⁇ Dmax, the reliability R0 is linearly changed between R0max and R0min.
  • the processing described with reference to FIGS. 7 to 10 performs the estimated parallax reliability calculation processing based on the residual component to which the estimated parallax information in units of pixels input from the parallax estimation unit 103 is applied.
  • the residual component may be conspicuous or less affected by the characteristics (features) of each region of the image.
  • it may be set to perform different processing depending on the characteristics of each region of the image.
  • the residual component that is, the influence of the estimated parallax shift on the image becomes large, and an error becomes conspicuous when the image is observed.
  • the influence on the image due to the residual component that is, the shift of the estimated parallax is small, and even when the image is observed, the error is hardly noticeable.
  • the feature (feature) of the image area and to adaptively change the method for deriving the residual component according to the detected feature of the image area unit.
  • the following feature amount is detected as the feature amount of the image region.
  • the reliability calculated in accordance with the residual component is adaptively changed in accordance with the feature amount in units of image regions.
  • Various parameters used in the reliability calculation process described above with reference to FIGS. The following parameters shown in the graph of FIG. Nmin, Nmax, R0min, R0max, The following parameters shown in the graph of FIG. Dmin, Dmax, R0min, R0max, Alternatively, the threshold (Th) shown in FIG. A process for changing these parameters in accordance with the feature amount of each image area is performed.
  • FIG. 11 shows an index of residual components by detecting spatial activity as a feature amount in units of pixels for an image, for example, an input L image, and changing the threshold (Th) shown in FIG. 7 according to the value of the spatial activity. It is a figure which shows the example set to change the count value (N) as.
  • the spatial activity is the sum of absolute values of pixel value differences between adjacent pixels in a pixel region (for example, 3 ⁇ 3 pixels) centered on the target pixel. Calculate as It can be determined that a region where the absolute value sum of pixel value differences is large is a texture region (edge region), and a small region is a flat region.
  • the horizontal axis represents the spatial activity
  • the vertical axis represents the residual component
  • each point corresponds to the spatial activity and residual component value of each pixel.
  • FIG. 12 shows a processing example different from FIG. As in FIG. 11, spatial activity is detected as a feature amount in units of pixels for an image, for example, an input L image.
  • the example shown in FIG. 12 shows the parameters shown in FIG. 8 and FIG. Nmin, Nmax, Dmin, Dmax, By changing these parameters, the reliability calculation process based on the residual component is changed.
  • the horizontal axis is the spatial activity and the vertical axis is the residual component, as in FIG. 11, and each point corresponds to the spatial activity and residual component value of each pixel.
  • the parameters shown in FIG. 8 and FIG. Nmin, Nmax, Dmin, Dmax, These parameters are changed according to the spatial activity of the image area as shown in the figure. With such a setting, reliability calculation according to the characteristics of each region of the image is performed.
  • the processing example described with reference to FIGS. 11 and 12 is a processing example in which a spatial activity is applied as a feature amount of an image region.
  • a dynamic range may be applied as the feature amount of the image area.
  • An example in which the dynamic range is acquired as the feature amount of the image area and the processing mode is changed based on the value of the dynamic range will be described with reference to FIG.
  • FIG. 13 two image areas input from the left viewpoint image (L image) input unit 101 and the right viewpoint image (R image) input unit 102, that is, (A) 3 ⁇ 3 pixel image area centered on the target pixel of the input L image (b) 3 ⁇ 3 pixel image area centered on the target pixel of the input R image These are shown. These image areas are corresponding blocks extracted as corresponding pixel blocks by the parallax estimation processing in the parallax estimation unit 103. That is, if the parallax estimation is correct, images of the same subject are captured in these two pixel blocks.
  • Lx (maxL + minL) / 2 + ⁇ (maxL ⁇ minL) to (maxL + minL) / 2 ⁇ (maxL ⁇ minL)
  • Rx (maxR + minR) / 2 + ⁇ (maxR ⁇ minR) to (maxR + minR) / 2 ⁇ (maxR ⁇ minR)
  • (MaxL + minL) / 2 is an intermediate value (maxL ⁇ minL) of pixel values of the pixel block of the L image, and corresponds to a dynamic range of pixel values of the pixel block of the L image.
  • (MaxR + minR) / 2 is an intermediate value (maxR ⁇ minR) of pixel values of the pixel block of the R image, and corresponds to a dynamic range of pixel values of the pixel block of the R image.
  • is a coefficient.
  • the minimum value of the difference between Lx and Rx is calculated, and this difference is used as the residual component of the target pixel.
  • the minimum value of the difference between Lx and Rx changes according to the dynamic range of each pixel block.
  • the residual component calculated according to the dynamic range of the pixel block unit is adaptively adjusted. By using such a dynamic range as the feature amount of the image region, it is possible to calculate the reliability according to the value of the dynamic range of each region of the image.
  • the second reliability calculation unit 172 illustrated in FIG. 6 calculates the reliability (R1) based on the horizontal adjacent pixel difference of the parallax map.
  • the parallax map is image data that expresses the parallax information generated by the parallax estimation unit 103 as luminance.
  • FIG. 14 shows an example of virtual viewpoint image generation processing.
  • the pixel value of the virtual viewpoint image is set using the disparity information generated by the disparity estimation unit 103 using the pixel value of the input L image.
  • the L image shown in FIG. 14 shows one horizontal line of the L image, and the arrow corresponds to the parallax information generated by the parallax estimation unit 103.
  • the region 231 of the virtual viewpoint image does not have a pixel value corresponding to any region of the L image and becomes a region where the pixel value cannot be set, that is, a pixel value non-setting region 231.
  • the second reliability calculation unit 172 illustrated in FIG. 6 receives the estimated parallax information 232 from the parallax estimation unit 103 illustrated in FIG.
  • the estimated parallax information 232 illustrated in FIG. 15 represents the estimated parallax with the shading (luminance) of each pixel.
  • the reliability R1 of the estimated parallax information generated by the parallax estimation unit 103 is determined. That is, when the difference absolute value sum D is large, the reliability R1 of the estimated parallax information generated by the parallax estimation unit 103 is low. On the other hand, when the difference absolute value sum D is small, it is determined that the reliability R1 of the estimated parallax information generated by the parallax estimation unit 103 is high.
  • the correspondence relationship between the sum of absolute differences D and the reliability R1 of the estimated disparity information generated by the disparity estimation unit 103 is specifically defined as a correspondence relationship as shown in FIG.
  • Dmin, Dmax, R1min, R1max are predetermined values. In the range of Dmin ⁇ D ⁇ Dmax, the reliability R1 is linearly changed between R1max and R1min.
  • the third reliability calculation unit 173 illustrated in FIG. 6 calculates the reliability (R2) based on the vertical adjacent pixel difference of the parallax of the vertical edge portion.
  • the vertical edge portion that is, the vertical edge, which is the vertical direction
  • the vertical edge portion is a region where the pixel value and the luminance change greatly in the horizontal direction
  • the estimated parallax information is required to be more accurate than the horizontal edge portion.
  • the third reliability calculation unit 173 calculates the reliability (R2) corresponding to the strength of the vertical edge in units of image areas in consideration of the above circumstances. Note that, for example, the method shown in FIG. 17 can be applied to determine whether the vertical edge portion is present.
  • a 2 ⁇ 3 pixel region of the input L image including the target pixel 241 is extracted from the L image, and a difference absolute value of pixel values (may be luminance values) between these adjacent pixels is calculated.
  • a sum of absolute differences in the horizontal direction obtained by adding a plurality of absolute differences between adjacent pixels in the horizontal (horizontal) direction
  • Vertical sum of absolute differences obtained by adding a plurality of absolute differences between adjacent pixels in the vertical (vertical) direction are calculated.
  • Th_H and Th_V preset threshold values: Th_H and Th_V. That is, (1) Sum of absolute differences in horizontal direction> Th_H (2) Sum of absolute differences in the vertical direction ⁇ Th_V It is determined whether or not both (1) and (2) are satisfied. If both (1) and (2) are satisfied, It is determined that the target pixel 241 is a vertical edge portion. On the other hand, if either (1) or (2) is not satisfied, It can be determined that the target pixel 241 is a vertical edge portion.
  • the third reliability calculation unit 173 calculates the reliability (R2) according to the strength of the vertical edge.
  • R2 the reliability of the estimated parallax information generated by the parallax estimation unit 103 performed by processing such as block matching is high.
  • the reliability (R2) calculation process according to the strength of the vertical edge executed in the third reliability calculation unit 173 will be described with reference to FIG. As illustrated in FIG. 18, the third reliability calculation unit 173 receives the estimated parallax information 232 from the parallax estimation unit 103 illustrated in FIG. 1.
  • the estimated parallax information 232 illustrated in FIG. 18 represents the estimated parallax with the shading (luminance) of each pixel.
  • a pixel value (luminance value) indicating the parallax of the pixel of interest and a pixel value (luminance value) difference absolute value indicating the parallax of the upper adjacent pixel A pixel value (luminance value) indicating the parallax of the pixel of interest and a pixel value (luminance value) difference absolute value indicating the parallax of the lower adjacent pixel, Calculate these, These two difference absolute values are added to calculate a difference absolute value sum (D).
  • the reliability R2 of the estimated parallax information generated by the parallax estimation unit 103 is determined.
  • the sum of absolute differences D is large, there is a large difference in pixel values (luminance) in the vertical direction, and the tendency of vertical edges is low.
  • the estimated parallax information generated by the parallax estimation unit 103 The reliability R2 is set as a low value.
  • the difference absolute value sum D is small, the difference in pixel values (luminance) in the vertical direction is small and the tendency of vertical edges is high. In this case, the reliability R2 of the estimated parallax information generated by the parallax estimation unit 103 Is determined to be high.
  • the correspondence relationship between the sum of absolute differences D and the reliability R2 of the estimated disparity information generated by the disparity estimation unit 103 is specifically defined as a correspondence relationship as shown in FIG.
  • Dmin, Dmax, R2min, R2max are predetermined values. In the range of Dmin ⁇ D ⁇ Dmax, the reliability R2 is linearly changed between R2max and R2min.
  • the fourth reliability calculation unit 174 illustrated in FIG. 6 calculates the reliability (R3) based on a comparison between the estimated parallax information generated by the parallax estimation unit 103 and preset upper and lower limits of estimated parallax. .
  • the parallax estimation unit 103 of the image processing apparatus 100 illustrated in FIG. 1 estimates the parallax between input LR images by applying, for example, the block matching process described above with reference to FIG.
  • this disparity estimation processing for example, when performing block matching, a block setting range set in the R image, that is, a search range is set in advance for one block set in the L image when performing block matching. Done.
  • the estimated parallax information generated by the parallax estimation unit 103 has an upper limit value or a lower limit value according to a predetermined search range.
  • the upper limit value or the lower limit value is output as the estimated parallax information, there is a high possibility that the actual parallax is larger than the upper limit value or smaller than the lower limit value.
  • the fourth reliability calculation unit 174 shown in FIG. 6 calculates the reliability (R3) of the estimated parallax information by extracting the pixel region where the parallax of the upper limit value or the lower limit value is calculated.
  • the fourth reliability calculation unit 174 illustrated in FIG. 6 includes a pixel region including the target pixel 241 from the L image input from the left viewpoint image (L image) input unit 101 as illustrated in FIG. A 3 ⁇ 3 pixel region centered on the pixel 241 is extracted, and first, it is determined whether or not the estimated parallax information generated by the parallax estimation unit 103 has reached the upper limit value or the lower limit value for the target pixel 241. .
  • the reliability (R3) of the target pixel is set to the maximum value (R3max).
  • the estimated parallax of the pixel region including the pixel of interest 241 for example, nine pixels in the 3 ⁇ 3 pixel region illustrated in FIG. The number of pixels (N) whose information has reached the upper limit value or the lower limit value is counted.
  • the fourth reliability calculation unit 174 calculates the reliability (R3) according to the count number (N).
  • the number (N) of pixels whose estimated parallax information has reached the upper limit value or the lower limit value is If there are many, it is determined that there is a high possibility that the actual parallax of the target pixel is larger than the upper limit value or smaller than the lower limit value, and the reliability R3 of the estimated parallax information generated by the parallax estimation unit 103 is set as a low value. .
  • the number of pixels whose estimated parallax information has reached the upper limit value or lower limit value (N ) Is small, it is determined that the actual parallax of the target pixel is not very likely to be larger than the upper limit value or smaller than the lower limit value, and the reliability R3 of the estimated parallax information generated by the parallax estimation unit 103 is high. Set as a value.
  • the correspondence relationship between the pixel count number N and the reliability R3 of the estimated disparity information generated by the disparity estimation unit 103 is specifically defined as a correspondence relationship as illustrated in FIG.
  • the fourth reliability calculation unit 174 uses the value of the reliability R3 of the estimated parallax information generated by the parallax estimation unit 103 as the pixel region (3 ⁇ ) including the target pixel whose estimated parallax has reached the upper limit value or the lower limit value.
  • Nmin, Nmax, R3min, R3max are predetermined values. In the range of Nmin ⁇ N ⁇ Nmax, the reliability R3 is linearly changed between R3max and R3min.
  • the fifth reliability calculation unit 175 illustrated in FIG. 6, as illustrated in FIG. 21 (1) the R image corresponding to each pixel (a) of the L image based on the estimated parallax information generated by the parallax estimation unit 103.
  • the corresponding pixel position (b) is calculated.
  • the fifth reliability calculation unit 175 illustrated in FIG. 6 calculates the reliability (R4) through such processing.
  • the parallax estimation unit 103 L image-based estimated parallax information based on detection information of a corresponding pixel position of the R image corresponding to the L image input from the left viewpoint image (L image) input unit 101; R image-based estimated parallax information based on detection information of the corresponding pixel position of the L image corresponding to the R image input from the right viewpoint image (R image) input unit 102; It is assumed that these two pieces of estimated parallax information are generated and provided to the fifth reliability calculation unit 175.
  • the fifth reliability calculation unit 175 illustrated in FIG. 6 sequentially executes the following processes.
  • Process 1 For the target pixel (a) of the L image input from the left viewpoint image (L image) input unit 101, the right viewpoint image (R image) based on the L image-based estimated parallax information generated by the parallax estimation unit 103 ) The corresponding pixel position (b) in the R image input from the input unit 102 is acquired.
  • Process 2 Corresponding pixels in the L image based on the R image-based estimated parallax information generated by the parallax estimation unit 103 for the pixel (b) of the R image input from the right viewpoint image (R image) input unit 102 Get position (c).
  • the fifth reliability calculation unit 175 illustrated in FIG. 6 calculates the reliability (R4) of the estimated parallax information according to the number of pixels (C) that satisfies the determination formula.
  • the reliability R4 of the estimated parallax information generated by the parallax estimation unit 103 is set as a low value.
  • the reliability R4 of the estimated parallax information generated by the parallax estimation unit 103 is set as a high value.
  • the correspondence relationship between the number C of pixels and the reliability R4 of the estimated parallax information generated by the parallax estimation unit 103 is specifically defined as a correspondence relationship as illustrated in FIG.
  • the fifth reliability calculation unit 175 inputs the value of the reliability R4 of the estimated parallax information generated by the parallax estimation unit 103 for all pixels of the L image input from the left viewpoint image (L image) input unit 101 as follows.
  • Cmin, Cmax, R4min, R4max are predetermined values. In the range of Cmin ⁇ C ⁇ Cmax, the reliability R4 is linearly changed between R4max and R4min.
  • the reliability calculation unit 104 As described with reference to FIG. 6, the reliability calculation unit 104, as shown in FIG. From the left viewpoint image (L image) input unit 101, the left viewpoint image (L image), From the right viewpoint image (R image) input unit 102, the right viewpoint image (R image), Estimated disparity information is input from the disparity estimation unit 103, and based on these input information, as described above, the first to fifth reliability calculation units 171 to 175 perform a plurality of reliability (R0) by a plurality of different processes. To R4).
  • the computing unit 181 shown in FIG. 6 applies the plurality of reliability levels (R0 to R4), calculates final reliability information, and outputs the calculated reliability level information to the virtual viewpoint image generation unit 105.
  • the calculation unit 181 applies weighting factors ⁇ 0, ⁇ 1, ⁇ 2, ⁇ 3, ⁇ 4 set in advance to the reliability R0, R1, R2, R3, R4 calculated by the first to fifth reliability calculation units 171 to 175.
  • the weighted sum (R) is calculated according to the following expression, and the calculated value is output to the virtual viewpoint image generation unit 105 as final reliability information.
  • R ⁇ 0 ⁇ R0 + ⁇ 1 ⁇ R1 + ⁇ 2 ⁇ R2 + ⁇ 3 ⁇ R3 + ⁇ 4 ⁇ R4
  • FIG. 6 shows the first to fifth reliability calculation units 171 to 175 and these five types of reliability calculation units, but one or more reliability calculation units are used instead of all of these five types. It is good also as a structure. Alternatively, it is possible to adopt a configuration to which another reliability is applied.
  • the virtual viewpoint image generation unit 105 From the left viewpoint image (L image) input unit 101, an L image, R image from the right viewpoint image (R image) input unit 102, Parallax information from the parallax estimation unit 103, Reliability information from the reliability calculation unit 104, Each of these pieces of information is input to generate a virtual viewpoint image.
  • the virtual viewpoint image generation unit 105 executes a virtual viewpoint position determination process or the like according to the reliability information input from the reliability calculation unit 104, and generates a virtual viewpoint image corresponding to the determined virtual viewpoint position.
  • the virtual viewpoint image generation unit 105 adjusts the amount of parallax according to the reliability information input from the reliability calculation unit 104, that is, determines the virtual viewpoint position (phase) to be generated, and determines the determined virtual viewpoint position (phase) A virtual viewpoint image corresponding to is generated. Specifically, for example, the virtual viewpoint image generation unit 105 sets the parallax interval of the generated virtual viewpoint image widely when the reliability input from the reliability calculation unit 104 is high, and sets it narrow when the reliability is low. A virtual viewpoint image is generated.
  • a plurality of specific configuration examples of the virtual viewpoint image generation unit 105 will be sequentially described.
  • the virtual viewpoint image generation unit 105 includes a parallax adjustment unit 311 and an image composition unit 312.
  • the parallax adjustment unit 311 inputs the reliability information calculated by the reliability calculation unit 104, that is, the reliability of the estimated parallax information generated by the parallax estimation unit 103.
  • this reliability is, for example, a weighted addition value of a plurality of different reliability information (R0 to R4).
  • R0 to R4 a weighted addition value of a plurality of different reliability information.
  • Reliability R ⁇ 0 ⁇ R0 + ⁇ 1 ⁇ R1 + ⁇ 2 ⁇ R2 + ⁇ 3 ⁇ R3 + ⁇ 4 ⁇ R4 Where ⁇ 0, ⁇ 1, ⁇ 2,... are preset weighting factors
  • the calculated reliability R is input according to the above formula.
  • the parallax adjustment unit 311 determines the parallax of the virtual viewpoint image to be generated, that is, the position (phase) of the virtual viewpoint image to be generated, according to the input reliability R. Specifically, a virtual viewpoint position determination process as shown in FIG. 23 is performed according to the reliability R value having a value of 0 to 1.
  • An image b321 is an input L image input from the left viewpoint image (L image) input unit 101
  • An image h322 is an input R image input from the right viewpoint image (R image) input unit 102
  • the parallax adjustment unit 311 determines the images a to i in the upper part of FIG. 23 as the setting positions of the virtual viewpoint image.
  • the virtual viewpoint position information is output to the image composition unit 312 shown in FIG. 22 generates a virtual viewpoint image corresponding to the set position by applying the input L image and the input R image based on the set position information of the virtual viewpoint image input from the parallax adjustment unit 311. To do. Note that the virtual viewpoint image generation processing is performed according to the processing described above with reference to FIGS.
  • the parallax adjustment unit 311 displays the images a2 to i2 in the middle of FIG. Is set as the setting position of the virtual viewpoint image, and this virtual viewpoint position information is output to the image composition unit 312 shown in FIG. 22 generates a virtual viewpoint image corresponding to the set position by applying the input L image and the input R image based on the set position information of the virtual viewpoint image input from the parallax adjustment unit 311. To do.
  • the parallax adjustment unit 311 sets the image 333 in the lower part of FIG.
  • the virtual viewpoint position information is output to the image composition unit 312 shown in FIG. 22 generates a virtual viewpoint image corresponding to the set position by applying the input L image and the input R image based on the set position information of the virtual viewpoint image input from the parallax adjustment unit 311.
  • the image position of the image 333 in the lower part of FIG. 23 corresponds to the image position of the input R image. That is, in this case, the input R image is output as it is without generating a new virtual viewpoint image.
  • the virtual viewpoint image generation unit 105 outputs the input L image as it is, and only the input LR image is output to the display unit.
  • the parallax adjustment unit 311 executes the calculation process of the setting position (phase) of the virtual viewpoint image according to the following algorithm.
  • the positions are a to i shown in FIG.
  • the reliability information input from the reliability calculation unit 104 is R.
  • R 0 to 1.
  • the virtual viewpoint image position (phase) V set according to the reliability R is calculated according to the following equation.
  • V (V0-1) ⁇ R + 1
  • the parallax adjustment unit 311 receives the reliability information R calculated by the reliability calculation unit 104, determines the setting position of the virtual viewpoint image according to the value of the input reliability information R, and this virtual viewpoint position
  • the information is output to the image composition unit 312 shown in FIG. 22 generates a virtual viewpoint image corresponding to the set position by applying the input L image and the input R image based on the set position information of the virtual viewpoint image input from the parallax adjustment unit 311. To do.
  • the virtual viewpoint image generation unit 105 includes a parallax adjustment unit 311 and an image synthesis unit 312 similar to those described with reference to FIG.
  • the reliability database 313 is stored.
  • the parallax adjustment unit 311 inputs the reliability information calculated by the reliability calculation unit 104, that is, the reliability of the estimated parallax information generated by the parallax estimation unit 103.
  • this reliability is, for example, a weighted addition value of a plurality of different reliability information (R0 to R4).
  • R0 to R4 a weighted addition value of a plurality of different reliability information.
  • Reliability R ⁇ 0 ⁇ R0 + ⁇ 1 ⁇ R1 + ⁇ 2 ⁇ R2 + ⁇ 3 ⁇ R3 + ⁇ 4 ⁇ R4 Where ⁇ 0, ⁇ 1, ⁇ 2,... are preset weighting factors
  • the calculated reliability R is input according to the above formula.
  • the parallax adjustment unit 311 The reliability R calculated by the reliability calculation unit 104; From the reliability database 313, correspondence information between the reliability and the optimum amount of parallax, Enter these.
  • the parallax adjustment unit 311 Based on this information, the adjustment reliability is calculated, and based on the adjustment reliability, the parallax of the virtual viewpoint image to be generated, that is, the position (phase) of the generated virtual viewpoint image is determined.
  • relation data of correspondence information with the optimum amount of parallax is stored.
  • the data shown in FIG. This data is data obtained by observing learning data prepared in advance, for example, learning data having parallaxes with various reliability levels, and determining the parallax that allows the observer to observe the 3D image comfortably as the optimal parallax amount.
  • the parallax adjustment unit 311 acquires relation data of correspondence information with the optimal parallax amount stored in the reliability database 313, and calculates a coefficient p corresponding to the reliability R calculated by the reliability calculation unit 104.
  • the coefficient p is a multiplier corresponding to the reliability R, and is a coefficient for calculating the adjustment reliability pR for setting the optimum amount of parallax.
  • the coefficient p is obtained by applying a regression analysis process such as a least square method.
  • the parallax adjustment unit 311 calculates the adjustment reliability pR by multiplying the calculated coefficient p by the reliability R calculated by the reliability calculation unit 104. In accordance with the adjustment reliability pR, a virtual viewpoint position determination process as shown in FIG. 26 is performed.
  • An image b321 is an input L image input from the left viewpoint image (L image) input unit 101
  • An image h322 is an input R image input from the right viewpoint image (R image) input unit 102
  • a total of nine different viewpoint images from a to i including the input LR image are generated and output.
  • the parallax adjustment unit 311 determines the images ai in the upper part of FIG. 23 as the setting positions of the virtual viewpoint images, and the virtual viewpoint position information is shown in FIG.
  • the image synthesis unit 312 illustrated in FIG. 24 generates a virtual viewpoint image corresponding to the set position by applying the input L image and the input R image based on the set position information of the virtual viewpoint image input from the parallax adjustment unit 311. To do. Note that the virtual viewpoint image generation processing is performed according to the processing described above with reference to FIGS.
  • the parallax adjustment unit 311 sets the images a2 to i2 in the middle of FIG.
  • the virtual viewpoint position information is output to the image composition unit 312 shown in FIG.
  • the image synthesis unit 312 illustrated in FIG. 24 generates a virtual viewpoint image corresponding to the set position by applying the input L image and the input R image based on the set position information of the virtual viewpoint image input from the parallax adjustment unit 311. To do.
  • the parallax adjustment unit 311 determines the image 333 in the lower part of FIG. 26 as the setting position of the virtual viewpoint image, and this virtual viewpoint The position information is output to the image composition unit 312 shown in FIG.
  • the image synthesis unit 312 illustrated in FIG. 24 generates a virtual viewpoint image corresponding to the set position by applying the input L image and the input R image based on the set position information of the virtual viewpoint image input from the parallax adjustment unit 311.
  • the image position of the image 333 in the lower part of FIG. 26 corresponds to the image position of the input R image. That is, in this case, the input R image is output as it is without generating a new virtual viewpoint image.
  • the virtual viewpoint image generation unit 105 outputs the input L image as it is, and only the input LR image is output to the display unit.
  • the parallax adjustment unit 311 receives the reliability R calculated by the reliability calculation unit 104, the correspondence information between the reliability and the optimum amount of parallax, and these from the reliability database 313. input.
  • the parallax adjustment unit 311 calculates the adjustment reliability based on the information, and determines the parallax of the virtual viewpoint image to be generated, that is, the position (phase) of the virtual viewpoint image to be generated based on the adjustment reliability. To do.
  • first LPF low-pass filter
  • parallax information selection unit 332 an image synthesis unit 333
  • second LPF low-pass filter
  • virtual viewpoint image selection unit 335 a virtual viewpoint image selection unit
  • the first LPF (low-pass filter) 331 inputs estimated parallax information (parallax map) generated by the parallax estimation unit 103 and applies LPF. By applying the LPF, the rapidly changing portion of the parallax information is converted so as to change gently.
  • the LPF application estimated parallax information generated by the first LPF (low-pass filter) 331 is input to the parallax information selection unit 332.
  • the parallax information selection unit 332 inputs the following information.
  • the parallax information selection unit 332 inputs these pieces of information and executes the following processing.
  • the output information is input to the image composition unit 333.
  • the image composition unit 333 generates a virtual viewpoint image based on the parallax information.
  • the virtual viewpoint image generation processing is executed using the input LR image according to the processing described above with reference to FIGS.
  • the virtual viewpoint image generated by the image composition unit 333 is input to the second LPF 334 and the virtual viewpoint image selection unit 335.
  • the second LPF 334 applies the LPF to the virtual viewpoint image generated by the image composition unit 333.
  • a sudden pixel value change portion in the virtual viewpoint image is converted into a gentle change.
  • the LPF application virtual viewpoint image generated by the second LPF 334 is input to the virtual viewpoint image selection unit 335.
  • the virtual viewpoint image selection unit 335 inputs the following information.
  • the virtual viewpoint image selection unit 335 inputs these pieces of information and executes the following processing.
  • the virtual viewpoint image generation unit 105 shown in FIG. 27 generates a virtual viewpoint image by executing conversion of parallax information and conversion of a virtual viewpoint image by applying LPF in this way.
  • the area 401 indicated by a dotted line has the same configuration as that of the image processing apparatus 100 shown in FIG. 1 except for the reliability selection unit 415.
  • the image processing apparatus 400 according to the present exemplary embodiment includes a resolution conversion unit 411, a second parallax estimation unit 412, a second reliability calculation unit 413, a resolution inverse conversion unit 414, and reliability selection in the configuration of the image processing apparatus illustrated in FIG. A portion 415 is added.
  • the resolution conversion unit 411 performs resolution conversion between the L image input from the left viewpoint image (L image) input unit 101 and the R image input from the right viewpoint image (R image) input unit 102. Specifically, an image having a lower resolution than the input LR image is generated.
  • the second parallax estimation unit 412 estimates parallax using the low-resolution LR image generated by the resolution conversion unit 411. Estimated parallax information based on the low resolution image is generated. This estimated parallax information is input to the second reliability calculation unit 413.
  • the second reliability calculation unit 413 calculates the reliability of the estimated parallax information generated by the second parallax estimation unit 412. This reliability calculation process is executed as a process similar to the process described above with reference to FIGS. That is, a plurality of different reliability levels (R0 to R5) are calculated, and the reliability is calculated by performing weighted addition using preset weights ⁇ 0 to ⁇ 5. This reliability is set for each pixel of the low resolution image. This reliability information is input to the resolution inverse conversion unit 414.
  • the resolution reverse conversion unit 414 performs a process of returning the reliability information corresponding to each pixel to the number of pixels of the original input image by executing a resolution conversion process reverse to the resolution conversion of the resolution conversion unit 411.
  • the second reliability information generated by the resolution reverse conversion process is input to the reliability selection unit 415.
  • the first disparity estimation unit 103 illustrated in FIG. 1 performs the same processing as described with reference to FIG. 1 and subsequent figures, and generates estimated disparity information based on the input LR image.
  • the first reliability calculation unit 104 also performs the same process as described with reference to FIG. 1 and subsequent figures, and calculates the reliability corresponding to the estimated parallax information in pixel units generated by the first parallax estimation unit 103. . It is executed as a process similar to the process described above with reference to FIGS. That is, a plurality of different reliability levels (R0 to R5) are calculated, and the reliability is calculated by performing weighted addition using preset weights ⁇ 0 to ⁇ 5.
  • the first reliability calculated by the first reliability calculation unit 104 is input to the reliability selection unit 415.
  • the reliability selection unit 415 inputs the following information. (A) first reliability information corresponding to the estimated parallax information based on the input LR image calculated by the first reliability calculation unit 104; (B) second reliability information corresponding to the low-resolution LR image-based estimated parallax information calculated by the second reliability calculation unit 413; That is, the reliability selection unit 415 inputs two pieces of reliability information corresponding to each pixel. The reliability selection unit 415 compares the two pieces of reliability information in units of pixels, selects the higher reliability information, and outputs the higher reliability information as the reliability information of the pixel.
  • the reliability information selected in units of pixels is input to the virtual viewpoint image generation unit 105.
  • the virtual viewpoint image generation unit 105 executes the process described above with reference to FIGS. 22 to 27, and executes the virtual viewpoint image generation process with reference to the reliability information.
  • the virtual viewpoint image generated by the virtual viewpoint image generation unit 105 is output and displayed on the display unit 110 via the display control unit 106.
  • Parallax estimation and reliability information calculation processing based on the image before resolution conversion Furthermore, parallax estimation and reliability information calculation processing based on the low resolution image converted to low resolution, By executing these two processes, two pieces of reliability information corresponding to the respective images are generated. Further, for these two pieces of reliability information, the one where high reliability information is obtained for each pixel is used as final reliability information. By this processing, it is possible to reduce the influence of parallax estimation errors that occur due to local image errors, for example.
  • the display image generated by the image processing apparatus of the present disclosure is a display image in a naked-eye 3D display apparatus that allows a user to view a stereoscopic image without wearing glasses.
  • the display unit 110 is a display unit that performs naked-eye 3D display.
  • the display unit 110 includes, for example, a lenticular sheet or a parallax barrier (parallax barrier) on the display surface, and is capable of controlling an image entering the left eye and the right eye according to a viewing position. Part.
  • the display control unit 106 outputs the N viewpoint images generated by the virtual viewpoint image generation unit 105 to the display unit 110.
  • the display control unit 106 generates display information according to the display configuration of the display unit 110.
  • the image processing device can be configured as an imaging device such as a camera provided with an imaging unit, a display device such as a PC or a television, and when configured as these devices, functions corresponding to each device are provided. It is set as the structure provided. For example, in the case of a camera, an imaging unit that captures an LR image as an image from a different viewpoint is used, and a multi-viewpoint image is generated using the LR image input from the imaging unit.
  • a left viewpoint image input unit that inputs a left viewpoint image (L image) that is an image signal for the left eye applied to three-dimensional image display
  • a right viewpoint image input unit for inputting a right viewpoint image (R image) that is an image signal for the right eye applied to three-dimensional image display
  • a parallax estimation unit that generates parallax information from the left viewpoint image (L image) and the right viewpoint image (R image)
  • a reliability calculation unit for calculating the reliability of the parallax information generated by the parallax estimation unit
  • the left viewpoint image (L image), the right viewpoint image (R image), the parallax information, and the reliability are input, and a virtual viewpoint image including viewpoint images other than the viewpoint of the input LR image is generated.
  • a virtual viewpoint image generator, The virtual viewpoint image generation unit An image processing apparatus that generates a virtual viewpoint image in which a parallax interval of a virtual viewpoint image to be generated is set wide when the reliability is high and is set narrow when the reliability is low.
  • the reliability calculation unit calculates a plurality of reliability information by a plurality of different reliability calculation processes, and calculates a final reliability by weighted addition to the calculated plurality of reliability information (1 ).
  • the reliability calculation unit calculates the reliability according to the residual component amount obtained by calculating the difference between the parallax compensation image generated by the parallax compensation according to the parallax information estimated by the parallax estimation unit and the input image.
  • the reliability calculation unit is responsive to a spatial activity in units of pixel areas of the left viewpoint image (L image) or the right viewpoint image (R image).
  • the reliability calculation unit is configured according to a dynamic range of a pixel area unit of the left viewpoint image (L image) or the right viewpoint image (R image). The image processing apparatus according to (3), wherein the reliability calculation mode is changed.
  • the reliability calculation unit executes the reliability calculation according to whether or not the disparity information estimated by the disparity estimation unit has reached a predetermined upper limit value or lower limit value.
  • the image processing apparatus according to any one of the above.
  • the reliability calculation unit includes the parallax information estimated by the parallax estimation unit based on the left viewpoint image (L image) input from the left viewpoint image (L image) input unit, and the right viewpoint image (R (Image) Any one of (1) to (8), wherein reliability calculation is performed according to consistency with the disparity information estimated by the disparity estimation unit based on the right viewpoint image (R image) input from the input unit An image processing apparatus according to 1.
  • the virtual viewpoint image generation unit sets the parallax interval of the generated virtual viewpoint image widely when the reliability is high, and when low, Any of (1) to (9), including a parallax adjustment unit that determines a viewpoint position of a virtual viewpoint image that is set narrowly, and an image synthesis unit that generates a virtual viewpoint image according to the viewpoint position determined by the parallax adjustment unit An image processing apparatus according to 1.
  • the virtual viewpoint image generation unit includes a reliability database storing relationship information between the reliability and the optimum amount of parallax, and the parallax adjustment unit includes the reliability stored in the writing reliability database. In the above (10), by applying the relation information with the optimal parallax amount, the optimal parallax amount according to the reliability input from the reliability calculation unit is acquired, and the virtual viewpoint image position according to the acquired parallax amount is determined.
  • the virtual viewpoint image generation unit (A) parallax information estimated by the parallax estimation unit; (B) LPF-applied disparity information that is a result of applying a low-pass filter (LPF) to a disparity map that represents the disparity information as an image; With regard to the above two (a) and (b) disparity information, a disparity information selection unit that selects the disparity information for the pixels with high reliability, and the disparity information selection unit for the pixels with low reliability.
  • the image processing apparatus according to any one of (1) to (11), further including an image composition unit that generates a virtual viewpoint image based on the disparity information selected by the disparity information selection unit.
  • the virtual viewpoint image generation unit further includes: (A) a virtual viewpoint image generated by the image composition unit; (B) an LPF application virtual viewpoint image that is a result of applying a low pass filter (LPF) to the virtual viewpoint image generated by the image composition unit; For the two virtual viewpoint images (a) and (b), a virtual viewpoint for selecting the virtual viewpoint image for the pixels with high reliability and the LPF-applied virtual viewpoint image for the pixels with low reliability.
  • the image processing apparatus according to any one of (1) to (12), further including an image selection unit.
  • a left viewpoint image input unit that inputs a left viewpoint image (L image) that is an image signal for the left eye applied to three-dimensional image display;
  • a right viewpoint image input unit for inputting a right viewpoint image (R image) that is an image signal for the right eye applied to three-dimensional image display;
  • a first parallax estimation unit that generates parallax information from the left viewpoint image (L image) and the right viewpoint image (R image);
  • a first reliability calculation unit that calculates a first reliability of the parallax information generated by the first parallax estimation unit;
  • a resolution conversion unit that performs resolution conversion of the left viewpoint image (L image) and the right viewpoint image (R image);
  • a second parallax estimation unit that performs parallax information estimation based on a low-resolution left viewpoint image (L image) and a right viewpoint image (R image) output from the resolution conversion unit;
  • a second reliability calculation unit that calculates a second reliability of the second parallax information generated by the second parallax estimation unit
  • the configuration of the present disclosure includes a method of processing executed in the above-described apparatus and the like, and a program for executing processing.
  • the series of processing described in the specification can be executed by hardware, software, or a combined configuration of both.
  • the program recording the processing sequence is installed in a memory in a computer incorporated in dedicated hardware and executed, or the program is executed on a general-purpose computer capable of executing various processing. It can be installed and run.
  • the program can be recorded in advance on a recording medium.
  • the program can be received via a network such as a LAN (Local Area Network) or the Internet and installed on a recording medium such as a built-in hard disk.
  • the various processes described in the specification are not only executed in time series according to the description, but may be executed in parallel or individually according to the processing capability of the apparatus that executes the processes or as necessary.
  • the system is a logical set configuration of a plurality of devices, and the devices of each configuration are not limited to being in the same casing.
  • a configuration for generating an optimal multi-viewpoint image according to the reliability of the estimated parallax based on the LR image as a three-dimensional image is realized.
  • a left viewpoint image (L image) and a right viewpoint image (R image) to be applied to 3D image display are input, and based on the left viewpoint image (L image) and the right viewpoint image (R image).
  • To generate disparity information and calculate the reliability of the generated disparity information For example, a plurality of different reliability levels are calculated by a plurality of different analysis processes, and a final reliability level is calculated by weighted addition of the calculated reliability levels.
  • the generation mode of the virtual viewpoint image is changed according to the calculated reliability. For example, when the reliability is high, the parallax interval of the virtual viewpoint image is set wide, and when it is low, the setting is narrowed. With this process, an optimal multi-viewpoint image according to the reliability of the estimated parallax can be generated.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Abstract

3次元画像としてのLR画像に基づく推定視差の信頼度に応じた多視点画像を生成する。3次元画像表示に適用する左視点画像(L画像)と右視点画像(R画像)を入力し、左視点画像(L画像)と、右視点画像(R画像)とに基づいて視差情報を生成し、生成した視差情報の信頼度を算出する。例えば複数の異なる解析処理によって複数の異なる信頼度を算出し、算出した複数の信頼度の重み付き加算によって最終的な信頼度を算出する。算出した信頼度に応じて仮想視点画像の生成態様を変更する。例えば、信頼度が高い場合には、仮想視点画像の視差間隔を広く設定し、低い場合には狭く設定する処理を行う。

Description

画像処理装置、および画像処理方法、並びにプログラム
 本開示は、画像処理装置、および画像処理方法、並びにプログラムに関する。特に、3次元(3D)画像表示に適用する多視点画像を生成する画像処理装置、および画像処理方法、並びにプログラムに関する。
 3次元(3D)画像表示処理において、メガネを装着しないで立体画像を知覚できる裸眼型の3D表示装置が実用化され始めている。裸眼3D表示装置は、ディスプレイ面に例えばレンチキュラシートや、パララックスバリア(視差バリア)を備え、視聴位置によって左眼と右眼に入る画像を制御する。
 すなわち、左眼には左目から観察した画像に相当する左視点画像が観察され、右眼には右目から観察した画像に相当する右視点画像が観察されるような制御を行う。
 しかしながら、このような方法では、ディスプレイに対して限定的な視聴位置でしか正しい立体視が得られない。従って、ユーザの観察位置が規定位置と異なる位置にある場合は、左眼に右眼用の画像(右視点画像)が、右眼に左眼用の画像(左視点画像)が入ってしまう逆視や、左視点画像と右視点画像が混ざるクロストークが発生する。
 この問題を解決するために、正規の1つの観察位置に対応する標準の左視点画像と右視点画像のみならず、その他の観察位置で観察した場合にクロストークの発生しない設定とした新たな視点からの画像を生成して表示する構成が提案されている。
 オリジナルの1組の左視点画像と右視点画像のみならず、その他の仮想視点の画像を多視点画像として生成し、これらの多視点画像の中からユーザの観察位置に応じて最適な左視点画像と右視点画像の組を観察位置に応じて選択可能として、逆視やクロストークを抑えた画像表示を行うものである。
 すなわち、ユーザの観察位置に応じて異なる左視点画像と右視点画像のペアを観察させることで、ユーザの観察位置が変更された場合にも、観察者の左眼と右眼にそれぞれ観察位置に応じた左視点画像と右視点画像を観察させるものである。
 具体的には、表示装置や画像処理装置に入力されるオリジナルの2視点の画像、すなわち3D画像表示用の左視点画像(L画像)と右視点画像(R画像)の2つの視点画像に基づいて、これら2つの視点以外の仮想視点の視点画像を生成する。例えばオリジナルのLR画像を含めて10個の異なる視点の多視点画像を生成する。
 生成した多視点画像から、ディスプレイに対するユーザの観察位置に応じた最適な2つの画像を組み合わせて観察させることで、様々な観察位置において、左視点画像と右視点画像が混ざるクロストークを抑制した3D画像の表示、観察が可能となる。
 例えば特許文献1(特開2006-115198号公報)には、オリジナルの左視点画像(L画像)と右視点画像(R画像)を入力して、これらの2つの画像から視差検出を実行して、検出した視差情報に基づいて、複数の仮想視点の画像を生成する手法を開示している。具体的には、入力する左視点画像(L画像)と、右視点画像(R画像)の2つのオリジナル3D画像から視差を検出し、クロストーク量や融像視差範囲に基づいて入力LR画像と異なる仮想視点位置を決定する手法を開示している。
 しかし、この特許文献1に記載の処理は、生成する仮想視点画像の品質が考慮されておらず、左視点画像と右視点画像の中心を基準に仮想視点位置を決定する構成としている。従って、生成された仮想視点画像の品質が低下してしまい、観察に耐えられない画像が表示される可能性がある。
 仮想視点位置と画像品質には密接な関係がある。
 例えば、
 入力L画像の視点位置を0.0、
 入力R画像の視点位置を1.0、
 とすると、
 新たに生成する仮想視点の画像と画像品質との関係には、以下の特徴がある。
 (特徴1)L画像(0.0)とR画像(1.0)間の0.0~1.0の間の仮想視点位置では、
 LR画像の中央位置である0.5の仮想視点画像が、他の仮想視点位置と比較して画像品質が最も低くなる。
 (特徴2)L画像より左側、またはR画像より右側の0.0以下、1.0以上の仮想視点位置では,
 L画像またはR画像から離れれば離れるほど映像の品質が低くなる
 このような仮想視点位置と画像品質との関係は、例えば、視差検出の精度や画像に含まれるオクルージョン領域の量などに起因するものである。
 なお、視点位置=0.0ではオリジナルの入力左眼画像、視点位置=1.0ではオリジナルの入力右眼画像がそのまま利用可能であるため、画像品質は最も高くなる。
 また、この特許文献1(特開2006-115198号公報)は、入力するオリジナルの左視点画像(L画像)と、右視点画像(R画像)の3D画像から最大視差量を検出し、クロストーク量や融像視差範囲に最大視差を収めるように、仮想視点位置を決定する手法を提案している。すなわち、入力LR画像の持つ最大視差量に応じて生成する仮想視点画像の視点間隔を決定する手法を開示している。
 しかし、オリジナルLR画像からの最大視差の検出時に、最大視差を持つ画像領域の画像や、画像領域の注目のしやすさを考慮していない。したがって、例えば以下のような問題点が発生する。
 ・最大視差検出時に、最大視差を持つ画像領域の面積を考慮していないため、面積の小さい物体が最大視差をもつ場合は、視覚的にほとんど影響がない最大視差画像領域の存在に応じて、不必要に仮想視点間隔を狭めてしまう可能性がある。
 ・また、最大視差検出時に最大視差を持つ画像領域の注目のしやすさを考慮していないため、視覚的に注目されない画像領域が最大視差を持つ場合、視覚的にほとんど影響のない画像領域の最大視差情報に応じて、不必要に仮想視点間隔を狭めてしまう場合や、広めてしまう場合がある。
 また、特許文献2(特開2006-126965号公報)は、入力するオリジナルの左視点画像(L画像)と、右視点画像(R画像)を用いて、これらの画像を用いた視差合成の際に推定誤差に応じてフィルタ処理を行う構成を開示している。
 しかし、この特許文献2は、推定する誤差の導出手法について必ずしも明確でなく、誤差の推定手法の信頼性が劣る場合には、フィルタ処理の適用によっても破綻のある合成画像が生成される可能性がある。
特開2006-115198号公報 特開2006-126965号公報
 本開示は、例えば上記の問題点を解決するものであり、3D画像用の左視点画像(L画像)と右視点画像(R画像)に基づく品質の高い多視点画像の生成処理を行う画像処理装置、および画像処理方法、並びにプログラムを提供することを目的とする。
 また、本開示は、3D画像用の左視点画像(L画像)と右視点画像(R画像)に基づく多視点画像の生成処理を行う構成において、例えば、視差の推定処理とその推定処理結果の信頼度算出を実行して、算出した信頼度に応じて視差調整を実行することで、高品質な多視点画像の生成を可能とする画像処理装置、および画像処理方法、並びにプログラムを提供するものである。
 本開示の第1の側面は、
 3次元画像表示に適用する左眼用の画像信号である左視点画像(L画像)を入力する左視点画像入力部と、
 3次元画像表示に適用する右眼用の画像信号である右視点画像(R画像)を入力する右視点画像入力部と、
 前記左視点画像(L画像)と右視点画像(R画像)から視差情報を生成する視差推定部と、
 前記視差推定部の生成した視差情報の信頼度を算出する信頼度算出部と、
 前記左視点画像(L画像)と、前記右視点画像(R画像)と、前記視差情報と、前記信頼度を入力して、入力LR画像の視点以外の視点画像を含む仮想視点画像を生成する仮想視点画像生成部を有し、
 前記仮想視点画像生成部は、
 生成する仮想視点画像の視差間隔を前記信頼度が高い場合には広く設定し、低い場合には狭く設定した仮想視点画像を生成する画像処理装置にある。
 さらに、本開示の画像処理装置の一実施態様において、前記信頼度算出部は、複数の異なる信頼度算出処理によって複数の信頼度情報を算出し、算出した複数の信頼度情報に対する重み付き加算によって最終的な信頼度を算出する。
 さらに、本開示の画像処理装置の一実施態様において、前記信頼度算出部は、前記視差推定部の推定した視差情報に応じた視差補償により生成した視差補償画像と入力画像との差分算出によって得られる残差成分量に応じた信頼度算出を実行する。
 さらに、本開示の画像処理装置の一実施態様において、前記信頼度算出部は、前記残差成分に応じた信頼度算出処理において、前記左視点画像(L画像)または前記右視点画像(R画像)の画素領域単位の空間アクティビティに応じて信頼度算出態様を変更する。
 さらに、本開示の画像処理装置の一実施態様において、前記信頼度算出部は、前記残差成分に応じた信頼度算出処理において、前記左視点画像(L画像)または前記右視点画像(R画像)の画素領域単位のダイナミックレンジに応じて信頼度算出態様を変更する。
 さらに、本開示の画像処理装置の一実施態様において、前記信頼度算出部は、前記視差推定部の推定した視差情報の水平隣接画素の視差差分に応じた信頼度算出を実行する。
 さらに、本開示の画像処理装置の一実施態様において、前記信頼度算出部は、前記視差推定部の推定した視差情報の垂直隣接画素の視差差分に応じた信頼度算出を実行する。
 さらに、本開示の画像処理装置の一実施態様において、前記信頼度算出部は、前記視差推定部の推定した視差情報が、既定の上限値または下限値に達しているか否かに応じた信頼度算出を実行する。
 さらに、本開示の画像処理装置の一実施態様において、前記信頼度算出部は、前記左視点画像(L画像)入力部から入力した左視点画像(L画像)に基づいて前記視差推定部の推定した視差情報と、前記右視点画像(R画像)入力部から入力した右視点画像(R画像)に基づいて前記視差推定部の推定した視差情報と、の整合性に応じた信頼度算出を実行する。
 さらに、本開示の画像処理装置の一実施態様において、前記仮想視点画像生成部は、前記信頼度算出部の算出した信頼度に応じて、生成する仮想視点画像の視差間隔を前記信頼度が高い場合には広く設定し、低い場合には狭く設定した仮想視点画像の視点位置を決定する視差調整部と、前記視差調整部の決定した視点位置に応じた仮想視点画像を生成する画像合成部を有する。
 さらに、本開示の画像処理装置の一実施態様において、前記仮想視点画像生成部は、前記信頼度と最適視差量との関係情報を格納した信頼度データベースを有し、前記視差調整部は、前記信頼度データベースに格納された前記信頼度と最適視差量との関係情報を適用して、信頼度算出部から入力する信頼度に応じた最適視差量を取得し、取得した視差量に応じた仮想視点画像位置を決定する。
 さらに、本開示の画像処理装置の一実施態様において、前記仮想視点画像生成部は、
 (a)前記視差推定部の推定した視差情報、
 (b)前記視差情報を画像表現した視差マップに対するローパスフィルタ(LPF)適用結果であるLPF適用視差情報、
 上記の(a),(b)2つの視差情報について、前記信頼度の高い画素については、前記視差情報、前記信頼度の低い画素については、前記LPF適用視差情報を選択する視差情報選択部と、前記視差情報選択部の選択した視差情報に基づいて仮想視点画像の生成を行う画像合成部を有する。
 さらに、本開示の画像処理装置の一実施態様において、前記仮想視点画像生成部は、さらに、
 (a)前記画像合成部の生成した仮想視点画像、
 (b)前記画像合成部の生成した仮想視点画像に対するローパスフィルタ(LPF)適用結果であるLPF適用仮想視点画像、上記の(a),(b)2つの仮想視点画像について、前記信頼度の高い画素については、前記仮想視点画像、前記信頼度の低い画素については、前記LPF適用仮想視点画像を選択する仮想視点画像選択部を有する。
 さらに、本開示の第2の側面は、
 3次元画像表示に適用する左眼用の画像信号である左視点画像(L画像)を入力する左視点画像入力部と、
 3次元画像表示に適用する右眼用の画像信号である右視点画像(R画像)を入力する右視点画像入力部と、
 前記左視点画像(L画像)と右視点画像(R画像)から視差情報を生成する第1視差推定部と、
 前記第1視差推定部の生成した視差情報の第1信頼度を算出する第1信頼度算出部と、
 前記左視点画像(L画像)と、前記右視点画像(R画像)の解像度変換を行う解像度変換部と、
 前記解像度変換部から出力される低解像度の左視点画像(L画像)と右視点画像(R画像)に基づく視差情報推定を行う第2視差推定部と、
 前記第2視差推定部の生成した第2視差情報の第2信頼度を算出する第2信頼度算出部と、
 前記解像度変換の逆変換を行う解像度逆変換部と、
 前記第1信頼度と、前記第2信頼度とを比較して高い信頼度を最終信頼度として選択出力する信頼度選択部と、
 前記左視点画像(L画像)と、前記右視点画像(R画像)と、前記視差情報と、前記最終信頼度を入力して、入力LR画像の視点以外の視点画像を含む仮想視点画像を生成する仮想視点画像生成部を有し、
 前記仮想視点画像生成部は、
 生成する仮想視点画像の視差間隔を前記最終信頼度が高い場合には広く設定し、低い場合には狭く設定した仮想視点画像を生成する画像処理装置にある。
 さらに、本開示の第3の側面は、
 画像処理装置において実行する画像処理方法であり、
 画像入力部を介して、3次元画像表示に適用する左眼用の画像信号である左視点画像(L画像)と、右眼用の画像信号である右視点画像(R画像)を入力し、
 視差推定部が、前記左視点画像(L画像)と右視点画像(R画像)から視差情報を生成し、
 信頼度算出部が、前記視差推定部の生成した視差情報の信頼度を算出し、
 仮想視点画像生成部が、前記左視点画像(L画像)と、前記右視点画像(R画像)と、前記視差情報と、前記信頼度を入力して、入力LR画像の視点以外の視点画像を含む仮想視点画像を生成する仮想視点画像生成処理を実行し、
 前記仮想視点画像生成部は、
 生成する仮想視点画像の視差間隔を前記信頼度が高い場合には広く設定し、低い場合には狭く設定した仮想視点画像を生成する画像処理方法にある。
 さらに、本開示の第4の側面は、
 画像処理装置において画像処理を実行させるプログラムであり、
 画像入力部を介して、3次元画像表示に適用する左眼用の画像信号である左視点画像(L画像)と、右眼用の画像信号である右視点画像(R画像)を入力する処理と、
 視差推定部において、前記左視点画像(L画像)と右視点画像(R画像)から視差情報を生成する処理と、
 信頼度算出部において、前記視差推定部の生成した視差情報の信頼度を算出する処理と、
 仮想視点画像生成部において、前記左視点画像(L画像)と、前記右視点画像(R画像)と、前記視差情報と、前記信頼度を入力して、入力LR画像の視点以外の視点画像を含む仮想視点画像を生成する仮想視点画像生成処理を実行させ、
 前記仮想視点画像生成処理においては、
 生成する仮想視点画像の視差間隔を前記信頼度が高い場合には広く設定し、低い場合には狭く設定した仮想視点画像を生成する処理を実行させるプログラムにある。
 なお、本開示のプログラムは、例えば、様々なプログラム・コードを実行可能な汎用システムに対して、コンピュータ可読な形式で提供する記憶媒体、通信媒体によって提供可能なプログラムである。このようなプログラムをコンピュータ可読な形式で提供することにより、コンピュータ・システム上でプログラムに応じた処理が実現される。
 本開示のさらに他の目的、特徴や利点は、後述する本開示の実施例や添付する図面に基づくより詳細な説明によって明らかになるであろう。なお、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
 本開示の一実施例構成によれば、3次元画像としてのLR画像に基づく推定視差の信頼度に応じた最適な多視点画像を生成する構成が実現される。
 具体的には、3次元画像表示に適用する左視点画像(L画像)と右視点画像(R画像)を入力し、左視点画像(L画像)と、右視点画像(R画像)とに基づいて視差情報を生成し、生成した視差情報の信頼度を算出する。例えば複数の異なる解析処理によって複数の異なる信頼度を算出し、算出した複数の信頼度の重み付き加算によって最終的な信頼度を算出する。算出した信頼度に応じて仮想視点画像の生成態様を変更する。例えば、信頼度が高い場合には、仮想視点画像の視差間隔を広く設定し、低い場合には狭く設定する処理を行う。
 この処理により、推定視差の信頼度に応じた最適な多視点画像を生成することができる。
画像処理装置の構成例について説明する図である。 視差推定部の処理例について説明する図である。 仮想視点画像の生成処理の一例について説明する図である。 仮想視点画像の生成処理の一例について説明する図である。 仮想視点画像の生成処理の一例について説明する図である。 信頼度算出部の具体例について説明する図である。 第1信頼度算出部の実行する処理について説明する図である。 第1信頼度算出部の実行する処理について説明する図である。 第1信頼度算出部の実行する処理について説明する図である。 第1信頼度算出部の実行する処理について説明する図である。 第1信頼度算出部の実行する処理について説明する図である。 第1信頼度算出部の実行する処理について説明する図である。 第1信頼度算出部の実行する処理について説明する図である。 第2信頼度算出部の実行する処理について説明する図である。 第2信頼度算出部の実行する処理について説明する図である。 第2信頼度算出部の実行する処理について説明する図である。 第3信頼度算出部の実行する処理について説明する図である。 第3信頼度算出部の実行する処理について説明する図である。 第3信頼度算出部の実行する処理について説明する図である。 第4信頼度算出部の実行する処理について説明する図である。 第5信頼度算出部の実行する処理について説明する図である。 仮想視点画像生成部の実行する具体的な処理例について説明する図である。 仮想視点画像生成部の実行する具体的な処理例について説明する図である。 仮想視点画像生成部の実行する具体的な処理例について説明する図である。 仮想視点画像生成部の実行する具体的な処理例について説明する図である。 仮想視点画像生成部の実行する具体的な処理例について説明する図である。 仮想視点画像生成部の実行する具体的な処理例について説明する図である。 画像処理装置の一構成例について説明する図である。
 以下、図面を参照しながら本開示の画像処理装置、および画像処理方法、並びにプログラムの詳細について説明する。説明は以下の項目に従って行う。
 1.画像処理装置の全体構成と処理の概要について
 2.視差推定部の処理について
 3.仮想視点画像生成部の実行する入力LR画像に基づく基本的な仮想視点画像の生成処理について
 4.信頼度算出部の処理について
  4-1.第1信頼度算出部の実行する信頼度算出処理について
  4-1-1.残差成分に基づく信頼度(R0)算出処理例1
  4-1-2.残差成分に基づく信頼度(R0)算出処理例2
  4-2.第2信頼度算出部の実行する信頼度算出処理について
  4-3.第3信頼度算出部の実行する信頼度算出処理について
  4-4.第4信頼度算出部の実行する信頼度算出処理について
  4-5.第5信頼度算出部の実行する信頼度算出処理について
  4-6.信頼度算出部における最終的な信頼度算出処理について
 5.仮想視点画像生成部の処理について
  5-1.信頼度算出部から入力する信頼度情報に応じた仮想視点位置を決定する構成例
  5-2.信頼度と最適視差量との対応関係情報と信頼度算出部から入力する信頼度情報に応じた仮想視点位置を決定する構成例
  5-3.LPFを適用した視差情報変換と仮想視点画像の変換処理を含む実施例について
 6.解像度変換を実行し、解像度変換画像を適用した視差推定を実行する実施例について
 7.本開示の構成のまとめ
  [1.画像処理装置の全体構成と処理の概要について]
 まず、本開示の画像処理装置の全体構成と処理の概要について図1を参照して説明する。その後、各構成部の処理の詳細について説明する。
 図1に示すように、画像処理装置100は、左視点画像(L画像)入力部101、右視点画像(R画像)入力部102、視差推定部103、信頼度算出部104、仮想視点画像生成部105、表示制御部106を有し、画像処理装置100において生成した画像が表示部110に出力される。
 なお、図1に示す構成では、表示部110を画像処理装置100の外部構成として示しているが、画像処理装置100内に表示部110を有する構成としてもよい。
 なお、図1は、画像処理装置の主要構成を示すものであり、画像処理装置100には、図に示す構成の他、データ処理制御を実行するCPU等のプログラム実行機能を備えた制御部、制御部において実行するプログラムや、各種パラメータを格納した記憶部、パラメータや画像データなどを入力する入力部を有する。
 例えば制御部は、以下に説明する処理を予め記憶部に格納したプログラムに従って実行する。
 左視点画像(L画像)入力部101と、右視点画像(R画像)入力部102は、予め生成された3次元(3D)画像表示用の左視点画像(L画像)と、右視点画像(R画像)を入力する。
 左視点画像(L画像)は、左眼から観察される画像に相当し、右視点画像(R画像)は、右眼から観察される画像に相当する。
 ただし、これらの2つの画像は、標準的な2つのLR画像である。すなわち、ディスプレイ面に例えばレンチキュラシートや、パララックスバリア(視差バリア)を備えた裸眼3D表示装置において、規定位置、例えばディスプレイを正面中心位置から観察した際に正しい3D画像として観察されるLR画像である。
 ユーザの観察位置が規定位置と異なる位置にある場合は、左眼に右眼用の画像(右視点画像)が、右眼に左眼用の画像(左視点画像)が入ってしまう逆視や、左視点画像と右視点画像が混ざるクロストークが発生する。
 画像処理装置100は、この問題を解決するために、正規の1つの観察位置に対応する入力LR画像、すなわち標準の左視点画像(L画像)と右視点画像(R画像)に基づいて、様々な観察位置で観察した場合にクロストークの発生しない新たな視点(仮想視点)からの画像を生成する。
 視差推定部103は、左視点画像(L画像)と、右視点画像(R画像)を入力し、これらの画像に基づいて視差情報を生成する。
 視差情報とは、入力LR画像に含まれる同一被写体の画像間のずれ(左右方向の画素ずれ)に相当し、被写体の距離に相当する情報となる。具体的には、例えば各画素単位や画素領域単位の視差情報(被写体距離情報)を持つデータを生成する。
 信頼度算出部104は、視差推定部103が入力LR画像に基づいて推定した各画素単位あるいは画素領域単位の視差情報の信頼度を算出する。
 仮想視点画像生成部105は、
 左視点画像(L画像)入力部101からL画像、
 右視点画像(R画像)入力部102からR画像、
 視差推定部103から視差情報、
 信頼度算出部104から信頼度情報、
 これらの各情報を入力して、仮想視点画像を生成する。
 仮想視点画像生成部105は、例えば信頼度算出部104から入力する信頼度情報に従って、仮想視点位置の決定処理等を実行して、決定した仮想視点位置に対応する仮想視点画像を生成する。
 仮想視点画像生成部105は、信頼度算出部104から入力する信頼度情報を参照した仮想視点画像の生成処理を実行する。すなわち入力LR画像の2視点の画像に加え、さらにその他の視点の画像を加えた計N視点の画像を生成して出力する。仮想視点画像生成部105は、例えば、生成する仮想視点画像の視差間隔を、信頼度算出部104の算出した信頼度が高い場合には広く設定し、低い場合には狭く設定した仮想視点画像を生成する。この処理の詳細については後述する。
 仮想視点画像生成部105の生成した仮想視点画像は、表示制御部106を介して表示部110に出力表示される。
 本開示の画像処理装置の生成する表示画像は、ユーザがメガネを装着しなくても立体画像を視聴することができる裸眼3D表示装置における表示画像である。
 表示部110は、裸眼3D表示を行う表示部であり、ディスプレイ面に例えばレンチキュラシートや、パララックスバリア(視差バリア)を備え、視聴位置によって左眼と右眼に入る画像を制御可能とした表示部である。
 表示制御部106は、仮想視点画像生成部105の生成したN視点の画像を表示部110に出力する。
 なお、表示制御部106は、表示部110の表示構成に応じた表示情報を生成する。
 なお、画像処理装置100は、例えば撮像部を備えたカメラ等の撮像装置、PC、テレビなどの表示装置として構成することも可能であり、これらの装置として構成する場合は各装置に応じた機能を備えた構成とする。
 例えばカメラの場合、異なる視点からの画像としてのLR画像を撮影する撮像部を有し、撮像部から入力するLR画像を利用して多視点画像を生成する構成とする。
  [2.視差推定部の処理について]
 次に、視差推定部103の処理について説明する。
 視差推定部103は、左視点画像(L画像)と、右視点画像(R画像)を入力し、これらの画像に基づいて視差情報を生成する。
 視差情報とは、標準LR画像に含まれる同一被写体の画像間のずれ(左右方向の画素ずれ)に相当し、被写体の距離に相当する情報となる。具体的には、例えば各画素単位の視差情報(被写体距離情報)を持つデータを生成する。
 この視差情報の取得は、例えば、以下のような既存の手法によって実行される。
 (a)ブロックマッチングベースの視差情報取得処理
 (b)DP(ダイナミックプログラミング)マッチングベースの視差情報取得処理
 (c)セグメンテーションベースの視差情報取得処理
 (d)学習ベースの視差情報取得処理
 (e)上記各手法の組み合わせによる視差情報取得処理
 例えば、上記(a)~(e)のいずれかの手法で視差情報を取得する。
 図2を参照してブロックマッチングベースの視差情報取得処理について簡単に説明する。
 図2に示すように、入力したオリジナルの標準画像である、
 (a)左視点画像(L画像)と、
 (b)右視点画像(R画像)、
 これらの入力LR画像を利用し、例えばL画像の画素領域(ブロック)121を選択し、その選択ブロックと類似するブロックをR画像中から検出する。すなわち、同一被写体の撮影領域であると判断されるブロック(マッチングブロック)をLR画像から選択する。さらに、LR画像間におけるマッチングブロックの位置ずれ(水平方向の画素数等)を測定する。
 図2において、例えばL画像の画素領域(ブロック)121の注目画素LP=(5,3)の、R画像における対応画素は、RP=(7,3)である。
 この場合、L画像の画素位置(x,y)=(5,3)のLR画像間の視差d(5,3)は以下のように算出される。
 視差d(5,3)=(7,3)-(5,3)=(2,0)、
 すなわち、
 L画像の画素位置(x,y)=(5,3)の視差dは2画素[pixel]となる。
 ブロックの位置ずれは、そのブロックに撮影されている被写体の距離に応じて変動する。
 すなわち、ブロックの位置ずれが被写体距離に対応し、この位置ずれ情報を視差情報として取得する。
 なお、この視差情報の表現形式として例えばデプスマップ(距離画像あるいは視差マップ)がある。デプスマップ(視差マップ)は、例えばL画像、R画像の各画素単位の視差(被写体距離)を画素単位の輝度によって表現した画像であり、例えば高輝度領域は、近い(カメラに近い)被写体、低輝度領域は、遠い(カメラから遠い)被写体を示す。すなわち被写体距離が輝度によって示された画像である。
  [3.仮想視点画像生成部の実行する入力LR画像に基づく基本的な仮想視点画像の生成処理について]
 次に、仮想視点画像生成部105の実行する入力LR画像に基づく基本的な仮想視点画像の生成処理について説明する。
 仮想視点画像生成部105は、
 左視点画像(L画像)入力部101からL画像、
 右視点画像(R画像)入力部102からR画像、
 視差推定部103から視差情報、
 信頼度算出部104から信頼度情報、
 これらの各情報を入力して、仮想視点画像を生成する。
 例えば予め設定した数(例えば10)の仮想視点を決定し、これらの各仮想視点に対応する仮想視点画像を生成する。仮想視点画像は、入力した標準LR画像を利用して生成する。すなわち、入力画像である左視点画像(L画像)と右視点画像(R画像)を利用して生成する。
 具体的な仮想視点画像の生成処理例について、図3以下を参照して説明する。
 図3には、画像処理装置に入力するオリジナルの左視点画像(L画像)131と右視点画像(R画像)132、さらに、これらのLR画像に基づいて生成する仮想視点画像133を示している。
 左視点画像(L画像)131は標準位置における左眼視点位置から観察した画像であり、右視点画像(R画像)132は標準位置における右眼視点位置から観察した画像である。
 左視点画像(L画像)131の視点位置を0.0、
 右視点画像(R画像)132の視点位置を1.0とする。
 図3は、例えばこの視点位置0.0~1.0の間の視点位置=0.3からの観察画像を仮想視点画像133として生成する場合の処理例を示している。
 左視点画像(L画像)131と右視点画像(R画像)132にはそれぞれ異なる位置に同一被写体(リンゴ)が撮影されている。L画像と、R画像において、この同一被写体の位置は、視点位置が異なるために、異なる位置となっている。
 視点位置=0.0と視点位置1.0の間の視点位置=0.3の仮想視点画像103を生成する場合、この被写体(リンゴ)の位置を線型補間によって設定する。図3に示す直線L1に沿って被写体位置を変更することによって、各仮想視点における仮想視点画像の被写体位置を決定して仮想視点画像を生成することができる。
 このように入力LR画像に基づく線形補間処理によって各仮想視点位置の仮想視点画像を生成する。
 なお、仮想視点画像を生成する場合、入力LR画像の双方を利用して2つの画像をブレンドする処理によって生成することができる。
 あるいは、L画像のみ、あるいはR画像のみを利用して仮想視点位置に応じて被写体位置をずらす処理によって、1つの画像のみを利用して生成することもできる。
 あるいは、L画像側に近い仮想視点位置ではL画像のみを利用して仮想視点画像を生成し、R画像に近い位置ではR画像のみを利用して仮想視点画像を生成するといった処理を行ってもよい。
 入力LR画像のブレンド処理に基づく仮想視点画像131の画素値の決定処理例について図4を参照して説明する。
 図4には、
 視点位置=0である入力左視点画像(L画像)の画素P(x,y)141、
 視点位置=1である入力右視点画像(R画像)におけるL画像の画素Pの対応画素142、
 視点位置=Φである仮想視点画像におけるL画像の画素Pの対応画素143、
 これらを示している。
 なお、
 Φ=0~1
 である。
 左視点画像(L画像)の画素P(x,y)141の視差がd(x,y)[pixel]である場合、
 仮想視点画像におけるL画像の画素P(x,y)の対応画素143の画素位置は、
 画素Q(x+Φ・d(x,y),y)とする。
 すなわち、仮想視点画像における画素Q(x+Φ・d(x,y),y)の画素値を、左視点画像(L画像)の画素P(x,y)141の画素値に設定する。
 仮想視点画像の各画素の画素値は、このように、左視点画像(L画像)の画素の視差情報に基づいて設定する。
 なお、この処理によって、仮想視点画像の埋まらなかった画素は、右視点画像(R画像)を適用した処理や隣接画素の画素値による補間処理、左視点画像の同一座標の画素で補間する処理などによって画素値を決定する。
 図5には、
 左視点画像(L画像)の水平ライン151、
 右視点画像(R画像)の水平ライン152
 仮想視点画像の水平ライン153、
 を示している。
 図に示す矢印は、仮想視点画像の水平ライン153の画素値を決定するために適用可能な左視点画像(L画像)の画素位置と、右視点画像(R画像)の画素位置を結ぶラインである。
 図5に示す仮想視点画像の水平ライン153において、
 1=左視点画像(L画像)の水平ライン151の構成画素値によって画素値の設定された領域
 2=右視点画像(R画像)の水平ライン153の構成画素値によって画素値の設定された領域
 3=その他の領域
 である。
 このように、仮想視点画像の画素値の設定は、例えば、以下の3つの処理によって実行される。
 1.左視点画像(L画像)の各画素に対して、出力視点位置で対応する画素位置を求め、その画素位置に左視点画像(L画像)の画素値を補間する。
 2.右視点画像(R画像)の各画素に対して、出力視点位置で対応する画素位置を求め、その画素位置に右視点画像(R画像)の画素値を補間する。
 3.上記1,2の処理でも補間されない出力視点画像の画素は、隣接画素に基づく補間処理を行う。
 なお、図4、図5を参照して説明した処理は入力LR画像に基づいてこれらのLR画像と異なる仮想視点からの画像を生成する基本的な処理である。
 本開示の画像処理装置の仮想視点画像生成部105は、この基本的な処理をベースとして、さらに、信頼度算出部104から入力する信頼度情報を適用して、信頼度情報に基づいて生成する仮想視点位置等を決定して最終的な仮想視点画像を生成する。
 この処理については後段で詳細に説明する。
  [4.信頼度算出部の処理について]
 次に、信頼度算出部104の実行する処理について説明する。
 信頼度算出部104は、視差推定部103が入力LR画像に基づいて推定した各画素単位あるいは画素領域単位の視差情報の信頼度を算出する。
 信頼度算出部104は、図6に示すように、
 左視点画像(L画像)入力部101から、左視点画像(L画像)、
 右視点画像(R画像)入力部102から、右視点画像(R画像)、
 視差推定部103から推定視差情報を入力する。
 信頼度算出部104は、これらの入力情報に基づいて、第1~第5信頼度算出部171~175において、複数の異なる処理によって複数の信頼度(R0~R4)を算出し、演算部181において、これら複数の信頼度(R0~R4)を適用して、最終的な推定視差情報の信頼度情報を算出して仮想視点画像生成部105に出力する。
 演算部181は、第1~第5信頼度算出部171~175において算出した信頼度R0,R1,R2,R3,R4について、予め設定された重み係数α0,α1,α2,α3,α4を適用した以下の式に従って重み付き和(R)を算出し、この算出値を最終的な信頼度情報として仮想視点画像生成部105に出力する。
 R=α0・R0+α1・R1+α2・R2+α3・R3+α4・R4
 なお、図6には第1~第5信頼度算出部171~175、これら5種類の信頼度算出部を示しているが、これら5つの全てではなく1つ以上の信頼度算出部を用いる構成としてもよい。あるいはさらに、他の信頼度を適用した構成とすることも可能である。
 以下、図6に示す第1~第5信頼度算出部171~175の実行する信頼度算出処理の詳細について、説明する。
  (4-1.第1信頼度算出部の実行する信頼度算出処理について)
 第1信頼度算出部171は、視差補償の残差成分に基づく信頼度(R0)を算出する。
 すなわち、視差推定部103から入力する画素単位の推定視差情報を適用して視差補償画像を生成し、この視差補償画像に含まれる画素値に基づいて、視差推定部103の生成した推定視差情報の信頼度を判定する。
 視差補償の残差成分に基づく信頼度(R0)算出処理例に関する複数の処理例について説明する。
  (4-1-1.残差成分に基づく信頼度(R0)算出処理例1)
 図7は、第1信頼度算出部171の実行する残差成分に基づく信頼度(R0)算出処理例1について説明する図である。
 第1信頼度算出部171は、まず、左視点画像(L画像)入力部101から入力するL画像201に対して、視差推定部103から入力する画素単位の推定視差情報202を適用して視差補償画像203を生成する。
 推定視差情報202は、例えば視差マップとも呼ばれ、視差推定部103の生成した視差情報を輝度で表現した画像データである。視差マップは、視差(被写体距離)を画素単位の輝度によって表現した画像であり、例えば高輝度領域は、近い(カメラに近い)被写体、低輝度領域は、遠い(カメラから遠い)被写体を示す。すなわち被写体距離が輝度によって示された画像である。
 視差補償画像203は、L画像201に対して、視差推定部103から入力する画素単位の推定視差情報202を適用して生成される仮想視点画像である。ただし、この仮想視点は、右視点画像(R画像)入力部102から入力するR画像の視点位置(位相=1)に相当する視点位置である。
 推定視差情報202を適用して生成した視差補償画像203は、視差推定部103の生成した画素単位の推定視差情報202が正しければ、右視点画像(R画像)入力部102から入力するR画像に一致することになる。
 しかし、実際には、視差推定部103の生成した推定視差情報202には、推定エラー等が含まれ、L画像201に基づいて生成した視差補償画像203と、右視点画像(R画像)入力部102から入力する入力R画像204とには差分が発生する。
 この視差補償画像203と、入力R画像204との対応画素単位の画素値差分を画像単位で算出したマップ、すなわち、図に示す残差マップ205を生成する。図に示す残差マップ205は、視差補償画像203と、入力R画像204との対応画素単位の画素値差分を濃淡情報で表現したマップである。例えば黒い部分がより差分が大きいことを示す。
 この残差マップ205から、画素単位の差分である残差と予め設定した閾値(Th)を比較し、閾値(Th)より大きい残差を持つ画素数をカウントする。このカウント値をNとして、Nの値に応じて、視差推定部103の生成した推定視差情報の信頼度R0を決定する。
 すなわち、閾値(Th)より大きい残差を持つ画素数Nが多い場合は、視差推定部103の生成した推定視差情報の信頼度R0は低い。
 一方、閾値(Th)より大きい残差を持つ画素数Nが少ない場合は、視差推定部103の生成した推定視差情報の信頼度R0は高いと判定する。
 閾値(Th)より大きい残差を持つ画素数Nと、視差推定部103の生成した推定視差情報の信頼度R0との対応関係は、具体的には、例えば図8に示すような対応関係として規定される。
 すなわち、第1信頼度算出部171は、視差推定部103の生成した推定視差情報の信頼度R0の値を、閾値(Th)より大きい残差を持つ画素数Nの値に応じて、以下のように算出する。
 0≦N≦Nmin:信頼度R0=R0max
 Nmin≦N≦Nmax:信頼度R0=R0max~R0min
 Nmax≦N:信頼度R0=R0min
 なお、
 Nmin、Nmax、
 R0min、R0max、
 これらの値は予め既定した値を用いる。
 また、Nmin≦N≦Nmaxの範囲では、信頼度R0は、R0max~R0min間を直線的に変化させる。
 なお、上記処理例では、L画像を基準として、L画像に基づいて視差補償画像を生成する処理例について説明したが、上述した処理におけるL画像をR画像に置き換えた処理を行ってもよい。すなわち、R画像を基準としてR画像に基づいて視差補償画像を生成して処理を行う構成としてもよい。
 なお、以下の処理例においてもすべてL画像を基準として実行する処理について説明するが、これらの処理においてもLR画像を入れ替えた処理として実行する構成としてもよい。
  (4-1-2.残差成分に基づく信頼度(R0)算出処理例2)
 次に、図9、図10を参照して、第1信頼度算出部171の実行する残差成分に基づく信頼度(R0)算出処理例2について説明する。
 本処理例2では、入力画像であるL画像に対して、視差推定部103から入力する画素単位の推定視差情報を適用して、視差に対応する距離をシフトさせた入力R画像の画素位置を、対応画素位置として求める。
 L画像の各画素と、上記の処理で求めたR画像の対応画素位置の画素値の差分を残差Dとして算出する。
 画像全体の残差Dの加算値に基づいて、視差推定部103の生成した推定視差情報の信頼度を判定する。
 図9は、第1信頼度算出部171の実行する残差成分に基づく信頼度(R0)算出処理例2について説明する図である。
 第1信頼度算出部171は、まず、左視点画像(L画像)入力部101から入力するL画像211の各画素に対応する視差情報を、視差推定部103の生成した推定視差情報212に基づいて取得する。
 ここでは、水平方向(X方向)のみに視差が存在すると仮定する。
 例えばL画像211の画素(x,y)に対する視差をd(x)とする。d(x)は例えば2pixel(2画素)等の視差に相当する画素数として表現される。
 第1信頼度算出部171は、L画像211の画素(x,y)に対する視差d(x)に基づいて、右視点画像(R画像)入力部102から入力するR画像213の対応画素位置を決定する。すなわち、L画像211の画素(x,y)と同じR画像213の画素位置(x,y)から視差d(x)に相当する距離、水平方向に移動した位置を対応画素位置として設定する。
 視差推定部103の推定視差情報が正確な値であれば、このR画像213における対応画素位置の画素値は、L画像211の画素(x,y)と同じ画素値を持つ。
 しかし、視差推定部103の推定視差情報が不正確な値であれば、このR画像213における対応画素位置の画素値は、L画像211の画素(x,y)と異なる画素値となる可能性が高い。
 このL画像211とR画像213の対応画素の画素値差分を残差成分(D)として算出する。例えば、画像全体の残差成分を濃淡情報で表現した残差マップ214を生成する。
 図に示す残差マップ214は、L画像211とR画像213の対応画素の画素値差分(残差)を濃淡情報で表現したマップである。例えば黒い部分がより差分が大きいことを示す。
 この残差マップ214に示される画素単位の差分(残差)を画像全体で加算した値を残差成分量Dとして算出する。
 この残差成分量Dの値に応じて、視差推定部103の生成した推定視差情報の信頼度R0を決定する。
 すなわち、残差成分量Dが大きい場合は、視差推定部103の生成した推定視差情報の信頼度R0は低い。
 一方、残差成分量Dが小さい場合は、視差推定部103の生成した推定視差情報の信頼度R0は高いと判定する。
 残差成分量Dと、視差推定部103の生成した推定視差情報の信頼度R0との対応関係は、具体的には、例えば図10に示すような対応関係として規定される。
 すなわち、第1信頼度算出部171は、視差推定部103の生成した推定視差情報の信頼度R0の値を、残差成分量Dの値に応じて、以下のように算出する。
 0≦D≦Dmin:信頼度R0=R0max
 Dmin≦D≦Dmax:信頼度R0=R0max~R0min
 Dmax≦D:信頼度R0=R0min
 なお、
 Dmin、Dmax、
 R0min、R0max、
 これらの値は予め既定した値を用いる。
 また、Dmin≦D≦Dmaxの範囲では、信頼度R0は、R0max~R0min間を直線的に変化させる。
 なお、図7~図10を参照して説明した処理は、視差推定部103から入力する画素単位の推定視差情報を適用した残差成分に基づく推定視差の信頼度算出処理を行うものであるが、例えば推定視差の誤り、すなわち残差成分の残る仮想視点画像を生成した場合でも、残差成分は、画像の各領域の特徴(素性)によって目立つ場合と影響の少ない場合があるため、残差成分に基づく信頼度判定に際しては、画像の各領域の特徴によって異なる処理を行う設定としてもよい。
 具体的には、例えば、残差成分の残る仮想視点画像を生成した場合、
 テクスチャ領域では、残差成分、すなわち推定視差のずれによる画像に対する影響が大きくなり、画像を観察した場合にエラーが目立つことになる。
 一方、平坦領域では、残差成分、すなわち推定視差のずれによる画像に対する影響が小さくなり、画像を観察した場合でもエラーが目立つことは少ない。
 このような事情を考慮して、画像の領域の特徴(素性)を検出し、検出した画像領域単位の特徴に応じて、残差成分の導出方法を適応的に変更する設定としてもよい。
 例えば画像領域の特徴量として、以下のような特徴量を検出する。
 空間アクティビティ
 ダイナミックレンジ
 また、上記の画像領域単位の特徴量に応じて、残差成分に応じて算出する信頼度を適応的に変化させる。具体的には、例えば、
 先に図8、図10を参照して説明した信頼度算出処理に用いる各種のパラメータ、すなわち、
 図8のグラフに示す以下のパラメータ、
 Nmin、Nmax、
 R0min、R0max、
 図10のグラフに示す以下のパラメータ、
 Dmin、Dmax、
 R0min、R0max、
 あるいは、図7に示す閾値(Th)、
 これらのパラメータを画像領域単位の特徴量に応じて変更するといた処理を行う。
 具体例について、図11を参照して説明する。
 図11は、画像、例えば入力L画像に対して画素単位の特徴量として空間アクティビティを検出し、空間アクティビティの値に応じて図7に示す閾値(Th)を変更して、残差成分の指標としてのカウント値(N)を変更する設定とした例を示す図である。
 なお、空間アクティビティは、例えば図11(空間アクテイビティ算出処理例)に示すように、注目画素を中心とする画素領域(例えば3×3画素)における隣接画素間の画素値差分の絶対値の総和として算出する。
 画素値差分の絶対値総和の値が大きい領域はテクスチャ領域(エッジ領域)であり、小さい領域は平坦領域であると判定することができる。
 図11に示すグラフは、横軸が空間アクティビティ、縦軸が残差成分であり、各点は、各画素の空間アクティビティと残差成分の値に対応する。
 ここで、図7を参照して説明した閾値(Th)、すなわち残差ありと判定するカウント数Nのカウント値として参入するか否かを規定する閾値(Th)を図に示すように、画像領域の空間アクティビティに応じて変化させる。
 このような設定とすることで、画像の各領域の特徴に応じた信頼度算出が行われることになる。
 図12は、図11と異なる処理例を示している。
 図11と同様、画像、例えば入力L画像に対して画素単位の特徴量として空間アクティビティを検出する。
 図12に示す例は、空間アクティビティの値に応じて図8、図10に示すパラメータ、
 Nmin、Nmax、
 Dmin、Dmax、
 これらのパラメータを変更して、残差成分に基づく信頼度算出処理を変更する。
 図12に示すグラフは、図11と同様、横軸が空間アクティビティ、縦軸が残差成分であり、各点は、各画素の空間アクティビティと残差成分の値に対応する。
 ここで、図8、図10に示すパラメータ、
 Nmin、Nmax、
 Dmin、Dmax、
 これらのパラメータを図に示すように、画像領域の空間アクティビティに応じて変化させる。
 このような設定とすることで、画像の各領域の特徴に応じた信頼度算出が行われることになる。
 図11、図12を参照して説明した処理例は、画像領域の特徴量として空間アクティビティを適用した処理例である。
 画像領域の特徴量としては、この他、ダイナミックレンジを適用してもよい。
 画像領域の特徴量としてダイナミックレンジを取得し、ダイナミックレンジの値に基づいて処理態様を変更する例について図13を参照して説明する。
 図13には、左視点画像(L画像)入力部101と、右視点画像(R画像)入力部102から入力した2つの画像領域、すなわち、
 (a)入力L画像の注目画素を中心とした3×3画素の画像領域
 (b)入力R画像の注目画素を中心とした3×3画素の画像領域
 これらを示している。
 これらの画像領域は、視差推定部103における視差推定処理によって対応する画素ブロックとして抽出された対応ブロックである。
 すなわち、視差推定が正しければ、この2つの画素ブロックには同一被写体の画像が撮影されている。
 (a)入力L画像の注目画素を中心とした3×3画素の画像領域に含まれる9画素から、
 最大の画素値(輝度値)を持つ画素の画素値(maxL)、
 最小の画素値(輝度値)を持つ画素の画素値(minL)、
 これらの画素値を取得する。
 同様に、
 (b)入力R画像の注目画素を中心とした3×3画素の画像領域に含まれる9画素から、
 最大の画素値(輝度値)を持つ画素の画素値(maxR)、
 最小の画素値(輝度値)を持つ画素の画素値(minR)、
 これらの画素値を取得する。
 さらに、注目画素に対応する残差成分を、
 L画像の画素ブロックの画素値の中間値とダイナミックレンジを用いた算出値(Lx)
 Lx=(maxL+minL)/2+α(maxL-minL)~(maxL+minL)/2-α(maxL-minL)
 と、
 R画像の画素ブロックの画素値の中間値とダイナミックレンジを用いた算出値(Rx)
 Rx=(maxR+minR)/2+α(maxR-minR)~(maxR+minR)/2-α(maxR-minR)
 これらを算出する。
 なお、
 (maxL+minL)/2は、L画像の画素ブロックの画素値の中間値
 (maxL-minL)は、L画像の画素ブロックの画素値のダイナミックレンジに対応する。
 (maxR+minR)/2は、R画像の画素ブロックの画素値の中間値
 (maxR-minR)は、R画像の画素ブロックの画素値のダイナミックレンジに対応する。
 αは係数である。
 さらに、LxとRxの差分の最小値を算出して、この差分を注目画素の残差成分とする。
 このとき、LxとRxの差分の最小値は、各画素ブロックのダイナミックレンジに応じて変化することになる。
 結果として、画素ブロック単位のダイナミックレンジに応じて算出される残差成分が適応的に調整される。
 このようなダイナミックレンジを画像領域の特徴量として用いて、画像の各領域のダイナミックレンジの値に応じた信頼度算出が可能となる。
  (4-2.第2信頼度算出部の実行する信頼度算出処理について)
 次に、図6に示す第2信頼度算出部172の実行する信頼度(R1)算出処理例について説明する。
 図6に示す第2信頼度算出部172は、視差マップの水平隣接画素差分に基づいて信頼度(R1)を算出する。視差マップは、視差推定部103の生成した視差情報を輝度表現した画像データである。
 図14は、仮想視点画像の生成処理例を示している。例えば、入力L画像の画素値を利用して、視差推定部103の生成した視差情報を利用して仮想視点画像の画素値を設定する場合を想定する。
 図14に示すL画像はL画像の1つの水平方向ラインを示し、矢印は、視差推定部103の生成した視差情報に対応する。
 L画像の画素領域aと画素領域bにおいて、異なる距離を持つ異なる被写体が設定されているような場合、
 L画像の領域aに対応する視差情報に従って、仮想視点画像の領域axにL画像の領域aと同様の画素値が設定される。
 同様に、L画像の領域bに対応する視差情報に従って、仮想視点画像の領域bxにL画像の領域bと同様の画素値が設定される。
 しかし、この場合、仮想視点画像の領域231には、L画像のどの領域も対応する画素値が存在せず、画素値の設定ができない領域、すなわち、画素値設定不可領域231となってしまう。
 このような画素領域に対しては、他の画像、あるいは生成した仮想視点画像の近傍画素の画素値を利用した補間処理が必要になる。しかし、結果としては不自然な画像になる可能性が高い。
 図6に示す第2信頼度算出部172の実行する信頼度(R1)算出処理では、このような画素値設定不可領域の発生可能性を画素単位で算出し、この可能性に応じて推定視差情報の信頼度R1を算出する。
 具体的な信頼度算出処理例について図15を参照して説明する。
 図6に示す第2信頼度算出部172は、図1に示す視差推定部103から推定視差情報232を入力する。
 図15に示す推定視差情報232は、各画素単位で、推定視差を画素の濃淡(輝度)で表現したものである。
 この視差推定情報に対して、注目画素を中心とした水平方向の3画素を順次選択する。さらに、
 注目画素の視差を示す画素値(輝度値)と左隣接画素の視差を示す画素値(輝度値)差分絶対値、
 注目画素の視差を示す画素値(輝度値)と右隣接画素の視差を示す画素値(輝度値)差分絶対値、
 これらを算出し、
 これらの2つの差分絶対値を加算して差分絶対値和(D)を算出する。
 この差分絶対値和Dに基づいて、視差推定部103の生成した推定視差情報の信頼度R1を決定する。
 すなわち、差分絶対値和Dが大きい場合は、視差推定部103の生成した推定視差情報の信頼度R1は低い。
 一方、差分絶対値和Dが小さい場合は、視差推定部103の生成した推定視差情報の信頼度R1は高いと判定する。
 差分絶対値和Dと、視差推定部103の生成した推定視差情報の信頼度R1との対応関係は、具体的には、例えば図16に示すような対応関係として規定される。
 すなわち、第2信頼度算出部172は、視差推定部103の生成した推定視差情報の信頼度R1の値を、差分絶対値和Dの値に応じて、以下のように算出する。
 0≦D≦Dmin:信頼度R1=R1max
 Dmin≦D≦Dmax:信頼度R1=R1max~R1min
 Dmax≦D:信頼度R1=R1min
 なお、
 Dmin、Dmax、
 R1min、R1max、
 これらの値は予め既定した値を用いる。
 また、Dmin≦D≦Dmaxの範囲では、信頼度R1は、R1max~R1min間を直線的に変化させる。
  (4-3.第3信頼度算出部の実行する信頼度算出処理について)
 次に、図6に示す第3信頼度算出部173の実行する信頼度(R2)算出処理例について説明する。
 図6に示す第3信頼度算出部173は、縦エッジ部の視差の垂直隣接画素差分に基づいて信頼度(R2)を算出する。
 縦エッジ部、すなわち垂直方向である縦方向のエッジが存在する画像領域では、水平方向に画素値や輝度が大きく変化する領域であり、このような縦エッジ部において、視差推定の誤りが発生すると、観察した3D画像の不自然さがより目立ってしまう。
 従って、画像の縦エッジ部においては、視差推定部103の生成する推定視差情報を利用した仮想視点画像を生成する場合、その推定視差情報は、横エッジ部よりさらに正確であることが求められる。
 第3信頼度算出部173は、上記事情を考慮して、画像領域単位で縦エッジの強度に応じた信頼度(R2)を算出する。
 なお、縦エッジ部であるか否かを判定するためには、例えば図17に示す方法が適用可能である。
 図17に示すようにL画像から、注目画素241を含む入力L画像の2×3画素領域を抽出し、これらの各隣接画素間の画素値(輝度値でも可)の差分絶対値を算出し、
 横(水平)方向の隣接画素間の複数の差分絶対値を加算した横方向差分絶対値和、
 縦(垂直)方向の隣接画素間の複数の差分絶対値を加算した縦方向差分絶対値和、
 これらを算出する。
 さらに、予め設定したしきい値:Th_H、Th_Vと比較する。すなわち、
 (1)横方向の差分絶対値和>Th_H
 (2)縦方向の差分絶対値和<Th_V
 この(1),(2)の双方を満たすか否かを判定する。
 上記(1),(2)の双方を満たす場合、
 注目画素241は縦エッジ部であると判定する。
 一方、上記(1),(2)のいずれか一方でも満たさない場合、
 注目画素241は縦エッジ部であると判定することができる。
 第3信頼度算出部173は、このような縦エッジの強度に応じた信頼度(R2)を算出する。
 なお、縦エッジの領域では、例えばブロックマッチング等の処理によって行われる視差推定部103の生成する推定視差情報の信頼度は高くなる。
 第3信頼度算出部173において実行する縦エッジの強度に応じた信頼度(R2)算出処理について図18を参照して説明する。
 図18に示すように、第3信頼度算出部173は、図1に示す視差推定部103から推定視差情報232を入力する。
 図18に示す推定視差情報232は、各画素単位で、推定視差を画素の濃淡(輝度)で表現したものである。
 この視差推定情報に対して、注目画素を中心とした垂直方向の3画素を順次選択する。さらに、
 注目画素の視差を示す画素値(輝度値)と上隣接画素の視差を示す画素値(輝度値)差分絶対値、
 注目画素の視差を示す画素値(輝度値)と下隣接画素の視差を示す画素値(輝度値)差分絶対値、
 これらを算出し、
 これらの2つの差分絶対値を加算して差分絶対値和(D)を算出する。
 この差分絶対値和Dに基づいて、視差推定部103の生成した推定視差情報の信頼度R2を決定する。
 差分絶対値和Dが大きい場合は、縦方向にも画素値(輝度)の大きな差が存在しており、縦エッジの傾向が低く、この場合は、視差推定部103の生成した推定視差情報の信頼度R2を低い値として設定する。
 一方、差分絶対値和Dが小さい場合は、縦方向の画素値(輝度)の差が少なく、縦エッジの傾向が高く、この場合は、視差推定部103の生成した推定視差情報の信頼度R2は高いと判定する。
 差分絶対値和Dと、視差推定部103の生成した推定視差情報の信頼度R2との対応関係は、具体的には、例えば図19に示すような対応関係として規定される。
 すなわち、第3信頼度算出部173は、視差推定部103の生成した推定視差情報の信頼度R2の値を、差分絶対値和Dの値に応じて、以下のように算出する。
 0≦D≦Dmin:信頼度R2=R2max
 Dmin≦D≦Dmax:信頼度R2=R2max~R2min
 Dmax≦D:信頼度R2=R2min
 なお、
 Dmin、Dmax、
 R2min、R2max、
 これらの値は予め既定した値を用いる。
 また、Dmin≦D≦Dmaxの範囲では、信頼度R2は、R2max~R2min間を直線的に変化させる。
  (4-4.第4信頼度算出部の実行する信頼度算出処理について)
 次に、図6に示す第4信頼度算出部174の実行する信頼度(R3)の算出処理例について説明する。
 図6に示す第4信頼度算出部174は、視差推定部103の生成する推定視差情報と、予め設定した推定視差の上限値や下限値との比較に基づいて信頼度(R3)を算出する。
 図1に示す画像処理装置100の視差推定部103は、先に例えば図2を参照して説明したブロックマッチング処理などを適用して入力LR画像間の視差を推定する。
 この視差推定処理では、処理の効率化のために、例えばブロックマッチングを行う場合にL画像に設定した1つのブロックに対してR画像に設定するブロックの設定範囲、すなわち探索範囲を予め設定して行われる。
 従って、実際の正しい視差が探索範囲を超えてしまう場合には、視差推定部103の生成する推定視差情報は所定の探索範囲に応じた上限値または下限値をとなる。
 推定視差情報として上限値または下限値が出力されている場合、実際の視差は、その上限値より大きい、または下限値より小さい可能性が高い。
 図6に示す第4信頼度算出部174は、このような上限値または下限値の視差が算出された画素領域を抽出して推定視差情報の信頼度(R3)を算出する。
 図20を参照して、図6に示す第4信頼度算出部174の実行する処理について説明する。
 図6に示す第4信頼度算出部174は、図20(a)に示すように左視点画像(L画像)入力部101から入力するL画像から、注目画素241を含む画素領域、例えば、注目画素241を中心画素とした3×3画素領域を抽出し、まず、注目画素241に対して、視差推定部103の生成した推定視差情報が上限値または下限値に達しているか否かを判定する。
 注目画素241に対応する推定視差情報が上限値または下限値に達していない場合は、その注目画素の信頼度(R3)は最大値(R3max)とする。
 注目画素241に対応する推定視差情報が上限値または下限値に達している場合は、注目画素241含む画素領域、例えば図20(a)に示す3×3画素領域の9個の画素について推定視差情報が上限値または下限値に達している画素の数(N)をカウントする。
 第4信頼度算出部174は、このカウント数(N)に応じて信頼度(R3)を算出する。
 推定視差情報が上限値または下限値に達している注目画素を含む画素領域(3×3画素)に含まれる画素において、推定視差情報が上限値または下限値に達している画素数(N)が多い場合は、その注目画素の実際の視差は、上限値より大きいまたは下限値より小さい可能性が高いと判定し、視差推定部103の生成した推定視差情報の信頼度R3を低い値として設定する。
 一方、推定視差情報が上限値または下限値に達している注目画素を含む画素領域(3×3画素)に含まれる画素において、推定視差情報が上限値または下限値に達している画素数(N)が少ない場合は、その注目画素の実際の視差は、上限値より大きいまたは下限値より小さい可能性がさほど高くないと判定し、視差推定部103の生成した推定視差情報の信頼度R3を高い値として設定する。
 画素カウント数Nと、視差推定部103の生成した推定視差情報の信頼度R3との対応関係は、具体的には、例えば図20(b)に示すような対応関係として規定される。
 すなわち、第4信頼度算出部174は、視差推定部103の生成した推定視差情報の信頼度R3の値を、推定視差が上限値または下限値に達している注目画素を含む画素領域(3×3画素)に含まれる推定視差が上限値または下限値に達している画素数Nの値に応じて、以下のように算出する。
 0≦N≦Nmin:信頼度R3=R3max
 Nmin≦N≦Nmax:信頼度R3=R3max~R3min
 Nmax≦N:信頼度R3=R3min
 なお、
 Nmin、Nmax、
 R3min、R3max、
 これらの値は予め既定した値を用いる。
 また、Nmin≦N≦Nmaxの範囲では、信頼度R3は、R3max~R3min間を直線的に変化させる。
  (4-5.第5信頼度算出部の実行する信頼度算出処理について)
 次に、図6に示す第5信頼度算出部175の実行する信頼度(R4)の算出処理例について説明する。
 図6に示す第5信頼度算出部175は、図21(1)に示すように、視差推定部103の生成した推定視差情報に基づいてL画像の各画素(a)に対応するR画像の対応画素位置(b)を算出する。さらに、そのR画像における算出画素位置(b)に対応するL画像間の視差を推定して、L画像の対応画素位置(c)を算出する。
 推定された視差が正しければ、(a)=(c)となる。すなわち、図に示す、
 移動量(X)=0
 となる。
 しかし、推定視差情報が誤りである場合は、
 移動量(X)≠0
 となる。
 図6に示す第5信頼度算出部175は、このような処理によって、信頼度(R4)を算出する。
 なお、この処理の前提として、
 視差推定部103は、
 左視点画像(L画像)入力部101から入力するL画像に対応するR画像の対応画素位置の検出情報に基づくL画像ベースの推定視差情報、
 右視点画像(R画像)入力部102から入力するR画像に対応するL画像の対応画素位置の検出情報に基づくR画像ベースの推定視差情報、
 これらの2つの推定視差情報を生成して第5信頼度算出部175に提供しているものとする。
 図6に示す第5信頼度算出部175は、具体的には以下の処理を順次実行する。
 (処理1)左視点画像(L画像)入力部101から入力するL画像の注目画素(a)について、視差推定部103の生成したL画像ベースの推定視差情報に基づいて右視点画像(R画像)入力部102から入力するR画像における対応画素位置(b)を取得する。
 (処理2)右視点画像(R画像)入力部102から入力するR画像の画素(b)に対して、視差推定部103の生成したR画像ベースの推定視差情報に基づいてL画像における対応画素位置(c)を取得する。
 (処理3)L画像における画素(a)と画素(c)の距離(移動量X)を取得して、規定しきい値(TH_X)と比較
 (処理4)左視点画像(L画像)入力部101から入力するL画像の全画素について上記処理1~3を実行し、以下の判定式を満足する画素数(C)をカウント
 移動量X≧TH_X
 図6に示す第5信頼度算出部175は、この上記判定式を満足する画素数(C)に応じて推定視差情報の信頼度(R4)を算出する。
 上記判定式を満足する画素数(C)が多い場合は、視差推定部103の生成した推定視差情報の信頼度R4を低い値として設定する。
 一方、上記判定式を満足する画素数(C)が少ない場合は、視差推定部103の生成した推定視差情報の信頼度R4を高い値として設定する。
 画素数Cと、視差推定部103の生成した推定視差情報の信頼度R4との対応関係は、具体的には、例えば図21(b)に示すような対応関係として規定される。
 すなわち、第5信頼度算出部175は、視差推定部103の生成した推定視差情報の信頼度R4の値を、左視点画像(L画像)入力部101から入力するL画像の全画素について以下の判定式、
 移動量X≧TH_X
 を満足する画素数(C)の値に応じて、以下のように算出する。
 0≦C≦Cmin:信頼度R4=R4max
 Cmin≦C≦Cmax:信頼度R4=R4max~R4min
 Cmax≦C:信頼度R4=R4min
 なお、
 Cmin、Cmax、
 R4min、R4max、
 これらの値は予め既定した値を用いる。
 また、Cmin≦C≦Cmaxの範囲では、信頼度R4は、R4max~R4min間を直線的に変化させる。
  (4-6.信頼度算出部における最終的な信頼度算出処理について)
 図6を参照して説明したように、信頼度算出部104は、図6に示すように、
 左視点画像(L画像)入力部101から、左視点画像(L画像)、
 右視点画像(R画像)入力部102から、右視点画像(R画像)、
 視差推定部103から推定視差情報を入力し、これらの入力情報に基づいて、上述したように、第1~第5信頼度算出部171~175において、複数の異なる処理によって複数の信頼度(R0~R4)を算出する。
 図6に示す演算部181は、これら複数の信頼度(R0~R4)を適用して、最終的な信頼度情報を算出して仮想視点画像生成部105に出力する。
 演算部181は、第1~第5信頼度算出部171~175において算出した信頼度R0,R1,R2,R3,R4について、予め設定された重み係数α0,α1,α2,α3,α4を適用した以下の式に従って重み付き和(R)を算出し、この算出値を最終的な信頼度情報として仮想視点画像生成部105に出力する。
 R=α0・R0+α1・R1+α2・R2+α3・R3+α4・R4
 なお、図6には、第1~第5信頼度算出部171~175、これら5種類の信頼度算出部を示しているが、これら5つの全てではなく1つ以上の信頼度算出部を用いる構成としてもよい。あるいはさらに、他の信頼度を適用した構成とすることも可能である。
  [5.仮想視点画像生成部の処理について]
 次に、図1に示す仮想視点画像生成部105の具体的処理例について説明する。
 仮想視点画像生成部105は、
 左視点画像(L画像)入力部101からL画像、
 右視点画像(R画像)入力部102からR画像、
 視差推定部103から視差情報、
 信頼度算出部104から信頼度情報、
 これらの各情報を入力して、仮想視点画像を生成する。
 仮想視点画像生成部105は、信頼度算出部104から入力する信頼度情報に従って、仮想視点位置の決定処理等を実行して、決定した仮想視点位置に対応する仮想視点画像を生成する。
 仮想視点画像生成部105は、信頼度算出部104から入力する信頼度情報に応じて、視差量を調整、すなわち生成する仮想視点位置(位相)を決定して、決定した仮想視点位置(位相)に対応する仮想視点画像を生成する。
 具体的には、仮想視点画像生成部105は、例えば、生成する仮想視点画像の視差間隔を信頼度算出部104から入力する信頼度が高い場合には広く設定し、低い場合には狭く設定した仮想視点画像を生成する。
 以下、仮想視点画像生成部105の複数の具体的構成例について、順次、説明する。
  (5-1.信頼度算出部から入力する信頼度情報に応じた仮想視点位置を決定する構成例)
 仮想視点画像生成部105の1つの実施例を、図22を参照して説明する。
 図22に示すように、本実施例の仮想視点画像生成部105は、視差調整部311と、画像合成部312を有する。
 視差調整部311は、信頼度算出部104の算出した信頼度情報、すなわち視差推定部103の生成した推定視差情報の信頼度を入力する。
 この信頼度は、前述したように、たとえば、複数の異なる信頼度情報(R0~R4)の重み付け加算値である。具体的には、
 信頼度R=α0・R0+α1・R1+α2・R2+α3・R3+α4・R4
 ただし、α0,α1,α2・・・は予め設定した重み係数、
 上記式に従って、算出した信頼度Rを入力する。信頼度Rは、0~1の値を持ち、最も高い信頼度の場合、R=1、最も低い信頼度の場合、R=0となる。
 視差調整部311は、入力した信頼度Rに応じて、生成すべき仮想視点画像の視差、すなわち、生成する仮想視点画像の位置(位相)を決定する。
 具体的には、0~1の値を持つ信頼度Rの値に応じて、図23に示すような仮想視点位置の決定処理を行う。
 図23は、信頼度R=0~1の場合における仮想視点画像位置の設定例を示した図である。
 視点位置=0は、入力L画像に対応する視点位置、
 視点位置=1は、入力R画像に対応する視点位置、
 である。
 すなわち、信頼度=1のライン上の、
 画像b321は、左視点画像(L画像)入力部101から入力する入力L画像、
 画像h322は、右視点画像(R画像)入力部102から入力する入力R画像、
 に対応する。
 信頼度=1のライン上のその他の縦ラインは、信頼度算出部104の算出した信頼度情報Rが、R=1、最も信頼できる値である場合、仮想視点画像生成部105において生成する仮想視点画像の位置(位相)を示す。
 この例では、入力LR画像を含めて、a~iまで合計9個の異なる視点の画像を生成して出力するものとする。
 信頼度算出部104の算出した信頼度情報Rが、R=1の場合は、視差調整部311は、図23の上段にあるa~iの画像を仮想視点画像の設定位置として決定し、この仮想視点位置情報を図22に示す画像合成部312に出力する。
 図22に示す画像合成部312は、視差調整部311から入力する仮想視点画像の設定位置情報に基づいて、その設定位置に対応する仮想視点画像を入力L画像と入力R画像を適用して生成する。
 なお、仮想視点画像の生成処理は、先に、図3、図4を参照して説明した処理に従って行われる。
 また、信頼度算出部104の算出した信頼度情報Rが、R=0.5、すなわち中程度の信頼度である場合は、視差調整部311は、図23の中段にあるa2~i2の画像を仮想視点画像の設定位置として決定し、この仮想視点位置情報を図22に示す画像合成部312に出力する。
 図22に示す画像合成部312は、視差調整部311から入力する仮想視点画像の設定位置情報に基づいて、その設定位置に対応する仮想視点画像を入力L画像と入力R画像を適用して生成する。
 この中低度の信頼度=0.5の場合、図から理解されるように、仮想視点画像a2~i2の視差範囲は、信頼度R=1の高信頼度の場合の仮想視点画像a~iの視差範囲より狭くなる。
 また、信頼度算出部104の算出した信頼度情報Rが、R=0の場合、すなわち全く信用できない場合は、視差調整部311は、図23の下段にある画像333を仮想視点画像の設定位置として決定し、この仮想視点位置情報を図22に示す画像合成部312に出力する。
 図22に示す画像合成部312は、視差調整部311から入力する仮想視点画像の設定位置情報に基づいて、その設定位置に対応する仮想視点画像を入力L画像と入力R画像を適用して生成する。
 なお、図23の下段にある画像333の画像位置は、入力R画像の画像位置に対応する。すなわち、この場合、新たな仮想視点画像を生成することなく、入力R画像をそのまま出力する。
 なお、この場合、仮想視点画像生成部105は、入力L画像についてもそのまま出力し、表示部には入力LR画像のみが出力されることになる。
 視差調整部311は、仮想視点画像の設定位置(位相)の算出処理を以下のアルゴリズムに従って実行する。
 なお、信頼度R=1の場合に生成する仮想視点画像については予め決定しておく。図23に示すa~iの位置である。
 信頼度算出部104から入力する信頼度情報をRとする。
 ただし、R=0~1である。
 信頼度R=1の場合の仮想視点画像位置(位相)をV0とする。
 このとき、信頼度Rに応じて設定する仮想視点画像位置(位相)Vは以下の式に従って算出する。
 V=(V0-1)・R+1
 図23に示す仮想視点画像331の位置(位相)は、信頼度:R=1の場合に出力予定の仮想視点画像位置である。
 この仮想視点画像位置(位相):V=0.3とする。
 このVの値を利用して、各信頼度R=0~1の場合の仮想視点画像位置(位相)を上記式に従って算出する。
 例えば、信頼度R=0.5の場合、仮想視点画像331の位置(位相)V=0.3を用いて、図23に示す仮想視点画像位置332(d2)の位置(V)を、上記式に従って算出できる。すなわち、
 V=(V0-1)・R+1
 =(0.3-1)・0.5+1
 =0.85
 となる。
 例えば、信頼度R=0の場合、仮想視点画像331の位置(位相)V=0.3を用いて、図23に示す仮想視点画像位置333(d3)の位置(V)を、上記式に従って算出できる。すなわち、
 V=(V0-1)・R+1
 =(0.3-1)・0+1
 =1
 となる。
 このように視差調整部311は、信頼度算出部104の算出した信頼度情報Rを入力し、入力した信頼度情報Rの値に応じて仮想視点画像の設定位置を決定し、この仮想視点位置情報を図22に示す画像合成部312に出力する。
 図22に示す画像合成部312は、視差調整部311から入力する仮想視点画像の設定位置情報に基づいて、その設定位置に対応する仮想視点画像を入力L画像と入力R画像を適用して生成する。
  (5-2.信頼度と最適視差量との対応関係情報と信頼度算出部から入力する信頼度情報に応じた仮想視点位置を決定する構成例)
 次に、信頼度と最適視差量との対応関係情報と信頼度算出部から入力する信頼度情報に応じた仮想視点位置を決定する仮想視点画像生成部105の実施例を、図24を参照して説明する。
 図24に示すように、本実施例の仮想視点画像生成部105は、図22を参照して説明したと同様の視差調整部311と、画像合成部312、さらに、信頼度と最適視差量との対応関係情報を格納した信頼度データベース313を有する。
 視差調整部311は、信頼度算出部104の算出した信頼度情報、すなわち視差推定部103の生成した推定視差情報の信頼度を入力する。
 この信頼度は、前述したように、たとえば、複数の異なる信頼度情報(R0~R4)の重み付け加算値である。具体的には、
 信頼度R=α0・R0+α1・R1+α2・R2+α3・R3+α4・R4
 ただし、α0,α1,α2・・・は予め設定した重み係数、
 上記式に従って、算出した信頼度Rを入力する。信頼度Rは、0~1の値を持ち、最も高い信頼度の場合、R=1、最も低い信頼度の場合、R=0となる。
 視差調整部311は、
 信頼度算出部104の算出した信頼度R、さらに、
 信頼度データベース313から、信頼度と最適視差量との対応関係情報、
 これらを入力する。
 視差調整部311は、
 これらの情報に基づいて、調整信頼度を算出し、調整信頼度に基づいて、生成すべき仮想視点画像の視差、すなわち、生成する仮想視点画像の位置(位相)を決定する。
 信頼度データベース313には、最適視差量との対応関係情報の関係データが格納されている。例えば図25に示すデータである。
 このデータは、予め準備した学習データ、例えば、様々な信頼度の視差を持つ学習データを観察させて、観察者が快適に3D画像を観察できた視差を最適視差量として決定したデータである。
 視差調整部311は、信頼度データベース313に格納された最適視差量との対応関係情報の関係データを取得して、信頼度算出部104の算出した信頼度Rに対応する係数pを算出する。係数pは、信頼度Rに対応する乗数であり、最適視差量を設定するための調整信頼度pRを算出するための係数である。係数pは、例えば最小二乗法などの回帰分析処理を適用して求める。
 視差調整部311は、算出した係数pを信頼度算出部104の算出した信頼度Rに乗算して調整信頼度pRを算出する。この調整信頼度pRに応じて、図26に示すような仮想視点位置の決定処理を行う。
 図26は、調整信頼度pR=0~1の場合における仮想視点画像位置の設定例を示した図である。
 視点位置=0は、入力L画像に対応する視点位置、
 視点位置=1は、入力R画像に対応する視点位置、
 である。
 すなわち、調整信頼度=1のライン上の、
 画像b321は、左視点画像(L画像)入力部101から入力する入力L画像、
 画像h322は、右視点画像(R画像)入力部102から入力する入力R画像、
 に対応する。
 調整信頼度=1のライン上のその他の縦ラインは、調整信頼度情報pRが、pR=1、最も信頼できる値である場合、仮想視点画像生成部105において生成する仮想視点画像の位置(位相)を示す。
 この例では、入力LR画像を含めて、a~iまで合計9個の異なる視点の画像を生成して出力するものとする。
 調整信頼度情報pRが、pR=1の場合は、視差調整部311は、図23の上段にあるa~iの画像を仮想視点画像の設定位置として決定し、この仮想視点位置情報を図24に示す画像合成部312に出力する。
 図24に示す画像合成部312は、視差調整部311から入力する仮想視点画像の設定位置情報に基づいて、その設定位置に対応する仮想視点画像を入力L画像と入力R画像を適用して生成する。
 なお、仮想視点画像の生成処理は、先に、図3、図4を参照して説明した処理に従って行われる。
 また、調整信頼度情報pRが、pR=0.5、すなわち中程度の信頼度である場合は、視差調整部311は、図26の中段にあるa2~i2の画像を仮想視点画像の設定位置として決定し、この仮想視点位置情報を図24に示す画像合成部312に出力する。
 図24に示す画像合成部312は、視差調整部311から入力する仮想視点画像の設定位置情報に基づいて、その設定位置に対応する仮想視点画像を入力L画像と入力R画像を適用して生成する。
 この中低度の調整信頼度=0.5の場合、図から理解されるように、仮想視点画像a2~i2の視差範囲は、調整信頼度R=1の高信頼度の場合の仮想視点画像a~iの視差範囲より狭くなる。
 また、調整信頼度情報pRが、pR=0の場合、すなわち全く信用できない場合は、視差調整部311は、図26の下段にある画像333を仮想視点画像の設定位置として決定し、この仮想視点位置情報を図24に示す画像合成部312に出力する。
 図24に示す画像合成部312は、視差調整部311から入力する仮想視点画像の設定位置情報に基づいて、その設定位置に対応する仮想視点画像を入力L画像と入力R画像を適用して生成する。
 なお、図26の下段にある画像333の画像位置は、入力R画像の画像位置に対応する。すなわち、この場合、新たな仮想視点画像を生成することなく、入力R画像をそのまま出力する。
 なお、この場合、仮想視点画像生成部105は、入力L画像についてもそのまま出力し、表示部には入力LR画像のみが出力されることになる。
 このように、本実施例においては、視差調整部311は、信頼度算出部104の算出した信頼度R、さらに、信頼度データベース313から、信頼度と最適視差量との対応関係情報、これらを入力する。
 視差調整部311は、これらの情報に基づいて、調整信頼度を算出し、調整信頼度に基づいて、生成すべき仮想視点画像の視差、すなわち、生成する仮想視点画像の位置(位相)を決定する。
  (5-3.LPFを適用した視差情報変換と仮想視点画像の変換処理を含む実施例について)
 次に、LPF(ローパスフィルタ)を適用した視差情報変換と仮想視点画像の変換処理を含む仮想視点画像生成部の実施例について図27を参照して説明する。
 図27に示す仮想視点画像生成部105は、第1LPF(ローパスフィルタ)331、視差情報選択部332、画像合成部333、第2LPF(ローパスフィルタ)334、仮想視点画像選択部335を有する。
 第1LPF(ローパスフィルタ)331は、視差推定部103の生成する推定視差情報(視差マップ)を入力してLPFを適用する。LPFの適用により、視差情報の急激な変化部分はなだらかに変化するように変換される。
 第1LPF(ローパスフィルタ)331の生成したLPF適用推定視差情報は、視差情報選択部332に入力される。
 視差情報選択部332は、以下の情報を入力する。
 (a)視差推定部103の生成した推定視差情報(視差マップ)
 (b)第1LPF(ローパスフィルタ)331の生成したLPF適用推定視差情報
 (c)信頼度算出部104の算出した信頼度情報R
 視差情報選択部332は、これらの情報を入力して以下の処理を実行する。
 (c)信頼度算出部104の算出した信頼度情報Rが予め設定したしきい値以上の信頼度の高い画素については、
 (a)視差推定部103の生成した推定視差情報(視差マップ)に含まれる画素対応の視差情報を画像合成部333に選択出力する。
 一方、
 (c)信頼度算出部104の算出した信頼度情報Rが予め設定したしきい値未満の信頼度の低い画素については、
 (b)第1LPF(ローパスフィルタ)331の生成したLPF適用推定視差情報に含まれる画素対応の視差情報を画像合成部333に選択出力する。
 これらの出力情報は、画像合成部333に入力される。
 画像合成部333は、これらの視差情報に基づいて仮想視点画像を生成する。
 仮想視点画像の生成処理は、先に、図3、図4を参照して説明した処理に従って入力LR画像を利用して実行される。
 画像合成部333の生成した仮想視点画像は第2LPF334と、仮想視点画像選択部335に入力される。
 第2LPF334は、画像合成部333の生成した仮想視点画像に対してLPFを適用する。このLPF適用処理によって、仮想視点画像内の急激な画素値変化部分はなだらかな変化に変換される。
 この第2LPF334の生成したLPF適用仮想視点画像は仮想視点画像選択部335に入力される。
 仮想視点画像選択部335は、以下の情報を入力する。
 (d)画像合成部333の生成した仮想視点画像
 (e)第2LPF334の生成したLPF適用仮想視点画像
 (f)信頼度算出部104の算出した信頼度情報R
 仮想視点画像選択部335は、これらの情報を入力して以下の処理を実行する。
 (f)信頼度算出部104の算出した信頼度情報Rが予め設定したしきい値以上の信頼度の高い画素については、
 (d)画像合成部333の生成した仮想視点画像の画素情報を出力する仮想視点画像の構成画素として選択出力する。
 一方、
 (f)信頼度算出部104の算出した信頼度情報Rが予め設定したしきい値未満の信頼度の低い画素については、
 (e)第2LPF334の生成したLPF適用仮想視点画像の画素情報を出力する仮想視点画像の構成画素として選択出力する。
 図27に示す仮想視点画像生成部105は、このようにLPFを適用して視差情報の変換と、仮想視点画像の変換を実行して仮想視点画像を生成する。
  [6.解像度変換を実行し、解像度変換画像を適用した視差推定を実行する実施例について]
 次に、図28を参照して、解像度変換を実行し、解像度変換画像を適用した視差推定を実行する実施例について説明する。
 図28に示す画像処理装置400は、点線で示す領域401は、信頼度選択部415を除いて、図1に示す画像処理装置100と同様の構成である。
 本実施例の画像処理装置400は、図1に示す画像処理装置の構成に、解像度変換部411、第2視差推定部412、第2信頼度算出部413、解像度逆変換部414、信頼度選択部415を追加した構成を持つ。
 解像度変換部411は、左視点画像(L画像)入力部101から入力するL画像と、右視点画像(R画像)入力部102から入力するR画像の解像度変換を実行する。
 具体的には、入力LR画像より低解像度の画像を生成する。
 第2視差推定部412は、解像度変換部411の生成した低解像度のLR画像を用いて視差を推定する。低解像度画像に基づく推定視差情報を生成する。
 この推定視差情報は、第2信頼度算出部413に入力される。
 第2信頼度算出部413は、第2視差推定部412の生成した推定視差情報の信頼度を算出する。この信頼度算出処理は、先に図6~図21を参照して説明した処理と同様の処理として実行される。すなわち複数の異なる信頼度(R0~R5)を算出して、予め設定した重みα0~α5を利用して重み付け加算を実行して信頼度を算出する。
 この信頼度は低解像度画像の各画素単位で設定される。
 この信頼度情報は、解像度逆変換部414に入力される。
 解像度逆変換部414は各画素対応の信頼度情報を解像度変換部411の解像度変換の逆の解像度変換処理を実行し、元の入力画像の画素数に戻す処理を行う。
 この解像度逆変換処理によって生成した第2信頼度情報は信頼度選択部415に入力される。
 図に示す第1視差推定部103は、前述の図1以下を参照して説明したと同様の処理を実行し、入力LR画像に基づく推定視差情報を生成する。
 第1信頼度算出部104も前述の図1以下を参照して説明したと同様の処理を実行し、第1視差推定部103の生成した画素単位の推定視差情報に対応する信頼度を算出する。先に図6~図21を参照して説明した処理と同様の処理として実行される。すなわち複数の異なる信頼度(R0~R5)を算出して、予め設定した重みα0~α5を利用して重み付け加算を実行して信頼度を算出する。
 この第1信頼度算出部104の算出した第1信頼度は、信頼度選択部415に入力される。
 信頼度選択部415は、以下の情報を入力する。
 (a)第1信頼度算出部104の算出した入力LR画像ベースの推定視差情報に対応する第1信頼度情報、
 (b)第2信頼度算出部413の算出した低解像度のLR画像ベースの推定視差情報に対応する第2信頼度情報、
 すなわち、信頼度選択部415は、各画素に対応する2つの信頼度情報を入力する。
 信頼度選択部415は、これら2つの信頼度情報を画素単位で比較して、高い方の信頼度情報を選択し、高い信頼度情報をその画素の信頼度情報として出力する。
 画素単位で選択された信頼度情報は、仮想視点画像生成部105に入力される。
 仮想視点画像生成部105は、先に図22~図27を参照して説明した処理を実行して、信頼度情報を参照した仮想視点画像の生成処理を実行する。
 仮想視点画像生成部105の生成した仮想視点画像は、表示制御部106を介して表示部110に出力表示される。
 このように、本実施例の構成では、
 解像度変換前の画像に基づく視差の推定と信頼度情報算出処理、
 さらに、低解像度に変換した低解像度画像に基づく視差の推定と信頼度情報算出処理、
 これらの2つの処理を実行して、それぞれの画像に応じた2つの信頼度情報を生成する。さらに、これら2つの信頼度情報について、画素単位で高い信頼度情報が得られた方を最終的な信頼度情報として利用する。
 この処理により、例えば局所的な画像エラー等によって発生する視差推定の誤り等の影響を削減することが可能となる。
 なお、前述したように、本開示の画像処理装置の生成する表示画像は、ユーザがメガネを装着しなくても立体画像を視聴することができる裸眼3D表示装置における表示画像である。
 表示部110は、裸眼3D表示を行う表示部であり、ディスプレイ面に例えばレンチキュラシートや、パララックスバリア(視差バリア)を備え、視聴位置によって左眼と右眼に入る画像を制御可能とした表示部である。
 表示制御部106は、仮想視点画像生成部105の生成したN視点の画像を表示部110に出力する。
 なお、表示制御部106は、表示部110の表示構成に応じた表示情報を生成する。
 なお、画像処理装置は、例えば撮像部を備えたカメラ等の撮像装置、PC、テレビなどの表示装置として構成することも可能であり、これらの装置として構成する場合は各装置に応じた機能を備えた構成とする。
 例えばカメラの場合、異なる視点からの画像としてのLR画像を撮影する撮像部を有し、撮像部から入力するLR画像を利用して多視点画像を生成する構成とする。
  [7.本開示の構成のまとめ]
 以上、特定の実施例を参照しながら、本開示の実施例について詳解してきた。しかしながら、本開示の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本開示の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。
 なお、本明細書において開示した技術は、以下のような構成をとることができる。
 (1)3次元画像表示に適用する左眼用の画像信号である左視点画像(L画像)を入力する左視点画像入力部と、
 3次元画像表示に適用する右眼用の画像信号である右視点画像(R画像)を入力する右視点画像入力部と、
 前記左視点画像(L画像)と右視点画像(R画像)から視差情報を生成する視差推定部と、
 前記視差推定部の生成した視差情報の信頼度を算出する信頼度算出部と、
 前記左視点画像(L画像)と、前記右視点画像(R画像)と、前記視差情報と、前記信頼度を入力して、入力LR画像の視点以外の視点画像を含む仮想視点画像を生成する仮想視点画像生成部を有し、
 前記仮想視点画像生成部は、
 生成する仮想視点画像の視差間隔を前記信頼度が高い場合には広く設定し、低い場合には狭く設定した仮想視点画像を生成する画像処理装置。
 (2)前記信頼度算出部は、複数の異なる信頼度算出処理によって複数の信頼度情報を算出し、算出した複数の信頼度情報に対する重み付き加算によって最終的な信頼度を算出する前記(1)に記載の画像処理装置。
 (3)前記信頼度算出部は、前記視差推定部の推定した視差情報に応じた視差補償により生成した視差補償画像と入力画像との差分算出によって得られる残差成分量に応じた信頼度算出を実行する前記(1)または(2)に記載の画像処理装置。
 (4)前記信頼度算出部は、前記残差成分に応じた信頼度算出処理において、前記左視点画像(L画像)または前記右視点画像(R画像)の画素領域単位の空間アクティビティに応じて信頼度算出態様を変更する前記(3)に記載の画像処理装置。
 (5)前記信頼度算出部は、前記残差成分に応じた信頼度算出処理において、前記左視点画像(L画像)または前記右視点画像(R画像)の画素領域単位のダイナミックレンジに応じて信頼度算出態様を変更する前記(3)に記載の画像処理装置。
 (6)前記信頼度算出部は、前記視差推定部の推定した視差情報の水平隣接画素の視差差分に応じた信頼度算出を実行する前記(1)~(5)いずれかに記載の画像処理装置。
 (7)前記信頼度算出部は、前記視差推定部の推定した視差情報の垂直隣接画素の視差差分に応じた信頼度算出を実行する前記(1)~(6)いずれかに記載の画像処理装置。
 (8)前記信頼度算出部は、前記視差推定部の推定した視差情報が、既定の上限値または下限値に達しているか否かに応じた信頼度算出を実行する前記(1)~(7)いずれかに記載の画像処理装置。
 (9)前記信頼度算出部は、前記左視点画像(L画像)入力部から入力した左視点画像(L画像)に基づいて前記視差推定部の推定した視差情報と、前記右視点画像(R画像)入力部から入力した右視点画像(R画像)に基づいて前記視差推定部の推定した視差情報と、の整合性に応じた信頼度算出を実行する前記(1)~(8)いずれかに記載の画像処理装置。
 (10)前記仮想視点画像生成部は、前記信頼度算出部の算出した信頼度に応じて、生成する仮想視点画像の視差間隔を前記信頼度が高い場合には広く設定し、低い場合には狭く設定した仮想視点画像の視点位置を決定する視差調整部と、前記視差調整部の決定した視点位置に応じた仮想視点画像を生成する画像合成部を有する前記(1)~(9)いずれかに記載の画像処理装置。
 (11)前記仮想視点画像生成部は、前記信頼度と最適視差量との関係情報を格納した信頼度データベースを有し、前記視差調整部は、記信頼度データベースに格納された前記信頼度と最適視差量との関係情報を適用して、信頼度算出部から入力する信頼度に応じた最適視差量を取得し、取得した視差量に応じた仮想視点画像位置を決定する前記(10)に記載の画像処理装置。
 (12)前記仮想視点画像生成部は、
 (a)前記視差推定部の推定した視差情報、
 (b)前記視差情報を画像表現した視差マップに対するローパスフィルタ(LPF)適用結果であるLPF適用視差情報、
 上記の(a),(b)2つの視差情報について、前記信頼度の高い画素については、前記視差情報、前記信頼度の低い画素については、前記LPF適用視差情報を選択する視差情報選択部と、前記視差情報選択部の選択した視差情報に基づいて仮想視点画像の生成を行う画像合成部を有する前記(1)~(11)いずれかに記載の画像処理装置。
 (13)前記仮想視点画像生成部は、さらに、
 (a)前記画像合成部の生成した仮想視点画像、
 (b)前記画像合成部の生成した仮想視点画像に対するローパスフィルタ(LPF)適用結果であるLPF適用仮想視点画像、
 上記の(a),(b)2つの仮想視点画像について、前記信頼度の高い画素については、前記仮想視点画像、前記信頼度の低い画素については、前記LPF適用仮想視点画像を選択する仮想視点画像選択部を有する前記(1)~(12)いずれかに記載の画像処理装置。
 (14)3次元画像表示に適用する左眼用の画像信号である左視点画像(L画像)を入力する左視点画像入力部と、
 3次元画像表示に適用する右眼用の画像信号である右視点画像(R画像)を入力する右視点画像入力部と、
 前記左視点画像(L画像)と右視点画像(R画像)から視差情報を生成する第1視差推定部と、
 前記第1視差推定部の生成した視差情報の第1信頼度を算出する第1信頼度算出部と、
 前記左視点画像(L画像)と、前記右視点画像(R画像)の解像度変換を行う解像度変換部と、
 前記解像度変換部から出力される低解像度の左視点画像(L画像)と右視点画像(R画像)に基づく視差情報推定を行う第2視差推定部と、
 前記第2視差推定部の生成した第2視差情報の第2信頼度を算出する第2信頼度算出部と、
 前記解像度変換の逆変換を行う解像度逆変換部と、
 前記第1信頼度と、前記第2信頼度とを比較して高い信頼度を最終信頼度として選択出力する信頼度選択部と、
 前記左視点画像(L画像)と、前記右視点画像(R画像)と、前記視差情報と、前記最終信頼度を入力して、入力LR画像の視点以外の視点画像を含む仮想視点画像を生成する仮想視点画像生成部を有し、
 前記仮想視点画像生成部は、
 生成する仮想視点画像の視差間隔を前記最終信頼度が高い場合には広く設定し、低い場合には狭く設定した仮想視点画像を生成する画像処理装置。
 さらに、上記した装置等において実行する処理の方法や、処理を実行させるプログラムも本開示の構成に含まれる。
 また、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。例えば、プログラムは記録媒体に予め記録しておくことができる。記録媒体からコンピュータにインストールする他、LAN(Local Area Network)、インターネットといったネットワークを介してプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。
 なお、明細書に記載された各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。また、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
 以上、説明したように、本開示の一実施例構成によれば、3次元画像としてのLR画像に基づく推定視差の信頼度に応じた最適な多視点画像を生成する構成が実現される。
 具体的には、3次元画像表示に適用する左視点画像(L画像)と右視点画像(R画像)を入力し、左視点画像(L画像)と、右視点画像(R画像)とに基づいて視差情報を生成し、生成した視差情報の信頼度を算出する。例えば複数の異なる解析処理によって複数の異なる信頼度を算出し、算出した複数の信頼度の重み付き加算によって最終的な信頼度を算出する。算出した信頼度に応じて仮想視点画像の生成態様を変更する。例えば、信頼度が高い場合には、仮想視点画像の視差間隔を広く設定し、低い場合には狭く設定する処理を行う。
 この処理により、推定視差の信頼度に応じた最適な多視点画像を生成することができる。
 100 画像処理装置
 101 左視点画像(L画像)入力部
 102 右視点画像(R画像)入力部
 103 視差推定部
 104 信頼度算出部
 105 仮想視点画像生成部
 106 表示制御部
 107 表示部
 121 ブロック
 131 入力L画像
 132 入力R画像
 133 仮想視点画像
 171 第1信頼度(R0)算出部
 172 第2信頼度(R1)算出部
 173 第3信頼度(R2)算出部
 174 第4信頼度(R3)算出部
 175 第5信頼度(R4)算出部
 181 演算部
 201 入力L画像
 202 推定視差情報
 203 視差補償画像
 204 入力R画像
 205 残差マップ
 211 入力L画像
 212 推定視差情報
 213 
 214 残差マップ
 232 推定視差情報
 311 視差調整部
 312 画像合成部
 313 信頼度データベース
 331 第1LPF
 332 視差情報選択部
 333 画像合成部
 334 第2LPF
 335 仮想視点画像選択部
 411 解像度変換部
 412 第2視差推定部
 413 第2信頼度算出部
 414 解像度逆変換部
 415 信頼度選択部

Claims (16)

  1.  3次元画像表示に適用する左眼用の画像信号である左視点画像(L画像)を入力する左視点画像入力部と、
     3次元画像表示に適用する右眼用の画像信号である右視点画像(R画像)を入力する右視点画像入力部と、
     前記左視点画像(L画像)と右視点画像(R画像)から視差情報を生成する視差推定部と、
     前記視差推定部の生成した視差情報の信頼度を算出する信頼度算出部と、
     前記左視点画像(L画像)と、前記右視点画像(R画像)と、前記視差情報と、前記信頼度を入力して、入力LR画像の視点以外の視点画像を含む仮想視点画像を生成する仮想視点画像生成部を有し、
     前記仮想視点画像生成部は、
     生成する仮想視点画像の視差間隔を前記信頼度が高い場合には広く設定し、低い場合には狭く設定した仮想視点画像を生成する画像処理装置。
  2.  前記信頼度算出部は、
     複数の異なる信頼度算出処理によって複数の信頼度情報を算出し、算出した複数の信頼度情報に対する重み付き加算によって最終的な信頼度を算出する請求項1に記載の画像処理装置。
  3.  前記信頼度算出部は、
     前記視差推定部の推定した視差情報に応じた視差補償により生成した視差補償画像と入力画像との差分算出によって得られる残差成分量に応じた信頼度算出を実行する請求項1に記載の画像処理装置。
  4.  前記信頼度算出部は、
     前記残差成分に応じた信頼度算出処理において、前記左視点画像(L画像)または前記右視点画像(R画像)の画素領域単位の空間アクティビティに応じて信頼度算出態様を変更する請求項3に記載の画像処理装置。
  5.  前記信頼度算出部は、
     前記残差成分に応じた信頼度算出処理において、前記左視点画像(L画像)または前記右視点画像(R画像)の画素領域単位のダイナミックレンジに応じて信頼度算出態様を変更する請求項3に記載の画像処理装置。
  6.  前記信頼度算出部は、
     前記視差推定部の推定した視差情報の水平隣接画素の視差差分に応じた信頼度算出を実行する請求項1に記載の画像処理装置。
  7.  前記信頼度算出部は、
     前記視差推定部の推定した視差情報の垂直隣接画素の視差差分に応じた信頼度算出を実行する請求項1に記載の画像処理装置。
  8.  前記信頼度算出部は、
     前記視差推定部の推定した視差情報が、既定の上限値または下限値に達しているか否かに応じた信頼度算出を実行する請求項1に記載の画像処理装置。
  9.  前記信頼度算出部は、
     前記左視点画像(L画像)入力部から入力した左視点画像(L画像)に基づいて前記視差推定部の推定した視差情報と、
     前記右視点画像(R画像)入力部から入力した右視点画像(R画像)に基づいて前記視差推定部の推定した視差情報と、
     の整合性に応じた信頼度算出を実行する請求項1に記載の画像処理装置。
  10.  前記仮想視点画像生成部は、
     前記信頼度算出部の算出した信頼度に応じて、生成する仮想視点画像の視差間隔を前記信頼度が高い場合には広く設定し、低い場合には狭く設定した仮想視点画像の視点位置を決定する視差調整部と、
     前記視差調整部の決定した視点位置に応じた仮想視点画像を生成する画像合成部を有する請求項1に記載の画像処理装置。
  11.  前記仮想視点画像生成部は、
     前記信頼度と最適視差量との関係情報を格納した信頼度データベースを有し、
     前記視差調整部は、
     前記信頼度データベースに格納された前記信頼度と最適視差量との関係情報を適用して、信頼度算出部から入力する信頼度に応じた最適視差量を取得し、取得した視差量に応じた仮想視点画像位置を決定する請求項10に記載の画像処理装置。
  12.  前記仮想視点画像生成部は、
     (a)前記視差推定部の推定した視差情報、
     (b)前記視差情報を画像表現した視差マップに対するローパスフィルタ(LPF)適用結果であるLPF適用視差情報、
     上記の(a),(b)2つの視差情報について、前記信頼度の高い画素については、前記視差情報、前記信頼度の低い画素については、前記LPF適用視差情報を選択する視差情報選択部と、
     前記視差情報選択部の選択した視差情報に基づいて仮想視点画像の生成を行う画像合成部を有する請求項1に記載の画像処理装置。
  13.  前記仮想視点画像生成部は、さらに、
     (a)前記画像合成部の生成した仮想視点画像、
     (b)前記画像合成部の生成した仮想視点画像に対するローパスフィルタ(LPF)適用結果であるLPF適用仮想視点画像、
     上記の(a),(b)2つの仮想視点画像について、前記信頼度の高い画素については、前記仮想視点画像、前記信頼度の低い画素については、前記LPF適用仮想視点画像を選択する仮想視点画像選択部を有する請求項1に記載の画像処理装置。
  14.  3次元画像表示に適用する左眼用の画像信号である左視点画像(L画像)を入力する左視点画像入力部と、
     3次元画像表示に適用する右眼用の画像信号である右視点画像(R画像)を入力する右視点画像入力部と、
     前記左視点画像(L画像)と右視点画像(R画像)から視差情報を生成する第1視差推定部と、
     前記第1視差推定部の生成した視差情報の第1信頼度を算出する第1信頼度算出部と、
     前記左視点画像(L画像)と、前記右視点画像(R画像)の解像度変換を行う解像度変換部と、
     前記解像度変換部から出力される低解像度の左視点画像(L画像)と右視点画像(R画像)に基づく視差情報推定を行う第2視差推定部と、
     前記第2視差推定部の生成した第2視差情報の第2信頼度を算出する第2信頼度算出部と、
     前記解像度変換の逆変換を行う解像度逆変換部と、
     前記第1信頼度と、前記第2信頼度とを比較して高い信頼度を最終信頼度として選択出力する信頼度選択部と、
     前記左視点画像(L画像)と、前記右視点画像(R画像)と、前記視差情報と、前記最終信頼度を入力して、入力LR画像の視点以外の視点画像を含む仮想視点画像を生成する仮想視点画像生成部を有し、
     前記仮想視点画像生成部は、
     生成する仮想視点画像の視差間隔を前記最終信頼度が高い場合には広く設定し、低い場合には狭く設定した仮想視点画像を生成する画像処理装置。
  15.  画像処理装置において実行する画像処理方法であり、
     画像入力部を介して、3次元画像表示に適用する左眼用の画像信号である左視点画像(L画像)と、右眼用の画像信号である右視点画像(R画像)を入力し、
     視差推定部が、前記左視点画像(L画像)と右視点画像(R画像)から視差情報を生成し、
     信頼度算出部が、前記視差推定部の生成した視差情報の信頼度を算出し、
     仮想視点画像生成部が、前記左視点画像(L画像)と、前記右視点画像(R画像)と、前記視差情報と、前記信頼度を入力して、入力LR画像の視点以外の視点画像を含む仮想視点画像を生成する仮想視点画像生成処理を実行し、
     前記仮想視点画像生成部は、
     生成する仮想視点画像の視差間隔を前記信頼度が高い場合には広く設定し、低い場合には狭く設定した仮想視点画像を生成する画像処理方法。
  16.  画像処理装置において画像処理を実行させるプログラムであり、
     画像入力部を介して、3次元画像表示に適用する左眼用の画像信号である左視点画像(L画像)と、右眼用の画像信号である右視点画像(R画像)を入力する処理と、
     視差推定部において、前記左視点画像(L画像)と右視点画像(R画像)から視差情報を生成する処理と、
     信頼度算出部において、前記視差推定部の生成した視差情報の信頼度を算出する処理と、
     仮想視点画像生成部において、前記左視点画像(L画像)と、前記右視点画像(R画像)と、前記視差情報と、前記信頼度を入力して、入力LR画像の視点以外の視点画像を含む仮想視点画像を生成する仮想視点画像生成処理を実行させ、
     前記仮想視点画像生成処理においては、
     生成する仮想視点画像の視差間隔を前記信頼度が高い場合には広く設定し、低い場合には狭く設定した仮想視点画像を生成する処理を実行させるプログラム。
PCT/JP2012/073423 2011-10-13 2012-09-13 画像処理装置、および画像処理方法、並びにプログラム WO2013054632A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP12840103.1A EP2744207A4 (en) 2011-10-13 2012-09-13 IMAGE PROCESSING DEVICE AND UNIT AND PROGRAM
US14/241,144 US20140218357A1 (en) 2011-10-13 2012-09-13 Image processing device, image processing method, and program
CN201280049221.7A CN103843336B (zh) 2011-10-13 2012-09-13 图像处理装置、图像处理方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011225513A JP2013089981A (ja) 2011-10-13 2011-10-13 画像処理装置、および画像処理方法、並びにプログラム
JP2011-225513 2011-10-13

Publications (1)

Publication Number Publication Date
WO2013054632A1 true WO2013054632A1 (ja) 2013-04-18

Family

ID=48081690

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/073423 WO2013054632A1 (ja) 2011-10-13 2012-09-13 画像処理装置、および画像処理方法、並びにプログラム

Country Status (5)

Country Link
US (1) US20140218357A1 (ja)
EP (1) EP2744207A4 (ja)
JP (1) JP2013089981A (ja)
CN (1) CN103843336B (ja)
WO (1) WO2013054632A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5982751B2 (ja) 2011-08-04 2016-08-31 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
CN104166987B (zh) * 2014-07-08 2017-01-25 哈尔滨师范大学 一种基于改进的自适应加权和置信度传播的视差估计方法
US9992483B2 (en) * 2014-09-03 2018-06-05 Intel Corporation Imaging architecture for depth camera mode with mode switching
US10552966B2 (en) 2016-03-07 2020-02-04 Intel Corporation Quantification of parallax motion
CN113538316B (zh) * 2021-08-24 2023-08-22 北京奇艺世纪科技有限公司 图像处理方法、装置、终端设备以及可读存储介质
TWI825892B (zh) * 2022-08-02 2023-12-11 宏碁股份有限公司 立體格式影像偵測方法與使用該方法的電子裝置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1032840A (ja) * 1996-04-05 1998-02-03 Matsushita Electric Ind Co Ltd 多視点画像伝送方法および多視点画像表示方法
JPH10191396A (ja) * 1996-12-26 1998-07-21 Matsushita Electric Ind Co Ltd 中間視点画像生成方法および視差推定方法および画像伝送方法
JP2006115198A (ja) 2004-10-14 2006-04-27 Canon Inc 立体画像生成プログラム、立体画像生成システムおよび立体画像生成方法
JP2006126965A (ja) 2004-10-26 2006-05-18 Sharp Corp 合成映像生成システム,方法,プログラム,及び、記録媒体
JP2008263528A (ja) * 2007-04-13 2008-10-30 Univ Nagoya 画像情報処理方法及び画像情報処理システム
JP2010063067A (ja) * 2008-09-08 2010-03-18 Fujifilm Corp 画像処理装置および方法並びにプログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6163337A (en) * 1996-04-05 2000-12-19 Matsushita Electric Industrial Co., Ltd. Multi-view point image transmission method and multi-view point image display method
KR20110000848A (ko) * 2009-06-29 2011-01-06 (주)실리콘화일 3차원 거리정보 및 영상 획득 장치
US8565516B2 (en) * 2010-02-05 2013-10-22 Sony Corporation Image processing apparatus, image processing method, and program
CN101799939A (zh) * 2010-04-02 2010-08-11 天津大学 基于左右视点图像的中间视点快速、自适应生成算法
CN102075779B (zh) * 2011-02-21 2013-05-08 北京航空航天大学 一种基于块匹配视差估计的中间视图合成方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1032840A (ja) * 1996-04-05 1998-02-03 Matsushita Electric Ind Co Ltd 多視点画像伝送方法および多視点画像表示方法
JPH10191396A (ja) * 1996-12-26 1998-07-21 Matsushita Electric Ind Co Ltd 中間視点画像生成方法および視差推定方法および画像伝送方法
JP2006115198A (ja) 2004-10-14 2006-04-27 Canon Inc 立体画像生成プログラム、立体画像生成システムおよび立体画像生成方法
JP2006126965A (ja) 2004-10-26 2006-05-18 Sharp Corp 合成映像生成システム,方法,プログラム,及び、記録媒体
JP2008263528A (ja) * 2007-04-13 2008-10-30 Univ Nagoya 画像情報処理方法及び画像情報処理システム
JP2010063067A (ja) * 2008-09-08 2010-03-18 Fujifilm Corp 画像処理装置および方法並びにプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2744207A4

Also Published As

Publication number Publication date
CN103843336B (zh) 2016-08-24
CN103843336A (zh) 2014-06-04
US20140218357A1 (en) 2014-08-07
EP2744207A4 (en) 2015-04-08
JP2013089981A (ja) 2013-05-13
EP2744207A1 (en) 2014-06-18

Similar Documents

Publication Publication Date Title
US9277207B2 (en) Image processing apparatus, image processing method, and program for generating multi-view point image
JP5879713B2 (ja) 画像処理装置、および画像処理方法、並びにプログラム
US9445071B2 (en) Method and apparatus generating multi-view images for three-dimensional display
WO2013054632A1 (ja) 画像処理装置、および画像処理方法、並びにプログラム
US8817073B2 (en) System and method of processing 3D stereoscopic image
US20110032341A1 (en) Method and system to transform stereo content
US10115207B2 (en) Stereoscopic image processing method and apparatus thereof
CN104023220A (zh) 实时的多视图合成器
TW201242335A (en) Image processing device, image processing method, and program
KR20080076628A (ko) 영상의 입체감 향상을 위한 입체영상 표시장치 및 그 방법
JP6128442B2 (ja) 立体画像および画像シーケンスのステレオベース拡張のための方法および装置{method and device for stereo base extension of stereoscopic images and image sequences}
Kim et al. Depth adjustment for stereoscopic image using visual fatigue prediction and depth-based view synthesis
US8884951B2 (en) Depth estimation data generating apparatus, depth estimation data generating method, and depth estimation data generating program, and pseudo three-dimensional image generating apparatus, pseudo three-dimensional image generating method, and pseudo three-dimensional image generating program
JP2013090129A (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP5931062B2 (ja) 立体画像処理装置、立体画像処理方法、及びプログラム
JP5627498B2 (ja) 立体画像生成装置及び方法
JP5786807B2 (ja) 奥行き情報生成装置、奥行き情報生成方法、奥行き情報生成プログラム、擬似立体画像生成装置
JP5492311B2 (ja) 視点画像生成装置、視点画像生成方法及び立体画像印画装置
JP6056459B2 (ja) 奥行き推定データ生成装置、擬似立体画像生成装置、奥行き推定データ生成方法及び奥行き推定データ生成プログラム
JP5888140B2 (ja) 奥行き推定データ生成装置、擬似立体画像生成装置、奥行き推定データ生成方法及び奥行き推定データ生成プログラム
JP5431393B2 (ja) 立体画像生成装置及び方法
JP2014072640A (ja) 奥行き推定データ生成装置、擬似立体画像生成装置、奥行き推定データ生成方法及び奥行き推定データ生成プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12840103

Country of ref document: EP

Kind code of ref document: A1

REEP Request for entry into the european phase

Ref document number: 2012840103

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2012840103

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 14241144

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE