WO2011152039A1 - 立体映像処理装置及び立体映像処理方法 - Google Patents

立体映像処理装置及び立体映像処理方法 Download PDF

Info

Publication number
WO2011152039A1
WO2011152039A1 PCT/JP2011/003050 JP2011003050W WO2011152039A1 WO 2011152039 A1 WO2011152039 A1 WO 2011152039A1 JP 2011003050 W JP2011003050 W JP 2011003050W WO 2011152039 A1 WO2011152039 A1 WO 2011152039A1
Authority
WO
WIPO (PCT)
Prior art keywords
eye
motion vector
image
vector
scroll
Prior art date
Application number
PCT/JP2011/003050
Other languages
English (en)
French (fr)
Inventor
友子 森田
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Publication of WO2011152039A1 publication Critical patent/WO2011152039A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/003Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/139Format conversion, e.g. of frame-rate or size
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/10Special adaptations of display systems for operation with variable images
    • G09G2320/106Determination of movement vectors or equivalent parameters within the image
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0407Resolution change, inclusive of the use of different resolutions for different screen areas
    • G09G2340/0435Change or adaptation of the frame rate of the video stream

Definitions

  • the present invention relates to a stereoscopic video processing device and a stereoscopic video processing method for stereoscopic viewing using parallax between left and right images, and in particular, a stereoscopic video processing device and a stereoscopic video processing method for improving the motion vector detection performance of left and right images.
  • a stereoscopic video processing device and a stereoscopic video processing method for improving the motion vector detection performance of left and right images are about.
  • a block matching method is generally known as a method for obtaining a motion vector.
  • the entire screen is divided into a plurality of blocks (the block is composed of, for example, 16 ⁇ 16 pixels), and the video signal of the target block of the current frame and the block of the past frame indicated by the plurality of candidate vectors Calculate the block total value of the level difference absolute value. Then, a candidate vector corresponding to a block of a past frame that minimizes the block total value of the absolute difference is set as a motion vector.
  • this binocular parallax detection method when the binocular parallax is obtained as the displacement of the pixel position on the left and right images, the left and right images are subjected to two-dimensional Fourier transform, and several parallax displacement amounts are obtained by shift matching of the phase terms. Candidates are calculated. Then, after performing the calculation, subject outline extraction and area determination are performed for each of the left and right images, and the displacement amount obtained using the two-dimensional Fourier transform at the points inside and several points outside these boundary points Take action with the candidate. Thereby, the amount of parallax corresponding to the subject and the background or a plurality of subjects can be accurately detected.
  • the video cannot be displayed smoothly for the screen edge.
  • conventionally when detecting a motion vector using the current frame image and the past frame image, the pattern displayed at the screen edge of the current frame does not exist in the past frame, or attention is paid to the vector detection result of the surrounding area. Due to factors such as use in area vector detection computation, it is difficult for the screen edge to obtain an accurate motion vector.
  • the left eye motion vector is obtained from the current frame image and the past frame image of the left eye video
  • the right eye motion vector is the current frame image and the past frame image of the right eye video. Therefore, motion vectors are detected independently from each other. For this reason, detection of full-screen scrolling, scene changes, etc. may be different on the left and right, and the left-eye video output and right-eye video output are different from each other by signal processing using motion vectors. become.
  • the present invention has been made in view of such problems, and an object thereof is to provide a stereoscopic video processing apparatus and a stereoscopic video processing method capable of smoothly displaying a stereoscopic video.
  • a stereoscopic video processing device includes a left-eye image included in input left-eye video data, a right-eye image included in right-eye video data, A stereoscopic image processing apparatus for stereoscopically viewing using parallax between the left-eye motion vector and detecting a left-eye motion vector that is a motion vector in a region in the left image that is a region in the left-eye image A vector detection unit; a right-eye motion vector detection unit that detects a right-eye motion vector that is a motion vector in a region in the right image that is a region in the right-eye image; the left-eye image and the right eye A parallax detection unit that detects a parallax between left and right images, which is a parallax between the left image and the left image motion vector detected in the left image inner region, and the left image obtained from the left and right image parallax.
  • a vector comparison unit that compares the motion vector for the right eye detected in the inner region, and the motion vector for the left eye and the motion vector for the right eye are matched based on the comparison result by the vector comparison unit.
  • a vector correction unit that corrects at least one of the left-eye motion vector and the right-eye motion vector, and the left-eye motion vector and the right-eye motion vector corrected by the vector correction unit are used.
  • An interpolation image generation unit configured to generate an interpolation image for frame rate conversion for the left-eye video data and the right-eye video data.
  • the stereoscopic video processing device performs the left-eye motion based on the comparison result between the left-eye motion vector and the right-eye motion vector, which are motion vectors in the corresponding region in the left image and region in the right image. At least one of the left eye motion vector and the right eye motion vector is corrected so that the vector matches the right eye motion vector. Then, an interpolation image for frame rate conversion is generated using the left eye motion vector and the right eye motion vector after the correction. That is, the corresponding left-eye motion vector and the right-eye motion vector should basically be substantially the same, but either the left-eye motion vector or the right-eye motion vector is accurately determined. Therefore, the degree of coincidence between the left eye motion vector and the right eye motion vector may be low.
  • the vector correction unit is arranged such that the area in the left image is disposed in an area on the left screen that is an area of an edge of the screen on which the image for the left eye is displayed, and between the left and right images.
  • the right image inner area corresponding to the left image inner area obtained from the parallax is not arranged in the right screen edge area which is an edge area of the screen on which the right eye image is displayed, the right image
  • the left eye motion vector is corrected using an eye motion vector
  • the right image inner region is arranged in the right screen end region and the right image inner region obtained from the parallax between the left and right images.
  • the motion vector for the right eye is corrected using the motion vector for the left eye.
  • the vector correction unit calculates the right eye motion vector.
  • the left eye motion vector is used to correct the left eye motion vector
  • the right image area is located in the right screen end area, but the left image area is not located in the left screen end area. Is used to correct the right eye motion vector.
  • the motion vector in the region at the screen edge cannot be obtained accurately, the motion vector in the region other than the other screen edge is used for correction. Accordingly, by correcting an inaccurate motion vector using an accurate motion vector, it is possible to display a stereoscopic video smoothly using the corrected accurate motion vector.
  • the vector correction unit sets the left screen end region to be larger as the size of the left eye motion vector is larger, and the right screen end region as the size of the right eye motion vector is larger. Is set large, and at least one of the left-eye motion vector and the right-eye motion vector is corrected.
  • the vector correction unit corrects the motion vector by setting the screen end region to be larger as the size of the motion vector is larger. That is, when the size of the motion vector is large, the motion of the video is large, so that the screen edge region where the accuracy of the motion vector is reduced needs to be set large. For this reason, since the motion vector can be appropriately corrected according to the magnitude thereof, a stereoscopic video can be smoothly displayed using the corrected accurate motion vector.
  • the left-eye motion vector detection unit further outputs a left-eye motion vector accuracy indicating a degree of certainty of the detected left-eye motion vector
  • the right-eye motion vector detection unit Further, a right eye motion vector accuracy indicating a degree of certainty of the detected right eye motion vector is output, and the stereoscopic video processing apparatus further acquires the output left eye motion vector accuracy
  • the left eye motion vector accuracy in the left image area is equal to or less than a predetermined first threshold
  • the left eye scene change determination unit determines that the left eye video is a scene change
  • the output right eye motion A right-eye scene that acquires vector accuracy and determines that the right-eye video is a scene change when right-eye motion vector accuracy in a plurality of regions in the right image is equal to or less than a predetermined second threshold value
  • the stereoscopic video processing apparatus determines that at least one of the left-eye video and the right-eye video is a scene change
  • the left-eye motion vector and the right-eye motion vector are linked.
  • the stereoscopic image processing apparatus corrects the left and right motion vectors in conjunction with each other when it detects a scene change in the image. For this reason, it is possible to prevent the balance between the left and right images from being lost in a scene change. Thereby, a three-dimensional image can be smoothly displayed even in a scene change.
  • the left-eye scroll determination unit further determines whether or not the left-eye video is a scroll video using a histogram of the left-eye motion vector in a plurality of areas in the left image.
  • a right-eye scroll determining unit that determines whether or not a right-eye video is a scroll video using histograms of the right-eye motion vectors in a plurality of regions in the right image, and the left-eye scroll determining unit
  • a left-eye scroll comparison unit that outputs a correction permission signal for the left-eye motion vector and the right-eye motion vector when it is determined that at least one of the right-eye scroll determination unit is a scroll video.
  • the vector correction unit further obtains the left eye motion vector and the front when the correction permission signal output from the left and right eye scroll comparison unit is acquired. Correction in conjunction with the motion vector for the right eye.
  • the stereoscopic video processing device links the left-eye motion vector and the right-eye motion vector. To correct. That is, the stereoscopic image processing apparatus corrects the left and right motion vectors in conjunction with each other when detecting a screen scroll in the image. For this reason, it is possible to prevent the balance between the left and right images from being lost in screen scrolling. As a result, stereoscopic images can be displayed smoothly even in screen scrolling.
  • the left-eye motion vector histogram is further calculated in a plurality of regions in the left image to determine whether the histogram is highly concentrated, and the left-eye scroll is performed on the vector on which the histogram is concentrated.
  • the histogram determination unit for the left eye that is output as a vector and the histogram determination unit for the left eye determine that the histogram concentration is high, the counter value is increased, and when it is determined that the histogram concentration is not high
  • the left eye counter for decreasing the counter value and the histogram of the right eye motion vector are calculated in a plurality of areas in the right image to determine whether the histogram is highly concentrated, and the histogram is concentrated.
  • a right-eye histogram determination unit that outputs a vector as a right-eye scroll vector, and the right-eye histogram A counter for increasing the counter value when the determination unit determines that the concentration level of the histogram is high, and a counter for the right eye that decreases the counter value when determining that the concentration level of the histogram is not high.
  • the scroll determination unit for the left eye determines that the video for the left eye is a scroll video when the counter value in the counter for the left eye is equal to or greater than a predetermined third threshold, and the scroll determination unit for the right eye When the counter value in the counter is equal to or greater than a predetermined fourth threshold value, it is determined that the right-eye video is a scroll video, and the left-right scroll comparison unit is configured to output the left-eye scroll vector output from the left-eye histogram determination unit.
  • the right-eye scroll vector output by the right-eye histogram determination unit when the degree of coincidence is equal to or greater than a predetermined value A correction scroll vector obtained from the right-eye scroll vector is generated, and the degree of coincidence between the left-eye scroll vector and the right-eye scroll vector is a predetermined value or more, and the left-eye scroll determination unit and the right-eye scroll vector
  • the correction permission signal is output, and the vector correction unit acquires the correction permission signal output by the left and right eye scroll comparison unit
  • the left eye motion vector and the right eye motion vector are corrected using the correction scroll vector.
  • the stereoscopic video processing device generates a left-eye scroll vector that is a vector in which the histogram of the left-eye motion vector is concentrated and a right-eye scroll vector that is a vector in which the histogram of the right-eye motion vector is concentrated.
  • the left-eye motion vector and the right-eye motion vector are corrected using the corrected scroll vector. That is, in scrolling, the vector on which the histogram is concentrated is a vector indicating the movement of the scroll. Therefore, the left-eye motion vector and the right-eye motion vector are corrected using the vector on which the histogram is concentrated. For this reason, the left-eye motion vector and the right-eye motion vector can be corrected so as to match the scrolling motion. As a result, stereoscopic images can be displayed smoothly even in screen scrolling.
  • a stereoscopic video processing apparatus includes a left-eye image included in input left-eye video data and a right-eye included in right-eye video data.
  • a left-eye motion vector detection unit that outputs a left-eye motion vector accuracy indicating a degree of certainty of the detected left-eye motion vector, and a motion vector in a region in the right image that is a region in the right-eye image
  • a right-eye motion vector detection unit that outputs a right-eye motion vector accuracy indicating a degree of certainty of the detected right-eye motion vector, and the output of the left eye
  • a left-eye scene change determination unit that determines that the left-eye video is a scene change when the left-eye motion vector accuracy in the plurality of regions
  • the right eye motion vector accuracy obtained is obtained, and when the right eye motion vector accuracy in a plurality of regions in the right image is equal to or less than a predetermined second threshold, the right eye image is determined to be a scene change.
  • the left eye motion vector and the right eye When it is determined that at least one of the eye scene change determination unit, the left eye scene change determination unit, and the right eye scene change determination unit is a scene change, the left eye motion vector and the right eye
  • a vector correction unit that corrects the eye motion vector and the right eye motion vector in conjunction with each other, and the left eye motion vector and the right eye motion vector that have been corrected by the vector correction unit.
  • An interpolation image generation unit that generates an interpolation image for frame rate conversion for the eye image data and the right image data.
  • the stereoscopic video processing apparatus determines that at least one of the left-eye video and the right-eye video is a scene change
  • the left-eye motion vector and the right-eye motion vector are linked.
  • the stereoscopic image processing apparatus corrects the left and right motion vectors in conjunction with each other when it detects a scene change in the image. For this reason, it is possible to prevent the balance between the left and right images from being lost in a scene change. Thereby, a three-dimensional image can be smoothly displayed even in a scene change.
  • a stereoscopic video processing apparatus includes a left-eye image included in input left-eye video data and a right-eye included in right-eye video data.
  • a stereoscopic image processing apparatus for stereoscopically viewing using a parallax between a left image and a left eye for detecting a left eye motion vector that is a motion vector in a region in a left image that is a region in the left eye image An eye motion vector detection unit; a right eye motion vector detection unit that detects a right eye motion vector that is a motion vector in a region in the right image that is a region in the right eye image; and a plurality of in the left image
  • a left-eye scroll determination unit that determines whether or not the left-eye video is a scroll video using a histogram of the left-eye motion vector in the region; and the right-eye motion in the plurality of regions in the right image vector At least one of the right-eye scroll determination unit, the left-eye scroll determination unit
  • a vector correction unit that corrects the left eye motion vector and the right eye motion vector in conjunction with each other, and the left eye motion vector and the right eye motion vector that have been corrected by the vector correction unit.
  • An interpolation image generation unit that generates an interpolation image for frame rate conversion with respect to the left-eye video data and the right-eye video data. .
  • the stereoscopic video processing device links the left-eye motion vector and the right-eye motion vector. To correct. That is, the stereoscopic image processing apparatus corrects the left and right motion vectors in conjunction with each other when detecting a screen scroll in the image. For this reason, it is possible to prevent the balance between the left and right images from being lost in screen scrolling. As a result, stereoscopic images can be displayed smoothly even in screen scrolling.
  • the present invention can be realized not only as such a stereoscopic video processing apparatus, but also as a stereoscopic video processing method including a characteristic process included in the stereoscopic video processing apparatus as a step. It can also be realized as a program that causes a computer to execute typical steps. Needless to say, such a program can be distributed via a recording medium such as a CD-ROM and a transmission medium such as the Internet.
  • the present invention can be realized as an integrated circuit (LSI) provided with a part or all of the functions of such a stereoscopic video processing device, or as a stereoscopic video display device such as a digital television provided with such a stereoscopic video processing device. Or a stereoscopic video recording device such as a digital video recorder equipped with a stereoscopic video processing device.
  • LSI integrated circuit
  • the stereoscopic video processing apparatus can display a stereoscopic video smoothly by correcting the motion vector.
  • FIG. 1 is a block diagram showing a functional configuration of the stereoscopic video display apparatus according to Embodiment 1 of the present invention.
  • FIG. 2 is a block diagram illustrating a functional configuration of a frame rate conversion unit including the stereoscopic video processing device according to Embodiment 1 of the present invention.
  • FIG. 3 is a block diagram illustrating a functional configuration of the vector detection unit included in the stereoscopic video processing apparatus according to Embodiment 1 of the present invention.
  • FIG. 4 is a flowchart showing an example of the operation of the stereoscopic video processing apparatus according to Embodiment 1 of the present invention.
  • FIG. 1 is a block diagram showing a functional configuration of the stereoscopic video display apparatus according to Embodiment 1 of the present invention.
  • FIG. 2 is a block diagram illustrating a functional configuration of a frame rate conversion unit including the stereoscopic video processing device according to Embodiment 1 of the present invention.
  • FIG. 3 is a block diagram illustrating a functional
  • FIG. 5 is a diagram illustrating a process in which the interpolation image generation unit according to Embodiment 1 of the present invention generates an interpolation image.
  • FIG. 6 is a flowchart showing processing in which the vector correction unit according to Embodiment 1 of the present invention corrects a motion vector.
  • FIG. 7 is a diagram illustrating a process in which the vector correction unit according to Embodiment 1 of the present invention corrects a motion vector.
  • FIG. 8 is a block diagram illustrating a functional configuration of a vector detection unit included in the stereoscopic video processing device according to Embodiment 2 of the present invention.
  • FIG. 9 is a flowchart showing an example of the operation of the stereoscopic video processing apparatus according to Embodiment 2 of the present invention.
  • FIG. 10 is a block diagram illustrating a functional configuration of the vector detection unit included in the stereoscopic video processing device according to Embodiment 3 of the present invention.
  • FIG. 11 is a flowchart showing an example of the operation of the stereoscopic video processing apparatus according to Embodiment 3 of the present invention.
  • FIG. 12 is a flowchart showing processing in which the scroll determination unit according to the third embodiment of the present invention determines scrolling.
  • FIG. 13 is a diagram illustrating an example of a histogram generated by the left-eye histogram determination unit or the right-eye histogram determination unit according to Embodiment 3 of the present invention.
  • FIG. 11 is a block diagram illustrating a functional configuration of the vector detection unit included in the stereoscopic video processing device according to Embodiment 3 of the present invention.
  • FIG. 11 is a flowchart showing an example of the operation of the stereoscopic video processing apparatus according to Embodiment 3 of the present invention.
  • FIG. 12 is a flow
  • FIG. 14 is a block diagram illustrating a functional configuration of a vector detection unit included in the stereoscopic video processing device according to the modifications of the first to third embodiments of the present invention.
  • FIG. 15 is an external view showing an example of a stereoscopic video display apparatus and a stereoscopic video recording apparatus that include the stereoscopic video processing apparatus according to the present invention.
  • Embodiment 1 The stereoscopic video processing apparatus according to Embodiment 1 of the present invention will be described in detail with reference to the drawings. First, the configuration of a stereoscopic video display device including a stereoscopic video processing device will be described.
  • FIG. 1 is a block diagram showing a functional configuration of the stereoscopic video display device 1 according to Embodiment 1 of the present invention.
  • the stereoscopic video display device 1 is a device that displays 3D video, such as a digital television.
  • the stereoscopic image display apparatus 1 includes a tuner 10, a decoder 20, an I / P conversion unit 30, a resizing unit 40, a frame rate conversion unit 50, an image quality correction unit 60, a panel display control unit 70, and a display panel. 80.
  • the tuner 10 receives a broadcast wave and acquires encoded 3D stereoscopic video data included in the received broadcast wave.
  • the broadcast wave is terrestrial digital television broadcast, satellite digital television broadcast, or the like.
  • the stereoscopic video display device 1 may acquire stereoscopic video data recorded on an optical disc or other recording medium.
  • the stereoscopic video display device 1 may acquire stereoscopic video data acquired via a communication network such as the Internet or stereoscopic video data input to an external input terminal (not shown) by an external device. Good.
  • the decoder 20 decodes the stereoscopic video data acquired by the tuner 10.
  • the decoder 20 is a TS decoder that decodes TS (transport stream), or an MPEG / H.D. That decodes encoded stereoscopic video data. H.264 decoder and the like.
  • the I / P conversion unit 30 converts the video signal from the interlace method to the progressive method when the input video signal is the interlace method.
  • the resizing unit 40 converts the input video signal so that the size of the image indicated by the output video signal matches the number of pixels and the number of lines of the display panel 80.
  • the frame rate conversion unit 50 changes the number of frames of video data to be displayed. Specifically, the frame rate conversion unit 50 generates an interpolated image in the time direction between frames using a motion vector. The detailed configuration of the frame rate conversion unit 50 will be described later.
  • the image quality correction unit 60 performs various image quality adjustments such as brightness, contrast adjustment, and edge enhancement.
  • the panel display control unit 70 rearranges the input video data into video data matched with a data driver for displaying on the display panel 80, and generates a panel display control signal for controlling the display on the display panel 80.
  • the display panel 80 inputs video signals for the left eye and right eye and displays a 3D video.
  • shutter glasses including a left-eye shutter and a right-eye shutter that can be opened and closed in accordance with the display timing of the left-eye video signal and the right-eye video signal. By wearing the, the user can view the 3D image displayed on the display panel 80.
  • FIG. 2 is a block diagram illustrating a functional configuration of the frame rate conversion unit 50 including the stereoscopic video processing device 100 according to Embodiment 1 of the present invention.
  • the frame rate conversion unit 50 includes a pre-filter 51, a horizontal / vertical data thinning unit 52, a vector detection frame memory 53, a main line frame memory 54, a timing control unit 55, an interpolation phase generation unit 56, and A stereoscopic image processing apparatus 100 is provided.
  • the pre-filter 51 is a filter for removing high frequency components of the input video signal.
  • the horizontal / vertical data thinning unit 52 thins pixels from the input video signal and outputs a reduced image for motion vector detection. For example, the horizontal / vertical data thinning unit 52 thins one pixel from horizontal n pixels and thins one line from vertical m lines.
  • the vector detection frame memory 53 is a memory for storing a reduced image for motion vector detection.
  • the main line frame memory 54 is a memory for storing an input video signal.
  • the timing control unit 55 acquires the synchronization signal and controls the processing timing in each processing unit.
  • the interpolation phase generation unit 56 generates an interpolation phase according to the frame rate conversion rate in the frame rate conversion. For example, if the speed is double, the interpolation phase is 0.5, which is a phase between 0 and 1. If the speed is quadruple, the interpolation phase is 0.25, which is a phase obtained by dividing 0 and 1 into four equal parts. 0.5 and 0.75.
  • the stereoscopic video processing apparatus 100 includes a vector detection unit 110 and an interpolation image generation unit 120.
  • the vector detection unit 110 detects a motion vector that minimizes the matching difference between frames. The detailed description of the vector detection unit 110 will be described later.
  • the interpolation image generation unit 120 generates an interpolation image for frame rate conversion using the interpolation phase generated by the interpolation phase generation unit 56 and the motion vector output by the vector detection unit 110. Specifically, when generating an interpolated image between N frames and N ⁇ 1 frames, the interpolated image generating unit 120 generates (1) an interpolated image from the N frame using a motion vector, and (2) motion Interpolated image is generated from N-1 frame using vector. (3) Out of the average of N frame and N-1 frame generated without using motion vector as interpolated image. Optimal interpolation for each pixel. Select and output an image.
  • FIG. 3 is a block diagram illustrating a functional configuration of the vector detection unit 110 included in the stereoscopic video processing apparatus 100 according to Embodiment 1 of the present invention.
  • the vector detection unit 110 includes a left-eye motion vector detection unit 111, a right-eye motion vector detection unit 112, a parallax detection unit 113, a vector comparison unit 114, and a vector correction unit 115.
  • a left-eye motion vector detection unit 111 the vector detection unit 110 includes a left-eye motion vector detection unit 111, a right-eye motion vector detection unit 112, a parallax detection unit 113, a vector comparison unit 114, and a vector correction unit 115.
  • each configuration will be described in detail.
  • the left eye motion vector detection unit 111 is a left eye that is a motion vector in a region in the left image that is a region in the image for the left eye included in the video data for the left eye indicated by the input video signal for the left eye. Detect and output a motion vector. That is, the left-eye video data is input to the left-eye motion vector detection unit 111, and the left-eye motion vector detection unit 111 delays the left-eye image of the current frame with the frame memory or the like in the past frame. A motion vector for the left eye between the images for detection is detected.
  • the left-eye motion vector detection unit 111 outputs left-eye motion vector accuracy indicating the degree of certainty of the detected left-eye motion vector.
  • the left-eye motion vector accuracy is output by increasing the left-eye motion vector accuracy as the difference total value by block matching between the target block of the current frame and the corresponding block of the past frame is smaller.
  • the vector accuracy of the motion vector for example, a difference absolute value is obtained for each pixel at a corresponding coordinate position in the block between the target block of the current frame and the block of the past frame indicated by the motion vector, A value obtained by summing the absolute difference values can be used as the vector accuracy.
  • the right-eye motion vector detection unit 112 is a right-eye that is a motion vector in a region in the right image that is a region in the right-eye image included in the right-eye video data indicated by the input right-eye video signal. Detect and output a motion vector. That is, the right-eye video data is input to the right-eye motion vector detecting unit 112, and the right-eye motion vector detecting unit 112 delays the right-eye image of the current frame with the right-eye image and the frame memory, etc. A motion vector for the right eye between the images for detection is detected.
  • the right eye motion vector detection unit 112 outputs right eye motion vector accuracy indicating the degree of certainty of the detected right eye motion vector.
  • the right eye motion vector accuracy is the same as the left eye motion vector accuracy, detailed description thereof is omitted.
  • the parallax detection unit 113 detects the parallax between the left and right images, which is the parallax between the left eye image and the right eye image. That is, the left-eye video data and the right-eye video data are input to the parallax detection unit 113, and the parallax between the left and right images is detected by a method similar to the block matching method or the method described in Patent Document 1 above. To do. That is, it is detected how much parallax is given for each region occupying a specific range.
  • the vector comparison unit 114 uses the left eye motion vector detected by the left eye motion vector detection unit 111 and the right eye motion vector detection unit 112. The detected right eye motion vector is compared. Specifically, the vector comparison unit 114 detects the left eye motion vector detected in the left image area and the right eye detected in the right image area corresponding to the left image area obtained from the parallax between the left and right images. Compare the motion vector.
  • the vector comparison unit 114 calculates the left-eye motion vector detected in the left image region and the right image region in the corresponding left image region and right image region obtained from the parallax between the left and right images. Is compared with the motion vector for the right eye detected in step. Specifically, for each region occupying a specific range, the vector comparison unit 114 outputs the left eye motion vector accuracy output by the left eye motion vector detection unit 111 and the right eye output by the right eye motion vector detection unit 112. By comparing the motion vector accuracy, the left eye motion vector and the right eye motion vector are compared.
  • the vector correction unit 115 is configured to match at least one of the left-eye motion vector and the right-eye motion vector so that the left-eye motion vector matches the right-eye motion vector. Correct.
  • the vector correction unit 115 includes a left-eye vector correction unit 116 and a right-eye vector correction unit 117.
  • the left-eye vector correction unit 116 corrects the left-eye motion vector based on the vector comparison result calculated by the vector comparison unit 114, the left-eye motion vector, and the right-eye motion vector, and corrects the left eye after correction. Output motion vector.
  • the left eye vector correction unit 116 arranges the left image area in the left screen edge area, which is the edge area of the screen on which the left eye image is displayed, and between the left and right images.
  • the right eye motion vector Is used to correct the motion vector for the left eye.
  • the left-eye vector correction unit 116 when the left-eye motion vector accuracy is low and the right-eye motion vector accuracy is high, the left-eye vector correction unit 116 has the left image inner region arranged in the left screen end region, and the right image inner region is It is determined that it is not arranged in the right screen edge area. Therefore, the left eye vector correction unit 116 corrects the left eye motion vector with low accuracy by using the right eye motion vector with high accuracy.
  • the correction method of the left-eye motion vector by the left-eye vector correction unit 116 is not particularly limited.
  • the left-eye vector correction unit 116 has the same vector as the right-eye motion vector.
  • the left eye motion vector is corrected by correcting the left eye motion vector and the left eye motion vector and the right eye motion vector.
  • the right-eye vector correction unit 117 corrects the right-eye motion vector based on the vector comparison result calculated by the vector comparison unit 114, the left-eye motion vector, and the right-eye motion vector, and corrects the right eye after correction. Output motion vector.
  • the right-eye vector correction unit 117 arranges the right image area in the right screen end area, and the left image area corresponding to the right image area obtained from the parallax between the left and right images. If not arranged in the left screen end region, the right eye motion vector is corrected using the left eye motion vector.
  • the right-eye vector correction unit 117 when the right-eye motion vector accuracy is low and the left-eye motion vector accuracy is high, the right-eye vector correction unit 117 has the right image inner region arranged in the right screen end region, and the left image inner region is It is determined that it is not arranged in the left screen edge area. Therefore, the right eye vector correction unit 117 corrects the right eye motion vector with low accuracy by using the left eye motion vector with high accuracy.
  • the correction method of the right-eye motion vector by the right-eye vector correction unit 117 is not particularly limited.
  • the right-eye vector correction unit 117 is similar to the correction by the left-eye vector correction unit 116.
  • the right eye motion vector is corrected by correcting the motion vector for the left eye so as to be the same as the motion vector for the left eye, or by weighted averaging the motion vector for the right eye and the motion vector for the left eye.
  • the image area on one eye side is arranged in the screen edge area, and the image area on the other eye side is arranged in the screen edge area.
  • this determination method is not limited to this.
  • the determination accuracy can be improved by making a similar determination by taking into consideration factors such as where the correction target candidate is located in the screen and what is the parallax of the area. Also good.
  • the vector detection unit 110 calculates the left-eye motion vector and the right-eye motion vector based on the result of comparing the left-eye motion vector and the right-eye motion vector using the parallax between the left and right images. Correct each other.
  • the interpolated image generation unit 120 shown in FIG. 2 uses the left eye motion vector and the right eye motion vector corrected by the vector correction unit 115 to perform the left eye video data and the right eye video data.
  • An interpolated image for frame rate conversion is generated.
  • FIG. 4 is a flowchart showing an example of the operation of the stereoscopic video processing apparatus 100 according to Embodiment 1 of the present invention.
  • the left-eye motion vector detection unit 111 detects and outputs a left-eye motion vector in the left-image region in the left-eye image included in the input left-eye video data. (S102).
  • the left-eye motion vector detection unit 111 outputs the left-eye motion vector accuracy of the detected left-eye motion vector.
  • the right-eye motion vector detection unit 112 detects and outputs a right-eye motion vector in a region within the right image in the right-eye image included in the input right-eye video data (S104). Further, the right eye motion vector detection unit 112 outputs the right eye motion vector accuracy of the detected right eye motion vector.
  • the parallax detection unit 113 also includes a left-right image that is a parallax between the left-eye image included in the input left-eye video data and the right-eye image included in the input right-eye video data. Parallax is detected (S106). Note that the parallax detection unit 113 may detect the parallax for each image, or for each predetermined area in the image such as a left image area in the left eye image or a right image area in the right eye image. Alternatively, parallax may be detected.
  • the vector comparison unit 114 compares the left-eye motion vector and the right-eye motion vector, which are corresponding left and right motion vectors obtained from the parallax between the left and right images (S108). That is, the vector comparison unit 114 compares the left eye motion vector accuracy with the right eye motion vector accuracy by comparing the left eye motion vector accuracy with the right eye motion vector accuracy.
  • the vector correction unit 115 includes the left-eye motion vector and the right-eye motion vector so that the left-eye motion vector matches the right-eye motion vector. At least one is corrected (S110).
  • the vector correction unit 115 corrects one of the left-eye motion vector and the right-eye motion vector, but both the left-eye motion vector and the right-eye motion vector are corrected. May be corrected. Details of the process in which the vector correction unit 115 corrects the motion vector will be described later.
  • the interpolation image generation unit 120 uses the left eye motion vector and the right eye motion vector corrected by the vector correction unit 115 to perform frame rate conversion on the left eye video data and the right eye video data.
  • An interpolation image is generated (S112). Below, the process in which the interpolation image generation part 120 produces
  • FIG. 5 is a diagram illustrating a process in which the interpolated image generation unit 120 according to Embodiment 1 of the present invention generates an interpolated image.
  • the interpolated image generation unit 120 performs an interval between the N frame and the N ⁇ 1 frame shown in FIG. Two interpolation images are inserted as shown in FIG.
  • the interpolation image generation unit 120 generates an interpolation image from the N frames using the motion vector V1. That is, the interpolated image generation unit 120 generates an A frame that is an interpolated image using a motion vector obtained by multiplying the motion vector V1 by 1/3, and an interpolated image using the motion vector obtained by multiplying the motion vector V1 by 2/3. A certain B frame is generated.
  • the interpolation image generation unit 120 may generate an interpolation image from the N ⁇ 1 frame using the motion vector V2. That is, the interpolated image generation unit 120 generates a B frame that is an interpolated image using a motion vector obtained by multiplying the motion vector V2 by 1/3, and an interpolated image using the motion vector obtained by multiplying the motion vector V1 by 2/3. A certain A frame is generated.
  • the interpolation image generation unit 120 may generate an interpolation image from the N frame and the N ⁇ 1 frame using the motion vectors V1 and V2.
  • FIG. 6 is a flowchart showing processing in which the vector correction unit 115 according to Embodiment 1 of the present invention corrects a motion vector.
  • the vector correction unit 115 sets a left screen end region and a right screen end region (S202). Specifically, the vector correction unit 115 sets the left screen end region to be larger as the size of the left eye motion vector is larger, and sets the right screen end region to be larger as the size of the right eye motion vector is larger. .
  • the vector correction unit 115 sets the horizontal size of the left screen end region to be larger as the sum of the absolute values of the horizontal size of the left eye motion vector is larger, and the vertical motion vector for the left eye The larger the size of the direction, the larger the size of the left screen edge area in the vertical direction.
  • the vector correction unit 115 sets the size of the right screen end region in the horizontal direction to be larger as the size of the right eye motion vector in the horizontal direction increases. The larger the vertical size of the motion vector is, the larger the vertical size of the right screen end area is set.
  • the left-eye vector correction unit 116 determines whether or not the left image area is arranged in the left screen end area (S204).
  • the right eye vector correction unit 117 determines that the right image area is the right screen. It is determined whether or not it is arranged in the end region (S206).
  • the left-eye vector correction unit 116 determines the right-eye motion vector. Is used to correct the motion vector for the left eye (S208). If the right-eye vector correction unit 117 determines that the area in the right image is located in the right screen end area (YES in S206), the process ends.
  • the right eye vector correction unit 117 determines that the right image area is It is determined whether or not it is arranged in the right screen end area (S210).
  • the right eye vector correction unit 117 determines that the right image area is located in the right screen end area (YES in S206), the right eye motion vector is calculated using the left eye motion vector. Correction is performed (S212). If the right-eye vector correction unit 117 determines that the area in the right image is not located in the right screen end area (NO in S206), the process ends.
  • the motion vector corresponding to each image is corrected based on the motion vector of the other left eye or right eye. This correction can improve the motion vector detection performance at the screen edge. More specific description will be given with reference to FIG.
  • FIG. 7 is a diagram for explaining processing in which the vector correction unit 115 according to Embodiment 1 of the present invention corrects a motion vector.
  • FIG. 2 shows an example in which a sports video is displayed on the display panel 80 of the stereoscopic video display device 1.
  • the upper left diagram shows the left-eye video when N frames are displayed
  • the lower left diagram shows the left-eye video in the N-1 frame displayed one frame before the N frames.
  • the upper right diagram shows the right-eye video when N frames are displayed
  • the lower right diagram shows the right-eye video in the N ⁇ 1 frame displayed one frame before the N frames.
  • a thick solid line indicates a frame of the television screen
  • a broken line described in the solid line frame indicates a boundary of the screen end region.
  • the ball is moving from the right side of the screen to the left side of the screen from N-1 frame to N frame.
  • the left-eye image at the time of displaying the N frame in the upper left diagram has a ball in the screen edge region.
  • a ball is present outside the screen end area (in-screen area).
  • the ball from the N-1 frame to the N frame is detected based on the right eye image.
  • the accuracy when the motion vector is detected becomes higher. Therefore, in the present invention, when generating the ball motion vector in the left-eye image in FIG. 7, the ball motion vector in the left-eye image is corrected by using the ball motion vector in the right-eye image. To do. This makes it possible to detect and generate a more appropriate motion vector, and improve the motion vector detection performance at the screen edge.
  • the accuracy of the vector corresponding to the parallax between the left and right images of the other eye is higher than the vector at the screen edge of the left or right eye as the vector correction condition (for example, the absolute value of the interframe difference at the time of block matching). It may be added that the block total value is small.
  • the left-eye motion vector and the right-eye motion vector which are motion vectors in the corresponding left image region and right image region. Based on the comparison result, at least one of the left-eye motion vector and the right-eye motion vector is corrected so that the left-eye motion vector matches the right-eye motion vector. Then, an interpolation image for frame rate conversion is generated using the left eye motion vector and the right eye motion vector after the correction. That is, the corresponding left-eye motion vector and the right-eye motion vector should basically be substantially the same, but either the left-eye motion vector or the right-eye motion vector is accurately obtained.
  • the degree of coincidence between the left eye motion vector and the right eye motion vector may be low. In this case, it is necessary to correct an inaccurate motion vector. For this reason, correction is performed so that the left-eye motion vector matches the right-eye motion vector, for example, correction is made so that an inaccurate motion vector matches the accurate motion vector. Then, by using the corrected motion vector for frame rate conversion, a stereoscopic video can be displayed smoothly.
  • the vector correction unit 115 uses the right eye motion vector when the area in the left image is arranged in the left screen end area, but the area in the right image is not arranged in the right screen end area. If the left eye motion vector is corrected and the right image area is located in the right screen edge area, but the left image area is not located in the left screen edge area, the left eye motion vector is used. Correct the right eye motion vector. In other words, since the motion vector in the region at the screen edge cannot be obtained accurately, the motion vector in the region other than the other screen edge is used for correction. Accordingly, by correcting an inaccurate motion vector using an accurate motion vector, it is possible to display a stereoscopic video smoothly using the corrected accurate motion vector.
  • the vector correction unit 115 corrects the motion vector by setting the screen end region to be larger as the size of the motion vector is larger. That is, when the size of the motion vector is large, the motion of the video is large, so that the screen edge region where the accuracy of the motion vector is reduced needs to be set large. For this reason, since the motion vector can be appropriately corrected according to the magnitude thereof, a stereoscopic video can be smoothly displayed using the corrected accurate motion vector.
  • Embodiment 2 Next, the stereoscopic video processing apparatus according to Embodiment 2 of the present invention will be described.
  • the configuration of the vector detection unit of the stereoscopic video processing device according to Embodiment 1 is different from that of the stereoscopic video processing device according to Embodiment 2, the configuration of the vector detection unit will be described in detail below.
  • FIG. 8 is a block diagram illustrating a functional configuration of the vector detection unit 130 included in the stereoscopic video processing apparatus according to Embodiment 2 of the present invention.
  • the vector detection unit 130 includes the left eye motion vector detection unit 111, the right eye motion vector detection unit 112, and the vector correction unit 115 included in the vector detection unit 110 according to the first embodiment.
  • a scene change determination unit 131 is provided.
  • the scene change determination unit 131 includes a left-eye scene change determination unit 132, a right-eye scene change determination unit 133, and a left-right eye scene change comparison unit 134.
  • each configuration will be described in detail.
  • the left-eye motion vector detection unit 111 has the same function as the left-eye motion vector detection unit 111 included in the vector detection unit 110 according to Embodiment 1, and thus detailed description thereof is omitted. That is, the left-eye video data is input to the left-eye motion vector detection unit 111, and the left-eye motion vector detection unit 111 detects the left-eye motion vector, and at the same time, an index of the correctness of the left-eye motion vector. The left eye motion vector accuracy is output.
  • the left-eye scene change determination unit 132 acquires the left-eye motion vector accuracy output from the left-eye motion vector detection unit 111, and the left-eye motion vector accuracy in a plurality of regions in the left image is equal to or less than a predetermined first threshold. In this case, it is determined that the left-eye video is a scene change.
  • a predetermined third threshold value ⁇ ⁇ ⁇ it is determined that the scene has changed.
  • the left-eye motion vector accuracy is input to the left-eye scene change determination unit 132.
  • the left-eye scene change determination unit 132 is a scene change. Is determined.
  • the value of the first threshold is not particularly limited, and can be freely set by the user.
  • the right-eye motion vector detection unit 112 has the same function as the right-eye motion vector detection unit 112 included in the vector detection unit 110 in Embodiment 1, and thus detailed description thereof is omitted. That is, the right-eye video data is input to the right-eye motion vector detection unit 112, and the right-eye motion vector detection unit 112 detects the right-eye motion vector, and at the same time, an index of the correctness of the right-eye motion vector. The right eye motion vector accuracy is output.
  • the right-eye scene change determination unit 133 acquires the right-eye motion vector accuracy output from the right-eye motion vector detection unit 112, and the right-eye motion vector accuracy in a plurality of regions in the right image is equal to or less than a predetermined second threshold value. In this case, it is determined that the right-eye video is a scene change.
  • the right-eye motion vector accuracy is input to the right-eye scene change determination unit 133.
  • the right-eye scene change determination unit 133 is a scene change. Is determined.
  • the value of the second threshold value is not particularly limited and can be set freely by the user, but is preferably the same value as the first threshold value.
  • the left and right eye scene change comparison unit 134 outputs a correction permission signal based on the determination results of the left eye scene change determination unit 132 and the right eye scene change determination unit 133. Specifically, if the left-eye scene change comparison unit 134 determines that at least one of the left-eye scene change determination unit 132 and the right-eye scene change determination unit 133 is a scene change, the left-eye motion vector And a right eye motion vector correction permission signal is output.
  • the left and right eye scene change comparison unit 134 may enter a correction permission state when at least one eye determines a scene change, or enters a correction permission state when both eyes determine a scene change. Also good.
  • the vector correction unit 115 corrects the left eye motion vector and the right eye motion vector in conjunction with each other when the correction permission signal output from the left and right eye scene change comparison unit 134 is acquired.
  • the left eye vector correction unit 116 corrects the left eye motion vector based on the correction permission signal output from the left and right eye scene change comparison unit 134. For example, when the correction permission signal is in the correction permission state, the left eye vector correction unit 116 performs correction such as clearing the left eye motion vector to 0 or reducing the left eye motion vector.
  • the right eye vector correction unit 117 corrects the right eye motion vector based on the correction permission signal output from the left and right eye scene change comparison unit 134. For example, when the correction permission signal is in the correction permission state, the right eye vector correction unit 117 performs correction such as clearing the right eye motion vector to 0 or decreasing the right eye motion vector.
  • the left-eye motion vector and the right-eye motion vector are similarly corrected at the same timing based on the determination results of the left-eye scene change determination unit 132 and the right-eye scene change determination unit 133. Therefore, it is possible to improve the occurrence of a visual discomfort between the left-eye video output and the right-eye video output by the signal processing using the motion vector.
  • FIG. 9 is a flowchart showing an example of the operation of the stereoscopic video processing apparatus according to the second embodiment of the present invention.
  • the left-eye motion vector detection unit 111 detects and detects a left-eye motion vector in a region within the left image in the left-eye image included in the input left-eye video data.
  • the left eye motion vector accuracy of the left eye motion vector is output (S302).
  • the right-eye motion vector detection unit 112 detects a right-eye motion vector in a region within the right image in the right-eye image included in the input right-eye video data, and detects the detected right-eye motion.
  • the right eye motion vector accuracy of the vector is output (S304).
  • a predetermined third threshold the value obtained by subtracting the average of the past several frames of the total sum is equal to or greater than a predetermined third threshold, it is determined that the scene has changed.
  • the left-eye scene change determination unit 132 determines that the left-eye video image is a scene change when the left-eye motion vector accuracy in a plurality of regions in the left image is equal to or less than a predetermined first threshold (S306).
  • the right-eye scene change determination unit 133 determines that the right-eye video image is a scene change when the right-eye motion vector accuracy in a plurality of areas in the right image is equal to or less than a predetermined second threshold (S308).
  • the left-eye scene change comparison unit 134 determines that at least one of the left-eye scene change determination unit 132 and the right-eye scene change determination unit 133 is a scene change
  • the left-eye motion vector and the right-eye A motion vector correction permission signal is output (S310).
  • the vector correcting unit 115 corrects the left eye motion vector and the right eye motion vector in conjunction with each other when the correction permission signal output from the left and right eye scene change comparison unit 134 is acquired (S312).
  • the interpolation image generation unit 120 uses the left eye motion vector and the right eye motion vector corrected by the vector correction unit 115 to perform frame rate conversion on the left eye video data and the right eye video data.
  • An interpolation image is generated (S314).
  • the stereoscopic video processing device in Embodiment 2 of the present invention when it is determined that at least one of the left-eye video and the right-eye video is a scene change, the left-eye motion vector And the right eye motion vector are corrected in conjunction with each other. That is, the stereoscopic image processing apparatus corrects the left and right motion vectors in conjunction with each other when it detects a scene change in the image. For this reason, it is possible to prevent the balance between the left and right images from being lost in a scene change. Thereby, a three-dimensional image can be smoothly displayed even in a scene change.
  • Embodiment 3 Next, a stereoscopic video processing apparatus according to Embodiment 3 of the present invention will be described.
  • the configuration of the vector detection unit of the stereoscopic video processing device in Embodiment 1 is different from that of Embodiment 3 in the stereoscopic video processing device in Embodiment 3, the configuration of the vector detection unit is described below. Will be described in detail.
  • FIG. 10 is a block diagram illustrating a functional configuration of the vector detection unit 140 included in the stereoscopic video processing apparatus according to Embodiment 3 of the present invention.
  • the vector detection unit 140 includes a left-eye motion vector detection unit 111, a right-eye motion vector detection unit 112, and a vector correction unit 115 included in the vector detection unit 110 according to the first embodiment.
  • a scroll determination unit 141 is provided.
  • the scroll determination unit 141 includes a left-eye histogram determination unit 142, a left-eye counter 143, a left-eye scroll determination unit 144, a right-eye histogram determination unit 145, a right-eye counter 146, and a right-eye scroll determination unit. 147, and a left-right eye scroll comparison unit 148.
  • each configuration will be described in detail.
  • the left-eye motion vector detection unit 111 has the same function as the left-eye motion vector detection unit 111 included in the vector detection unit 110 according to Embodiment 1, and thus detailed description thereof is omitted. That is, the left-eye video data is input to the left-eye motion vector detection unit 111, and the left-eye motion vector detection unit 111 detects the left-eye motion vector.
  • the left-eye histogram determination unit 142 calculates a histogram of left-eye motion vectors in a plurality of regions in the left image, determines whether or not the histogram is highly concentrated, and scrolls the vector on which the histogram is concentrated to the left eye Output as a vector. That is, when the left-eye motion vector is input to the left-eye histogram determination unit 142, the left-eye histogram determination unit 142 calculates, for example, a histogram of the entire screen of the left-eye motion vector, and the degree of histogram concentration is calculated. It is determined whether it is high, and a vector value on which the histogram is concentrated is output as a left-eye scroll vector.
  • the left-eye counter 143 increases the counter value when the left-eye histogram determination unit 142 determines that the histogram concentration level is high, and decreases the counter value when it is determined that the histogram concentration level is not high.
  • the left-eye scroll determination unit 144 determines whether or not the left-eye video is a scroll video using the histograms of the left-eye motion vectors in a plurality of areas in the left image. Specifically, the left-eye scroll determination unit 144 determines that the left-eye video is a scroll video when the counter value in the left-eye counter 143 is equal to or greater than a predetermined third threshold.
  • the value of the third threshold value is not particularly limited, and can be freely set by the user.
  • the right-eye motion vector detection unit 112 has the same function as the right-eye motion vector detection unit 112 included in the vector detection unit 110 in Embodiment 1, and thus detailed description thereof is omitted. That is, the right-eye video data is input to the right-eye motion vector detection unit 112, and the right-eye motion vector detection unit 112 detects the right-eye motion vector.
  • the right-eye histogram determination unit 145 calculates a right-eye motion vector histogram in a plurality of regions in the right image, determines whether or not the histogram is highly concentrated, and right-eye scrolls the vector on which the histogram is concentrated. Output as a vector. That is, when the right-eye motion vector is input to the right-eye histogram determination unit 145, the right-eye histogram determination unit 145 calculates, for example, a histogram of the entire screen of the right-eye motion vector, and the degree of histogram concentration is calculated. It is determined whether it is high, and a vector value on which the histogram is concentrated is output as a right eye scroll vector.
  • the right-eye counter 146 increases the counter value when the right-eye histogram determination unit 145 determines that the histogram concentration is high, and decreases the counter value when it is determined that the histogram concentration is not high.
  • the right-eye scroll determination unit 147 determines whether or not the right-eye video is a scroll video by using a histogram of right-eye motion vectors in a plurality of right image regions. Specifically, the right-eye scroll determination unit 147 determines that the right-eye video is a scroll video when the counter value in the right-eye counter 146 is equal to or greater than a predetermined fourth threshold.
  • the value of the fourth threshold value is not particularly limited and can be set freely by the user, but is preferably the same value as the third threshold value.
  • the left-eye scroll comparison unit 148 determines that at least one of the left-eye scroll determination unit 144 and the right-eye scroll determination unit 147 is a scroll video, the left-eye motion vector and the right-eye motion vector are corrected. Output permission signal.
  • the left-eye scroll comparison unit 148 has a degree of coincidence between the left-eye scroll vector output from the left-eye histogram determination unit 142 and the right-eye scroll vector output from the right-eye histogram determination unit 145 greater than or equal to a predetermined value. In the case of, a corrected scroll vector obtained from the left eye scroll vector and the right eye scroll vector is generated.
  • the left-eye scroll comparison unit 148 is a case where the degree of coincidence between the left-eye scroll vector and the right-eye scroll vector is greater than or equal to a predetermined value, and the left-eye scroll determination unit 144 and the right-eye scroll determination unit 147 When it is determined that at least one of them is a scroll video, the correction permission signal is output.
  • the left-eye scroll determination result output from the left-eye scroll determination unit 144, the right-eye scroll determination result output from the right-eye scroll determination unit 147, the left-eye scroll vector, and the right-eye scroll vector This is input to the left / right eye scroll comparison unit 148. Then, when the left-eye scroll vector and the right-eye scroll vector are substantially equal, the left-right scroll comparison unit 148 outputs a corrected scroll vector based on the values of the left-eye scroll vector and the right-eye scroll vector, When the values of the left-eye scroll vector and the right-eye scroll vector are approximately equal, a correction permission signal is output when at least one of the left-eye scroll determination result and the right-eye scroll determination result is in the scroll state.
  • the left-eye scroll comparison unit 148 may generate the same vector as the left-eye scroll vector or the right-eye scroll vector as the correction scroll vector, or the weighted average of the left-eye scroll vector and the right-eye scroll vector.
  • the vector may be generated as a corrected scroll vector.
  • the left-right eye scroll comparison unit 148 compares the one-frame average value of the vector accuracy of the left-eye motion vector with the one-frame average value of the vector accuracy of the right-eye motion vector, and the specific gravity of the more likely vector is high. As described above, a vector obtained by weighted averaging the left-eye scroll vector and the right-eye scroll vector may be generated as the corrected scroll vector.
  • the vector correction unit 115 corrects the left eye motion vector and the right eye motion vector in conjunction with each other when the correction permission signal output from the left and right eye scroll comparison unit 148 is acquired. Specifically, the vector correction unit 115 corrects the left-eye motion vector and the right-eye motion vector using the correction scroll vector when acquiring the correction permission signal output from the left-and-right scroll comparison unit 148.
  • the left eye vector correction unit 116 corrects the left eye motion vector with the correction scroll vector. For example, the left-eye vector correction unit 116 replaces the left-eye motion vector of the entire screen with the correction scroll vector. Alternatively, the left-eye vector correction unit 116 increases the ratio of the correction scroll vector to the left-eye motion vector and the correction scroll vector as the average value of the counter values of the left-eye counter 143 and the right-eye counter 146 increases. For example, blending may be performed.
  • the right eye vector correction unit 117 corrects the right eye motion vector with the correction scroll vector when the correction permission signal output from the left and right eye scroll comparison unit 148 is in the permitted state. For example, the right eye vector correction unit 117 replaces the right eye motion vector of the entire screen with the correction scroll vector. Alternatively, the right eye vector correction unit 117 increases the ratio of the correction scroll vector to the right eye motion vector and the correction scroll vector as the average value of the counter values of the left eye counter 143 and the right eye counter 146 increases. For example, blending may be performed.
  • the stereoscopic video processing apparatus is based on the left eye scroll determination result and the right eye scroll determination result, and the values of the left eye scroll vector and the right eye scroll vector. Since the left-eye vector and the right-eye vector are similarly corrected at the same timing, a visual discomfort occurs between the left-eye video output and the right-eye video output by signal processing using a motion vector. Can be improved.
  • FIG. 11 is a flowchart showing an example of the operation of the stereoscopic video processing apparatus according to Embodiment 3 of the present invention.
  • the left-eye motion vector detection unit 111 detects a left-eye motion vector in a region in the left image in the left-eye image included in the input left-eye video data (S402). .
  • the right-eye motion vector detection unit 112 detects a right-eye motion vector in a region within the right image in the right-eye image included in the input right-eye video data (S404).
  • the scroll determination unit 141 determines whether to scroll the left-eye video and the right-eye video (S406). The details of the process in which the scroll determination unit 141 determines scrolling will be described later.
  • the left-eye scroll comparison unit 148 determines that at least one of the left-eye video and the right-eye video is a scroll video, it outputs a correction permission signal for the left-eye motion vector and the right-eye motion vector. (S408).
  • the vector correcting unit 115 corrects the left eye motion vector and the right eye motion vector in conjunction with each other when the correction permission signal output from the left and right eye scroll comparing unit 148 is acquired (S410).
  • the interpolation image generation unit 120 uses the left eye motion vector and the right eye motion vector corrected by the vector correction unit 115 to perform frame rate conversion on the left eye video data and the right eye video data.
  • An interpolated image is generated (S412).
  • FIG. 12 is a flowchart showing processing in which the scroll determination unit 141 according to Embodiment 3 of the present invention determines scrolling.
  • the left-eye histogram determination unit 142 calculates a left-eye motion vector histogram in a plurality of regions in the left image, determines whether or not the histogram is highly concentrated, The vector on which the histogram is concentrated is output as the left eye scroll vector (S502).
  • the right-eye histogram determination unit 145 calculates a right-eye motion vector histogram in a plurality of regions in the right image, determines whether or not the histogram is highly concentrated, and determines whether the histogram-concentrated vector is to the right. It outputs as an eye scroll vector (S504).
  • the histogram generated by the left-eye histogram determination unit 142 or the right-eye histogram determination unit 145 will be described below.
  • FIG. 13 is a diagram illustrating an example of a histogram generated by the left-eye histogram determination unit 142 or the right-eye histogram determination unit 145 according to Embodiment 3 of the present invention.
  • the X-axis direction and Y-axis direction in the figure indicate the direction of the motion vector.
  • the distance from the center indicates the magnitude of the motion vector.
  • the height of the graph indicates the degree of concentration of motion vectors. That is, the vector from the origin to the position where the height of the graph is the highest is the vector where the histogram is concentrated. Note that the left-eye histogram determination unit 142 and the right-eye histogram determination unit 145 individually generate histograms as shown in FIG.
  • the left-eye histogram determination unit 142 determines that the histogram concentration is high when the height of the histogram graph is higher than a predetermined value, and the vector from the origin to the position where the graph height is the highest. Is output as a left-eye scroll vector.
  • the right eye histogram determination unit 145 determines that the histogram concentration is high when the histogram graph height is higher than a predetermined value, and from the origin to the position where the graph height is the highest. Are output as a right-eye scroll vector.
  • left-eye histogram determination unit 142 and the right-eye histogram determination unit 145 may perform the determination of the degree of concentration in a predetermined region within one frame.
  • the left-eye histogram determination unit 142 creates a histogram by dividing the horizontal component into m regions and the vertical component into n regions. Then, the left-eye histogram determination unit 142 calculates, for each region of the histogram, the number of blocks in which the horizontal vector is included in each of the m regions and the added value of the horizontal vector in each region for one frame. Then, after the calculation for one frame is completed, the left-eye histogram determination unit 142 divides the horizontal vector addition value in the region by the number of blocks included in the region for the region having the maximum number of blocks included in the region. Then, the average value of the horizontal vectors included in the region is obtained and used as the horizontal component of the left eye scroll vector.
  • the left-eye histogram determination unit 142 calculates the number of blocks included in each of the n areas and the added value of the vertical vectors in each area for one frame. Then, after the calculation for one frame is completed, the left-eye histogram determination unit 142 divides the vertical vector addition value in the region by the number of blocks included in the region for the region having the maximum number of blocks included in the region. Then, the average value of the vertical vectors included in the region is obtained and used as the vertical component of the left eye scroll vector.
  • the left eye histogram determination unit 142 sets the horizontal component and the vertical component of the left eye scroll vector thus obtained as the left eye scroll vector.
  • the left-eye histogram determination unit 142 determines the number of blocks in the area where the number of blocks included in each of the m horizontal areas is the maximum and the number of blocks included in each of the areas where the vertical vector is included in n. If both the number of blocks in the maximum area are equal to or greater than a predetermined threshold, it is determined that the degree of concentration of the histogram is high.
  • the left-eye counter 143 increases the counter value when the left-eye histogram determination unit 142 determines that the histogram concentration is high, and determines that the histogram concentration is not high.
  • the counter value is decreased (S506). For example, the left eye counter 143 increases or decreases the counter value for each frame.
  • the right-eye counter 146 increases the counter value when the right-eye histogram determination unit 145 determines that the histogram concentration is high, and the counter value when the right-eye counter 146 determines that the histogram concentration is not high. (S508). For example, the right eye counter 146 increases or decreases the counter value for each frame.
  • the left-eye scroll determination unit 144 determines that the left-eye video is a scroll video when the counter value in the left-eye counter 143 is equal to or greater than a predetermined third threshold (S510).
  • the right-eye scroll determining unit 147 determines that the right-eye video is a scroll video when the counter value in the right-eye counter 146 is equal to or larger than a predetermined fourth threshold (S512).
  • the counter value decrease speed is set faster than the counter value increase speed, and when the scroll image is changed to a non-scroll image, it is desirable to instantaneously determine that the image is not a scroll image.
  • the stereoscopic video processing device in Embodiment 3 of the present invention when it is determined that at least one of the left-eye video and the right-eye video is a scroll video, the left-eye motion vector And the right eye motion vector are corrected in conjunction with each other. That is, the stereoscopic image processing apparatus corrects the left and right motion vectors in conjunction with each other when detecting a screen scroll in the image. For this reason, it is possible to prevent the balance between the left and right images from being lost in screen scrolling. As a result, stereoscopic images can be displayed smoothly even in screen scrolling.
  • the stereoscopic video processing device corrects a left-eye scroll vector that is a vector in which the histogram of the left-eye motion vector is concentrated and a right-eye scroll vector that is a vector in which the histogram of the right-eye motion vector is concentrated.
  • the left eye motion vector and the right eye motion vector are corrected using the scroll vector. That is, in scrolling, the vector on which the histogram is concentrated is a vector indicating the movement of the scroll. Therefore, the left-eye motion vector and the right-eye motion vector are corrected using the vector on which the histogram is concentrated. For this reason, the left-eye motion vector and the right-eye motion vector can be corrected so as to match the scrolling motion. As a result, stereoscopic images can be displayed smoothly even in screen scrolling.
  • the stereoscopic video processing device includes the vector detection unit having one of the functions of the vector detection units 110, 130, and 140.
  • a vector detection unit having all the functions of the detection units 110, 130, and 140 may be provided.
  • FIG. 14 is a block diagram illustrating a functional configuration of the vector detection unit 150 included in the stereoscopic video processing device according to the modified examples of Embodiments 1 to 3 of the present invention.
  • the vector detection unit 150 includes a left-eye motion vector detection unit 111, a right-eye motion vector detection unit 112, a parallax detection unit 113, and a vector comparison unit included in the vector detection unit 110 according to the first embodiment. 114, the vector correction unit 115, the scene change determination unit 131 included in the vector detection unit 130 in the second embodiment, and the scroll determination unit 141 included in the vector detection unit 140 in the third embodiment.
  • the stereoscopic video processing apparatus includes the vector detection unit 150 having all the functions of the first to third embodiments.
  • the vector detection unit 150 does not have to have all the functions of the first to third embodiments.
  • the vector detection unit 150 does not include the scroll determination unit 141, and the two functions of the first to third embodiments. You may decide to have.
  • the stereoscopic video processing apparatus is not mounted in the stereoscopic video display apparatus 1 such as a digital television, but is mounted in the stereoscopic video recording apparatus 2 such as a digital video recorder. You may decide.
  • FIG. 15 is an external view showing an example of the stereoscopic video display device 1 and the stereoscopic video recording device 2 including the stereoscopic video processing device according to the present invention.
  • the stereoscopic image display device 1 can be applied not only to a digital television but also to a mobile phone device or a personal computer that displays a three-dimensional image.
  • the stereoscopic video recording apparatus 2 can be applied not only to a digital video recorder but also to a BD player that outputs a three-dimensional image.
  • the present invention can be realized not only as such a stereoscopic video processing apparatus, but also as a stereoscopic video processing method including a characteristic process included in the stereoscopic video processing apparatus as a step. It can also be realized as a program that causes a computer to execute typical steps. Needless to say, such a program can be distributed via a recording medium such as a CD-ROM and a transmission medium such as the Internet.
  • the present invention can also be realized as an integrated circuit (LSI) having a part or all of the functions of such a stereoscopic video processing apparatus. These may be individually made into one chip, or may be made into one chip so as to include a part or all of them.
  • LSI integrated circuit
  • circuits is not limited to LSI, and may be realized by a dedicated circuit or a general-purpose processor.
  • An FPGA Field Programmable Gate Array
  • reconfigurable processor that can reconfigure the connection and setting of circuit cells inside the LSI may be used.
  • the present invention can be applied to a stereoscopic image processing apparatus capable of smoothly displaying a stereoscopic image in a stereoscopic image processing display apparatus that stereoscopically views using the parallax of an image observed with both the left and right eyes.

Abstract

 立体映像処理装置(100)であって、左画像内領域における左眼用動きベクトルを検出する左眼用動きベクトル検出部(111)と、右画像内領域における右眼用動きベクトルを検出する右眼用動きベクトル検出部(112)と、左右画像間視差を検出する視差検出部(113)と、左右画像間視差から得られる対応する左眼用動きベクトルと右眼用動きベクトルとを比較するベクトル比較部(114)と、比較結果に基づいて、左眼用動きベクトルと右眼用動きベクトルとが一致するように、左眼用動きベクトル及び右眼用動きベクトルのうち少なくとも一方を補正するベクトル補正部(115)と、左眼用動きベクトル及び右眼用動きベクトルを用いて、フレームレート変換のための補間画像を生成する補間画像生成部(120)とを備える。

Description

立体映像処理装置及び立体映像処理方法
 本発明は、左右の画像間の視差を利用して立体視させる立体映像処理装置及び立体映像処理方法に関し、特に、左右画像の動きベクトルの検出性能を改善する立体映像処理装置及び立体映像処理方法に関する。
 動きベクトルを求める方法として、ブロックマッチング法が一般的に知られている。このブロックマッチング法では、画面全体を複数のブロック(ブロックは例えば16×16画素で構成される)に分割して、現フレームの注目ブロックと複数の候補ベクトルが指し示す過去フレームのブロックとの映像信号レベルの差分絶対値のブロック合計値を求める。そして、当該差分絶対値のブロック合計値が最小となる過去フレームのブロックに対応する候補ベクトルを、動きベクトルとする。
 しかし、ブロックマッチング法では、被写体と背景あるいは複数の被写体の境界領域では、視差量が正確に検出できなかった。このため、被写体と背景あるいは複数の被写体に対応する視差量を正確に検出することができる両眼視差検出方法が提案されている(例えば、特許文献1参照)。
 この両眼視差検出方法では、両眼視差を左右画像上での画素位置の変位として求める際に、左右の画像を2次元フーリエ変換し、その位相項のシフトマッチングによりいくつかの視差変位量の候補を算出する。そして当該算出を行った後に、左右画像のそれぞれについて被写体の輪郭抽出および領域決定を行い、これらの境界点の内側の点と外側の数点において、2次元フーリエ変換を利用して求めた変位量候補との対応をとる。これにより、被写体と背景あるいは複数の被写体に対応する視差量を正確に検出することができる。
特開平2-100589号公報
 しかしながら、上記従来の両眼視差検出方法によって視差量を正確に検出しても、立体映像をスムーズに表示させることができない場合があるという問題がある。
 例えば、映像が表示される画面の端部である画面端については、正確な動きベクトルを求めることが困難であるため、当該画面端については、映像をスムーズに表示することができない。つまり、従来、現フレーム画像と過去フレーム画像とを用いて動きベクトルを検出する際、現フレームの画面端に表示されている絵柄が過去フレームには存在しない、あるいは周辺領域のベクトル検出結果を注目領域のベクトル検出演算に用いるなどの要因で、画面端は正確な動きベクトルを求めることが困難であった。
 また、立体映像入力の場合、左眼用動きベクトルは、左眼用映像の現フレーム画像と過去フレーム画像とから求め、右眼用動きベクトルは、右眼用映像の現フレーム画像と過去フレーム画像とから求めるため、それぞれ独立に動きベクトルが検出される。このため、全画面のスクロールやシーンチェンジ等の検出は、左右で検出タイミングが異なる場合があり、動きベクトルを用いた信号処理による左眼用映像出力と右眼用映像出力の画質が異質なものになる。
 そこで、本発明は、このような問題に鑑みてなされたものであり、立体映像をスムーズに表示させることができる立体映像処理装置及び立体映像処理方法を提供することを目的とする。
 上記目的を達成するために、本発明の一態様に係る立体映像処理装置は、入力された左眼用映像データに含まれる左眼用画像と右眼用映像データに含まれる右眼用画像との間の視差を利用して立体視させる立体映像処理装置であって、前記左眼用画像内の領域である左画像内領域における動きベクトルである左眼用動きベクトルを検出する左眼用動きベクトル検出部と、前記右眼用画像内の領域である右画像内領域における動きベクトルである右眼用動きベクトルを検出する右眼用動きベクトル検出部と、前記左眼用画像と前記右眼用画像との間の視差である左右画像間視差を検出する視差検出部と、前記左画像内領域において検出された前記左眼用動きベクトルと、前記左右画像間視差から得られる前記左画像内領域に対応する前記右画像内領域において検出された前記右眼用動きベクトルとを比較するベクトル比較部と、前記ベクトル比較部による比較結果に基づいて、前記左眼用動きベクトルと前記右眼用動きベクトルとが一致するように、前記左眼用動きベクトル及び前記右眼用動きベクトルのうち少なくとも一方を補正するベクトル補正部と、前記ベクトル補正部による補正後の前記左眼用動きベクトル及び前記右眼用動きベクトルを用いて、前記左眼用映像データ及び前記右眼用映像データについてフレームレート変換のための補間画像を生成する補間画像生成部とを備える。
 これによれば、立体映像処理装置は、対応する左画像内領域及び右画像内領域における動きベクトルである左眼用動きベクトルと右眼用動きベクトルとの比較結果に基づいて、左眼用動きベクトルと右眼用動きベクトルとが一致するように、左眼用動きベクトル及び右眼用動きベクトルのうち少なくとも一方を補正する。そして、当該補正が行われた後の左眼用動きベクトル及び右眼用動きベクトルを用いて、フレームレート変換のための補間画像を生成する。つまり、対応する左眼用動きベクトルと右眼用動きベクトルとは、基本的にはほぼ一致するはずであるが、左眼用動きベクトルまたは右眼用動きベクトルのいずれかが正確に求められていないために、左眼用動きベクトルと右眼用動きベクトルとの一致度が低くなっている場合がある。この場合、正確でない動きベクトルを補正する必要がある。このため、例えば正確でない動きベクトルを正確な動きベクトルに一致させるように補正するなど、左眼用動きベクトルと右眼用動きベクトルとが一致するように補正する。そして、この補正した動きベクトルをフレームレート変換に使用することで、立体映像をスムーズに表示させることができる。
 また、好ましくは、前記ベクトル補正部は、前記左画像内領域が、前記左眼用画像が表示される画面の端部の領域である左画面端領域内に配置されるとともに、前記左右画像間視差から得られる前記左画像内領域に対応する前記右画像内領域が、前記右眼用画像が表示される画面の端部の領域である右画面端領域内に配置されていない場合、前記右眼用動きベクトルを用いて前記左眼用動きベクトルを補正し、前記右画像内領域が、前記右画面端領域内に配置されるとともに、前記左右画像間視差から得られる前記右画像内領域に対応する前記左画像内領域が、前記左画面端領域内に配置されていない場合、前記左眼用動きベクトルを用いて前記右眼用動きベクトルを補正する。
 これによれば、ベクトル補正部は、左画像内領域は左画面端領域内に配置されているが、右画像内領域が右画面端領域内に配置されていない場合、右眼用動きベクトルを用いて左眼用動きベクトルを補正し、右画像内領域は右画面端領域内に配置されているが、左画像内領域が左画面端領域内に配置されていない場合、左眼用動きベクトルを用いて右眼用動きベクトルを補正する。つまり、画面端の領域における動きベクトルは、正確に求めることができないため、他方の画面端以外の領域における動きベクトルを用いて補正する。これにより、正確でない動きベクトルを正確な動きベクトルを用いて補正することで、補正後の正確な動きベクトルを使用して、立体映像をスムーズに表示させることができる。
 また、好ましくは、前記ベクトル補正部は、前記左眼用動きベクトルの大きさが大きいほど前記左画面端領域を大きく設定し、前記右眼用動きベクトルの大きさが大きいほど前記右画面端領域を大きく設定して、前記左眼用動きベクトル及び前記右眼用動きベクトルのうち少なくとも一方を補正する。
 これによれば、ベクトル補正部は、動きベクトルの大きさが大きいほど画面端領域を大きく設定して、動きベクトルを補正する。つまり、動きベクトルの大きさが大きい場合は、映像の動きが大きいので、動きベクトルの正確さが低下する画面端領域は、大きく設定する必要がある。このため、動きベクトルをその大きさに応じて適切に補正することができるので、補正後の正確な動きベクトルを使用して、立体映像をスムーズに表示させることができる。
 また、好ましくは、前記左眼用動きベクトル検出部は、さらに、検出した前記左眼用動きベクトルの確かさの度合いを示す左眼動きベクトル確度を出力し、前記右眼用動きベクトル検出部は、さらに、検出した前記右眼用動きベクトルの確かさの度合いを示す右眼動きベクトル確度を出力し、前記立体映像処理装置は、さらに、出力された前記左眼動きベクトル確度を取得し、複数の前記左画像内領域における左眼動きベクトル確度が所定の第一閾値以下の場合、左眼用映像がシーンチェンジであると判定する左眼用シーンチェンジ判定部と、出力された前記右眼動きベクトル確度を取得し、複数の前記右画像内領域における右眼動きベクトル確度が所定の第二閾値以下の場合、右眼用映像がシーンチェンジであると判定する右眼用シーンチェンジ判定部と、前記左眼用シーンチェンジ判定部及び前記右眼用シーンチェンジ判定部のうち少なくとも一方がシーンチェンジであると判定した場合、前記左眼用動きベクトル及び前記右眼用動きベクトルの補正許可信号を出力する左右眼シーンチェンジ比較部とを備え、前記ベクトル補正部は、さらに、前記左右眼シーンチェンジ比較部が出力した補正許可信号を取得した場合、前記左眼用動きベクトルと前記右眼用動きベクトルとを連動して補正する。
 これによれば、立体映像処理装置は、左眼用映像及び右眼用映像のうち少なくとも一方がシーンチェンジであると判定した場合に、左眼用動きベクトルと右眼用動きベクトルとを連動して補正する。つまり、立体映像処理装置は、映像中のシーンチェンジを検出した場合に、左右の動きベクトルを連動して補正する。このため、シーンチェンジにおいて、左右の画像のバランスが崩れることを抑制することができる。これにより、シーンチェンジにおいても、立体映像をスムーズに表示させることができる。
 また、好ましくは、さらに、複数の前記左画像内領域における前記左眼用動きベクトルのヒストグラムを用いて、左眼用映像がスクロール映像であるか否かを判定する左眼用スクロール判定部と、複数の前記右画像内領域における前記右眼用動きベクトルのヒストグラムを用いて、右眼用映像がスクロール映像であるか否かを判定する右眼用スクロール判定部と、前記左眼用スクロール判定部及び前記右眼用スクロール判定部のうち少なくとも一方がスクロール映像であると判定した場合、前記左眼用動きベクトル及び前記右眼用動きベクトルの補正許可信号を出力する左右眼スクロール比較部とを備え、前記ベクトル補正部は、さらに、前記左右眼スクロール比較部が出力した補正許可信号を取得した場合、前記左眼用動きベクトルと前記右眼用動きベクトルとを連動して補正する。
 これによれば、立体映像処理装置は、左眼用映像及び右眼用映像のうち少なくとも一方がスクロール映像であると判定した場合に、左眼用動きベクトルと右眼用動きベクトルとを連動して補正する。つまり、立体映像処理装置は、映像中の画面スクロールを検出した場合に、左右の動きベクトルを連動して補正する。このため、画面スクロールにおいて、左右の画像のバランスが崩れることを抑制することができる。これにより、画面スクロールにおいても、立体映像をスムーズに表示させることができる。
 また、好ましくは、さらに、複数の前記左画像内領域において、前記左眼用動きベクトルのヒストグラムを演算し、ヒストグラムの集中度が高いか否かを判定し、ヒストグラムが集中するベクトルを左眼スクロールベクトルとして出力する左眼用ヒストグラム判定部と、前記左眼用ヒストグラム判定部がヒストグラムの集中度が高いと判定した場合に、カウンタ値を増加させ、ヒストグラムの集中度が高くないと判定した場合に、カウンタ値を減少させる左眼用カウンタと、複数の前記右画像内領域において、前記右眼用動きベクトルのヒストグラムを演算し、ヒストグラムの集中度が高いか否かを判定し、ヒストグラムが集中するベクトルを右眼スクロールベクトルとして出力する右眼用ヒストグラム判定部と、前記右眼用ヒストグラム判定部がヒストグラムの集中度が高いと判定した場合に、カウンタ値を増加させ、ヒストグラムの集中度が高くないと判定した場合に、カウンタ値を減少させる右眼用カウンタとを備え、前記左眼用スクロール判定部は、前記左眼用カウンタにおけるカウンタ値が所定の第三閾値以上の場合、左眼用映像がスクロール映像であると判定し、前記右眼用スクロール判定部は、前記右眼用カウンタにおけるカウンタ値が所定の第四閾値以上の場合、右眼用映像がスクロール映像であると判定し、前記左右眼スクロール比較部は、前記左眼用ヒストグラム判定部が出力した前記左眼スクロールベクトルと前記右眼用ヒストグラム判定部が出力した前記右眼スクロールベクトルとの一致度が所定値以上である場合に、前記左眼スクロールベクトルと前記右眼スクロールベクトルとから得られる補正スクロールベクトルを生成し、前記左眼スクロールベクトルと前記右眼スクロールベクトルとの一致度が所定値以上の場合であって、前記左眼用スクロール判定部及び前記右眼用スクロール判定部のうち少なくとも一方がスクロール映像であると判定した場合に、前記補正許可信号を出力し、前記ベクトル補正部は、前記左右眼スクロール比較部が出力した補正許可信号を取得した場合、前記左眼用動きベクトルと前記右眼用動きベクトルとを前記補正スクロールベクトルを用いて補正する。
 これによれば、立体映像処理装置は、左眼用動きベクトルのヒストグラムが集中するベクトルである左眼スクロールベクトルと、右眼用動きベクトルのヒストグラムが集中するベクトルである右眼スクロールベクトルとから生成される補正スクロールベクトルを用いて、左眼用動きベクトルと右眼用動きベクトルとを補正する。つまり、スクロールにおいて、ヒストグラムが集中するベクトルは、当該スクロールの動きを示すベクトルであるので、ヒストグラムが集中するベクトルを用いて、左眼用動きベクトルと右眼用動きベクトルとを補正する。このため、当該スクロールの動きに合うように、左眼用動きベクトルと右眼用動きベクトルとを補正することができる。これにより、画面スクロールにおいても、立体映像をスムーズに表示させることができる。
 また、上記目的を達成するために、本発明の他の態様に係る立体映像処理装置は、入力された左眼用映像データに含まれる左眼用画像と右眼用映像データに含まれる右眼用画像との間の視差を利用して立体視させる立体映像処理装置であって、前記左眼用画像内の領域である左画像内領域における動きベクトルである左眼用動きベクトルを検出するとともに、検出した前記左眼用動きベクトルの確かさの度合いを示す左眼動きベクトル確度を出力する左眼用動きベクトル検出部と、前記右眼用画像内の領域である右画像内領域における動きベクトルである右眼用動きベクトルを検出するとともに、検出した前記右眼用動きベクトルの確かさの度合いを示す右眼動きベクトル確度を出力する右眼用動きベクトル検出部と、出力された前記左眼動きベクトル確度を取得し、複数の前記左画像内領域における左眼動きベクトル確度が所定の第一閾値以下の場合、左眼用映像がシーンチェンジであると判定する左眼用シーンチェンジ判定部と、出力された前記右眼動きベクトル確度を取得し、複数の前記右画像内領域における右眼動きベクトル確度が所定の第二閾値以下の場合、右眼用映像がシーンチェンジであると判定する右眼用シーンチェンジ判定部と、前記左眼用シーンチェンジ判定部及び前記右眼用シーンチェンジ判定部のうち少なくとも一方がシーンチェンジであると判定した場合、前記左眼用動きベクトル及び前記右眼用動きベクトルの補正許可信号を出力する左右眼シーンチェンジ比較部と、前記左右眼シーンチェンジ比較部が出力した補正許可信号を取得した場合、前記左眼用動きベクトルと前記右眼用動きベクトルとを連動して補正するベクトル補正部と、前記ベクトル補正部による補正後の前記左眼用動きベクトル及び前記右眼用動きベクトルを用いて、前記左眼用映像データ及び前記右眼用映像データについてフレームレート変換のための補間画像を生成する補間画像生成部とを備える。
 これによれば、立体映像処理装置は、左眼用映像及び右眼用映像のうち少なくとも一方がシーンチェンジであると判定した場合に、左眼用動きベクトルと右眼用動きベクトルとを連動して補正する。つまり、立体映像処理装置は、映像中のシーンチェンジを検出した場合に、左右の動きベクトルを連動して補正する。このため、シーンチェンジにおいて、左右の画像のバランスが崩れることを抑制することができる。これにより、シーンチェンジにおいても、立体映像をスムーズに表示させることができる。
 また、上記目的を達成するために、本発明の他の態様に係る立体映像処理装置は、入力された左眼用映像データに含まれる左眼用画像と右眼用映像データに含まれる右眼用画像との間の視差を利用して立体視させる立体映像処理装置であって、前記左眼用画像内の領域である左画像内領域における動きベクトルである左眼用動きベクトルを検出する左眼用動きベクトル検出部と、前記右眼用画像内の領域である右画像内領域における動きベクトルである右眼用動きベクトルを検出する右眼用動きベクトル検出部と、複数の前記左画像内領域における前記左眼用動きベクトルのヒストグラムを用いて、左眼用映像がスクロール映像であるか否かを判定する左眼用スクロール判定部と、複数の前記右画像内領域における前記右眼用動きベクトルのヒストグラムを用いて、右眼用映像がスクロール映像であるか否かを判定する右眼用スクロール判定部と、前記左眼用スクロール判定部及び前記右眼用スクロール判定部のうち少なくとも一方がスクロール映像であると判定した場合、前記左眼用動きベクトル及び前記右眼用動きベクトルの補正許可信号を出力する左右眼スクロール比較部と、前記左右眼スクロール比較部が出力した補正許可信号を取得した場合、前記左眼用動きベクトルと前記右眼用動きベクトルとを連動して補正するベクトル補正部と、前記ベクトル補正部による補正後の前記左眼用動きベクトル及び前記右眼用動きベクトルを用いて、前記左眼用映像データ及び前記右眼用映像データについてフレームレート変換のための補間画像を生成する補間画像生成部とを備える。
 これによれば、立体映像処理装置は、左眼用映像及び右眼用映像のうち少なくとも一方がスクロール映像であると判定した場合に、左眼用動きベクトルと右眼用動きベクトルとを連動して補正する。つまり、立体映像処理装置は、映像中の画面スクロールを検出した場合に、左右の動きベクトルを連動して補正する。このため、画面スクロールにおいて、左右の画像のバランスが崩れることを抑制することができる。これにより、画面スクロールにおいても、立体映像をスムーズに表示させることができる。
 また、本発明は、このような立体映像処理装置として実現することができるだけでなく、立体映像処理装置に含まれる特徴的な処理をステップとする立体映像処理方法として実現したり、そのような特徴的なステップをコンピュータに実行させるプログラムとして実現したりすることもできる。そして、そのようなプログラムは、CD-ROM等の記録媒体及びインターネット等の伝送媒体を介して流通させることができるのは言うまでもない。
 また、本発明は、このような立体映像処理装置の機能の一部又は全てを備える集積回路(LSI)として実現したり、このような立体映像処理装置を備えるデジタルテレビ等の立体映像表示装置として実現したり、立体映像処理装置を備えるデジタルビデオレコーダ等の立体映像記録装置として実現したりすることもできる。
 本発明に係る立体映像処理装置によれば、動きベクトルを補正することで、立体映像をスムーズに表示させることができる。
図1は、本発明の実施の形態1における立体映像表示装置の機能構成を示すブロック図である。 図2は、本発明の実施の形態1における立体映像処理装置を備えるフレームレート変換部の機能構成を示すブロック図である。 図3は、本発明の実施の形態1における立体映像処理装置が備えるベクトル検出部の機能構成を示すブロック図である。 図4は、本発明の実施の形態1における立体映像処理装置の動作の一例を示すフローチャートである。 図5は、本発明の実施の形態1における補間画像生成部が補間画像を生成する処理を説明する図である。 図6は、本発明の実施の形態1におけるベクトル補正部が動きベクトルを補正する処理を示すフローチャートである。 図7は、本発明の実施の形態1におけるベクトル補正部が動きベクトルを補正する処理を説明する図である。 図8は、本発明の実施の形態2における立体映像処理装置が備えるベクトル検出部の機能構成を示すブロック図である。 図9は、本発明の実施の形態2における立体映像処理装置の動作の一例を示すフローチャートである。 図10は、本発明の実施の形態3における立体映像処理装置が備えるベクトル検出部の機能構成を示すブロック図である。 図11は、本発明の実施の形態3における立体映像処理装置の動作の一例を示すフローチャートである。 図12は、本発明の実施の形態3におけるスクロール判定部がスクロールを判定する処理を示すフローチャートである。 図13は、本発明の実施の形態3における左眼用ヒストグラム判定部または右眼用ヒストグラム判定部が生成するヒストグラムの一例を示す図である。 図14は、本発明の実施の形態1~3の変形例における立体映像処理装置が備えるベクトル検出部の機能構成を示すブロック図である。 図15は、本発明に係る立体映像処理装置を備える立体映像表示装置及び立体映像記録装置の一例を示す外観図である。
 (実施の形態1)
 本発明の実施の形態1における立体映像処理装置について、図面を参照しながら詳細に説明する。まず、立体映像処理装置を備える立体映像表示装置の構成について、説明する。
 図1は、本発明の実施の形態1における立体映像表示装置1の機能構成を示すブロック図である。
 立体映像表示装置1は、デジタルテレビなどの、三次元映像を表示する装置である。同図に示すように、立体映像表示装置1は、チューナ10、デコーダ20、I/P変換部30、リサイズ部40、フレームレート変換部50、画質補正部60、パネル表示制御部70及び表示パネル80を備えている。
 チューナ10は、放送波を受信し、受信した放送波に含まれる符号化された三次元の立体映像データを取得する。例えば、放送波は、地上デジタルテレビ放送、及び衛星デジタルテレビ放送等である。
 なお、立体映像表示装置1は、光ディスクやその他の記録媒体に記録されている立体映像データを取得してもよい。また、立体映像表示装置1は、インターネット等の通信網を経由して取得した立体映像データや、外部の装置により外部入力端子(図示せず)等に入力された立体映像データを取得してもよい。
 デコーダ20は、チューナ10が取得した立体映像データを復号する。具体的には、デコーダ20は、TS(トランスポートストリーム)のデコードを行うTSデコーダや、符号化された立体映像データのデコードを行うMPEG/H.264デコーダなどから構成される。
 I/P変換部30は、入力される映像信号がインタレース方式の場合に当該映像信号をインタレース方式からプログレッシブ方式に変換する。
 リサイズ部40は、出力される映像信号で示される画像のサイズが表示パネル80の画素数及びライン数に合うように、入力される映像信号を変換する。
 フレームレート変換部50は、表示される映像データのフレーム数を変更する。具体的には、フレームレート変換部50は、動きベクトルを用いて、フレーム間に時間方向の補間画像を生成する。なお、フレームレート変換部50の詳細な構成については、後述する。
 画質補正部60は、明るさ、コントラスト調整、輪郭強調等の各種画質の調整を行う。
 パネル表示制御部70は、入力された映像データを、表示パネル80に表示するためのデータドライバに合わせた映像データに並び替え、表示パネル80への表示を制御するパネル表示コントロール信号を発生する。
 表示パネル80は、左眼用と右眼用の映像信号を入力し、三次元映像を表示する。例えば、ユーザが、左眼用の映像信号と右眼用の映像信号との表示タイミングにあわせて開閉を行うことができる左眼用シャッタと右眼用シャッタとを備えるシャッタメガネ(図示せず)を装着することにより、当該ユーザは、表示パネル80に表示される三次元映像を見ることができる。
 次に、立体映像処理装置を備えるフレームレート変換部50の詳細な構成について、説明する。
 図2は、本発明の実施の形態1における立体映像処理装置100を備えるフレームレート変換部50の機能構成を示すブロック図である。
 同図に示すように、フレームレート変換部50は、プリフィルタ51、水平垂直データ間引部52、ベクトル検出用フレームメモリ53、本線系フレームメモリ54、タイミング制御部55、補間位相生成部56及び立体映像処理装置100を備えている。
 プリフィルタ51は、入力される映像信号の高周波成分を除去するためのフィルタである。
 水平垂直データ間引部52は、入力される映像信号から画素を間引いて、動きベクトル検出用の縮小画像を出力する。例えば、水平垂直データ間引部52は、水平n画素から1画素を間引き、垂直mラインから1ラインを間引く。
 ベクトル検出用フレームメモリ53は、動きベクトル検出用の縮小画像を記憶するためのメモリである。
 本線系フレームメモリ54は、入力される映像信号を記憶するためのメモリである。
 タイミング制御部55は、同期信号を取得して、各処理部における処理のタイミングを制御する。
 補間位相生成部56は、フレームレート変換におけるフレームレート変換率に応じた補間位相を生成する。例えば、2倍速であれば、補間位相は0と1の間の位相である0.5であり、4倍速であれば、補間位相は0と1を4等分した位相である0.25と0.5と0.75である。
 立体映像処理装置100は、ベクトル検出部110及び補間画像生成部120を備えている。ここで、ベクトル検出部110は、フレーム間でマッチング差分が最小となる動きベクトルを検出する。なお、ベクトル検出部110の詳細な説明については、後述する。
 補間画像生成部120は、補間位相生成部56が生成した補間位相と、ベクトル検出部110が出力する動きベクトルとを用いて、フレームレート変換のための補間画像を生成する。具体的には、補間画像生成部120は、NフレームとN-1フレームとの間に補間画像を生成する場合、(1)動きベクトルを用いてNフレームから補間画像を生成、(2)動きベクトルを用いてN-1フレームから補間画像を生成、(3)動きベクトルを用いずにNフレームとN-1フレームとの加算平均を補間画像として生成のうち、各画素ごとに、最適な補間画像を選択出力する。
 次に、立体映像処理装置100が備えるベクトル検出部110の詳細な構成について、説明する。
 図3は、本発明の実施の形態1における立体映像処理装置100が備えるベクトル検出部110の機能構成を示すブロック図である。
 同図に示すように、ベクトル検出部110は、左眼用動きベクトル検出部111、右眼用動きベクトル検出部112、視差検出部113、ベクトル比較部114、及びベクトル補正部115を備えている。以下、各構成について詳細に説明する。
 左眼用動きベクトル検出部111は、入力される左眼用の映像信号で示される左眼用映像データに含まれる左眼用画像内の領域である左画像内領域における動きベクトルである左眼用動きベクトルを検出し、出力する。つまり、左眼用映像データが左眼用動きベクトル検出部111に入力され、左眼用動きベクトル検出部111が、現フレームの左眼用画像とフレームメモリ等で遅延させた過去フレームの左眼用画像との間の左眼用動きベクトルを検出する。
 また、左眼用動きベクトル検出部111は、検出した左眼用動きベクトルの確かさの度合いを示す左眼動きベクトル確度を出力する。例えば、左眼動きベクトル確度は、現フレームの注目ブロックと過去フレームの対応するブロックとのブロックマッチングによる差分合計値が小さいほど、左眼動きベクトル確度を大きくして出力する。
 ここで、動きベクトルのベクトル確度としては、例えば、現フレームの注目ブロックと動きベクトルが指し示す過去フレームのブロックとの間で、ブロック内の対応する座標位置の画素ごとに差分絶対値を求め、ブロック内で差分絶対値を合計した値をベクトル確度として使用することができる。
 右眼用動きベクトル検出部112は、入力される右眼用の映像信号で示される右眼用映像データに含まれる右眼用画像内の領域である右画像内領域における動きベクトルである右眼用動きベクトルを検出し、出力する。つまり、右眼用映像データが右眼用動きベクトル検出部112に入力され、右眼用動きベクトル検出部112が、現フレームの右眼用画像とフレームメモリ等で遅延させた過去フレームの右眼用画像との間の右眼用動きベクトルを検出する。
 また、右眼用動きベクトル検出部112は、検出した右眼用動きベクトルの確かさの度合いを示す右眼動きベクトル確度を出力する。ここで、右眼動きベクトル確度は、左眼動きベクトル確度と同様であるので、詳細な説明は省略する。
 視差検出部113は、左眼用画像と右眼用画像との間の視差である左右画像間視差を検出する。つまり、左眼用映像データと右眼用映像データとが視差検出部113に入力され、ブロックマッチング法と同様の手法、または、上記特許文献1に記載の方法等で左右画像間の視差を検出する。つまり、特定範囲を占める領域毎に、どの程度の視差が与えられているのかが検出される。
 ベクトル比較部114は、視差検出部113で検出された左右画像間視差に基づいて、左眼用動きベクトル検出部111で検出された左眼用動きベクトルと、右眼用動きベクトル検出部112で検出された右眼用動きベクトルとを比較する。具体的には、ベクトル比較部114は、左画像内領域において検出された左眼用動きベクトルと、左右画像間視差から得られる左画像内領域に対応する右画像内領域において検出された右眼用動きベクトルとを比較する。
 つまり、ベクトル比較部114は、左右画像間視差から得られる対応する左画像内領域と右画像内領域とにおいて、当該左画像内領域において検出された左眼用動きベクトルと、当該右画像内領域において検出された右眼用動きベクトルとを比較する。具体的には、特定範囲を占める領域毎に、ベクトル比較部114は、左眼用動きベクトル検出部111が出力した左眼動きベクトル確度と、右眼用動きベクトル検出部112が出力した右眼動きベクトル確度とを比較することで、左眼用動きベクトルと右眼用動きベクトルとを比較する。
 ベクトル補正部115は、ベクトル比較部114による比較結果に基づいて、左眼用動きベクトルと右眼用動きベクトルとが一致するように、左眼用動きベクトル及び右眼用動きベクトルのうち少なくとも一方を補正する。ここで、ベクトル補正部115は、左眼用ベクトル補正部116及び右眼用ベクトル補正部117を備えている。
 左眼用ベクトル補正部116は、ベクトル比較部114で算出されたベクトル比較結果と左眼用動きベクトルと右眼用動きベクトルとに基づいて、左眼用動きベクトルを補正して補正後左眼用動きベクトルを出力する。
 具体的には、左眼用ベクトル補正部116は、左画像内領域が、左眼用画像が表示される画面の端部の領域である左画面端領域内に配置されるとともに、左右画像間視差から得られる左画像内領域に対応する右画像内領域が、右眼用画像が表示される画面の端部の領域である右画面端領域内に配置されていない場合、右眼用動きベクトルを用いて左眼用動きベクトルを補正する。
 例えば、左眼動きベクトル確度が低く、右眼動きベクトル確度が高い場合は、左眼用ベクトル補正部116は、左画像内領域が左画面端領域内に配置されており、右画像内領域が右画面端領域内に配置されていないと判断する。このため、左眼用ベクトル補正部116は、確度の低い左眼用動きベクトルを、確度の高い右眼用動きベクトルを用いて補正する。
 ここで、左眼用ベクトル補正部116による左眼用動きベクトルの補正方法は特に限定されないが、例えば、左眼用ベクトル補正部116は、左眼用動きベクトルが右眼用動きベクトルと同じベクトルになるように補正したり、左眼用動きベクトルと右眼用動きベクトルとを加重平均したりして、左眼用動きベクトルを補正する。
 右眼用ベクトル補正部117は、ベクトル比較部114で算出されたベクトル比較結果と左眼用動きベクトルと右眼用動きベクトルとに基づいて、右眼用動きベクトルを補正して補正後右眼用動きベクトルを出力する。
 具体的には、右眼用ベクトル補正部117は、右画像内領域が、右画面端領域内に配置されるとともに、左右画像間視差から得られる右画像内領域に対応する左画像内領域が、左画面端領域内に配置されていない場合、左眼用動きベクトルを用いて右眼用動きベクトルを補正する。
 例えば、右眼動きベクトル確度が低く、左眼動きベクトル確度が高い場合は、右眼用ベクトル補正部117は、右画像内領域が右画面端領域内に配置されており、左画像内領域が左画面端領域内に配置されていないと判断する。このため、右眼用ベクトル補正部117は、確度の低い右眼用動きベクトルを、確度の高い左眼用動きベクトルを用いて補正する。
 ここで、右眼用ベクトル補正部117による右眼用動きベクトルの補正方法は特に限定されないが、例えば、右眼用ベクトル補正部117は、左眼用ベクトル補正部116による補正と同様、右眼用動きベクトルが左眼用動きベクトルと同じベクトルになるように補正したり、右眼用動きベクトルと左眼用動きベクトルとを加重平均したりして、右眼用動きベクトルを補正する。
 なお、上述の処理においては、動きベクトルに基づいて、片方の目側の画像内領域が画面端領域内に配置されており、他方の目側の画像内領域が画面端領域内に配置されていないということを判断したが、この判断手法はこれに限定されない。例えば、補正対象候補としている領域が、画面内でどの位置にあるのか、その領域の視差はどの程度か、などを考慮の要素に入れて同様の判断を行うことによって、判断精度を向上させてもよい。
 このように、ベクトル検出部110は、左右画像間視差を用いて左眼用動きベクトルと右眼用動きベクトルとを比較した結果に基づいて、左眼用動きベクトルと右眼用動きベクトルとを互いに補正する。
 そして、図2に示された補間画像生成部120は、ベクトル補正部115による補正後の左眼用動きベクトル及び右眼用動きベクトルを用いて、左眼用映像データ及び右眼用映像データについてフレームレート変換のための補間画像を生成する。
 次に、立体映像処理装置100が行う処理について、説明する。
 図4は、本発明の実施の形態1における立体映像処理装置100の動作の一例を示すフローチャートである。
 同図に示すように、左眼用動きベクトル検出部111は、入力された左眼用映像データに含まれる左眼用画像内の左画像内領域における左眼用動きベクトルを検出し、出力する(S102)。また、左眼用動きベクトル検出部111は、検出した左眼用動きベクトルの左眼動きベクトル確度を出力する。
 また、右眼用動きベクトル検出部112は、入力された右眼用映像データに含まれる右眼用画像内の右画像内領域における右眼用動きベクトルを検出し、出力する(S104)。また、右眼用動きベクトル検出部112は、検出した右眼用動きベクトルの右眼動きベクトル確度を出力する。
 また、視差検出部113は、入力された左眼用映像データに含まれる左眼用画像と、入力された右眼用映像データに含まれる右眼用画像との間の視差である左右画像間視差を検出する(S106)。なお、視差検出部113は、画像ごとに視差を検出してもよいし、左眼用画像内の左画像内領域や右眼用画像内の右画像内領域などの画像内の所定の領域ごとに視差を検出してもよい。
 そして、ベクトル比較部114は、当該左右画像間視差から得られる対応する左右の動きベクトルである左眼用動きベクトルと右眼用動きベクトルとを比較する(S108)。つまり、ベクトル比較部114は、左眼動きベクトル確度と右眼動きベクトル確度とを比較することで、左眼用動きベクトルと右眼用動きベクトルとを比較する。
 そして、ベクトル補正部115は、ベクトル比較部114による比較結果に基づいて、左眼用動きベクトルと右眼用動きベクトルとが一致するように、左眼用動きベクトル及び右眼用動きベクトルのうち少なくとも一方を補正する(S110)。
 なお、本実施の形態では、ベクトル補正部115は、左眼用動きベクトル及び右眼用動きベクトルのいずれか一方を補正することとするが、左眼用動きベクトル及び右眼用動きベクトルの双方を補正することにしてもよい。このベクトル補正部115が動きベクトルを補正する処理の詳細については、後述する。
 そして、補間画像生成部120は、ベクトル補正部115による補正後の左眼用動きベクトル及び右眼用動きベクトルを用いて、左眼用映像データ及び右眼用映像データについてフレームレート変換のための補間画像を生成する(S112)。以下に、補間画像生成部120が補間画像を生成する処理について、説明する。
 図5は、本発明の実施の形態1における補間画像生成部120が補間画像を生成する処理を説明する図である。
 例えば、フレームレート変換により2枚のフレーム間に2枚のフレームを挿入する必要がある場合、補間画像生成部120は、同図の(a)に示すNフレームとN-1フレームとの間に、同図の(b)に示すように補間画像を2枚挿入する。
 この場合、例えば、補間画像生成部120は、動きベクトルV1を用いて、Nフレームから補間画像を生成する。つまり、補間画像生成部120は、動きベクトルV1を1/3倍した動きベクトルを用いて補間画像であるAフレームを生成し、動きベクトルV1を2/3倍した動きベクトルを用いて補間画像であるBフレームを生成する。
 また、補間画像生成部120は、動きベクトルV2を用いて、N-1フレームから補間画像を生成することにしてもよい。つまり、補間画像生成部120は、動きベクトルV2を1/3倍した動きベクトルを用いて補間画像であるBフレームを生成し、動きベクトルV1を2/3倍した動きベクトルを用いて補間画像であるAフレームを生成する。
 また、補間画像生成部120は、動きベクトルV1及びV2を用いて、Nフレームと及びN-1フレームから補間画像を生成することにしてもよい。
 次に、ベクトル補正部115が動きベクトルを補正する処理(図4のS110)の詳細について、説明する。
 図6は、本発明の実施の形態1におけるベクトル補正部115が動きベクトルを補正する処理を示すフローチャートである。
 同図に示すように、まず、ベクトル補正部115は、左画面端領域と右画面端領域とを設定する(S202)。具体的には、ベクトル補正部115は、左眼用動きベクトルの大きさが大きいほど左画面端領域を大きく設定し、右眼用動きベクトルの大きさが大きいほど右画面端領域を大きく設定する。
 例えば、ベクトル補正部115は、左眼用動きベクトルの水平方向の大きさの絶対値の総和が大きいほど、左画面端領域の水平方向の大きさを大きく設定し、左眼用動きベクトルの垂直方向の大きさが大きいほど、左画面端領域の垂直方向の大きさを大きく設定する。また、ベクトル補正部115は、右画面端領域についても同様に、右眼用動きベクトルの水平方向の大きさが大きいほど、右画面端領域の水平方向の大きさを大きく設定し、右眼用動きベクトルの垂直方向の大きさが大きいほど、右画面端領域の垂直方向の大きさを大きく設定する。
 そして、左眼用ベクトル補正部116は、左画像内領域が左画面端領域内に配置されているか否かを判断する(S204)。
 左眼用ベクトル補正部116が、左画像内領域が左画面端領域内に配置されていると判断した場合(S204でYES)、右眼用ベクトル補正部117は、右画像内領域が右画面端領域内に配置されているか否かを判断する(S206)。
 そして、右眼用ベクトル補正部117が、右画像内領域が右画面端領域内に配置されていないと判断した場合(S206でNO)、左眼用ベクトル補正部116は、右眼用動きベクトルを用いて左眼用動きベクトルを補正する(S208)。また、右眼用ベクトル補正部117が、右画像内領域が右画面端領域内に配置されていると判断した場合は(S206でYES)、処理を終了する。
 また、左眼用ベクトル補正部116が、左画像内領域が左画面端領域内に配置されていないと判断した場合(S204でNO)、右眼用ベクトル補正部117は、右画像内領域が右画面端領域内に配置されているか否かを判断する(S210)。
 そして、右眼用ベクトル補正部117は、右画像内領域が右画面端領域内に配置されていると判断した場合(S206でYES)、左眼用動きベクトルを用いて右眼用動きベクトルを補正する(S212)。また、右眼用ベクトル補正部117が、右画像内領域が右画面端領域内に配置されていないと判断した場合は(S206でNO)、処理を終了する。
 このように、右眼又は左眼一方の画像について、他方の左眼又は右眼の動きベクトルに基づいて、それぞれの画像に対応する動きベクトルの補正を行う。この補正により、画面端の動きベクトルの検出性能を改善することができる。図7を参照しながら、より具体的に説明する。
 図7は、本発明の実施の形態1におけるベクトル補正部115が動きベクトルを補正する処理を説明する図である。具体的には、同図は、立体映像表示装置1の表示パネル80に、スポーツの映像を表示した場合の例を示している。
 ここで、左上図は、Nフレームの表示時における左眼用映像を示しており、左下図は、Nフレームよりも1フレーム前に表示したN-1フレームにおける左眼用映像を示している。さらに、右上図は、Nフレームの表示時における右眼用映像を示しており、右下図は、Nフレームよりも1フレーム前に表示したN-1フレームにおける右眼用映像を示している。また、太枠の実線がテレビ画面の枠を示しており、その実線の枠内に記載された破線が画面端領域の境界を示している。
 この映像においては、人物が2名とボールが1つ映っている。そして、人物は視差量が少ないため、左眼用映像及び右眼用映像のいずれにおいても、ほぼ同位置に表示されている。しかし、ボールは、より臨場感を出すために、左眼用映像と右眼用映像とでは、視差量が大きく、左眼用映像及び右眼用映像においては、異なる位置に表示されている。
 ここで、このボールは、N-1フレームからNフレームにかけて画面右側から画面左側に移動しているものとする。その結果として、左上図におけるNフレームの表示時における左眼用映像は、画面端領域にボールが存在している。一方、右上図におけるNフレームの表示時における右眼用映像は、画面端領域外(画面内領域)にボールが存在している。
 ここで、左眼用映像に基づいて、N-1フレームからNフレームへのボールの動きベクトルを検出した場合と比較すると、右眼用映像に基づいて、N-1フレームからNフレームへのボールの動きベクトルを検出した場合の確度がより高くなる。従って、本発明においては、図7における左眼用映像においてボールの動きベクトルを生成する際に、右眼用映像のボールの動きベクトルを活用して、左眼用映像におけるボールの動きベクトルを補正する。これにより、より適切な動きベクトルの検出及び生成を行うことが可能になり、画面端における動きベクトル検出性能が改善される。
 なお、ベクトルの補正条件に、左右眼どちらかの画面端のベクトルより、他方の眼の左右画像間の視差が対応するベクトルの確度が高い(たとえば、ブロックマッチングの際のフレーム間差分絶対値のブロック合計値が小さい)ことを追加してもよい。
 以上のように、本発明の実施の形態1における立体映像処理装置100によれば、対応する左画像内領域及び右画像内領域における動きベクトルである左眼用動きベクトルと右眼用動きベクトルとの比較結果に基づいて、左眼用動きベクトルと右眼用動きベクトルとが一致するように、左眼用動きベクトル及び右眼用動きベクトルのうち少なくとも一方を補正する。そして、当該補正が行われた後の左眼用動きベクトル及び右眼用動きベクトルを用いて、フレームレート変換のための補間画像を生成する。つまり、対応する左眼用動きベクトルと右眼用動きベクトルとは、基本的にはほぼ一致するはずであるが、左眼用動きベクトルまたは右眼用動きベクトルのいずれかが正確に求められていないために、左眼用動きベクトルと右眼用動きベクトルとの一致度が低くなっている場合がある。この場合、正確でない動きベクトルを補正する必要がある。このため、例えば正確でない動きベクトルを正確な動きベクトルに一致させるように補正するなど、左眼用動きベクトルと右眼用動きベクトルとが一致するように補正する。そして、この補正した動きベクトルをフレームレート変換に使用することで、立体映像をスムーズに表示させることができる。
 また、ベクトル補正部115は、左画像内領域は左画面端領域内に配置されているが、右画像内領域が右画面端領域内に配置されていない場合、右眼用動きベクトルを用いて左眼用動きベクトルを補正し、右画像内領域は右画面端領域内に配置されているが、左画像内領域が左画面端領域内に配置されていない場合、左眼用動きベクトルを用いて右眼用動きベクトルを補正する。つまり、画面端の領域における動きベクトルは、正確に求めることができないため、他方の画面端以外の領域における動きベクトルを用いて補正する。これにより、正確でない動きベクトルを正確な動きベクトルを用いて補正することで、補正後の正確な動きベクトルを使用して、立体映像をスムーズに表示させることができる。
 また、ベクトル補正部115は、動きベクトルの大きさが大きいほど画面端領域を大きく設定して、動きベクトルを補正する。つまり、動きベクトルの大きさが大きい場合は、映像の動きが大きいので、動きベクトルの正確さが低下する画面端領域は、大きく設定する必要がある。このため、動きベクトルをその大きさに応じて適切に補正することができるので、補正後の正確な動きベクトルを使用して、立体映像をスムーズに表示させることができる。
 (実施の形態2)
 次に、本発明の実施の形態2における立体映像処理装置について、説明する。ここで、実施の形態2における立体映像処理装置は、上記実施の形態1における立体映像処理装置のベクトル検出部の構成が異なるため、以下では、ベクトル検出部の構成について、詳細に説明する。
 図8は、本発明の実施の形態2における立体映像処理装置が備えるベクトル検出部130の機能構成を示すブロック図である。
 同図に示すように、ベクトル検出部130は、実施の形態1におけるベクトル検出部110が備える左眼用動きベクトル検出部111と右眼用動きベクトル検出部112とベクトル補正部115の他に、シーンチェンジ判定部131を備えている。また、シーンチェンジ判定部131は、左眼用シーンチェンジ判定部132と、右眼用シーンチェンジ判定部133と、左右眼シーンチェンジ比較部134とを備えている。以下、各構成について詳細に説明する。
 なお、左眼用動きベクトル検出部111は、実施の形態1におけるベクトル検出部110が備える左眼用動きベクトル検出部111と同様の機能を有するため、詳細な説明は省略する。つまり、左眼用映像データが左眼用動きベクトル検出部111に入力され、左眼用動きベクトル検出部111が、左眼用動きベクトルを検出し、同時に左眼用動きベクトルの正しさの指標である左眼動きベクトル確度を出力する。
 左眼用シーンチェンジ判定部132は、左眼用動きベクトル検出部111が出力した左眼動きベクトル確度を取得し、複数の左画像内領域における左眼動きベクトル確度が所定の第一閾値以下の場合、左眼用映像がシーンチェンジであると判定する。
 具体的には、左眼動きベクトル確度が所定の第一閾値以下(=ブロックマッチングの差分絶対値の合計値が閾値以上)のブロックの数をフレーム内で合計し、フレーム内合計値から、フレーム内合計値の過去数フレームの平均を減算した値が所定の第三閾値 以上の場合、シーンチェンジと判定する。
 つまり、左眼動きベクトル確度が左眼用シーンチェンジ判定部132に入力され、例えば画面全体の左眼動きベクトル確度が第一閾値以下の場合、左眼用シーンチェンジ判定部132がシーンチェンジであると判定する。なお、第一閾値の値は、特に限定されず、ユーザによって自由に設定可能である。
 また、右眼用動きベクトル検出部112は、実施の形態1におけるベクトル検出部110が備える右眼用動きベクトル検出部112と同様の機能を有するため、詳細な説明は省略する。つまり、右眼用映像データが右眼用動きベクトル検出部112に入力され、右眼用動きベクトル検出部112が、右眼用動きベクトルを検出し、同時に右眼用動きベクトルの正しさの指標である右眼動きベクトル確度を出力する。
 右眼用シーンチェンジ判定部133は、右眼用動きベクトル検出部112が出力した右眼動きベクトル確度を取得し、複数の右画像内領域における右眼動きベクトル確度が所定の第二閾値以下の場合、右眼用映像がシーンチェンジであると判定する。
 つまり、右眼動きベクトル確度が右眼用シーンチェンジ判定部133に入力され、例えば画面全体の右眼動きベクトル確度が第二閾値以下の場合、右眼用シーンチェンジ判定部133がシーンチェンジであると判定する。なお、第二閾値の値は、特に限定されず、ユーザによって自由に設定可能であるが、好ましくは、第一閾値と同じ値である。
 左右眼シーンチェンジ比較部134は、左眼用シーンチェンジ判定部132と右眼用シーンチェンジ判定部133の判定結果に基づいて、補正許可信号を出力する。具体的には、左右眼シーンチェンジ比較部134は、左眼用シーンチェンジ判定部132及び右眼用シーンチェンジ判定部133のうち少なくとも一方がシーンチェンジであると判定した場合、左眼用動きベクトル及び右眼用動きベクトルの補正許可信号を出力する。
 つまり、左右眼シーンチェンジ比較部134は、少なくとも片眼がシーンチェンジ判定した場合に補正許可状態にすることにしてもよいし、両眼ともシーンチェンジ判定した場合に補正許可状態にすることにしてもよい。
 ベクトル補正部115は、左右眼シーンチェンジ比較部134が出力した補正許可信号を取得した場合、左眼用動きベクトルと右眼用動きベクトルとを連動して補正する。
 具体的には、左眼用ベクトル補正部116は、左右眼シーンチェンジ比較部134が出力する補正許可信号に基づいて、左眼用動きベクトルを補正する。例えば、左眼用ベクトル補正部116は、補正許可信号が補正許可状態のとき、左眼用動きベクトルを0クリアする、または左眼用動きベクトルを小さくする等の補正を行う。
 また、右眼用ベクトル補正部117は、左右眼シーンチェンジ比較部134が出力する補正許可信号に基づいて、右眼用動きベクトルを補正する。例えば、右眼用ベクトル補正部117は、補正許可信号が補正許可状態のとき、右眼用動きベクトルを0クリアする、または右眼用動きベクトルを小さくする等の補正を行う。
 以上のような構成により、左眼用シーンチェンジ判定部132と右眼用シーンチェンジ判定部133の判定結果に基づいて、左眼用動きベクトルと右眼用動きベクトルとを同じタイミングで同様に補正するため、動きベクトルを用いた信号処理による左眼用映像出力と右眼用映像出力との間に視覚的違和感が発生するのを改善することができる。
 次に、本実施の形態2における立体映像処理装置が行う処理について、説明する。
 図9は、本発明の実施の形態2における立体映像処理装置の動作の一例を示すフローチャートである。
 同図に示すように、左眼用動きベクトル検出部111は、入力された左眼用映像データに含まれる左眼用画像内の左画像内領域における左眼用動きベクトルを検出するとともに、検出した左眼用動きベクトルの左眼動きベクトル確度を出力する(S302)。
 また、右眼用動きベクトル検出部112は、入力された右眼用映像データに含まれる右眼用画像内の右画像内領域における右眼用動きベクトルを検出するとともに、検出した右眼用動きベクトルの右眼動きベクトル確度を出力する(S304)。
 具体的には、右眼動きベクトル確度が所定の第二閾値以下(=ブロックマッチングの差分絶対値の合計値が閾値以上)のブロックの数をフレーム内で合計し、フレーム内合計値から、フレーム内合計値の過去数フレームの平均を減算した値が所定の第三閾値以上の場合、シーンチェンジと判定する。
 そして、左眼用シーンチェンジ判定部132は、複数の左画像内領域における左眼動きベクトル確度が所定の第一閾値以下の場合、左眼用映像がシーンチェンジであると判定する(S306)。
 また、右眼用シーンチェンジ判定部133は、複数の右画像内領域における右眼動きベクトル確度が所定の第二閾値以下の場合、右眼用映像がシーンチェンジであると判定する(S308)。
 そして、左右眼シーンチェンジ比較部134は、左眼用シーンチェンジ判定部132及び右眼用シーンチェンジ判定部133のうち少なくとも一方がシーンチェンジであると判定した場合、左眼用動きベクトル及び右眼用動きベクトルの補正許可信号を出力する(S310)。
 そして、ベクトル補正部115は、左右眼シーンチェンジ比較部134が出力した補正許可信号を取得した場合、左眼用動きベクトルと右眼用動きベクトルとを連動して補正する(S312)。
 そして、補間画像生成部120は、ベクトル補正部115による補正後の左眼用動きベクトル及び右眼用動きベクトルを用いて、左眼用映像データ及び右眼用映像データについてフレームレート変換のための補間画像を生成する(S314)。
 以上のように、本発明の実施の形態2における立体映像処理装置によれば、左眼用映像及び右眼用映像のうち少なくとも一方がシーンチェンジであると判定した場合に、左眼用動きベクトルと右眼用動きベクトルとを連動して補正する。つまり、立体映像処理装置は、映像中のシーンチェンジを検出した場合に、左右の動きベクトルを連動して補正する。このため、シーンチェンジにおいて、左右の画像のバランスが崩れることを抑制することができる。これにより、シーンチェンジにおいても、立体映像をスムーズに表示させることができる。
 (実施の形態3)
 次に、本発明の実施の形態3における立体映像処理装置について、説明する。ここで、実施の形態3における立体映像処理装置は、上記実施の形態2と同様、上記実施の形態1における立体映像処理装置のベクトル検出部の構成が異なるため、以下では、ベクトル検出部の構成について、詳細に説明する。
 図10は、本発明の実施の形態3における立体映像処理装置が備えるベクトル検出部140の機能構成を示すブロック図である。
 同図に示すように、ベクトル検出部140は、実施の形態1におけるベクトル検出部110が備える左眼用動きベクトル検出部111と右眼用動きベクトル検出部112とベクトル補正部115の他に、スクロール判定部141を備えている。また、スクロール判定部141は、左眼用ヒストグラム判定部142、左眼用カウンタ143、左眼用スクロール判定部144、右眼用ヒストグラム判定部145、右眼用カウンタ146、右眼用スクロール判定部147、及び左右眼スクロール比較部148を備えている。以下、各構成について詳細に説明する。
 なお、左眼用動きベクトル検出部111は、実施の形態1におけるベクトル検出部110が備える左眼用動きベクトル検出部111と同様の機能を有するため、詳細な説明は省略する。つまり、左眼用映像データが左眼用動きベクトル検出部111に入力され、左眼用動きベクトル検出部111が左眼用動きベクトルを検出する。
 左眼用ヒストグラム判定部142は、複数の左画像内領域において、左眼用動きベクトルのヒストグラムを演算し、ヒストグラムの集中度が高いか否かを判定し、ヒストグラムが集中するベクトルを左眼スクロールベクトルとして出力する。つまり、左眼用動きベクトルが左眼用ヒストグラム判定部142に入力されると、左眼用ヒストグラム判定部142は、左眼用動きベクトルの例えば画面全体のヒストグラムを演算し、ヒストグラムの集中度が高いかどうかを判定し、ヒストグラムが集中するベクトル値を左眼スクロールベクトルとして出力する。
 左眼用カウンタ143は、左眼用ヒストグラム判定部142がヒストグラムの集中度が高いと判定した場合に、カウンタ値を増加させ、ヒストグラムの集中度が高くないと判定した場合に、カウンタ値を減少させる。
 左眼用スクロール判定部144は、複数の左画像内領域における左眼用動きベクトルのヒストグラムを用いて、左眼用映像がスクロール映像であるか否かを判定する。具体的には、左眼用スクロール判定部144は、左眼用カウンタ143におけるカウンタ値が所定の第三閾値以上の場合、左眼用映像がスクロール映像であると判定する。なお、第三閾値の値は、特に限定されず、ユーザによって自由に設定可能である。
 また、右眼用動きベクトル検出部112は、実施の形態1におけるベクトル検出部110が備える右眼用動きベクトル検出部112と同様の機能を有するため、詳細な説明は省略する。つまり、右眼用映像データが右眼用動きベクトル検出部112に入力し、右眼用動きベクトル検出部112が右眼用動きベクトルを検出する。
 右眼用ヒストグラム判定部145は、複数の右画像内領域において、右眼用動きベクトルのヒストグラムを演算し、ヒストグラムの集中度が高いか否かを判定し、ヒストグラムが集中するベクトルを右眼スクロールベクトルとして出力する。つまり、右眼用動きベクトルが右眼用ヒストグラム判定部145に入力されると、右眼用ヒストグラム判定部145は、右眼用動きベクトルの例えば画面全体のヒストグラムを演算し、ヒストグラムの集中度が高いかどうかを判定し、ヒストグラムが集中するベクトル値を右眼スクロールベクトルとして出力する。
 右眼用カウンタ146は、右眼用ヒストグラム判定部145がヒストグラムの集中度が高いと判定した場合に、カウンタ値を増加させ、ヒストグラムの集中度が高くないと判定した場合に、カウンタ値を減少させる。
 右眼用スクロール判定部147は、複数の右画像内領域における右眼用動きベクトルのヒストグラムを用いて、右眼用映像がスクロール映像であるか否かを判定する。具体的には、右眼用スクロール判定部147は、右眼用カウンタ146におけるカウンタ値が所定の第四閾値以上の場合、右眼用映像がスクロール映像であると判定する。なお、第四閾値の値は、特に限定されず、ユーザによって自由に設定可能であるが、好ましくは、第三閾値と同じ値である。
 左右眼スクロール比較部148は、左眼用スクロール判定部144及び右眼用スクロール判定部147のうち少なくとも一方がスクロール映像であると判定した場合、左眼用動きベクトル及び右眼用動きベクトルの補正許可信号を出力する。
 具体的には、左右眼スクロール比較部148は、左眼用ヒストグラム判定部142が出力した左眼スクロールベクトルと右眼用ヒストグラム判定部145が出力した右眼スクロールベクトルとの一致度が所定値以上である場合に、左眼スクロールベクトルと右眼スクロールベクトルとから得られる補正スクロールベクトルを生成する。
 また、左右眼スクロール比較部148は、当該左眼スクロールベクトルと右眼スクロールベクトルとの一致度が所定値以上の場合であって、左眼用スクロール判定部144及び右眼用スクロール判定部147のうち少なくとも一方がスクロール映像であると判定した場合に、当該補正許可信号を出力する。
 つまり、左眼用スクロール判定部144から出力される左眼スクロール判定結果と、右眼用スクロール判定部147から出力される右眼スクロール判定結果と、左眼スクロールベクトルと、右眼スクロールベクトルとが左右眼スクロール比較部148に入力される。そして、左右眼スクロール比較部148は、左眼スクロールベクトルと右眼スクロールベクトルとの値が概ね等しいとき、左眼スクロールベクトルと右眼スクロールベクトルの値に基づいて補正スクロールベクトルを出力し、また、左眼スクロールベクトルと右眼スクロールベクトルの値が概ね等しいとき、左眼スクロール判定結果と右眼スクロール判定結果の少なくとも一方がスクロール状態のときに、補正許可信号を出力する。
 なお、左右眼スクロール比較部148は、左眼スクロールベクトルまたは右眼スクロールベクトルと同一のベクトルを補正スクロールベクトルとして生成することにしてもよいし、左眼スクロールベクトル及び右眼スクロールベクトルを加重平均したベクトルを補正スクロールベクトルとして生成することにしてもよい。
 また、左右眼スクロール比較部148は、左眼用動きベクトルのベクトル確度の1フレーム平均値と右眼用動きベクトルのベクトル確度の1フレーム平均値とを比較し、より確からしいベクトルの比重が高くなるように、左眼スクロールベクトル及び右眼スクロールベクトルを加重平均したベクトルを補正スクロールベクトルとして生成することにしてもよい。
 ベクトル補正部115は、左右眼スクロール比較部148が出力した補正許可信号を取得した場合、左眼用動きベクトルと右眼用動きベクトルとを連動して補正する。具体的には、ベクトル補正部115は、左右眼スクロール比較部148が出力した補正許可信号を取得した場合、左眼用動きベクトルと右眼用動きベクトルとを補正スクロールベクトルを用いて補正する。
 つまり、左眼用ベクトル補正部116は、左右眼スクロール比較部148から出力される補正許可信号が許可状態の場合、左眼用動きベクトルを補正スクロールベクトルで補正する。たとえば、左眼用ベクトル補正部116は、全画面の左眼用動きベクトルを補正スクロールベクトルに置換する。または、左眼用ベクトル補正部116は、左眼用動きベクトルと補正スクロールベクトルとを、左眼用カウンタ143と右眼用カウンタ146のカウンタ値の平均値が大きいほど補正スクロールベクトルの比率が大きくなるように、ブレンドするなどしてもよい。
 また、右眼用ベクトル補正部117は、左右眼スクロール比較部148から出力される補正許可信号が許可状態の場合、右眼用動きベクトルを補正スクロールベクトルで補正する。たとえば、右眼用ベクトル補正部117は、全画面の右眼用動きベクトルを補正スクロールベクトルで置換する。または、右眼用ベクトル補正部117は、右眼用動きベクトルと補正スクロールベクトルとを、左眼用カウンタ143と右眼用カウンタ146のカウンタ値の平均値が大きいほど補正スクロールベクトルの比率が大きくなるように、ブレンドするなどしてもよい。
 以上のような構成により、本発明の実施の形態3における立体映像処理装置は、左眼スクロール判定結果と右眼スクロール判定結果の各結果と左眼スクロールベクトルと右眼スクロールベクトルとの値に基づいて、左眼用ベクトルと右眼用ベクトルとを同じタイミングで同様に補正するため、動きベクトルを用いた信号処理による左眼用映像出力と右眼用映像出力との間に視覚的違和感が発生するのを改善することができる。
 次に、本実施の形態3における立体映像処理装置が行う処理について、説明する。
 図11は、本発明の実施の形態3における立体映像処理装置の動作の一例を示すフローチャートである。
 同図に示すように、左眼用動きベクトル検出部111は、入力された左眼用映像データに含まれる左眼用画像内の左画像内領域における左眼用動きベクトルを検出する(S402)。
 また、右眼用動きベクトル検出部112は、入力された右眼用映像データに含まれる右眼用画像内の右画像内領域における右眼用動きベクトルを検出する(S404)。
 そして、スクロール判定部141は、左眼用映像及び右眼用映像のスクロールを判定する(S406)。このスクロール判定部141がスクロールを判定する処理の詳細については、後述する。
 そして、左右眼スクロール比較部148は、左眼用映像及び右眼用映像のうち少なくとも一方がスクロール映像であると判定した場合、左眼用動きベクトル及び右眼用動きベクトルの補正許可信号を出力する(S408)。
 そして、ベクトル補正部115は、左右眼スクロール比較部148が出力した補正許可信号を取得した場合、左眼用動きベクトルと右眼用動きベクトルとを連動して補正する(S410)。
 そして、補間画像生成部120は、ベクトル補正部115による補正後の左眼用動きベクトル及び右眼用動きベクトルを用いて、左眼用映像データ及び右眼用映像データについてフレームレート変換のための補間画像を生成する(S412)。
 次に、スクロール判定部141がスクロールを判定する処理(図11のS406)の詳細について、説明する。
 図12は、本発明の実施の形態3におけるスクロール判定部141がスクロールを判定する処理を示すフローチャートである。
 同図に示すように、まず、左眼用ヒストグラム判定部142は、複数の左画像内領域において、左眼用動きベクトルのヒストグラムを演算し、ヒストグラムの集中度が高いか否かを判定し、ヒストグラムが集中するベクトルを左眼スクロールベクトルとして出力する(S502)。
 また、右眼用ヒストグラム判定部145は、複数の右画像内領域において、右眼用動きベクトルのヒストグラムを演算し、ヒストグラムの集中度が高いか否かを判定し、ヒストグラムが集中するベクトルを右眼スクロールベクトルとして出力する(S504)。
 ここで、以下に、左眼用ヒストグラム判定部142または右眼用ヒストグラム判定部145が生成するヒストグラムについて、説明する。
 図13は、本発明の実施の形態3における左眼用ヒストグラム判定部142または右眼用ヒストグラム判定部145が生成するヒストグラムの一例を示す図である。
 同図のX軸方向及びY軸方向は、動きベクトルの方向を示している。また、中心からの距離は、動きベクトルの大きさを示している。そして、グラフの高さは、動きベクトルの集中度を示している。つまり、原点から、グラフの高さが最も高い位置までのベクトルが、ヒストグラムが集中するベクトルである。なお、左眼用ヒストグラム判定部142及び右眼用ヒストグラム判定部145は、それぞれ個別に同図のようなヒストグラムを生成する。
 このため、左眼用ヒストグラム判定部142は、ヒストグラムのグラフの高さが所定値よりも高い場合に、ヒストグラムの集中度が高いと判定し、原点からグラフの高さが最も高い位置までのベクトルを、左眼スクロールベクトルとして出力する。
 また、同様に、右眼用ヒストグラム判定部145は、ヒストグラムのグラフの高さが所定値よりも高い場合に、ヒストグラムの集中度が高いと判定し、原点からグラフの高さが最も高い位置までのベクトルを、右眼スクロールベクトルとして出力する。
 なお、左眼用ヒストグラム判定部142及び右眼用ヒストグラム判定部145は、この集中度の判定を、1フレーム内の所定の領域において行えばよい。
 ここで、一例として、左眼用ヒストグラム判定部142が左眼スクロールベクトルを出力する処理について、以下に説明する。なお、右眼用ヒストグラム判定部145が右眼スクロールベクトルを出力する処理についても同様であるため、以下では説明を省略する。
 まず、左眼用ヒストグラム判定部142は、ヒストグラムを、水平成分をm領域、垂直成分をn領域に分割して作成する。そして、左眼用ヒストグラム判定部142は、ヒストグラムの各領域において、水平ベクトルがm個の各領域内に含まれるブロックの数および各領域内の水平ベクトルの加算値を1フレーム分計算する。そして、左眼用ヒストグラム判定部142は、1フレーム分の計算終了後、領域内に含まれるブロック数が最大となる領域について、領域内の水平ベクトル加算値を領域内に含まれるブロック数で除算し、領域内に含まれる水平ベクトルの平均値を求め、左眼スクロールベクトルの水平成分とする。
 また、左眼用ヒストグラム判定部142は、垂直ベクトルについても同様に、n個の各領域内に含まれるブロックの数および各領域内の垂直ベクトルの加算値を1フレーム分計算する。そして、左眼用ヒストグラム判定部142は、1フレーム分の計算終了後、領域内に含まれるブロック数が最大となる領域について、領域内の垂直ベクトル加算値を領域内に含まれるブロック数で除算し、領域内に含まれる垂直ベクトルの平均値を求め、左眼スクロールベクトルの垂直成分とする。
 左眼用ヒストグラム判定部142は、こうして求めた左眼スクロールベクトルの水平成分及び垂直成分を、左眼スクロールベクトルとする。
 そして、左眼用ヒストグラム判定部142は、水平ベクトルがm個の各領域内に含まれるブロック数が最大となる領域のブロック数、垂直ベクトルがn個の各領域内に含まれるブロックの数が最大となる領域のブロック数の両方が所定の閾値以上の場合、ヒストグラムの集中度が高いと判定する。
 図12に戻り、左眼用カウンタ143は、左眼用ヒストグラム判定部142がヒストグラムの集中度が高いと判定した場合に、カウンタ値を増加させ、ヒストグラムの集中度が高くないと判定した場合に、カウンタ値を減少させる(S506)。例えば、左眼用カウンタ143は、1フレームごとにカウンタ値を増減させる。
 また、右眼用カウンタ146は、右眼用ヒストグラム判定部145がヒストグラムの集中度が高いと判定した場合に、カウンタ値を増加させ、ヒストグラムの集中度が高くないと判定した場合に、カウンタ値を減少させる(S508)。例えば、右眼用カウンタ146は、1フレームごとにカウンタ値を増減させる。
 そして、左眼用スクロール判定部144は、左眼用カウンタ143におけるカウンタ値が所定の第三閾値以上の場合、左眼用映像がスクロール映像であると判定する(S510)。
 また、右眼用スクロール判定部147は、右眼用カウンタ146におけるカウンタ値が所定の第四閾値以上の場合、右眼用映像がスクロール映像であると判定する(S512)。
 以上で、スクロール判定部141がスクロールを判定する処理(図11のS406)は、終了する。
 なお、ここで、カウンタ値減少のスピードはカウンタ値増加のスピードより速く設定し、スクロール画像からスクロールでない映像に変わった場合、瞬時にスクロール映像でないと判定するのが望ましい。
 以上のように、本発明の実施の形態3における立体映像処理装置によれば、左眼用映像及び右眼用映像のうち少なくとも一方がスクロール映像であると判定した場合に、左眼用動きベクトルと右眼用動きベクトルとを連動して補正する。つまり、立体映像処理装置は、映像中の画面スクロールを検出した場合に、左右の動きベクトルを連動して補正する。このため、画面スクロールにおいて、左右の画像のバランスが崩れることを抑制することができる。これにより、画面スクロールにおいても、立体映像をスムーズに表示させることができる。
 また、立体映像処理装置は、左眼用動きベクトルのヒストグラムが集中するベクトルである左眼スクロールベクトルと、右眼用動きベクトルのヒストグラムが集中するベクトルである右眼スクロールベクトルとから生成される補正スクロールベクトルを用いて、左眼用動きベクトルと右眼用動きベクトルとを補正する。つまり、スクロールにおいて、ヒストグラムが集中するベクトルは、当該スクロールの動きを示すベクトルであるので、ヒストグラムが集中するベクトルを用いて、左眼用動きベクトルと右眼用動きベクトルとを補正する。このため、当該スクロールの動きに合うように、左眼用動きベクトルと右眼用動きベクトルとを補正することができる。これにより、画面スクロールにおいても、立体映像をスムーズに表示させることができる。
 以上、本発明の実施の形態1~3における立体映像処理装置について説明したが、本発明は、これらの実施の形態に限定されるものではない。本発明の趣旨を逸脱しない限り、当業者が思いつく各種変形を当該実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、本発明の範囲内に含まれる。
 例えば、上記実施の形態では、立体映像処理装置は、ベクトル検出部110、130、140のいずれか1つの機能を有したベクトル検出部を備えていることとしたが、立体映像処理装置は、ベクトル検出部110、130、140の全ての機能を有したベクトル検出部を備えていることにしてもよい。
 図14は、本発明の実施の形態1~3の変形例における立体映像処理装置が備えるベクトル検出部150の機能構成を示すブロック図である。
 同図に示すように、ベクトル検出部150は、実施の形態1におけるベクトル検出部110が備える左眼用動きベクトル検出部111、右眼用動きベクトル検出部112、視差検出部113、ベクトル比較部114及びベクトル補正部115と、実施の形態2におけるベクトル検出部130が備えるシーンチェンジ判定部131と、実施の形態3におけるベクトル検出部140が備えるスクロール判定部141とを備えている。つまり、本変形例における立体映像処理装置は、実施の形態1~3の全ての機能を有したベクトル検出部150を備えている。
 なお、ベクトル検出部150は、実施の形態1~3の全ての機能を有していなくともよく、例えば、スクロール判定部141は備えていないなど、実施の形態1~3のうちの2つの機能を有していることにしてもよい。
 また、本発明に係る立体映像処理装置は、図15に示すように、デジタルテレビなどの立体映像表示装置1に搭載されるのではなく、デジタルビデオレコーダなどの立体映像記録装置2に搭載されることにしてもよい。図15は、本発明に係る立体映像処理装置を備える立体映像表示装置1及び立体映像記録装置2の一例を示す外観図である。
 ここで、立体映像表示装置1としては、デジタルテレビだけではなく、三次元画像を表示する携帯電話機器やパーソナルコンピュータ等にも適用できる。また、立体映像記録装置2としては、デジタルビデオレコーダだけではなく、三次元画像を出力するBDプレーヤ等にも適用できる。
 また、本発明は、このような立体映像処理装置として実現することができるだけでなく、立体映像処理装置に含まれる特徴的な処理をステップとする立体映像処理方法として実現したり、そのような特徴的なステップをコンピュータに実行させるプログラムとして実現したりすることもできる。そして、そのようなプログラムは、CD-ROM等の記録媒体及びインターネット等の伝送媒体を介して流通させることができるのは言うまでもない。
 また、本発明は、このような立体映像処理装置の機能の一部又は全てを備える集積回路(LSI)として実現したりすることもできる。これらは個別に1チップ化されてもよいし、一部又はすべてを含むように1チップ化されてもよい。
 また、集積回路化はLSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後にプログラムすることが可能なFPGA(Field Programmable Gate Array)、又はLSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。さらには、半導体技術の進歩又は派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて各処理部の集積化を行ってもよい。
 本発明は、左右両眼で観測する画像の視差を利用して立体視させる立体映像処理表示装置において、立体映像をスムーズに表示させることができる立体映像処理装置に適用することができる。
   1 立体映像表示装置
   2 立体映像記録装置
  10 チューナ
  20 デコーダ
  30 I/P変換部
  40 リサイズ部
  50 フレームレート変換部
  51 プリフィルタ
  52 水平垂直データ間引部
  53 ベクトル検出用フレームメモリ
  54 本線系フレームメモリ
  55 タイミング制御部
  56 補間位相生成部
  60 画質補正部
  70 パネル表示制御部
  80 表示パネル
 100 立体映像処理装置
 110、130、140、150 ベクトル検出部
 111 左眼用動きベクトル検出部
 112 右眼用動きベクトル検出部
 113 視差検出部
 114 ベクトル比較部
 115 ベクトル補正部
 116 左眼用ベクトル補正部
 117 右眼用ベクトル補正部
 120 補間画像生成部
 131 シーンチェンジ判定部
 132 左眼用シーンチェンジ判定部
 133 右眼用シーンチェンジ判定部
 134 左右眼シーンチェンジ比較部
 141 スクロール判定部
 142 左眼用ヒストグラム判定部
 143 左眼用カウンタ
 144 左眼用スクロール判定部
 145 右眼用ヒストグラム判定部
 146 右眼用カウンタ
 147 右眼用スクロール判定部
 148 左右眼スクロール比較部

Claims (10)

  1.  入力された左眼用映像データに含まれる左眼用画像と右眼用映像データに含まれる右眼用画像との間の視差を利用して立体視させる立体映像処理装置であって、
     前記左眼用画像内の領域である左画像内領域における動きベクトルである左眼用動きベクトルを検出する左眼用動きベクトル検出部と、
     前記右眼用画像内の領域である右画像内領域における動きベクトルである右眼用動きベクトルを検出する右眼用動きベクトル検出部と、
     前記左眼用画像と前記右眼用画像との間の視差である左右画像間視差を検出する視差検出部と、
     前記左画像内領域において検出された前記左眼用動きベクトルと、前記左右画像間視差から得られる前記左画像内領域に対応する前記右画像内領域において検出された前記右眼用動きベクトルとを比較するベクトル比較部と、
     前記ベクトル比較部による比較結果に基づいて、前記左眼用動きベクトルと前記右眼用動きベクトルとが一致するように、前記左眼用動きベクトル及び前記右眼用動きベクトルのうち少なくとも一方を補正するベクトル補正部と、
     前記ベクトル補正部による補正後の前記左眼用動きベクトル及び前記右眼用動きベクトルを用いて、前記左眼用映像データ及び前記右眼用映像データについてフレームレート変換のための補間画像を生成する補間画像生成部と
     を備える立体映像処理装置。
  2.  前記ベクトル補正部は、
     前記左画像内領域が、前記左眼用画像が表示される画面の端部の領域である左画面端領域内に配置されるとともに、前記左右画像間視差から得られる前記左画像内領域に対応する前記右画像内領域が、前記右眼用画像が表示される画面の端部の領域である右画面端領域内に配置されていない場合、前記右眼用動きベクトルを用いて前記左眼用動きベクトルを補正し、
     前記右画像内領域が、前記右画面端領域内に配置されるとともに、前記左右画像間視差から得られる前記右画像内領域に対応する前記左画像内領域が、前記左画面端領域内に配置されていない場合、前記左眼用動きベクトルを用いて前記右眼用動きベクトルを補正する
     請求項1に記載の立体映像処理装置。
  3.  前記ベクトル補正部は、前記左眼用動きベクトルの大きさが大きいほど前記左画面端領域を大きく設定し、前記右眼用動きベクトルの大きさが大きいほど前記右画面端領域を大きく設定して、前記左眼用動きベクトル及び前記右眼用動きベクトルのうち少なくとも一方を補正する
     請求項2に記載の立体映像処理装置。
  4.  前記左眼用動きベクトル検出部は、さらに、検出した前記左眼用動きベクトルの確かさの度合いを示す左眼動きベクトル確度を出力し、
     前記右眼用動きベクトル検出部は、さらに、検出した前記右眼用動きベクトルの確かさの度合いを示す右眼動きベクトル確度を出力し、
     前記立体映像処理装置は、さらに、
     出力された前記左眼動きベクトル確度を取得し、複数の前記左画像内領域における左眼動きベクトル確度が所定の第一閾値以下の場合、左眼用映像がシーンチェンジであると判定する左眼用シーンチェンジ判定部と、
     出力された前記右眼動きベクトル確度を取得し、複数の前記右画像内領域における右眼動きベクトル確度が所定の第二閾値以下の場合、右眼用映像がシーンチェンジであると判定する右眼用シーンチェンジ判定部と、
     前記左眼用シーンチェンジ判定部及び前記右眼用シーンチェンジ判定部のうち少なくとも一方がシーンチェンジであると判定した場合、前記左眼用動きベクトル及び前記右眼用動きベクトルの補正許可信号を出力する左右眼シーンチェンジ比較部とを備え、
     前記ベクトル補正部は、さらに、前記左右眼シーンチェンジ比較部が出力した補正許可信号を取得した場合、前記左眼用動きベクトルと前記右眼用動きベクトルとを連動して補正する
     請求項1~3のいずれか1項に記載の立体映像処理装置。
  5.  さらに、
     複数の前記左画像内領域における前記左眼用動きベクトルのヒストグラムを用いて、左眼用映像がスクロール映像であるか否かを判定する左眼用スクロール判定部と、
     複数の前記右画像内領域における前記右眼用動きベクトルのヒストグラムを用いて、右眼用映像がスクロール映像であるか否かを判定する右眼用スクロール判定部と、
     前記左眼用スクロール判定部及び前記右眼用スクロール判定部のうち少なくとも一方がスクロール映像であると判定した場合、前記左眼用動きベクトル及び前記右眼用動きベクトルの補正許可信号を出力する左右眼スクロール比較部とを備え、
     前記ベクトル補正部は、さらに、前記左右眼スクロール比較部が出力した補正許可信号を取得した場合、前記左眼用動きベクトルと前記右眼用動きベクトルとを連動して補正する
     請求項1~4のいずれか1項に記載の立体映像処理装置。
  6.  さらに、
     複数の前記左画像内領域において、前記左眼用動きベクトルのヒストグラムを演算し、ヒストグラムの集中度が高いか否かを判定し、ヒストグラムが集中するベクトルを左眼スクロールベクトルとして出力する左眼用ヒストグラム判定部と、
     前記左眼用ヒストグラム判定部がヒストグラムの集中度が高いと判定した場合に、カウンタ値を増加させ、ヒストグラムの集中度が高くないと判定した場合に、カウンタ値を減少させる左眼用カウンタと、
     複数の前記右画像内領域において、前記右眼用動きベクトルのヒストグラムを演算し、ヒストグラムの集中度が高いか否かを判定し、ヒストグラムが集中するベクトルを右眼スクロールベクトルとして出力する右眼用ヒストグラム判定部と、
     前記右眼用ヒストグラム判定部がヒストグラムの集中度が高いと判定した場合に、カウンタ値を増加させ、ヒストグラムの集中度が高くないと判定した場合に、カウンタ値を減少させる右眼用カウンタとを備え、
     前記左眼用スクロール判定部は、前記左眼用カウンタにおけるカウンタ値が所定の第三閾値以上の場合、左眼用映像がスクロール映像であると判定し、
     前記右眼用スクロール判定部は、前記右眼用カウンタにおけるカウンタ値が所定の第四閾値以上の場合、右眼用映像がスクロール映像であると判定し、
     前記左右眼スクロール比較部は、
     前記左眼用ヒストグラム判定部が出力した前記左眼スクロールベクトルと前記右眼用ヒストグラム判定部が出力した前記右眼スクロールベクトルとの一致度が所定値以上である場合に、前記左眼スクロールベクトルと前記右眼スクロールベクトルとから得られる補正スクロールベクトルを生成し、
     前記左眼スクロールベクトルと前記右眼スクロールベクトルとの一致度が所定値以上の場合であって、前記左眼用スクロール判定部及び前記右眼用スクロール判定部のうち少なくとも一方がスクロール映像であると判定した場合に、前記補正許可信号を出力し、
     前記ベクトル補正部は、前記左右眼スクロール比較部が出力した補正許可信号を取得した場合、前記左眼用動きベクトルと前記右眼用動きベクトルとを前記補正スクロールベクトルを用いて補正する
     請求項5に記載の立体映像処理装置。
  7.  入力された左眼用映像データに含まれる左眼用画像と右眼用映像データに含まれる右眼用画像との間の視差を利用して立体視させる立体映像処理装置であって、
     前記左眼用画像内の領域である左画像内領域における動きベクトルである左眼用動きベクトルを検出するとともに、検出した前記左眼用動きベクトルの確かさの度合いを示す左眼動きベクトル確度を出力する左眼用動きベクトル検出部と、
     前記右眼用画像内の領域である右画像内領域における動きベクトルである右眼用動きベクトルを検出するとともに、検出した前記右眼用動きベクトルの確かさの度合いを示す右眼動きベクトル確度を出力する右眼用動きベクトル検出部と、
     出力された前記左眼動きベクトル確度を取得し、複数の前記左画像内領域における左眼動きベクトル確度が所定の第一閾値以下の場合、左眼用映像がシーンチェンジであると判定する左眼用シーンチェンジ判定部と、
     出力された前記右眼動きベクトル確度を取得し、複数の前記右画像内領域における右眼動きベクトル確度が所定の第二閾値以下の場合、右眼用映像がシーンチェンジであると判定する右眼用シーンチェンジ判定部と、
     前記左眼用シーンチェンジ判定部及び前記右眼用シーンチェンジ判定部のうち少なくとも一方がシーンチェンジであると判定した場合、前記左眼用動きベクトル及び前記右眼用動きベクトルの補正許可信号を出力する左右眼シーンチェンジ比較部と、
     前記左右眼シーンチェンジ比較部が出力した補正許可信号を取得した場合、前記左眼用動きベクトルと前記右眼用動きベクトルとを連動して補正するベクトル補正部と、
     前記ベクトル補正部による補正後の前記左眼用動きベクトル及び前記右眼用動きベクトルを用いて、前記左眼用映像データ及び前記右眼用映像データについてフレームレート変換のための補間画像を生成する補間画像生成部と
     を備える立体映像処理装置。
  8.  入力された左眼用映像データに含まれる左眼用画像と右眼用映像データに含まれる右眼用画像との間の視差を利用して立体視させる立体映像処理装置であって、
     前記左眼用画像内の領域である左画像内領域における動きベクトルである左眼用動きベクトルを検出する左眼用動きベクトル検出部と、
     前記右眼用画像内の領域である右画像内領域における動きベクトルである右眼用動きベクトルを検出する右眼用動きベクトル検出部と、
     複数の前記左画像内領域における前記左眼用動きベクトルのヒストグラムを用いて、左眼用映像がスクロール映像であるか否かを判定する左眼用スクロール判定部と、
     複数の前記右画像内領域における前記右眼用動きベクトルのヒストグラムを用いて、右眼用映像がスクロール映像であるか否かを判定する右眼用スクロール判定部と、
     前記左眼用スクロール判定部及び前記右眼用スクロール判定部のうち少なくとも一方がスクロール映像であると判定した場合、前記左眼用動きベクトル及び前記右眼用動きベクトルの補正許可信号を出力する左右眼スクロール比較部と、
     前記左右眼スクロール比較部が出力した補正許可信号を取得した場合、前記左眼用動きベクトルと前記右眼用動きベクトルとを連動して補正するベクトル補正部と、
     前記ベクトル補正部による補正後の前記左眼用動きベクトル及び前記右眼用動きベクトルを用いて、前記左眼用映像データ及び前記右眼用映像データについてフレームレート変換のための補間画像を生成する補間画像生成部と
     を備える立体映像処理装置。
  9.  入力された左眼用映像データに含まれる左眼用画像と右眼用映像データに含まれる右眼用画像との間の視差を利用して立体視させる立体映像処理方法であって、
     前記左眼用画像内の領域である左画像内領域における動きベクトルである左眼用動きベクトルを検出する左眼用動きベクトル検出ステップと、
     前記右眼用画像内の領域である右画像内領域における動きベクトルである右眼用動きベクトルを検出する右眼用動きベクトル検出ステップと、
     前記左眼用画像と前記右眼用画像との間の視差である左右画像間視差を検出する視差検出ステップと、
     前記左画像内領域において検出された前記左眼用動きベクトルと、前記左右画像間視差から得られる前記左画像内領域に対応する前記右画像内領域において検出された前記右眼用動きベクトルとを比較するベクトル比較ステップと、
     前記ベクトル比較ステップでの比較結果に基づいて、前記左眼用動きベクトルと前記右眼用動きベクトルとが一致するように、前記左眼用動きベクトル及び前記右眼用動きベクトルのうち少なくとも一方を補正するベクトル補正ステップと、
     前記ベクトル補正ステップ後の前記左眼用動きベクトル及び前記右眼用動きベクトルを用いて、前記左眼用映像データ及び前記右眼用映像データについてフレームレート変換のための補間画像を生成する補間画像生成ステップと
     を含む立体映像処理方法。
  10.  請求項9に記載の立体映像処理方法に含まれるステップをコンピュータに実行させるプログラム。
PCT/JP2011/003050 2010-06-01 2011-05-31 立体映像処理装置及び立体映像処理方法 WO2011152039A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010-125585 2010-06-01
JP2010125585A JP2013165306A (ja) 2010-06-01 2010-06-01 立体映像表示装置

Publications (1)

Publication Number Publication Date
WO2011152039A1 true WO2011152039A1 (ja) 2011-12-08

Family

ID=45066430

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/003050 WO2011152039A1 (ja) 2010-06-01 2011-05-31 立体映像処理装置及び立体映像処理方法

Country Status (2)

Country Link
JP (1) JP2013165306A (ja)
WO (1) WO2011152039A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140008226A (ko) * 2012-07-10 2014-01-21 삼성전자주식회사 다시점 영상의 시차 정보를 이용하여 영상의 움직임을 추정하는 방법 및 장치
CN109840894A (zh) * 2019-01-30 2019-06-04 湖北亿咖通科技有限公司 视差图精修方法、装置及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01316092A (ja) * 1988-06-16 1989-12-20 Matsushita Electric Ind Co Ltd 立体表示装置
JPH02130094A (ja) * 1988-11-10 1990-05-18 Nippon Telegr & Teleph Corp <Ntt> ステレオ動画像の動きベクトル情報符号化方式
JPH07325924A (ja) * 1994-06-02 1995-12-12 Canon Inc 複眼撮像装置
JP2009253567A (ja) * 2008-04-04 2009-10-29 Hitachi Ltd テレビジョン受信機及びそのフレームレート変換方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01316092A (ja) * 1988-06-16 1989-12-20 Matsushita Electric Ind Co Ltd 立体表示装置
JPH02130094A (ja) * 1988-11-10 1990-05-18 Nippon Telegr & Teleph Corp <Ntt> ステレオ動画像の動きベクトル情報符号化方式
JPH07325924A (ja) * 1994-06-02 1995-12-12 Canon Inc 複眼撮像装置
JP2009253567A (ja) * 2008-04-04 2009-10-29 Hitachi Ltd テレビジョン受信機及びそのフレームレート変換方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140008226A (ko) * 2012-07-10 2014-01-21 삼성전자주식회사 다시점 영상의 시차 정보를 이용하여 영상의 움직임을 추정하는 방법 및 장치
JP2015527804A (ja) * 2012-07-10 2015-09-17 サムスン エレクトロニクス カンパニー リミテッド 多視点映像の視差情報を利用して、映像の動きを推定する方法及びその装置
US9798919B2 (en) 2012-07-10 2017-10-24 Samsung Electronics Co., Ltd. Method and apparatus for estimating image motion using disparity information of a multi-view image
KR101966920B1 (ko) 2012-07-10 2019-04-08 삼성전자주식회사 다시점 영상의 시차 정보를 이용하여 영상의 움직임을 추정하는 방법 및 장치
CN109840894A (zh) * 2019-01-30 2019-06-04 湖北亿咖通科技有限公司 视差图精修方法、装置及存储介质

Also Published As

Publication number Publication date
JP2013165306A (ja) 2013-08-22

Similar Documents

Publication Publication Date Title
US8687053B2 (en) Stereoscopic image display device
EP2549762B1 (en) Stereovision-image position matching apparatus, stereovision-image position matching method, and program therefor
KR100350191B1 (ko) 2차원영상을3차원영상으로변환하는방법
US8559517B2 (en) Image processing apparatus and image display apparatus provided with the same
US20130038611A1 (en) Image conversion device
US8798151B2 (en) Video display device, interpolated image generation circuit and interpolated image generation method
US20120086779A1 (en) Image processing apparatus, image processing method, and program
US20110037835A1 (en) Video signal processing device
JP2013521686A (ja) 3dtvのための視差分布推定
US20120087571A1 (en) Method and apparatus for synchronizing 3-dimensional image
KR20130040771A (ko) 입체 영상 처리 장치 및 방법 및 프로그램
US8941718B2 (en) 3D video processing apparatus and 3D video processing method
JP5599063B2 (ja) 表示制御装置、表示制御方法及びプログラム
TWI491244B (zh) 調整物件三維深度的方法與裝置、以及偵測物件三維深度的方法與裝置
JP5192087B2 (ja) 画像処理装置及び画像処理方法
WO2011152039A1 (ja) 立体映像処理装置及び立体映像処理方法
US20130100260A1 (en) Video display apparatus, video processing device and video processing method
JP2013201688A (ja) 画像処理装置、画像処理方法および画像処理プログラム
US9113140B2 (en) Stereoscopic image processing device and method for generating interpolated frame with parallax and motion vector
JP2012034336A (ja) 立体画像生成装置及び方法
CN102487447B (zh) 调整物件三维深度的方法与装置、以及检测物件三维深度的方法与装置
US20140348418A1 (en) Image processing apparatus and image processing method
Atanassov et al. 3D image processing architecture for camera phones
WO2011114745A1 (ja) 映像再生装置
WO2012046369A1 (ja) 撮像装置、視差調整方法、半導体集積回路及びデジタルカメラ

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11789452

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11789452

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP