WO2011061973A1 - 立体映像表示装置および動きベクトル導出方法 - Google Patents

立体映像表示装置および動きベクトル導出方法 Download PDF

Info

Publication number
WO2011061973A1
WO2011061973A1 PCT/JP2010/062762 JP2010062762W WO2011061973A1 WO 2011061973 A1 WO2011061973 A1 WO 2011061973A1 JP 2010062762 W JP2010062762 W JP 2010062762W WO 2011061973 A1 WO2011061973 A1 WO 2011061973A1
Authority
WO
WIPO (PCT)
Prior art keywords
video data
eye
unit
stereoscopic
frame
Prior art date
Application number
PCT/JP2010/062762
Other languages
English (en)
French (fr)
Inventor
浩史 野口
Original Assignee
日本ビクター株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本ビクター株式会社 filed Critical 日本ビクター株式会社
Priority to EP10831372A priority Critical patent/EP2381693A4/en
Priority to KR1020117016838A priority patent/KR101253495B1/ko
Priority to CN201080003640.8A priority patent/CN102257829B/zh
Priority to US13/140,031 priority patent/US20110242294A1/en
Priority to JP2011506528A priority patent/JP5454569B2/ja
Publication of WO2011061973A1 publication Critical patent/WO2011061973A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/39Control of the bit-mapped memory
    • G09G5/391Resolution modifying circuits, e.g. variable screen formats
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/39Control of the bit-mapped memory
    • G09G5/393Arrangements for updating the contents of the bit-mapped memory
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/39Control of the bit-mapped memory
    • G09G5/395Arrangements specially adapted for transferring the contents of the bit-mapped memory to the screen
    • G09G5/397Arrangements specially adapted for transferring the contents of two or more bit-mapped memories to the screen simultaneously, e.g. for mixing or overlay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/139Format conversion, e.g. of frame-rate or size
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • H04N5/145Movement estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0127Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level by changing the field or frame frequency of the incoming video signal, e.g. frame rate converter
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/10Special adaptations of display systems for operation with variable images
    • G09G2320/106Determination of movement vectors or equivalent parameters within the image
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0407Resolution change, inclusive of the use of different resolutions for different screen areas
    • G09G2340/0435Change or adaptation of the frame rate of the video stream
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0442Handling or displaying different aspect ratios, or changing the aspect ratio

Definitions

  • the present invention relates to a stereoscopic video display apparatus and a motion vector derivation method for deriving a motion vector from stereoscopic video data for perceiving stereoscopic video due to binocular parallax.
  • a movement vector indicating the displacement of the position of the subject in the frame between frames at the same time is derived, and the imaging device is installed.
  • An interpolation technique has been proposed that estimates a frame when an image is taken from a position that has not been performed (for example, Patent Document 1).
  • the technology to record and transmit stereoscopic video data (left-eye video data and right-eye video data) for perceiving stereoscopic video by binocular parallax by the side-by-side method, the top-and-bottom method, etc. has begun to spread.
  • Yes Assume that an inter-frame interpolation technique is used to perform interpolation on stereoscopic video data recorded by such a 3D video recording method.
  • the partial video data included in the left-eye video data of one of the two target frames is compared with the partial video data included in the right-eye video data of the other frame, and the left-eye video Incorrect motion vectors may be derived across the data and the right-eye video data. Interpolated frames generated based on erroneous motion vectors cause noise.
  • an object of the present invention is to provide a stereoscopic image display apparatus and a motion vector derivation method that can avoid derivation of an erroneous motion vector and can derive a motion vector with high accuracy.
  • the stereoscopic video display apparatus of the present invention acquires stereoscopic video data composed of a combination of left-eye video data and right-eye video data for perceiving stereoscopic video based on binocular parallax.
  • a video acquisition unit reference partial video data that is video data of an area obtained by dividing an arbitrary first frame of stereoscopic video data, and video data of an area obtained by dividing a second frame different from the first frame of stereoscopic video data Yes, a correlation value indicating the strength of correlation between a plurality of target partial video data to be compared with the reference partial video data is derived, and for each reference partial video data, the target portion having the highest correlation value derived
  • a vector deriving unit for extracting video data and deriving a motion vector between the reference partial video data and the extracted target partial video data;
  • the derivation unit calculates a correlation value between the right-eye video data of the reference partial video data and the right-eye video of the target partial video data, or between the left-eye video data of the reference partial video data and the target partial video data. Is derived.
  • the video acquisition unit is configured to generate unit video data, which is video data obtained by dividing stereoscopic video data in predetermined pixel units, based on a synchronization signal input together with the stereoscopic video data.
  • unit video data which is video data obtained by dividing stereoscopic video data in predetermined pixel units, based on a synchronization signal input together with the stereoscopic video data.
  • Left and right determination for each unit video data with video information indicating whether the unit video data belongs to left-eye video data or right-eye video data A part may be further provided.
  • the predetermined unit video data constituting the stereoscopic video data is attached with video information indicating whether the unit video data belongs to the left-eye video data or the right-eye video data.
  • the vector deriving unit may determine whether the unit video data belongs to the left-eye video data or the right-eye video data based on the video information.
  • the motion vector deriving method of the present invention acquires stereoscopic video data composed of a combination of left-eye video data and right-eye video data for perceiving stereoscopic video based on binocular parallax.
  • the reference partial video data which is video data of a region obtained by dividing an arbitrary first frame of stereoscopic video data, and the video data of a region obtained by dividing a second frame different from the first frame of stereoscopic video data.
  • the correlation value indicating the strength of the correlation between a plurality of target partial video data to be compared with the video data is calculated between the right-eye video data of the reference partial video data and the right-eye video data of the target partial video data.
  • the derived correlation value is extracted highest target partial image data, characterized by deriving a motion vector between the target partial image data extracted as the reference partial image data.
  • left-eye video data or right-eye video data belongs to unit video data, which is video data obtained by dividing stereoscopic video data into predetermined pixel units based on a synchronization signal input together with the stereoscopic video data And the video information indicating whether the unit video data belongs to the left-eye video data or the right-eye video data may be attached to each unit video data.
  • the predetermined unit video data constituting the stereoscopic video data is attached with video information indicating whether the unit video data belongs to the left-eye video data or the right-eye video data. Based on the video information, it may be determined whether the unit video data belongs to the left-eye video data or the right-eye video data.
  • the present invention avoids erroneous derivation of motion vectors and can derive motion vectors with high accuracy.
  • DESCRIPTION OF SYMBOLS 100 Stereoscopic video display apparatus 148 ... Video
  • FIG. 1 is a functional block diagram illustrating schematic functions of the stereoscopic video display device 100.
  • the stereoscopic video display apparatus 100 is connected to a display 110, and includes a video acquisition unit 148, a scaling unit 150, a video processing unit 152, a left / right determination unit 154, a frame memory 156, and a vector derivation.
  • the display 110 and the stereoscopic video display device 100 may be configured integrally.
  • the video acquisition unit 148 receives stereoscopic video data composed of a combination of left-eye video data and right-eye video data, which is broadcast from an external broadcasting station 120 and perceives stereoscopic video based on binocular parallax. Through 122.
  • the video acquisition unit 148 can also acquire stereoscopic video data from a recording medium 124 such as a DVD or a Blu-ray disc or a communication network (Internet or LAN) 126.
  • the video acquisition unit 148 in the present embodiment also acquires a synchronization signal that is output together with the stereoscopic video data (in synchronization with the stereoscopic video data). Note that the video acquisition unit 148 may acquire a synchronization signal input from an output destination different from the stereoscopic video data.
  • FIG. 2 is an explanatory diagram showing an example of stereoscopic video data.
  • 2A shows video data 200 captured by one imaging device
  • FIGS. 2B and 2C show video data captured by two imaging devices (hereinafter simply referred to as stereoscopic video data).
  • Such stereoscopic video data is a collection of two pieces of video data (left-eye video data 202a and right-eye video data 202b) having different imaging directions (with parallax) as one video data.
  • left-eye video data 202a for allowing the left eye to visually recognize the left half of the effective video data and for the right eye to visually recognize the right half.
  • FIG. 2C the left-eye video data 202a for allowing the left eye to visually recognize the left-eye video data 202a and the right-eye to the lower half, as shown in FIG.
  • a top-and-bottom method in which the right-eye video data 202b for visual recognition can be used.
  • the valid video data is video data obtained by removing the non-display area (blank period) from the entire stereoscopic video data.
  • the right-eye video data 202b for visual recognition by the right eye is displayed on the left half of the effective video data
  • the left-eye video data 202a for visual recognition by the left eye is displayed on the right half of the effective data video.
  • the arranged stereoscopic video data may be used.
  • the right-eye video data 202b for allowing the right eye to be visually recognized is displayed on the upper half of the effective video data
  • the left-eye video data 202a for allowing the left eye to be viewed on the lower side of the effective video data.
  • Stereo video data arranged in half may be used.
  • the left-eye video data 202a and the right-eye video data 202b of the stereoscopic video data by the side-by-side method have the same vertical resolution as the video data displayed on the display 110, but the horizontal resolution is compressed to 1 ⁇ 2. ing. Therefore, when the number of pixel data that is the pixel unit data of the effective video data of the entire screen is 1920 ⁇ 1080, the number of pixel data of the left-eye video data 202a and the right-eye video data 202b is 960 ⁇ 1080. Similarly, the left-eye video data 202a and the right-eye video data 202b of the top-and-bottom stereoscopic video data have the same horizontal resolution as the video data displayed on the display 110, but the vertical resolution is 1 ⁇ 2. When the number of pixel data of the effective image data of the entire screen is 1920 ⁇ 1080, the number of pixel data of the left-eye image data 202a and the right-eye image data 202b is 1920 ⁇ 540.
  • the stereoscopic video data displayed on the display surface of the display 110 is, for example, as a display method, horizontal line video data of the left eye video data 202a and horizontal line video data of the right eye video data 202b are alternately arranged in line units.
  • the line sequential method is used.
  • the subject included in the stereoscopic video data can be displayed in either a cross view (crossing method) or a parallel view (parallel method), and the subject and the right eye video data included in the left eye video data 202a.
  • the subject By horizontally shifting the horizontal position of the subject included in 202b to the left and right, the subject can be imaged at any position on the back side, on the display surface, or on the near side from the display surface.
  • the line-sequential method is a method for recognizing stereoscopic images by binocular parallax by allowing the viewer to visually recognize the left-eye image shown in the alternate line with the left eye and the right-eye image with the right eye through polarized glasses. It is a method that makes possible.
  • the stereoscopic image display apparatus 100 will be described by taking a case where the side-by-side method is used as the recording method of stereoscopic image data and the line sequential method is used as the display method as an example.
  • a bottom method or the like may be used, and a frame sequential method or the like may be used as a display method.
  • the frame sequential method is a method in which a viewer can recognize a stereoscopic image by alternately viewing a left-eye frame and a right-eye frame through an active shutter (electronic shutter).
  • stereoscopic video data using a line sequential method as a recording method may be used.
  • two lines of stereoscopic video data are recorded together in one line in a line memory having a capacity twice as large as the information amount of one line in the horizontal direction of stereoscopic video data.
  • a motion vector to be described later can be derived after conversion into the same format as stereoscopic video data recorded by the side-by-side method.
  • the recording method includes a vertical line alternate display method in which the left-eye video data 202a and the right-eye video data 202b are alternately arranged for each row, and the left-eye video data 202a and the right-eye video data 202b are checkered.
  • the checkerboard method arranged in a pattern, for example, after obtaining by the video acquisition unit 148, rearranging the side by side method or the top-and-bottom method using the temporary memory 164, the motion vector described later is similarly obtained. Can be derived.
  • the recording method is a frame sequential method
  • the period of the vertical synchronizing signal used internally is halved and the frame frequency is doubled, so that the left-eye video data 202a and the right-eye video data 202b are blocked. This can be dealt with by grasping it as one frame arranged at the top and bottom across the ranking area.
  • the scaling unit 150 adjusts the data size of the stereoscopic video data so that the stereoscopic video data acquired by the video acquisition unit 148 matches the display size of the display 110.
  • the video processing unit 152 performs video signal processing such as RGB processing ( ⁇ correction and color correction), enhancement processing, and noise reduction processing on the stereoscopic video data adjusted by the scaling unit 150.
  • the video processing unit 152 outputs the processed stereoscopic video data to the left / right determination unit 154 and the frequency conversion memory 162, respectively.
  • the left / right determination unit 154 determines whether predetermined unit video data constituting the stereoscopic video data belongs to the left-eye video data or the right-eye video data based on the synchronization signal input together with the stereoscopic video data. To do.
  • the synchronization signal acquired by the video acquisition unit 148 passes through the scaling unit 150 and the video processing unit 152, but is delayed by the time required for processing in the scaling unit 150 and the video processing unit 152.
  • the left / right determination unit 154 attaches video information indicating whether the unit video data belongs to the left-eye video data or the right-eye video data for each unit video data, and the frame memory 156 and the vector deriving unit 158, respectively. The unit video data and video information will be described in detail later.
  • the frame memory 156 is configured by a recording medium such as a RAM (Random Access Memory), a nonvolatile RAM, a flash memory, and the like, and temporarily holds stereoscopic video data output from the left / right determination unit 154, for example, for one frame. To do.
  • a recording medium such as a RAM (Random Access Memory), a nonvolatile RAM, a flash memory, and the like.
  • the vector deriving unit 158 is video data of a divided area in an arbitrary frame (hereinafter, referred to as a first frame) of the stereoscopic video data output by the left / right determination unit 154, and for each reference partial video data to be compared.
  • Video data of a divided area in a frame (hereinafter referred to as a second frame) held in the frame memory 156 that is temporally continuous with the first frame, and a plurality of target partial video data to be compared are By comparison, a correlation value indicating the strength of the correlation between the reference partial video data and the target partial video data is derived.
  • the vector deriving unit 158 performs comparison between two consecutive frames, but it is sufficient that the times of the first frame and the second frame are different, and the comparison can also be performed between two consecutive frames.
  • the vector deriving unit 158 extracts the target partial video data having the highest correlation value with the reference partial video data for each of the reference partial video data, and the position of the video indicated by the reference partial video data in the first frame, Based on the position of the video indicated by the extracted target partial video data in two frames, a motion vector between the reference partial video data and the extracted target partial video data is derived.
  • the interpolation generation unit 160 determines the first frame and the second frame based on the motion vector derived by the vector deriving unit 158, the first frame output from the left / right determination unit 154, and the second frame held in the frame memory 156. An interpolation frame to be interpolated is generated and output to the frequency conversion memory 162. The interpolation frame will be described with reference to FIG.
  • FIG. 3 is an explanatory diagram showing an example of an interpolation frame.
  • the example shown in FIG. 3 is an interpolation frame that is generated when the frame frequency is doubled.
  • the first frame 204 between the first frame 204 and the second frame 206 which are two consecutive frames (including a case where one or more frames are sandwiched between them).
  • the subject 210a, 210b, 212a, 212b of the second frame 206 moves to the position of the subject 214a, 214b, 216a, 216b of the second frame 206, frames representing the subjects 218a, 218b, 220a, 220b showing the state of the movement are shown. Interpolated frame.
  • the subjects 210, 212, 214, 216, 218, and 220 are three-dimensional due to the parallax between two images, a left-eye image (subscript “a”) and a right-eye image (subscript “b”). Is imaged.
  • a frame acquired earlier in time is referred to as a first frame 204
  • a frame acquired later is referred to as a second frame 206
  • a frame acquired earlier is acquired as a second frame 206 and later.
  • the frame may be the first frame 204.
  • the position of the subject in the interpolation frame 208 is half the distance from the position of the subject in the first frame 204 to the position of the subject in the second frame,
  • the 1 / n distance from the position of the subject in the first frame 204 to the position of the subject in the second frame 206 Each time, (n ⁇ 1) interpolation frames 208 moved from the position of the first frame 204 are generated.
  • the frame frequency is increased and the motion of the subject is increased. Is recognized as a smooth image.
  • the above-described frame of stereoscopic video data is not a frame of video data captured by a single imaging device, but a frame of video data obtained by imaging the same subject from different viewpoints. Incorrect display may occur.
  • FIG. 4 is an explanatory diagram for explaining an interpolation frame based on an erroneous motion vector.
  • the first frame 204 and the second frame 206 each include an alphabetic character string “ABCD” as a subject.
  • an alphabetic character string “ABCA” is included in each of the two frames 206 as a subject.
  • the subject has not moved between the first frame 204 and the second frame 206.
  • the vector deriving unit 158 correctly identifies the position of the alphabet character string “ABCD” in the region divided into a predetermined size in the first frame 204 to derive the motion vector 210a, Based on the motion vector 210a, the interpolation generation unit 160 generates the reference partial video data of the first frame 204 and the target partial video data of the second frame 206, as indicated by broken arrows 212a and 214a in FIG. To generate the correct interpolation frame 208 to be interpolated.
  • the same character “A” is arranged at both ends of the alphabetic character string “ABCA” in the region divided into a predetermined size of the first frame 204.
  • the unit 158 erroneously determines that the subject “A” of the left-eye video data 202a of the first frame 204 has moved to the subject “A” of the right-eye video data 202b of the second frame 206.
  • the obtained motion vector 210b is derived.
  • the interpolation generation unit 160 based on the motion vector 210b, the subject “C” of the left-eye video data 202a of the first frame 204 as shown by the dashed arrows 212b and 214b in FIG.
  • the interpolated frame 208 may be generated based on the left-eye video data 202a of the two frames 206 and the subject 216 indicated by the broken line in FIG. 4B straddling the right-eye video data 202b.
  • the position of the character string is improperly changed between the first frame 204 and the second frame 206, and the video is disturbed.
  • the vector deriving unit 158 does not perform comparison between the reference partial video data and the target partial video data across the left-eye video data and the right-eye video data.
  • the operation will be described in detail.
  • FIG. 5 is an explanatory diagram for explaining the reference partial video data and the target partial video data.
  • the vector deriving unit 158 sets each reference partial video data obtained by dividing the effective video data of the first frame 204 so as not to overlap, for example (in FIG. 5, one reference partial video data 222 is illustrated as an example).
  • the reference partial video data is video data serving as a comparison source in the first frame 204.
  • the vector deriving unit 158 sets the target partial video data of the region divided into a predetermined size in the second frame 206 based on the motion vector candidate vector (candidate vector).
  • the candidate vector is the target partial video of the second frame 206 from the coordinates of the center of the reference partial video data of the first frame 204 set based on the maximum range in which the moving object occupying the reference partial video data moves in one frame. It is a plurality of vectors prepared in advance indicating the direction and size to the coordinates of the center of the data.
  • the target partial video data determined based on the candidate vectors is defined by the number of candidate vectors at the same size as the reference partial video data at a position moved from the reference partial video data by the candidate vector described above.
  • the target partial video data is the partial video data to be compared in the second frame 206, and the vector deriving unit 158 shifts, for example, the overlapping pixel data one by one based on the candidate vector. Partial video data is set as target partial video data.
  • the target partial video data 224a to 224l that do not overlap each other will be described.
  • the vector deriving unit 158 sets the target partial video data 224a to 224l. Then, one reference partial video data and a plurality of target partial video data are compared, and a correlation value is derived for the luminance value of each pixel data by using, for example, a sum of absolute differences (SAD) method or the like.
  • SAD sum of absolute differences
  • the SAD method calculates the absolute value of the difference in luminance value between pixel data pairs when pixel data in the same position is used as a pixel data pair between the reference partial video data and the target partial video data, that is, between blocks. This is a method of calculating the integrated value by integrating the results in the block range. When examining the correlation using this integrated value, the correlation value becomes the highest when the integrated value becomes the minimum.
  • the vector deriving unit 158 stores, for each reference partial video data, the correlation value with the derived target partial video data in association with the candidate vector in a work area (memory) (not shown). Then, the correlation value with the newly derived other target partial video data is compared with the held correlation value, and if the new correlation value is higher than the held correlation value, the correlation value and the candidate vector are updated. To do. With such a configuration, when the derivation of the correlation value for the reference partial video data of the comparison source ends, the correlation value that is held becomes the highest correlation value for the reference partial video data of the comparison source. The vector deriving unit 158 sets the candidate vector associated with the highest correlation value as the motion vector for the reference partial video data of the comparison source in the first frame 204.
  • the respective video data (reference partial video data 222, partial video data 224i) are the same subject “
  • the interpolated frame based on an erroneous motion vector that the reference partial video data 222 has moved to the target partial video data 224i as described with reference to FIG. 208 may be generated.
  • the vector deriving unit 158 of the present embodiment determines whether the reference partial video data 222 and the target partial video data 224 are part of the left-eye video data 202a or the right-eye video data 202b, that is, A correlation value is derived using video information (flag) indicating whether the video data belongs to the left-eye video data 202a or the right-eye video data 202b.
  • the video information is information attached to each unit video data by the left / right determination unit 154 based on a synchronization signal acquired by the video acquisition unit 148 together with the stereoscopic video data.
  • the left / right determination unit 154 includes a horizontal dot counter included in the synchronization signal and reset by the horizontal synchronization signal, and the count value of the horizontal dot counter is set to hcnt.
  • the left / right determination unit 154 is configured to display video information “left eye video data 202a” for the unit video data up to the boundary position value between the left eye video data 202a and the right eye video data 202b.
  • L ”and video information“ R ”indicating right-eye video data 202b is assigned to the remaining unit video data.
  • the value of the boundary position differs depending on the blanking width outside the effective range of the stereoscopic video data or between the right end of the left-eye video data 202a and the left end of the right-eye video data 202b, it depends on the stereoscopic video data.
  • the video information is, for example, 1-bit information, and “0” and “1” indicate “L” and “R”, respectively.
  • the left / right determination unit 154 finishes counting the total number of pixels for one line, it resets the count value hcnt based on the next horizontal synchronization signal.
  • the unit video data is video data divided in predetermined pixel units. Further, if the size of the unit video data is equal to the sizes of the reference partial video data and the target partial video data, the calculation load can be reduced.
  • the left / right determination unit 154 includes a vertical line counter that is included in the synchronization signal and is reset by the vertical synchronization signal.
  • the count value of the vertical line counter may be vcnt.
  • the left / right determination unit 154 is configured to display video information “left eye video data 202a” for the unit video data up to the boundary position value between the left eye video data 202a and the right eye video data 202b. L ”is assigned, and video information“ R ”indicating the right-eye video data 202b is assigned to the remaining unit video data.
  • the value of the boundary position differs depending on the blanking width outside the effective range of the stereoscopic video data, it is arbitrarily set according to the stereoscopic video data.
  • the video information is, for example, 1-bit information, and “0” and “1” indicate “L” and “R”, respectively. Then, when the left / right determination unit 154 finishes counting the total number of pixels for one line, the count value vcnt is reset based on the next vertical synchronization signal.
  • the left / right determination unit 154 uses the synchronization signal included in the existing video system (for example, television broadcast) to determine the left-eye video data 202a and the right-eye video data 202b, thereby greatly modifying the video system. It is possible to derive the motion vector with high accuracy without being accompanied.
  • the existing video system for example, television broadcast
  • the video acquisition unit 148 acquires stereoscopic video data from the recording medium 124 or the communication network 126, for each predetermined unit video data (for example, a predetermined number of pixel data) constituting the stereoscopic video data, If the video information indicating whether the unit video data belongs to the left-eye video data 202a or the right-eye video data 202b is given, the left / right determination unit 154 does not need to function. In this case, the vector deriving unit 158 determines whether the unit video data is a part of the left-eye video data 202a or the right-eye video data 202b based on the video information, that is, the left-eye video data 202a.
  • the vector deriving unit 158 determines whether the unit video data is a part of the left-eye video data 202a or the right-eye video data 202b based on the video information, that is, the left-eye video data 202a.
  • the stereoscopic video display apparatus 100 accurately determines whether the unit video data is a part of the left-eye video data 202a or the right-eye video data 202b. can do.
  • the vector deriving unit 158 determines whether the reference partial video data and the target partial video data belong to the left-eye video data 202a or the right-eye video data 202b based on the video information. For example, for all the pixel data included in the reference partial video data and the target partial video data, if the video information is “L”, the video data for the left eye 202a is used. If the video information is “R”, the video data for the right eye is used. The video data 202b is determined.
  • the vector deriving unit 158 includes the left-eye video data between the right-eye video data 202b of the reference partial video data 222 and the right-eye video data 202b of the target partial video data 224a to 224l or the reference partial video data 222.
  • a correlation value is derived between the data 202a and the left-eye video data 202b of the target partial video data.
  • the vector deriving unit 158 compares the target partial video data 224a to 224f included in the left-eye video data 202a with the reference partial video data 222 as indicated by arrows 230 and 232 in FIG.
  • the target partial video data 224g to 224l included in the right-eye video data 202b is not compared with the reference partial video data 222 of the left-eye video data 202a (illustrated by “x”).
  • the vector deriving unit 158 may limit the target partial video data 224g to 224l whose video information is “R” from the beginning, or out of 224a to 224l set to the target partial video data.
  • the target partial video data 224g to 224l whose video information is “R” may be limited not to be selected as a comparison target.
  • FIG. 6 is an explanatory diagram for explaining another relationship between the reference partial video data and the target partial video data.
  • the vector deriving unit 158 determines the reference partial video data as the left-eye video data 202a or the right-eye video data.
  • the data portion included in either one of the video data 202b is limited. For example, in the example of FIG.
  • the vector deriving unit 158 resets the reference partial video data 222b excluding the hatched area including only one of the left-eye video data and the right-eye video data.
  • the vector deriving unit 158 also sets the area of the target partial video data (for example, 224m to 224r) according to the area of the reference partial video data 222b.
  • the vector deriving unit 158 compares the reference partial video data 222b and the target partial video data 224m to 224r in the first frame 204 and the second frame 206 with respect to the left-eye video data 202a. Limited to. Therefore, the vector deriving unit 158 can avoid deriving an erroneous motion vector and can derive a motion vector with high accuracy.
  • the interpolation generating unit 160 does not generate an interpolation frame based on the incorrect motion vector. Further, the stereoscopic video display apparatus 100 displays the stereoscopic video data interpolated between frames on the display 110, so that the viewer can perceive a beautiful stereoscopic video without noise.
  • the frequency conversion memory 162 stores the stereoscopic video data for one frame (the first frame 204 or the second frame 206) output from the video processing unit 152 and the interpolation frame 208 output from the interpolation generation unit 160, These stereoscopic video data are read out in time-series order at twice the frame frequency and output to the temporary memory 164.
  • the temporary memory 164 is composed of, for example, a recording medium such as a RAM, a non-volatile RAM, or a flash memory.
  • the temporary memory 164 temporarily outputs the frequency-converted stereoscopic video data output from the frequency conversion memory 162 and into which the interpolation frame 208 is inserted. Hold.
  • the line sequential unit 166 controls the read / write address of the stereoscopic video data (hereinafter simply referred to as post-interpolated stereoscopic video data) into which the interpolation frame held in the temporary memory 164 is inserted, so that the The horizontal line video data of the right-eye video data 202 b and the horizontal line video data of the left-eye video data 202 a are alternately juxtaposed to generate line sequential video data, which is output to the video output unit 168.
  • post-interpolated stereoscopic video data hereinafter simply referred to as post-interpolated stereoscopic video data
  • the horizontal resolution of the left-eye video data 202a and the right-eye video data 202b in the side-by-side method is 1 ⁇ 2 of the original stereoscopic video data
  • the horizontal resolution must be doubled. Don't be.
  • the generation of new pixel data accompanying the horizontal resolution expansion can use linear interpolation or other filtering.
  • the magnification of the horizontal resolution is appropriately adjusted according to the recording method of the stereoscopic video data or the ratio of the number of pixels in the horizontal direction of the format when the stereoscopic video data is input and output.
  • the line sequential unit 166 generates line sequential video data by compressing the vertical resolution to 1 ⁇ 2 along with the horizontal resolution expansion, and outputs the line sequential video data to the video output unit 168.
  • the video output unit 168 outputs the line sequential video data output by the line sequential unit 166 to the external display 110.
  • the stereoscopic video display apparatus 100 derives a motion vector only from the left-eye video data 202a or the right-eye video data 202b. Therefore, it is possible to avoid derivation of an erroneous motion vector across the left-eye video data 202a and the right-eye video data 202b, to derive the motion vector with high accuracy, frame frequency acceleration processing, data compression processing, etc. Therefore, it is possible to improve the accuracy of frame interpolation and the accuracy of film judder removal.
  • FIG. 7 is a flowchart showing a process flow of the motion vector deriving method.
  • the left / right determination unit 156 determines that the unit video data of the stereoscopic video data is for the left eye based on the synchronization signal acquired in the acquisition step S300. It is determined whether the video data 202a or the right-eye video data 202b belongs, and video information is attached to each unit video data (S302).
  • the vector deriving unit 158 divides the effective video data of the first frame 204 to set a plurality of reference partial video data (S304), and the coordinates of the center of the reference partial video data set in the second frame 206 and the candidate vector
  • the target partial video data determined from the above is set (S306).
  • the vector deriving unit 158 determines whether the reference partial video data and the target partial video data belong to the left-eye video data or the right-eye video data based on the video information (S308). If the information does not match (NO in S308), the target partial video data is excluded from the comparison target (S310). That is, if the reference partial video data is a part of the right-eye video data, the target partial video data that is a part of the left-eye video data is excluded from the comparison target, and the reference partial video data is the left-eye video data. If it is a part, the target partial video data that is a part of the right-eye video data is excluded from the comparison target. If the two pieces of video information match (YES in S308), the vector deriving unit 158 does not perform the exclusion step (S310).
  • the vector deriving unit 158 determines whether or not the target partial video setting step (S306) has been completed for all candidate vectors (S312). If not completed (NO in S312), the target partial video is determined. Returning to the setting step (S306), the next target partial video data is set.
  • the vector deriving unit 158 divides the effective video data and sets the reference partial video data. It is determined whether the processing step (S308) is completed (S314). If not completed (NO in S314), the process returns to the reference partial video setting step (S304).
  • the vector deriving unit 158 includes a plurality of reference partial videos in the first frame 204. Each data is compared with a plurality of target partial video data in the second frame 206, and a correlation value indicating the strength of correlation is derived for each target partial video data in each reference partial video data (S316).
  • the vector deriving unit 158 does not derive a correlation value for the target partial video data excluded from the comparison target in the exclusion step (S310).
  • the vector deriving unit 158 extracts the target partial video data having the highest correlation value with the reference partial video data for each of the reference partial video data, and uses the candidate vector associated with the target partial video data as a motion vector ( S318).
  • the interpolation generation unit 160 generates an interpolation frame 208 that interpolates the first frame 204 and the second frame 206 based on the motion vector derived by the vector deriving unit 158 and the first frame 204 and the second frame 206 (S320). ).
  • the frequency conversion memory 162 stores the stereoscopic video data for one frame output from the video processing unit 152 and the interpolation frame 208 output from the interpolation generation unit 160, and stores these stereoscopic video data at a frame frequency of twice.
  • the line sequential unit 166 alternately arranges the horizontal line videos of the right-eye video data 202b and the left-eye video data 202a, and generates line-sequential video data (S324).
  • the video output unit 168 outputs the line sequential video data to the external display 110 (S326).
  • each step in the motion vector deriving method of the present specification does not necessarily have to be processed in time series in the order described in the flowchart, and may include processing in parallel or by a subroutine.
  • the present invention can be used for a stereoscopic video display apparatus and a motion vector derivation method for deriving a motion vector from stereoscopic video data for perceiving stereoscopic video due to binocular parallax.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

誤った動きベクトルの導出を回避し、動きベクトルを高精度に導出する。 立体映像表示装置100は、立体映像データを取得する映像取得部148と、立体映像データの任意の第1フレーム204を分割した領域の映像データである基準部分映像データそれぞれについて、第1フレームと異なる第2フレーム206を分割した領域の映像データである対象部分映像データとの間の相関の強さを示す相関値をそれぞれ導出し、基準部分映像データそれぞれについて、基準部分映像データと相関値が最も高い対象部分映像データを抽出し、動きベクトルを導出するベクトル導出部158と、を備え、ベクトル導出部は、基準部分映像データと対象部分映像データそれぞれの右眼用映像データ202b同士、または基準部分映像データと対象部分映像データそれぞれの左眼用映像データ202a同士で相関値を導出する(図1)。

Description

立体映像表示装置および動きベクトル導出方法
 本発明は、両眼視差による立体映像を知覚させるための立体映像データから動きベクトルを導出する立体映像表示装置および動きベクトル導出方法に関する。
 近年、ブロックマッチング等の手法を用いて、動画を構成する個々の静止画である複数のフレーム間における被写体の移動方向や大きさを表す動きベクトルを導出し、フレーム間の時系列の変化を補間するフレームを生成する機能を備えた立体映像表示装置が広く用いられている。
 また、同一の撮像装置が撮像したフレームに限らず、複数の撮像装置で撮像したフレームについて、同時刻のフレーム間におけるフレーム内の被写体の位置のずれを示す移動ベクトルを導出し、撮像装置を設置していない位置から撮像した場合のフレームを推測する補間技術が提案されている(例えば、特許文献1)。
特開平10-13860号公報
 ところで、両眼視差による立体映像を知覚させるための立体映像データ(左眼用映像データと右眼用映像データ)を、サイドバイサイド方式やトップアンドボトム方式等により収録し、送信する技術が普及し始めている。このような3D映像の収録方式により収録された立体映像データに対して補間を遂行すべく、フレーム間の補間技術を用いるとする。この場合、対象の2つのフレームのうち一方のフレームの左眼用映像データに含まれる部分映像データと他方のフレームの右眼用映像データに含まれる部分映像データとが比較され、左眼用映像データと右眼用映像データとを跨った、誤った動きベクトルが導出されてしまうことがあった。誤った動きベクトルに基づいて生成された補間フレームはノイズの原因となる。
 そこで本発明は、誤った動きベクトルの導出を回避し、動きベクトルを高精度に導出することが可能な、立体映像表示装置および動きベクトル導出方法を提供することを目的としている。
 上記課題を解決するために、本発明の立体映像表示装置は、両眼視差による立体映像を知覚させるための、左眼用映像データと右眼用映像データとの組み合わせから成る立体映像データを取得する映像取得部と、立体映像データの任意の第1フレームを分割した領域の映像データである基準部分映像データと、立体映像データの第1フレームと異なる第2フレームを分割した領域の映像データであり、基準部分映像データの比較対象となる複数の対象部分映像データとの間の相関の強さを示す相関値をそれぞれ導出し、基準部分映像データそれぞれについて、導出した相関値が最も高い対象部分映像データを抽出し、基準部分映像データと抽出された対象部分映像データとの間の動きベクトルを導出するベクトル導出部と、を備え、ベクトル導出部は、基準部分映像データの右眼用映像データと対象部分映像データの右眼用映像との間、または基準部分映像データの左眼用映像データと対象部分映像データとの間で相関値を導出することを特徴とする。
 上記映像取得部は、立体映像データと共に入力される同期信号に基づいて、立体映像データが所定の画素単位で区切られた映像データである単位映像データが左眼用映像データと右眼用映像データとのどちらに属するかを判断し、単位映像データ毎に、その単位映像データが左眼用映像データと右眼用映像データとのどちらに属する映像データであるかを示す映像情報を付す左右判断部をさらに備えてもよい。
 立体映像データを構成する所定の単位映像データには、その単位映像データが左眼用映像データと右眼用映像データとのどちらに属する映像データであるかを示す映像情報が付されており、ベクトル導出部は、映像情報に基づいて、単位映像データが、左眼用映像データと右眼用映像データとのどちらに属する映像データかを判断してもよい。
 上記課題を解決するために、本発明の動きベクトル導出方法は、両眼視差による立体映像を知覚させるための、左眼用映像データと右眼用映像データとの組み合わせから成る立体映像データを取得し、立体映像データの任意の第1フレームを分割した領域の映像データである基準部分映像データと、立体映像データの第1フレームと異なる第2フレームを分割した領域の映像データであり、基準部分映像データの比較対象となる複数の対象部分映像データとの間の相関の強さを示す相関値を、基準部分映像データの右眼用映像データと対象部分映像データの右眼用映像データとの間、または基準部分映像データの左眼用映像データと対象部分映像データの左眼用映像データとの間で、それぞれ導出し、基準部分映像データそれぞれについて、導出した相関値が最も高い対象部分映像データを抽出し、基準部分映像データと抽出された対象部分映像データとの間の動きベクトルを導出することを特徴とする。
 立体映像データと共に入力される同期信号に基づいて、立体映像データが所定の画素単位で区切られた映像データである単位映像データが左眼用映像データと右眼用映像データとのどちらに属するかを判断し、単位映像データ毎に、その単位映像データが左眼用映像データと右眼用映像データとのどちらに属する映像データであるかを示す映像情報を付してもよい。
 立体映像データを構成する所定の単位映像データには、その単位映像データが左眼用映像データと右眼用映像データとのどちらに属する映像データであるかを示す映像情報が付されており、映像情報に基づいて、単位映像データが、左眼用映像データと右眼用映像データとのどちらに属する映像データかを判断してもよい。
 以上説明したように本発明は、誤った動きベクトルの導出を回避し、動きベクトルを高精度に導出することが可能となる。
立体映像表示装置の概略的な構成を示した機能ブロック図である。 立体映像データの一例を示す説明図である。 補間フレームの一例を示す説明図である。 誤った動きベクトルに基づく補間フレームを説明するための説明図である。 基準部分映像データと対象部分映像データを説明するための説明図である。 基準部分映像データと対象部分映像データとの他の関係を説明するための説明図である。 動きベクトル導出方法の処理の流れを示すフローチャートである。
100  …立体映像表示装置
148  …映像取得部
154  …左右判断部
156  …フレームメモリ
158  …ベクトル導出部
160  …補間生成部
202a  …左眼用映像データ
202b  …右眼用映像データ
204  …第1フレーム
206  …第2フレーム
208  …補間フレーム
 以下に添付図面を参照しながら、本発明の好適な実施形態について詳細に説明する。かかる実施形態に示す寸法、材料、その他具体的な数値等は、発明の理解を容易とするための例示にすぎず、特に断る場合を除き、本発明を限定するものではない。なお、本明細書及び図面において、実質的に同一の機能、構成を有する要素については、同一の符号を付することにより重複説明を省略し、また本発明に直接関係のない要素は図示を省略する。
(立体映像表示装置100)
 図1は、立体映像表示装置100の概略的な機能を示した機能ブロック図である。図1に示すように、立体映像表示装置100は、ディスプレイ110に接続され、映像取得部148と、スケーリング部150と、映像処理部152と、左右判断部154と、フレームメモリ156と、ベクトル導出部158と、補間生成部160と、周波数変換メモリ162と、一時メモリ164と、ラインシーケンシャル部166と、映像出力部168と、を含んで構成される。ここではディスプレイ110と立体映像表示装置100とを別体に構成する場合を説明するが、一体的に構成することもできる。
 映像取得部148は、外部の放送局120から放送された、両眼視差による立体映像を知覚させるための、左眼用映像データと右眼用映像データとの組み合わせから成る立体映像データを、アンテナ122を通じて取得する。また、映像取得部148は、立体映像データを、DVDやBlu-rayディスクといった記録媒体124や、通信網(インターネットやLAN)126からも取得可能である。また、本実施形態における映像取得部148は、立体映像データと共に(立体映像データに同期して)出力される同期信号も取得する。なお、映像取得部148は、立体映像データとは別の出力先から入力される同期信号を取得してもよい。
 図2は、立体映像データの一例を示す説明図である。映像取得部148が取得可能な立体映像データには複数のフォーマットが存在し、個々のフォーマットにおいてさらに画素数等のパラメータが異なる場合もある。図2(a)は、1台の撮像装置が撮像した映像データ200であり、図2(b)、(c)は、2台の撮像装置が撮像した映像データ(以下、単に立体映像データという。)である。かかる立体映像データは、撮像方向の異なる(視差のある)2つの映像データ(左眼用映像データ202aと右眼用映像データ202b)を1つの映像データとして纏めたものである。
 立体映像データの収録方式としては、図2(b)に示すように、有効映像データの左半分に左眼に視認させるための左眼用映像データ202a、右半分に右眼に視認させるための右眼用映像データ202bを配したサイドバイサイド方式や、図2(c)に示すように、有効映像データの上半分に左眼に視認させるための左眼用映像データ202a、下半分に右眼に視認させるための右眼用映像データ202bを配したトップアンドボトム方式を用いることができる。
 なお、有効映像データとは立体映像データ全体から非表示領域(ブランク期間)を除いた映像データのことである。また、サイドバイサイド方式の場合、右眼に視認させるための右眼用映像データ202bを有効映像データの左半分に、左眼に視認させるための左眼用映像データ202aを有効データ映像の右半分に配置する立体映像データを用いてもよい。さらに、トップアンドボトム方式の場合、右眼に視認させるための右眼用映像データ202bを有効映像データの上半分に、左眼に視認させるための左眼用映像データ202aを有効映像データの下半分に配置する立体映像データを用いてもよい。
 ただし、サイドバイサイド方式による立体映像データの左眼用映像データ202aおよび右眼用映像データ202bは、それぞれ、ディスプレイ110に表示される映像データと垂直解像度は等しいが、水平解像度は1/2に圧縮されている。したがって全画面の有効映像データの画素単位のデータである画素データ数が1920×1080の場合、左眼用映像データ202aおよび右眼用映像データ202bの画素データ数は960×1080となる。同様に、トップアンドボトム方式による立体映像データの左眼用映像データ202aおよび右眼用映像データ202bは、それぞれ、ディスプレイ110に表示される映像データと水平解像度は等しいが、垂直解像度は1/2に縮小されており、全画面の有効映像データの画素データ数が1920×1080の場合、左眼用映像データ202aおよび右眼用映像データ202bの画素データ数は1920×540となる。
 ディスプレイ110の表示面に表示される立体映像データは、例えば、表示方式として、左眼用映像データ202aの水平ライン映像データと右眼用映像データ202bの水平ライン映像データがライン単位で交互に配置されたラインシーケンシャル方式が用いられる。また、立体映像データに含まれる被写体は、交差視(交差法)および平行視(平行法)のいずれの立体表示も可能であり、左眼用映像データ202aに含まれる被写体と右眼用映像データ202bに含まれる被写体との水平方向の位置を相対的に左右にシフトすることで表示面より奥側、表示面上または手前側のいずれの位置にも被写体を結像することができる。なお、ラインシーケンシャル方式とは、観察者が偏光眼鏡を通じて、隔行のラインに示された左眼映像を左眼で、右眼映像を右眼で視認することにより、両眼視差による立体映像の認識を可能にする方式である。
 以下、立体映像データの収録方式としてサイドバイサイド方式を、表示方式としてラインシーケンシャル方式を用いた場合を例にあげて立体映像表示装置100を説明するが、かかる場合に限定されず、収録方式としてトップアンドボトム方式等を用い、表示方式としてフレームシーケンシャル方式等を用いてもよい。なお、フレームシーケンシャル方式とは、観察者がアクティブシャッタ(電子シャッタ)を通じて、左眼用のフレームと右眼用のフレームを交互に視認することにより、立体映像の認識を可能にする方式である。
 また、収録方式としてラインシーケンシャル方式を用いた立体映像データであってもよい。この場合、立体映像データの水平方向の1ライン分の情報量に比べて、2倍の容量を持つラインメモリに、立体映像データの2ライン分を1ライン分に纏めて記録する。この処理によって、サイドバイサイド方式で収録された立体映像データ同様の形式に変換したうえで、後述する動きベクトルを導出することができる。
 また、収録方式が、左眼用映像データ202aと右眼用映像データ202bが行毎に交互に並べられた縦ライン交互表示方式や、左眼用映像データ202aと右眼用映像データ202bが市松模様状に並べられたチェッカーボード方式であった場合は、例えば映像取得部148で取得した後に一時メモリ164を用いてサイドバイサイド方式もしくはトップアンドボトム方式に並び換えることで、同様に後述する動きベクトルを導出することができる。さらに、収録方式がフレームシーケンシャル方式である場合は、内部で用いる垂直同期信号の周期を半分にし、フレーム周波数を2倍として扱うことで、左眼用映像データ202aと右眼用映像データ202bがブランキングエリアを挟んでトップアンドボトムに配置された1フレームとして捉えることで対応することもできる。
 スケーリング部150は、映像取得部148が取得した立体映像データをディスプレイ110の表示サイズに合わせるべく、立体映像データのデータサイズの調整を行う。
 映像処理部152は、スケーリング部150で調整された立体映像データに対して、RGB処理(γ補正や色補正)、エンハンス処理、ノイズ低減処理などの映像信号処理を行う。映像処理部152は、処理を行った立体映像データを、左右判断部154と周波数変換メモリ162にそれぞれ出力する。
 左右判断部154は、立体映像データと共に入力される同期信号に基づいて、立体映像データを構成する所定の単位映像データが左眼用映像データと右眼用映像データとのどちらに属するかを判断する。ここで、映像取得部148において取得された同期信号は、スケーリング部150および映像処理部152を通過するが、スケーリング部150および映像処理部152における処理に要した時間分遅延されたものである。そして左右判断部154は、その単位映像データ毎に、その単位映像データが左眼用映像データと右眼用映像データとのどちらに属する映像データであるかを示す映像情報を付し、フレームメモリ156とベクトル導出部158にそれぞれ出力する。単位映像データおよび映像情報については後に詳述する。
 フレームメモリ156は、例えば、RAM(Random Access Memory)、不揮発性RAM、フラッシュメモリ等の記録媒体で構成され、左右判断部154から出力された立体映像データを、例えば1フレーム分、一時的に保持する。
 ベクトル導出部158は、左右判断部154が出力した立体映像データの任意のフレーム(以下、第1フレームという。)における分割された領域の映像データであり、比較元となる基準部分映像データそれぞれについて、第1フレームと時間的に連続する、フレームメモリ156に保持されたフレーム(以下、第2フレームという。)における分割された領域の映像データであり、比較対象となる複数の対象部分映像データを比較し、基準部分映像データと対象部分映像データとの間の相関の強さを示す相関値を導出する。なお、ベクトル導出部158は、ここでは連続する2フレーム間で比較を行うが、第1フレームと第2フレームの時間が異なれば足り、連続していない2フレーム間で比較を行うこともできる。
 続いて、ベクトル導出部158は、基準部分映像データそれぞれについて、基準部分映像データと相関値が最も高い対象部分映像データを抽出し、第1フレームにおける基準部分映像データが示す映像の位置と、第2フレームにおける抽出された対象部分映像データが示す映像の位置とに基づいて、基準部分映像データと抽出された対象部分映像データとの間の動きベクトルを導出する。
 補間生成部160は、ベクトル導出部158が導出した動きベクトルと、左右判断部154が出力した第1フレームおよびフレームメモリ156に保持された第2フレームに基づいて、第1フレームと第2フレームを補間する補間フレームを生成し、周波数変換メモリ162に出力する。図3を用いて、この補間フレームについて説明する。
 図3は、補間フレームの一例を示す説明図である。図3に示す例は、フレーム周波数を2倍に変換する場合に生成される補間フレームである。図3において示すように、例えば連続する(連続せずに間に1または複数のフレームを挟む場合も含む)2つのフレームである第1フレーム204と第2フレーム206の間で、第1フレーム204の被写体210a、210b、212a、212bが第2フレーム206の被写体214a、214b、216a、216bの位置に移動した場合において、移動の途中の状態を示す被写体218a、218b、220a、220bを表すフレームが補間フレームである。ここでは、被写体210、212、214、216、218、220が、左眼用映像(添え字「a」)と右眼用映像(添え字「b」)との2つの映像の視差によって立体的に結像される。本実施形態において、時間的に先に取得されたフレームを第1フレーム204、後に取得されたフレームを第2フレーム206とするが、先に取得されたフレームを第2フレーム206、後に取得されたフレームを第1フレーム204としてもよい。
 なお、ここではフレーム周波数を2倍に変換しているので、補間フレーム208における被写体の位置は、第1フレーム204における被写体の位置から第2フレームにおける被写体の位置までの1/2の距離分、第1フレーム204の位置から移動しており、フレーム周波数の倍率をn倍にする際には、第1フレーム204における被写体の位置から第2フレーム206における被写体の位置までの1/nの距離分ずつ、第1フレーム204の位置から移動した補間フレーム208を(n-1)枚生成することになる。
 第1フレーム204と第2フレーム206の間の時間間隔を変えずに、補間フレーム208を第1フレーム204と第2フレーム206との間に挿入することで、フレーム周波数が高くなり、被写体の動きが滑らかな映像として認識される。
 しかし、上述した立体映像データのフレームは、1台の撮像装置で撮像した映像データのフレームではなく、同一の被写体を、視点を変えて撮像した映像データのフレームなので、誤った動きベクトルによる特有の誤表示が生じる場合がある。
 図4は、誤った動きベクトルに基づく補間フレームを説明するための説明図である。図4(a)に示すように、第1フレーム204と第2フレーム206にそれぞれ被写体としてアルファベットの文字列「ABCD」が含まれ、図4(b)に示すように、第1フレーム204と第2フレーム206にそれぞれ被写体としてアルファベットの文字列「ABCA」が含まれていたとする。ここでは理解を容易にするため、第1フレーム204と第2フレーム206とで、被写体の移動はなかったものとする。
 図4(a)に示す場合、ベクトル導出部158は、第1フレーム204における所定のサイズに分割された領域のアルファベットの文字列「ABCD」の位置を正しく識別して動きベクトル210aを導出し、補間生成部160は、動きベクトル210aに基づいて、図4(a)中破線矢印212a、214aに示すように、第1フレーム204の基準部分映像データと第2フレーム206の対象部分映像データとを用いて、補間する正しい補間フレーム208を生成する。
 ところが、図4(b)に示す場合、第1フレーム204の所定のサイズに分割された領域のアルファベットの文字列「ABCA」の両端に同じ「A」の文字が配されているため、ベクトル導出部158は、例えば、第1フレーム204の左眼用映像データ202aの被写体「A」が第2フレーム206の右眼用映像データ202bの被写体「A」に、移動したと誤って判断し、誤った動きベクトル210bを導出する。その場合、補間生成部160は、動きベクトル210bに基づいて、図4(b)中破線矢印212b、214bに示すように第1フレーム204の左眼用映像データ202aの被写体「C」と、第2フレーム206の左眼用映像データ202aと右眼用映像データ202bに跨った図4(b)中破線で示す被写体216とに基づいて、補間フレーム208を生成してしまうことがある。このような補間フレーム208を再生した場合、第1フレーム204、第2フレーム206間で文字列の位置が不適切に変化してしまい、映像が乱れてしまう。
 そこで、ベクトル導出部158は、動きベクトルを導出する際、基準部分映像データと対象部分映像データとの比較を、左眼用映像データと右眼用映像データとを跨っては実行しない。以下、その動作を詳細に説明する。
 図5は、基準部分映像データと対象部分映像データを説明するための説明図である。ベクトル導出部158は、第1フレーム204の有効映像データを、例えば、重複しないように分割したそれぞれの基準部分映像データを設定する(図5において、例として一つの基準部分映像データ222を図示)。基準部分映像データは第1フレーム204における比較元となる映像データである。
 また、ベクトル導出部158は、動きベクトルの候補となるベクトル(候補ベクトル)に基づいて、第2フレーム206における所定のサイズに分割された領域の対象部分映像データを設定する。候補ベクトルは、基準部分映像データを占有する動体が1フレームで移動する最大範囲に基づいて設定された、第1フレーム204の基準部分映像データの中心の座標から、第2フレーム206の対象部分映像データの中心の座標までの向きと大きさを示す予め準備された複数のベクトルである。
 ここで、候補ベクトルに基づいて定められる対象部分映像データは、基準部分映像データから上述した候補ベクトル分移動した位置に、基準部分映像データと同じ大きさで、候補ベクトルの数だけ定義される。
 対象部分映像データは第2フレーム206における比較対象の部分映像データであり、ベクトル導出部158は、候補ベクトルに基づいて、例えば、その中心となる画素データを1つずつずらしながら、重複する複数の部分映像データを対象部分映像データとして設定する。本実施形態においては、理解を容易にするため、それぞれが重複しない対象部分映像データ224a~224lを挙げて説明する。
 図5に示すように、ベクトル導出部158は、例えば被写体「A」の文字を含む第1フレーム204の基準部分映像データ222を設定した場合、対象部分映像データ224a~224lを設定する。そして、1つの基準部分映像データと複数の対象部分映像データとを比較し、各画素データの輝度値について、例えば、差分絶対値和(SAD)法等を用い相関値を導出する。SAD法は、基準部分映像データと対象部分映像データの間、すなわちブロック間で、同じ位置にある画素データ同士を画素データペアとした場合に、画素データペア間で輝度値の差分絶対値を計算したものをブロックの範囲で積算し積算値を算出する手法である。この積算値を用いて相関を調べる場合、積算値が最小となる時に相関値が最も高くなることになる。
 ベクトル導出部158は、相関値を導出する際、基準部分映像データ毎に、導出した対象部分映像データとの相関値を候補ベクトルと関連付けて不図示の作業領域(メモリ)に保持する。そして、新たに導出した他の対象部分映像データとの相関値と保持された相関値とを比較し、新たな相関値が保持された相関値より高い場合、その相関値と候補ベクトルとを更新する。かかる構成により、比較元の基準部分映像データについての相関値の導出が終わった時点で、保持してある相関値が、比較元の基準部分映像データについての最も高い相関値となる。ベクトル導出部158は、この最も高い相関値に関連付けられた候補ベクトルを、第1フレーム204における比較元の基準部分映像データについての動きベクトルとする。
 しかし、例えば、基準部分映像データ222と、基準部分映像データ222に近い部分映像データ224iとを比較してしまうと、それぞれの映像データ(基準部分映像データ222、部分映像データ224i)が同じ被写体「A」の文字を含むため相関値が高くなり、図4(b)を用いて説明したように、基準部分映像データ222が対象部分映像データ224iに移動したという、誤った動きベクトルに基づく補間フレーム208が生成されてしまうことがある。
 そこで、本実施形態のベクトル導出部158は、基準部分映像データ222、および対象部分映像データ224が左眼用映像データ202aの一部なのか、右眼用映像データ202bの一部なのか、すなわち左眼用映像データ202aと右眼用映像データ202bのどちらに属する映像データであるかを示す映像情報(フラグ)を用いて相関値を導出する。映像情報は、映像取得部148が立体映像データと共に取得する同期信号に基づいて、左右判断部154が各単位映像データに付す情報である。
 具体的に、左右判断部154は、同期信号に含まれる、水平同期信号によりリセットされる水平ドットカウンタを有し、水平ドットカウンタのカウント値をhcntとする。この場合、左右判断部154は、左眼用映像データ202aと右眼用映像データ202bの境界位置の値に到達するまでの単位映像データに対して、左眼用映像データ202aを示す映像情報「L」を付与し、残りの単位映像データに対して右眼用映像データ202bを示す映像情報「R」を付与する。ここで、境界位置の値は、立体映像データの有効範囲外や左眼用映像データ202aの右端と右眼用映像データ202bの左端との間のブランキング幅によって異なるため、立体映像データに応じて任意に設定する。映像情報は、例えば1ビットの情報であり「0」、「1」がそれぞれ「L」、「R」を示す。そして、左右判断部154は、1ライン分の総画素数をカウントし終えると、次の水平同期信号に基づきカウント値hcntをリセットする。なお、単位映像データは、所定の画素単位で区切られた映像データである。また、単位映像データの大きさと基準部分映像データおよび対象部分映像データの大きさを等しくすると演算負荷を軽減することができる。
 また、映像取得部148がトップアンドボトム方式を用いて収録された立体映像データを取得した場合、左右判断部154は、同期信号に含まれる、垂直同期信号によりリセットされる垂直ラインカウンタを有してもよく、垂直ラインカウンタのカウント値をvcntとする。この場合、左右判断部154は、左眼用映像データ202aと右眼用映像データ202bの境界位置の値に到達するまでの単位映像データに対して、左眼用映像データ202aを示す映像情報「L」を付与し、残りの単位映像データに対しては、右眼用映像データ202bを示す映像情報「R」を付与する。ここで、境界位置の値は、立体映像データの有効範囲外のブランキング幅によって異なるため、立体映像データに応じて任意に設定する。ここでも映像情報は、例えば1ビットの情報であり「0」、「1」がそれぞれ「L」、「R」を示す。そして、左右判断部154は、1ライン分の総画素数をカウントし終えると、次の垂直同期信号に基づきカウント値vcntをリセットする。
 左右判断部154が、左眼用映像データ202aと右眼用映像データ202bの判断に、既存の映像システム(例えば、テレビジョン放送)に含まれる同期信号を用いることで、映像システムの大きな改変を伴うことなく、動きベクトルを高精度に導出することが可能となる。
 また、映像取得部148が記録媒体124や通信網126から立体映像データを取得する場合であって、立体映像データを構成する所定の単位映像データ(例えば、所定数の画素データ)毎に、その単位映像データが左眼用映像データ202aと右眼用映像データ202bのどちらに属するかを示す映像情報が付与されていれば、左右判断部154を機能させなくてもよい。この場合、ベクトル導出部158はその映像情報に基づいて、単位映像データが、左眼用映像データ202aの一部か右眼用映像データ202bの一部か、すなわち、左眼用映像データ202aと右眼用映像データ202bとのどちらに属する映像データかを判断してもよい。このように予め付与されている映像情報を用いることで、立体映像表示装置100は、単位映像データが左眼用映像データ202aの一部か右眼用映像データ202bの一部かを正確に判断することができる。
 ベクトル導出部158は、映像情報に基づいて、基準部分映像データや対象部分映像データが左眼用映像データ202aと右眼用映像データ202bとのどちらに属するかを判断する。基準部分映像データや対象部分映像データに含まれる、例えば全ての画素データについて、映像情報が「L」であれば左眼用映像データ202aであり、映像情報が「R」であれば右眼用映像データ202bであると判断する。
 そして、ベクトル導出部158は、基準部分映像データ222の右眼用映像データ202bと対象部分映像データ224a~224lの右眼用映像データ202bとの間、または基準部分映像データ222の左眼用映像データ202aと対象部分映像データの左眼用映像データ202bとの間で相関値を導出する。
 したがって、ベクトル導出部158は、図5において、矢印230および矢印232で示すように、左眼用映像データ202aに含まれる対象部分映像データ224a~224fについては、基準部分映像データ222との比較を行い、右眼用映像データ202bに含まれる対象部分映像データ224g~224lについては、左眼用映像データ202aの基準部分映像データ222との比較を行わない(「×」で図示)。このとき、ベクトル導出部158は、初めから映像情報が「R」である対象部分映像データ224g~224lを設定しないように制限してもよいし、対象部分映像データに設定した224a~224lのうち、映像情報が「R」である対象部分映像データ224g~224lを比較対象として選択しないように制限してもよい。
 図6は、基準部分映像データと対象部分映像データとの他の関係を説明するための説明図である。図6において示すように、基準部分映像データ222の一部が左眼用映像データ202aに、残りの部分が右眼用映像データ202bにそれぞれ含まれる場合、言い換えると、基準部分映像データ222に、映像情報が「R」である画素データと映像情報が「L」である画素データの両方が含まれる場合、ベクトル導出部158は、基準部分映像データを、左眼用映像データ202aか右眼用映像データ202bのいずれか一方に含まれるデータ部分に制限する。例えば、図6の例では、基準部分映像データを表示させた場合にブロックの中心画素が存在する方に含まれるデータ部分に制限して、基準部分映像データの領域を正方形から長方形に縮めている。すなわち、ベクトル導出部158は、左眼用映像データか右眼用映像データの一方のみが含まれる、ハッチングされた領域を除いた、基準部分映像データ222bに設定し直す。
 この場合、ベクトル導出部158は、対象部分映像データ(例えば、224m~224r)の領域も、基準部分映像データ222bの領域に合わせて設定する。
 図6における場合においても、ベクトル導出部158は、第1フレーム204と第2フレーム206とにおける、基準部分映像データ222bと対象部分映像データ224m~224rとの比較を、左眼用映像データ202a同士に制限して行う。そのため、ベクトル導出部158は、誤った動きベクトルの導出を回避し、動きベクトルを高精度に導出できる。
 ここでは、ベクトル導出部158が誤った動きベクトルを導出しないので、補間生成部160は、誤った動きベクトルに基づく補間フレームを生成することがなくなる。さらに、立体映像表示装置100がフレーム間の補間を行った立体映像データをディスプレイ110に表示させることで、視聴者は、ノイズのない、美しい立体映像を知覚することができる。
 周波数変換メモリ162は、映像処理部152から出力された1フレーム分(第1フレーム204または第2フレーム206)の立体映像データと、補間生成部160から出力された補間フレーム208とを溜めて、これらの立体映像データを2倍のフレーム周波数で時系列順に読み出し一時メモリ164に出力する。
 一時メモリ164は、例えば、RAM、不揮発性RAM、フラッシュメモリ等の記録媒体で構成され、周波数変換メモリ162から出力された、補間フレーム208が挿入された周波数変換後の立体映像データを一時的に保持する。
 ラインシーケンシャル部166は、一時メモリ164に保持された補間フレームが挿入された立体映像データ(以下、単に補間後立体映像データと称する)のリードライトアドレスを制御することによって、補間後立体映像データにおける右眼用映像データ202bの水平ライン映像データと、左眼用映像データ202aの水平ライン映像データとを交互に並置し、ラインシーケンシャル映像データを生成し、映像出力部168に出力する。
 ただし、サイドバイサイド方式における左眼用映像データ202aと右眼用映像データ202bとの水平解像度は、元の立体映像データの1/2となっているため、その水平解像度を2倍に拡大しなければならない。水平解像度拡大に伴う新たな画素データの生成は、線形補間やその他のフィルタリングを用いることが可能である。また、水平解像度の倍率は、立体映像データの収録方式、あるいは立体映像データの入力時と出力時のフォーマットの水平方向の画素数の比率に応じて適宜調整される。そしてラインシーケンシャル部166は、水平解像度拡大とともに、垂直解像度を1/2に圧縮してラインシーケンシャル映像データを生成し、映像出力部168に出力する。
 映像出力部168は、ラインシーケンシャル部166が出力したラインシーケンシャル映像データを外部のディスプレイ110に出力する。
 上述したように本実施形態の立体映像表示装置100は、左眼用映像データ202a同士、または右眼用映像データ202b同士からのみ、動きベクトルを導出する。そのため、左眼用映像データ202aと右眼用映像データ202bとに跨った、誤った動きベクトルの導出を回避し、動きベクトルを高精度に導出でき、フレーム周波数の高速化処理やデータ圧縮処理等において、フレーム補間の精度を向上したり、フィルムジャダー除去の精度を向上することが可能となる。
(動きベクトル導出方法)
 さらに、上述した立体映像表示装置100を用いた動きベクトル導出方法も提供される。図7は、動きベクトル導出方法の処理の流れを示すフローチャートである。
 映像取得部148が立体映像データおよび同期信号を取得すると(S300のYES)、左右判断部156は、取得ステップS300において取得した同期信号に基づいて、立体映像データの単位映像データが、左眼用映像データ202aと右眼用映像データ202bとのどちらに属するかを判断し、単位映像データ毎に映像情報を付す(S302)。
 ベクトル導出部158は、第1フレーム204の有効映像データを分割して複数の基準部分映像データを設定し(S304)、第2フレーム206において設定された基準部分映像データの中心の座標と候補ベクトルとから定まる対象部分映像データを設定する(S306)。
 ベクトル導出部158は、映像情報に基づいて、基準部分映像データおよび対象部分映像データが左眼用映像データか右眼用映像データのどちらに属する映像データかを判断し(S308)、双方の映像情報が一致しなければ(S308のNO)、その対象部分映像データを比較対象から除外する(S310)。すなわち、基準部分映像データが右眼用映像データの一部であれば左眼用映像データの一部である対象部分映像データを比較対象から除外し、基準部分映像データが左眼用映像データの一部であれば右眼用映像データの一部である対象部分映像データを比較対象から除外する。双方の映像情報が一致する場合(S308のYES)、ベクトル導出部158は、除外ステップ(S310)は行わない。
 続いて、ベクトル導出部158は、すべての候補ベクトルについて、対象部分映像設定ステップ(S306)を完了したか否かを判断し(S312)、完了していない場合(S312のNO)、対象部分映像設定ステップ(S306)に戻り、次の対象部分映像データを設定する。
 すでに候補ベクトルすべてについて、対象部分映像設定ステップ(S306)を完了している場合(S312のYES)、ベクトル導出部158は、有効映像データを分割して基準部分映像データを設定する基準部分映像設定処理ステップ(S308)を完了したか否かを判断する(S314)。完了していない場合(S314のNO)、基準部分映像設定ステップ(S304)に戻る。
 すでに有効映像データを分割した部分映像データすべてについて、基準部分映像設定ステップ(S308)を完了している場合(S314のYES)、ベクトル導出部158は、第1フレーム204における、複数の基準部分映像データそれぞれについて、第2フレーム206における、複数の対象部分映像データと比較し、相関の強さを示す相関値を、基準部分映像データそれぞれにおける対象部分映像データ毎に導出する(S316)。ここで、ベクトル導出部158は、除外ステップ(S310)で比較対象から除外した対象部分映像データについては、相関値を導出しないものとする。
 そして、ベクトル導出部158は、基準部分映像データそれぞれについて、基準部分映像データと相関値が最も高い対象部分映像データを抽出し、その対象部分映像データに関連付けられた候補ベクトルを動きベクトルとする(S318)。補間生成部160は、ベクトル導出部158が導出した動きベクトルと、第1フレーム204および第2フレーム206に基づいて、第1フレーム204と第2フレーム206を補間する補間フレーム208を生成する(S320)。
 周波数変換メモリ162は、映像処理部152から出力された1フレーム分の立体映像データと、補間生成部160から出力された補間フレーム208とを溜めて、これらの立体映像データを2倍のフレーム周波数で時系列順に一時メモリ164に出力する(S322)。ラインシーケンシャル部166は、右眼用映像データ202bおよび左眼用映像データ202aのそれぞれの水平ライン映像を交互に並置し、ラインシーケンシャル映像データを生成する(S324)。映像出力部168は、ラインシーケンシャル映像データを外部のディスプレイ110に出力する(S326)。
 上述したように、立体映像表示装置100を用いた動きベクトル導出方法によれば、誤った動きベクトルの導出を回避し、動きベクトルを高精度に導出できるため、視聴者にノイズのない立体映像を視認させることが可能となる。
 以上、添付図面を参照しながら本発明の好適な実施形態について説明したが、本発明はかかる実施形態に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。
 なお、本明細書の動きベクトル導出方法における各工程は、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいはサブルーチンによる処理を含んでもよい。
 本発明は、両眼視差による立体映像を知覚させるための立体映像データから動きベクトルを導出する立体映像表示装置および動きベクトル導出方法に利用することができる。

Claims (6)

  1.  両眼視差による立体映像を知覚させるための、左眼用映像データと右眼用映像データとの組み合わせから成る立体映像データを取得する映像取得部と、
     前記立体映像データの任意の第1フレームを分割した領域の映像データである基準部分映像データと、前記立体映像データの第1フレームと異なる第2フレームを分割した領域の映像データであり、前記基準部分映像データの比較対象となる複数の対象部分映像データとの間の相関の強さを示す相関値をそれぞれ導出し、前記基準部分映像データそれぞれについて、前記導出した相関値が最も高い前記対象部分映像データを抽出し、前記基準部分映像データと前記抽出された対象部分映像データとの間の動きベクトルを導出するベクトル導出部と、
    を備え、
     前記ベクトル導出部は、前記基準部分映像データの前記右眼用映像データと前記対象部分映像データの前記右眼用映像データとの間、または前記基準部分映像データの前記左眼用映像データと前記対象部分映像データの前記左眼用映像データとの間で前記相関値を導出することを特徴とする立体映像表示装置。
  2.  前記立体映像データと共に入力される同期信号に基づいて、前記立体映像データが所定の画素単位で区切られた映像データである単位映像データが前記左眼用映像データと前記右眼用映像データとのどちらに属するかを判断し、前記単位映像データ毎に、その単位映像データが前記左眼用映像データと前記右眼用映像データとのどちらに属する映像データであるかを示す映像情報を付す左右判断部をさらに備えることを特徴とする請求項1に記載の立体映像表示装置。
  3.  前記立体映像データを構成する所定の単位映像データには、その単位映像データが前記左眼用映像データと前記右眼用映像データとのどちらに属する映像データであるかを示す映像情報が付されており、
     前記ベクトル導出部は、前記映像情報に基づいて、前記単位映像データが、前記左眼用映像データと前記右眼用映像データとのどちらに属する映像データかを判断することを特徴とする請求項1または2に記載の立体映像表示装置。
  4.  両眼視差による立体映像を知覚させるための、左眼用映像データと右眼用映像データとの組み合わせから成る立体映像データを取得し、
     前記立体映像データの任意の第1フレームを分割した領域の映像データである基準部分映像データと、前記立体映像データの第1フレームと異なる第2フレームを分割した領域の映像データであり、前記基準部分映像データの比較対象となる複数の対象部分映像データとの間の相関の強さを示す相関値を、前記基準部分映像データの前記右眼用映像データと前記対象部分映像データの前記右眼用映像データとの間、または前記基準部分映像データの前記左眼用映像データと前記対象部分映像データの前記左眼用映像データとの間で、それぞれ導出し、
     前記基準部分映像データそれぞれについて、前記導出した相関値が最も高い前記対象部分映像データを抽出し、前記基準部分映像データと前記抽出された対象部分映像データとの間の動きベクトルを導出することを特徴とする動きベクトル導出方法。
  5.  前記立体映像データと共に入力される同期信号に基づいて、前記立体映像データが所定の画素単位で区切られた映像データである単位映像データが前記左眼用映像データと前記右眼用映像データとのどちらに属するかを判断し、前記単位映像データ毎に、その単位映像データが前記左眼用映像データと前記右眼用映像データとのどちらに属する映像データであるかを示す映像情報を付すことを特徴とする請求項4に記載の動きベクトル導出方法。
  6.  前記立体映像データを構成する所定の単位映像データには、その単位映像データが前記左眼用映像データと前記右眼用映像データとのどちらに属する映像データであるかを示す映像情報が付されており、
     前記映像情報に基づいて、前記単位映像データが、前記左眼用映像データと前記右眼用映像データとのどちらに属する映像データかを判断することを特徴とする請求項4または5に記載の動きベクトル導出方法。
PCT/JP2010/062762 2009-11-18 2010-07-29 立体映像表示装置および動きベクトル導出方法 WO2011061973A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
EP10831372A EP2381693A4 (en) 2009-11-18 2010-07-29 THREE-DIMENSIONAL IMAGE DISPLAY DEVICE AND MOTION VECTOR CALCULATION METHOD
KR1020117016838A KR101253495B1 (ko) 2009-11-18 2010-07-29 입체 영상 표시 장치 및 움직임 벡터 도출 방법
CN201080003640.8A CN102257829B (zh) 2009-11-18 2010-07-29 立体影像显示装置及运动矢量导出方法
US13/140,031 US20110242294A1 (en) 2009-11-18 2010-07-29 Stereoscopic image display device and method of deriving motion vector
JP2011506528A JP5454569B2 (ja) 2009-11-18 2010-07-29 立体映像データ処理装置および立体映像データ処理方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009263206 2009-11-18
JP2009-263206 2009-11-18

Publications (1)

Publication Number Publication Date
WO2011061973A1 true WO2011061973A1 (ja) 2011-05-26

Family

ID=44059458

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/062762 WO2011061973A1 (ja) 2009-11-18 2010-07-29 立体映像表示装置および動きベクトル導出方法

Country Status (6)

Country Link
US (1) US20110242294A1 (ja)
EP (1) EP2381693A4 (ja)
JP (1) JP5454569B2 (ja)
KR (1) KR101253495B1 (ja)
CN (1) CN102257829B (ja)
WO (1) WO2011061973A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013013053A (ja) * 2011-05-31 2013-01-17 Jvc Kenwood Corp 映像信号処理装置及び方法
JP2013013054A (ja) * 2011-05-31 2013-01-17 Jvc Kenwood Corp 映像信号処理装置及び方法
JP2013042279A (ja) * 2011-08-12 2013-02-28 Renesas Electronics Corp 動画像復号装置及び画像表示装置
JP2013172158A (ja) * 2012-02-17 2013-09-02 Jvc Kenwood Corp 映像信号処理装置及び方法
JP2013191957A (ja) * 2012-03-13 2013-09-26 Jvc Kenwood Corp 映像信号処理装置、映像信号処理方法、映像信号処理プログラム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101820497B1 (ko) * 2011-07-27 2018-01-22 삼성디스플레이 주식회사 표시 장치 및 그 구동 방법
WO2013145326A1 (ja) * 2012-03-30 2013-10-03 富士通株式会社 決定装置、決定プログラムおよび決定方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04365286A (ja) * 1991-02-11 1992-12-17 General Instr Corp 多重処理装置を使用して圧縮映像信号を伝送するための方法とその装置
JPH09261653A (ja) * 1996-03-18 1997-10-03 Sharp Corp 多視点画像符号化装置
JPH1013860A (ja) 1996-04-26 1998-01-16 Victor Co Of Japan Ltd 立体画像補間装置及びその方法
JP2002034047A (ja) * 2000-07-18 2002-01-31 Pioneer Electronic Corp 画像符号化装置及び画像符号化方法、情報符号化装置及び情報符号化方法、情報記録装置並びに情報記録媒体
JP2008167267A (ja) * 2006-12-28 2008-07-17 Mitsubishi Electric Corp ステレオ画像符号化装置、ステレオ画像符号化方法及びステレオ画像符号化プログラム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6118475A (en) * 1994-06-02 2000-09-12 Canon Kabushiki Kaisha Multi-eye image pickup apparatus, and method and apparatus for measuring or recognizing three-dimensional shape
US5767898A (en) * 1994-06-23 1998-06-16 Sanyo Electric Co., Ltd. Three-dimensional image coding by merger of left and right images
JPH0870475A (ja) * 1994-06-23 1996-03-12 Sanyo Electric Co Ltd 立体動画像の符号化・復号化方法及び装置
JP3802653B2 (ja) * 1997-05-21 2006-07-26 オリンパス株式会社 立体画像表示装置
JP3519594B2 (ja) * 1998-03-03 2004-04-19 Kddi株式会社 ステレオ動画像用符号化装置
JP3475081B2 (ja) * 1998-06-03 2003-12-08 三洋電機株式会社 立体映像再生方法
CA2380105A1 (en) * 2002-04-09 2003-10-09 Nicholas Routhier Process and system for encoding and playback of stereoscopic video sequences
JP2004032365A (ja) * 2002-06-26 2004-01-29 Matsushita Electric Ind Co Ltd 表示装置
JP4198608B2 (ja) * 2004-01-15 2008-12-17 株式会社東芝 補間画像生成方法および装置
JP4467574B2 (ja) * 2004-08-18 2010-05-26 シャープ株式会社 画像データ表示装置
JP4665167B2 (ja) * 2005-06-29 2011-04-06 ソニー株式会社 ステレオ画像処理装置、ステレオ画像処理方法およびステレオ画像処理用プログラム
CA2636858C (en) * 2006-01-27 2015-11-24 Imax Corporation Methods and systems for digitally re-mastering of 2d and 3d motion pictures for exhibition with enhanced visual quality
US8922621B2 (en) * 2007-10-19 2014-12-30 Samsung Electronics Co., Ltd. Method of recording three-dimensional image data

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04365286A (ja) * 1991-02-11 1992-12-17 General Instr Corp 多重処理装置を使用して圧縮映像信号を伝送するための方法とその装置
JPH09261653A (ja) * 1996-03-18 1997-10-03 Sharp Corp 多視点画像符号化装置
JPH1013860A (ja) 1996-04-26 1998-01-16 Victor Co Of Japan Ltd 立体画像補間装置及びその方法
JP2002034047A (ja) * 2000-07-18 2002-01-31 Pioneer Electronic Corp 画像符号化装置及び画像符号化方法、情報符号化装置及び情報符号化方法、情報記録装置並びに情報記録媒体
JP2008167267A (ja) * 2006-12-28 2008-07-17 Mitsubishi Electric Corp ステレオ画像符号化装置、ステレオ画像符号化方法及びステレオ画像符号化プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2381693A4 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013013053A (ja) * 2011-05-31 2013-01-17 Jvc Kenwood Corp 映像信号処理装置及び方法
JP2013013054A (ja) * 2011-05-31 2013-01-17 Jvc Kenwood Corp 映像信号処理装置及び方法
JP2013042279A (ja) * 2011-08-12 2013-02-28 Renesas Electronics Corp 動画像復号装置及び画像表示装置
US9838666B2 (en) 2011-08-12 2017-12-05 Renesas Electronics Corporation Video decoding device and image display device
JP2013172158A (ja) * 2012-02-17 2013-09-02 Jvc Kenwood Corp 映像信号処理装置及び方法
JP2013191957A (ja) * 2012-03-13 2013-09-26 Jvc Kenwood Corp 映像信号処理装置、映像信号処理方法、映像信号処理プログラム

Also Published As

Publication number Publication date
EP2381693A1 (en) 2011-10-26
CN102257829B (zh) 2014-04-02
US20110242294A1 (en) 2011-10-06
KR20110106389A (ko) 2011-09-28
KR101253495B1 (ko) 2013-04-11
EP2381693A4 (en) 2012-12-26
JPWO2011061973A1 (ja) 2013-04-04
JP5454569B2 (ja) 2014-03-26
CN102257829A (zh) 2011-11-23

Similar Documents

Publication Publication Date Title
JP5454569B2 (ja) 立体映像データ処理装置および立体映像データ処理方法
US8817020B2 (en) Image processing apparatus and image processing method thereof
JP4925354B2 (ja) 画像処理装置、画像表示装置、撮像装置及び画像処理方法
US8421847B2 (en) Apparatus and method for converting two-dimensional video frames to stereoscopic video frames
WO2011125461A1 (ja) 画像生成装置及び方法並びにプリンタ
WO2013035261A1 (ja) 映像信号処理装置および映像信号処理方法
US20120120190A1 (en) Display device for use in a frame sequential 3d display system and related 3d display system
JP2015534745A (ja) 立体画像の生成、送信、及び受信方法、及び関連する装置
US20120120191A1 (en) Image processor for use in a frame sequential 3d display system and related 3d display system
CN103369336A (zh) 一种设备和方法
CN104767985A (zh) 使用区域分布分析以自动检测三维图像格式的方法
JP2014072809A (ja) 画像生成装置、画像生成方法、画像生成装置用プログラム
JP2012138655A (ja) 画像処理装置及び画像処理方法
JP5088973B2 (ja) 立体撮像装置およびその撮像方法
JP5375490B2 (ja) 送信装置、受信装置、通信システム及びプログラム
Knee Getting machines to watch 3d for you
KR101114572B1 (ko) 스테레오스코픽 영상 신호의 2차원 영상 신호로의 변환방법 및 변환 장치
TWI825892B (zh) 立體格式影像偵測方法與使用該方法的電子裝置
JPH01202093A (ja) 立体テレビジョン伝送方式
JP6131256B6 (ja) 映像処理装置及びその映像処理方法
JP2015115676A (ja) 表示装置、画像出力装置
US8526714B2 (en) Method and system for reconstructing a stereoscopic image stream from quincunx sampled frames
JP2005321987A (ja) 画像生成方法
JP2007235398A (ja) 立体映像の映像データ構成方法、映像データ構成装置及び立体視システム
JP2011009972A (ja) 立体映像表示装置および立体映像表示方法

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201080003640.8

Country of ref document: CN

ENP Entry into the national phase

Ref document number: 2011506528

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 13140031

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2010831372

Country of ref document: EP

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10831372

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 20117016838

Country of ref document: KR

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE