WO2012117462A1 - 立体映像処理装置および方法ならびに立体映像表示装置 - Google Patents

立体映像処理装置および方法ならびに立体映像表示装置 Download PDF

Info

Publication number
WO2012117462A1
WO2012117462A1 PCT/JP2011/004933 JP2011004933W WO2012117462A1 WO 2012117462 A1 WO2012117462 A1 WO 2012117462A1 JP 2011004933 W JP2011004933 W JP 2011004933W WO 2012117462 A1 WO2012117462 A1 WO 2012117462A1
Authority
WO
WIPO (PCT)
Prior art keywords
frame
video signal
image
stereoscopic
output
Prior art date
Application number
PCT/JP2011/004933
Other languages
English (en)
French (fr)
Inventor
征永 関
武田 英俊
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to JP2012526783A priority Critical patent/JPWO2012117462A1/ja
Priority to US13/541,091 priority patent/US20120268561A1/en
Publication of WO2012117462A1 publication Critical patent/WO2012117462A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4007Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection

Definitions

  • the present invention detects a motion vector between left and right images of a stereoscopic video signal and generates an interpolation frame using the detected motion vector, particularly a stereoscopic image captured at a frame frequency of 24 Hz.
  • the present invention relates to a stereoscopic image processing apparatus that converts a movie material into a stereoscopic image of 60 Hz and performs frame sequential display at 120 Hz.
  • the left and right images are displayed alternately on the display (frame sequential display), and the viewer enters the left or right eye in synchronization with the display.
  • Wear LCD shutter glasses to block the image. Thereby, only the left image is recognized by the viewer's left eye and only the right image is recognized by the right eye, so that the viewer can perceive a stereoscopic effect by the parallax between the left and right images.
  • FIG. 7 shows an example in which a scene where a ball crosses the screen is photographed at 24 Hz and displayed at 60 Hz by 3: 2 pull-down.
  • FIG. 8 is a graph showing the relationship between the display position of the ball and the time in the video example of FIG.
  • the line of sight follows the displayed ball and moves like the movement locus of the line of sight indicated by the arrow in the figure.
  • the position of the ball coincides with the movement locus of the line of sight, but is shifted in other frames.
  • the frames 1, 4 and 6 appear to be behind the position of the ball whose line of sight is chasing, and the frames 3, 5, and 8 appear to be on the front side, respectively.
  • the moving ball appears to shake back and forth. Such a state is called film judder.
  • FIG. 9 is a graph showing the relationship between the ball display position and time when a 24 Hz stereoscopic image is converted into a 60 Hz image by 3: 2 pull-down on each of the left and right sides and frame sequential display is performed at 120 Hz.
  • FIG. 10 is a graph showing the deviation between the center of line of sight of the left and right eyes and the display position of the ball in this case, and the left and right parallax caused thereby. As can be seen from FIG.
  • a motion vector is detected from a 24 Hz two-dimensional image, and an interpolation frame is generated and displayed in accordance with a display timing of 60 Hz using the motion vector, thereby displaying smooth motion without unnaturalness.
  • Such frame frequency conversion is called a film dejadder.
  • FIG. 11 is a graph showing the relationship between the ball display position and time when the scene of FIG.
  • the film de-judger generates and displays an interpolated frame whose phase is shifted by +0.4 and +0.8 frames from the original frame of 24 Hz for frame 3 and frame 4, respectively.
  • Interpolated frames whose phases are shifted by +0.2 and +0.6 frames from the frames are generated and displayed.
  • the original frame of 24 Hz is displayed as it is.
  • the display position of the moving ball coincides with the movement locus of the line of sight, and can be viewed as a smooth movement without film judder.
  • the binocular parallax amount becomes constant and the viewer can easily obtain a stereoscopic effect.
  • the motion vector used in frame frequency conversion is detected by comparing consecutive frames, so it can be detected correctly with respect to object movement, but it cannot detect motion such as rotation or enlargement / reduction correctly. There is.
  • a correct motion vector cannot be detected for a region that is hidden in the background of a moving object, a region that appears from the background, or a region that is included in only one of the continuous frames.
  • the normal motion vector is often detected by searching a predetermined range with reference to the detection target block, and a correct motion vector cannot be detected even when there is a motion exceeding the search range. Sometimes.
  • an object of the present invention is to provide a stereoscopic video processing apparatus that performs frame frequency conversion suitable for stereoscopic video.
  • a stereoscopic video processing apparatus for generating left and right output video signals of a second frame frequency from left and right input video signals of a first frame frequency is provided by: A vector detection unit for detecting a motion vector of the block, generating an interpolation frame based on the frame of the input video signal and the motion vector, arranging the frame of the input video signal and the interpolation frame in a time axis direction, and outputting the output An output image generation unit that generates a video signal; an output control unit that controls an interpolation phase related to generation of the interpolation frame; and a feature amount of an image region in a frame of the input video signal used for generation of the interpolation frame.
  • the output image generation unit generates an interpolated image for an image region where the feature amount is larger than a threshold value, and generates the interpolated frame using the input video signal as it is for the other image regions. To do.
  • an interpolated frame for an image area whose feature amount is larger than the threshold, by generating an interpolated frame using a motion vector, it is possible to display a high-quality stereoscopic display by suppressing variation in the amount of parallax.
  • image quality deterioration due to an interpolation error can be suppressed.
  • the stereoscopic video processing apparatus includes a frame frequency conversion unit including the vector detection unit, the output image generation unit, the feature amount calculation unit, and the output control unit for each of the left and right signal systems of the stereoscopic video signal.
  • a frame frequency conversion unit including the vector detection unit, the output image generation unit, the feature amount calculation unit, and the output control unit for each of the left and right signal systems of the stereoscopic video signal.
  • time-division sharing may be performed between the left and right signal systems of the stereoscopic video signal.
  • Diagram explaining motion vector detection Diagram showing the timing relationship between input video and interpolation frame generation Diagram explaining generation of interpolation frame
  • Diagram showing 3: 2 pull-down Diagram showing how the 3: 2 pull-down video looks A diagram showing how a 3: 2 pull-down 3D image looks The figure which shows the amount of parallax in 3: 2 pull-down stereoscopic video Figure showing how the film dejudged image looks
  • FIG. 1 is a block diagram showing a main configuration of a stereoscopic video display apparatus 100 according to an embodiment of the present invention.
  • the stereoscopic video display device 100 includes an input image selection unit 1, a stereoscopic video processing device 2, and a display unit 3.
  • the stereoscopic video processing device 2 includes two frame frequency conversion units 20 including a video memory 202, a vector detection unit 203, an output control unit 204, a vector memory 205, an output image generation unit 206, and a feature amount calculation unit 207. .
  • the input image selection unit 1 divides the input stereoscopic video signal 101 into left and right input video signals 102 and outputs them to the stereoscopic video processing device 2.
  • the stereoscopic video signal 101 is a stereoscopic video signal in which left and right images having a frame frequency of 24 Hz are alternately included.
  • the stereoscopic video processing device 2 detects a motion vector between frames of the input left and right input video signals 102, generates an interpolation frame using the motion vectors, and generates left and right output video signals 103. To do. Specifically, the two frame frequency conversion units 20 process the left and right input video signals 102, respectively.
  • the left and right video signals 103 output from the stereoscopic video processing device 2 are video signals having a frame frequency of 60 Hz.
  • the display unit 3 alternately displays the left and right output video signals 103 output from the stereoscopic video processing device 2 at 120 Hz in a frame sequential manner.
  • the display unit 3 is not particularly limited as long as it can display a stereoscopic video signal such as an LCD display or a PDP display.
  • the stereoscopic video display device 100 performs stereoscopic display at 120 Hz by performing frame frequency conversion of the input stereoscopic video signal 101 of 24 Hz.
  • the frame frequency conversion unit 20 performs frame frequency conversion (film dejudder) from the 24 Hz input video signal 102 to the 60 Hz output video signal 103.
  • the input video signal 102 input to the frame frequency conversion unit 20 is input to the vector detection unit 203 and the video memory 202.
  • the video memory 202 is a memory that can store an input video signal for at least three frames and can read any stored frame.
  • the video memory 202 stores the input video signal and reads the input video signal of the previous frame and outputs it to the vector detection unit 203.
  • the vector detection unit 203 divides the input video signal 102 into blocks of 8 pixels ⁇ 8 pixels, for example, and determines the position of the highest correlation from the previous frame video signal 104 input from the video memory 202 for each block.
  • a motion vector is detected by searching. For example, as shown in FIG. 2, when detecting the motion vector of the target block in the frame (1), the position having the largest correlation with the target block is searched in the previous frame (0), and this position Is detected as a motion vector.
  • the search range at this time is, for example, a range of horizontal ⁇ 64 pixels and vertical ⁇ 32 lines on the basis of a block for detecting a motion vector, and a position having the largest correlation is obtained in this range. Also, as the correlation value, the absolute value of the difference between the value of each pixel included in the block and the value of the pixel at the position to be compared is summed up for the entire block (SAD: Sum of AbsoluteifDifference, sum of absolute differences) ) Can be used.
  • SAD Sum of AbsoluteifDifference, sum of absolute differences
  • the block size is not limited to this, and it may be smaller or larger than this.
  • the vector detection unit 203 outputs the detected motion vector 110 detected from the input video signal 102 and the previous frame video signal 104 to the vector memory 205.
  • a vector memory 205 is a memory for storing a motion vector detected by the vector detection unit 203, and is for absorbing a time difference between writing from the vector detection unit 203 and reading from an output image generation unit 206 described later. .
  • the vector memory 205 only needs to have a capacity corresponding to this time difference, but it is assumed here that a vector corresponding to two frames of the input video can be stored.
  • the output control unit 204 reads out which one of the motion vectors corresponding to two frames stored in the vector memory 205, or before or after the interpolated frame generated from the video signals of a plurality of frames stored in the video memory 202. Which two frames are to be read out as frames and which phase between the two frames is to be generated is determined, and a control signal is output. Details of the output control unit 204 will be described later.
  • the video memory 202 receives a frame selection signal 108 for determining two frames to be used for interpolation from the output control unit 204, and uses the two frames designated by the frame selection signal 108 as the previous and next frame video signals 105, as an output image generation unit 206. Output to.
  • the vector memory 205 receives the vector selection signal 109 for selecting a vector to be used for interpolation from the output control unit 204, and outputs the motion vector designated by the vector selection signal 109 to the output image generation unit 206 as the interpolation motion vector 106. .
  • the output control unit 204 outputs a frame selection signal 108, a vector selection signal 109, and an interpolation phase control signal 107 at a cycle of 5 frames as follows.
  • the frame selection signal 108 for outputting the frame (0) is output as the previous frame, and 0 is output as the interpolation phase control signal 107. At this time, since no interpolation frame needs to be generated, an interpolation motion vector is unnecessary.
  • the frame selection signal 108 for outputting the frame (0) and the frame (1) is output to the preceding and following frame video signal 105, and detected between the frame (1) and the frame (0) as the interpolation motion vector 106
  • a signal for selecting a motion vector is output as the vector selection signal 109, and 0.2 is output as the interpolation phase control signal 107.
  • the frame selection signal 108 for outputting the frame (1) is output as the previous frame, and 0 is output as the interpolation phase control signal 107. At this time, since no interpolation frame needs to be generated, the interpolation motion vector 106 is unnecessary.
  • the frame selection signal 108 for outputting the frame (1) is output as the previous frame, and 0 is output as the interpolation phase control signal 107. At this time, since no interpolation frame needs to be generated, the interpolation motion vector 106 is unnecessary.
  • the frame selection signal 108 for outputting the frame (1) and the frame (2) is output to the preceding and following frame video signal 105, and detected as the interpolation motion vector 106 between the frame (2) and the frame (1).
  • a signal for selecting a motion vector is output as the vector selection signal 109 and 0.8 is output as the interpolation phase control signal 107.
  • the output video signal 103 Is frame (0), frame (0.2), frame (1), frame (1), frame (1.8), frame (2), frame (2.2), frame (3), frame (3 ), Frame (3.8), and frame (4).
  • the output control unit 204 appropriately selects an input frame and a motion vector necessary for generating an interpolation frame as described above, and outputs a control signal for inputting them to the output image generation unit 206. In accordance with this, the output control unit 204 outputs the interpolation phase control signal 107.
  • the feature amount calculation unit 207 divides the front and rear frame video signal 105 used for generating the interpolation frame into a plurality of image regions having a predetermined number of pixels, and calculates a feature amount 111 for each image region.
  • the size of the image area may be the same as the block in motion vector detection, or may be a different size.
  • the amount of parallax between the left and right images is detected based on a portion where the correspondence between the left and right images is easy to understand, such as an edge rather than a flat portion. Therefore, as the feature amount 111, for example, a high frequency component included in the image region can be used as an index.
  • the high frequency component can be calculated by, for example, the sum of absolute values of adjacent pixel difference values in the image region. Further, as the feature quantity 111, the contrast of the image area can be used as an index.
  • the output image generation unit 206 uses the two frames input as the preceding and following frame video signal 105 and the interpolation motion vector 106 corresponding to the motion between the two frames, and uses the interpolation phase control signal 107 to specify the interpolation phase. And an output video signal 103 is output.
  • the generation of the interpolation frame can be performed by moving at least one pixel or pixel block of the frame before and after the generated interpolation frame along the interpolation motion vector 106.
  • the position on the time axis for generating the interpolation frame that is, the interpolation phase
  • the interpolation phase can be arbitrarily selected between the frame (F-1) and the frame (F).
  • a fixed percentage of pixels moved from both frames, or the interpolation phase It is also possible to generate by mixing at a ratio corresponding to FIG. 4 shows an example in which an interpolation frame is generated with an interpolation phase of 1/5 from the frame (F-1).
  • the output image generation unit 206 moves the block of at least one of the two frames input as the preceding and following frame video signal 105 along the interpolation motion vector 106 for an image region in which the feature value 111 is larger than the threshold value.
  • An interpolated image is generated using the generated blocks.
  • the output image generation unit 206 does not generate an interpolated image for an image region whose feature value 111 is smaller than the threshold value, and uses the image region of at least one of the two frames input as the preceding and following frame video signal 105 as they are. use.
  • FIG. 5 is a graph showing the relationship between the display position of the ball and the time when a stereoscopic image obtained by stereoscopically shooting the scene of FIG. 7 at 24 Hz is displayed on the stereoscopic image display device 100.
  • FIG. 6 is a graph showing the deviation between the center of line of sight of the left and right eyes and the display position of the ball in this case, and the left and right parallax caused thereby.
  • the binocular parallax amount of the output image is N ⁇ 1 / 5V between many frames.
  • N + 2 / 5V it can be seen that the variation in the amount of parallax is suppressed in the stereoscopic video displayed on the stereoscopic video display device 100 according to the present embodiment. As a result, high-quality stereoscopic display is possible.
  • the frame frequency conversion method disclosed in this specification generates an interpolated image using a motion vector for an image region having a relatively large feature amount, so that the amount of parallax can be reduced as compared with the conventional case as shown in FIG. Variations can be suppressed. As a result, high-quality stereoscopic display is possible.
  • an original input video signal is used as it is without generating an interpolated image for an image region having a relatively small feature amount, image quality deterioration due to an interpolation error can be suppressed.
  • the frame frequency conversion method disclosed in this specification uses a small interpolation frame ratio and uses only the interpolation phase close to the input frame, so that image quality degradation is small when an incorrect motion vector is detected.
  • the description is given on the assumption that the left and right output video signals 103 with a frame frequency of 60 Hz are generated from the left and right input video signals 102 with a frame frequency of 24 Hz.
  • the frequency is not limited to this example.
  • the input video signal 102 and the output video signal 103 may be video signals having an arbitrary frame frequency.
  • the description is based on the assumption that a 24 Hz stereoscopic video signal 101 is input.
  • the stereoscopic video signal 101 is a 60 Hz stereoscopic video signal that is 3: 2 pulled down. It doesn't matter. If a 24 Hz stereoscopic video signal before being 3: 2 pulled down can be appropriately selected from a 3: 2 pulled down 60 Hz stereoscopic video signal, the same processing can be performed.
  • each signal shown in FIG. 3 is an example, and depending on the capacity of the video memory 202 and the vector memory 205, it is possible to perform processing at a different timing.
  • the interpolation phase of the generated interpolation frame is not limited to 0.2 and 0.8. These neighborhood values, for example, 0.19 and 0.81 may be used.
  • the interpolation phase of the interpolation frame may gradually approach 0.2 or 0.8.
  • the output control unit 204 may change the value of the interpolation phase control signal 107 gradually.
  • the video memory 202 and the vector memory 205 do not need to be provided in the stereoscopic video processing device 2, and an external memory may be used.
  • the stereoscopic video processing device 2 includes the two frame frequency conversion units 20.
  • one frame frequency conversion unit 20 is time-divided in the left and right signal systems of the stereoscopic video signal. You may make it share.
  • the present invention can be used for an apparatus that detects a motion vector from a stereoscopic video signal, converts the frame frequency using the detected motion vector, and displays the same.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Television Systems (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

 立体映像処理装置は、入力映像信号のフレームにおけるブロックの動きベクトルを検出するベクトル検出部(203)と、入力映像信号のフレームおよび動きベクトルに基づいて補間フレームを生成し、入力映像信号のフレームおよび補間フレームを時間軸方向に並べて出力映像信号を生成する出力画像生成部(206)と、補間フレームの生成に係る補間位相を制御する出力制御部(204)と、補間フレームの生成に使用される入力映像信号のフレームにおける画像領域の特徴量を算出する特徴量算出部(207)とを備えている。出力画像生成部(206)は、特徴量が閾値よりも大きい画像領域については補間画像を生成して、それ以外の画像領域については入力映像信号をそのまま用いて、補間フレームを生成する。

Description

立体映像処理装置および方法ならびに立体映像表示装置
 本発明は、立体映像信号の左右それぞれの画像のフレーム間の動きベクトルを検出し、検出した動きベクトルを用いて補間フレームの生成を行う立体映像処理装置、特に24Hzのフレーム周波数で撮影された立体映画素材を60Hzの立体映像に変換し、120Hzでフレームシーケンシャル表示を行う立体映像処理装置に関するものである。
 近年、視聴者の左右の目に異なる画像を提示することにより、立体感を認識させる両眼視差方式の3D映画が急速に普及しており、映画館での3D映画上映や、家庭での3D対応機器を用いた3D映画視聴が一般的なものになってきている。
 家庭での立体視聴の代表的な方式である液晶シャッターメガネ方式では、ディスプレイには左画像と右画像が交互に表示され(フレームシーケンシャル表示)、視聴者は表示と同期して左目または右目に入る画像を遮断する液晶シャッターメガネをかける。これにより、視聴者の左目には左画像、右目には右画像のみが認識されるため、左右画像の視差により視聴者は立体感を知覚できる。
 一般に、映画は24Hzのフレーム周波数で撮影されているが、家庭用TVではNTSC方式による60Hzのフレーム周波数で表示されることが多い。従来、24Hzの二次元映像を60Hzの映像に変換する場合、3:2プルダウンによるフレーム周波数変換(テレシネ変換)が用いられてきた。3:2プルダウンでは、24Hzの1フレームが60Hzの3フレームと2フレームの交互に表示される。図7は、画面上をボールが横切るシーンを24Hzで撮影し、3:2プルダウンにより60Hzで表示する場合の例を示す。
 人がこの例のようにほぼ均一に動くものを見る場合、視線が動きを追いかけるように移動することが知られている。図8は、図7の映像例のボールの表示位置と時間との関係をグラフ化したものである。図8に示したように、視線は表示されているボールを追いかけ、図中矢印で示した視線の移動軌跡のように移動する。ここでフレーム2、およびフレーム7ではボールの位置と視線の移動軌跡とが一致しているが、それ以外のフレームではずれている。このため、フレーム1、フレーム4、フレーム6では視線が追いかけているボールの位置よりも後ろ側に、フレーム3、フレーム5、フレーム8では前側に、それぞれ、ボールがあるように見えてしまい、均一に動いているボールが前後にぶれて見える。このような状態をフィルム・ジャダーと呼ぶ。
 さらに立体映像の場合、フィルム・ジャダーは画質により大きな影響を与える。図7のシーンを左右それぞれ24Hzで立体撮影した場合を例に説明する。図9は、24Hzの立体映像を左右それぞれ3:2プルダウンにより60Hzの映像に変換し、120Hzでフレームシーケンシャル表示した場合のボールの表示位置と時間との関係をグラフ化したものである。また、図10は、この場合の左右眼の視線中心とボールの表示位置とのずれと、それにより生じる左右視差をグラフ化したものである。図10からわかるとおり、24Hzの立体映像を3:2プルダウンにより60Hzの立体映像に変換し、120Hzでフレームシーケンシャル表示すると、入力画像の左右画像間の視差量をN、入力画像のフレーム間での動き量をVとして、出力画像の両眼視差量がN-2/5VからN+3/5Vの間で不均一に変動することになる。
 両眼視差方式の立体映像においては、視聴者は両眼視差量を元に立体感を知覚するため、図10に示すとおりフィルム・ジャダーにより両眼視差量がフレーム間で不均一に変動すると、視聴者は立体感を正しく知覚できない可能性がある。また、立体視が困難な映像を無理に立体視しようとすることで、目の疲労の原因となる可能性がある。
 以上のような3:2プルダウンに起因する画質劣化を抑制するために、映像信号から動きベクトルを検出し、この検出した動きベクトルを用いて映像信号のフレーム周波数変換を行うことが可能である。従来、24Hzの二次元映像から動きベクトルを検出し、この動きベクトルを用いて60Hzの表示タイミングにあわせた補間フレームを生成して表示することで、不自然さのない、滑らかな動きの表示を可能にしている(例えば、特許文献1参照)。このようなフレーム周波数変換はフィルム・デジャダーと呼ばれている。
 図11は、図7のシーンをフィルム・デジャダーした場合のボールの表示位置と時間との関係をグラフ化したものである。フィルム・デジャダーによって、フレーム3、フレーム4では24Hzの原フレームからそれぞれ補間位相として+0.4、+0.8フレーム分位相をずらした補間フレームが生成および表示され、フレーム5、フレーム6では24Hzの原フレームからそれぞれ補間位相として+0.2、+0.6フレーム分位相をずらした補間フレームが生成および表示される。また、フレーム2、フレーム7では24Hzの原フレームがそのまま表示される。この結果、移動するボールの表示位置が視線の移動軌跡に一致し、フィルム・ジャダーのない、滑らかな動きとして見ることができる。また、立体映像の場合もフィルム・デジャダーにより移動物体を視線の移動軌跡に一致するような補間フレームを生成することで、両眼視差量が一定となり視聴者は容易に立体感を得ることができる。
特開平09-172618号公報
 フレーム周波数変換で使用する動きベクトルは、連続するフレームを比較することによって検出するものであるため、物体の移動に関しては正しく検出することができるが、回転や拡大/縮小といった動きは正しく検出できない場合がある。また、動く物体の背景に隠れる領域や、背景から現れる領域、また物体の変形など、連続するフレームの一方にしか含まれない領域についても正しい動きベクトルを検出することはできない。さらには、通常動きベクトルの検出は検出を行う対象のブロックを基準として、所定の範囲を探索することで検出することが多く、この探索範囲を超える動きがある場合にも正しい動きベクトルが検出できないことがある。
 このように正しい動きベクトルが検出されない場合、補間フレーム、および補間フレームが連続する映像において、動く物体等の周囲にハロ(Halo)と呼ばれるノイズが発生することが知られている。ハロは間違った補間フレームが生成されることによるものであるため、表示されるフレームのうち補間フレームの割合が大きい場合や、補間フレームが表示される時間が長い場合に顕著に発生する。
 また、24Hzの立体映像を60Hzの立体映像に変換して表示する場合、補間の誤りにより左右画像間で対応がとれず立体視できない映像となる可能性がある。この結果、立体感を得られない、あるいは目の疲労の原因となるといった大きな影響を及ぼす。
 上記問題に鑑み、本発明は、立体映像に好適なフレーム周波数変換を行う立体映像処理装置を提供することを課題とする。
 上記課題を解決するための手段として、第1のフレーム周波数の左右それぞれの入力映像信号から第2のフレーム周波数の左右それぞれの出力映像信号を生成する立体映像処理装置は、前記入力映像信号のフレームにおけるブロックの動きベクトルを検出するベクトル検出部と、前記入力映像信号のフレームおよび前記動きベクトルに基づいて補間フレームを生成し、前記入力映像信号のフレームおよび前記補間フレームを時間軸方向に並べて前記出力映像信号を生成する出力画像生成部と、前記補間フレームの生成に係る補間位相を制御する出力制御部と、前記補間フレームの生成に使用される前記入力映像信号のフレームにおける画像領域の特徴量を算出する特徴量算出部とを備えている。ここで、前記出力画像生成部は、前記特徴量が閾値よりも大きい画像領域については補間画像を生成して、それ以外の画像領域については前記入力映像信号をそのまま用いて、前記補間フレームを生成する。
 これによると、補間フレームにおいて、特徴量が閾値よりも大きい画像領域については動きベクトルを用いた補間フレームを生成することで視差量の変動を抑制して高品位な立体表示を可能とし、それ以外の画像領域については補間画像を生成せずに入力映像信号をそのまま使用することで、補間の誤りによる画質劣化を抑制できる。
 上記立体映像処理装置は、前記ベクトル検出部、前記出力画像生成部、前記特徴量算出部、および前記出力制御部を含むフレーム周波数変換部を、立体映像信号の左右の信号系統ごとに備えていてもよいし、あるいは立体映像信号の左右の信号系統で時分割共有してもよい。
 以上のように本発明によれば、高品位な立体表示を可能にしつつ、補間誤りによる画質劣化を抑制できる。
本発明の一実施形態に係る立体映像表示装置の構成を示す図 動きベクトル検出を説明する図 入力映像と補間フレームの生成のタイミング関係を示す図 補間フレームの生成を説明する図 本発明の一実施形態に係る立体映像表示装置によってフィルム・デジャダーされた立体映像の見え方を示す図 本発明の一実施形態に係る立体映像表示装置によってフィルム・デジャダーされた立体映像での視差量を示す図 3:2プルダウンを示す図 3:2プルダウンされた映像の見え方を示す図 3:2プルダウンされた立体映像の見え方を示す図 3:2プルダウンされた立体映像での視差量を示す図 フィルム・デジャダーされた映像の見え方を示す図
 以下に、本発明の実施の形態について、図面を参照しながら説明する。
 図1は、本発明の一実施形態に係る立体映像表示装置100の主要な構成を示すブロック図である。立体映像表示装置100は、入力画像選択部1、立体映像処理装置2、および表示部3を備えている。立体映像処理装置2は、映像メモリ202、ベクトル検出部203、出力制御部204、ベクトルメモリ205、出力画像生成部206、および特徴量算出部207を有するフレーム周波数変換部20を2つ備えている。
 入力画像選択部1は、入力された立体映像信号101を左右それぞれの入力映像信号102に分けて立体映像処理装置2に出力する。立体映像信号101は、フレーム周波数が24Hzの左右それぞれの画像が交互に含まれる立体映像信号である。
 立体映像処理装置2は、入力された左右それぞれの入力映像信号102について、フレーム間で動きベクトルを検出し、この動きベクトルを使用して補間フレームを生成し、左右それぞれの出力映像信号103を生成する。具体的には、2つのフレーム周波数変換部20が、それぞれ、左右の入力映像信号102を処理する。立体映像処理装置2から出力される左右それぞれの映像信号103は、フレーム周波数が60Hzの映像信号である。
 表示部3は、立体映像処理装置2から出力された左右それぞれの出力映像信号103を交互に120Hzでフレームシーケンシャル表示する。表示部3はLCDディスプレイやPDPディスプレイなど立体映像信号の表示が可能なものであればよく、特に制限はない。
 以上のように、立体映像表示装置100は、入力された24Hzの立体映像信号101のフレーム周波数変換を行って120Hzで立体表示を行うものである。
 次に、フレーム周波数変換部20において、24Hzの入力映像信号102を60Hzの出力映像信号103へフレーム周波数変換(フィルム・デジャダー)する場合について説明する。
 フレーム周波数変換部20に入力される入力映像信号102は、ベクトル検出部203、および映像メモリ202に入力される。
 映像メモリ202は、入力された映像信号を少なくとも3フレーム分、記憶することが可能であり、また記憶された任意のフレームを読み出し可能なメモリである。映像メモリ202は入力された映像信号を記憶するとともに、1フレーム前の入力映像信号を読み出し、ベクトル検出部203に出力する。
 ベクトル検出部203は、入力映像信号102を例えば8画素×8画素からなるブロックに分割し、それぞれのブロックに対して、映像メモリ202から入力される前フレーム映像信号104から相関の最も大きな位置を探索することで動きベクトルを検出する。例えば、図2に示すように、フレーム(1)内の対象ブロックの動きベクトルを検出する場合、対象ブロックと相関が最も大きくなる位置を1つ前のフレーム(0)内で探索し、この位置の差を動きベクトルとして検出する。
 このとき探索を行う範囲は、動きベクトルを検出するブロックを基準に、例えば水平±64画素、垂直±32ラインのような範囲であり、この範囲の中で相関の最も大きな位置を求める。また、相関の値としては、ブロックに含まれる各画素の値と、比較を行う位置の画素の値の差の絶対値をブロック全体で合計したもの(SAD:Sum of Absolute Difference、差分絶対値和)を用いることができる。
 なお、ブロックの大きさはこれに限るものではなく、これよりも小さくても大きくてもかまわない。また、相関の値としてSAD以外を使用することが可能であり、探索方法としても処理量を削減し、効率よく動きベクトルを検出する多くの手法が知られており、これらを使用することが可能である。
 図1に戻り、ベクトル検出部203は、入力映像信号102と前フレーム映像信号104から検出した検出動きベクトル110をベクトルメモリ205に出力する。
 ベクトルメモリ205は、ベクトル検出部203が検出した動きベクトルを記憶するメモリであり、ベクトル検出部203からの書き込みと、後述する出力画像生成部206からの読み出しの時間差を吸収するためのものである。ベクトルメモリ205は、この時間差に相当する容量があればよいが、ここでは入力映像の2フレーム分に対応するベクトルを記憶できるものとする。
 出力制御部204は、ベクトルメモリ205に記憶された2フレーム分に対応する動きベクトルのうちどちらの動きベクトルを読み出すか、映像メモリ202に記憶された複数フレームの映像信号から生成する補間フレームの前後のフレームとしてどの2つのフレームを読み出すか、またこの2つのフレームの間のどの位相に補間フレームを生成するかを決定し、それぞれ制御信号を出力する。出力制御部204の詳細については後述する。
 映像メモリ202は、出力制御部204から補間に使用する2つのフレームを決定するフレーム選択信号108を受け、フレーム選択信号108で指定された2つのフレームを前後フレーム映像信号105として出力画像生成部206に出力する。
 ベクトルメモリ205は、出力制御部204から補間に使用するベクトルを選択するベクトル選択信号109を受け、ベクトル選択信号109で指定された動きベクトルを補間用動きベクトル106として出力画像生成部206に出力する。
 出力制御部204は図3に示すように、以下のような5フレームの周期で、フレーム選択信号108、ベクトル選択信号109および補間位相制御信号107を出力する。
 1)前フレームとしてフレーム(0)を出力するためのフレーム選択信号108を出力し、補間位相制御信号107として0を出力する。このとき、補間フレームの生成は必要ないため補間用動きベクトルは不要である。
 2)前後フレーム映像信号105にフレーム(0)とフレーム(1)を出力するためのフレーム選択信号108を出力し、補間用動きベクトル106としてフレーム(1)とフレーム(0)の間で検出した動きベクトルを選択するための信号をベクトル選択信号109として出力し、補間位相制御信号107として0.2を出力する。
 3)前フレームとしてフレーム(1)を出力するためのフレーム選択信号108を出力し、補間位相制御信号107として0を出力する。このとき、補間フレームの生成は必要ないため補間用動きベクトル106は不要である。
 4)前フレームとしてフレーム(1)を出力するためのフレーム選択信号108を出力し、補間位相制御信号107として0を出力する。このとき、補間フレームの生成は必要ないため補間用動きベクトル106は不要である。
 5)前後フレーム映像信号105にフレーム(1)とフレーム(2)を出力するためのフレーム選択信号108を出力し、補間用動きベクトル106としてフレーム(2)とフレーム(1)の間で検出した動きベクトルを選択するための信号をベクトル選択信号109として出力し、補間位相制御信号107として0.8を出力する。
 この結果、入力映像信号102をフレーム(0)、フレーム(1)、フレーム(2)、フレーム(3)、フレーム(4)、フレーム(5)とし、これを基準とした場合、出力映像信号103はフレーム(0)、フレーム(0.2)、フレーム(1)、フレーム(1)、フレーム(1.8)、フレーム(2)、フレーム(2.2)、フレーム(3)、フレーム(3)、フレーム(3.8)、フレーム(4)のようになる。
 出力制御部204は、上記のように補間フレームの生成に必要な入力フレームと、動きベクトルを適切に選択し、これらを出力画像生成部206に入力するための制御信号を出力する。またこれにあわせて、出力制御部204は補間位相制御信号107を出力する。
 特徴量算出部207は、補間フレームの生成に用いる前後フレーム映像信号105を所定の画素数からなる複数の画像領域に分割し、各画像領域ごとに特徴量111を算出する。画像領域の大きさは動きベクトル検出におけるブロックと同じであってもよいし、それとは異なる大きさであってもよい。
 視聴者が左右画像間の視差を認識する際、平坦な部分ではなくエッジがあるなど左右画像間の対応がわかりやすい部分をもとに、左右画像間の視差量を検出する。したがって、特徴量111として、例えば画像領域に含まれる高周波成分を指標とすることができる。高周波成分は、例えば画像領域内の隣接する画素差分値の絶対値和などで算出できる。また、特徴量111として、画像領域のコントラストを指標とすることもできる。
 出力画像生成部206は、前後フレーム映像信号105として入力される2つのフレームと、この2フレーム間の動きに対応する補間用動きベクトル106とを用い、補間位相制御信号107で指定される補間位相の補間フレームを生成し、出力映像信号103を出力する。
 補間フレームの生成は、図4に示したように、生成する補間フレームの前後のフレームの少なくとも一方の画素もしくは画素ブロックを補間用動きベクトル106に沿って移動することによって行うことができる。このとき、補間フレームを生成する時間軸上の位置、すなわち、補間位相は、フレーム(F-1)とフレーム(F)の間で任意に選ぶことができる。例えば、補間位相に近い側のフレームのみを用いるなど、いずれか一方から移動した画素を用いて補間フレームを生成することも可能であり、また両フレームから移動した画素を一定の割合、または補間位相に対応する割合で混合するなどによって生成することも可能である。図4は、フレーム(F-1)から1/5の補間位相に補間フレームを生成する例を示している。
 さらに、出力画像生成部206は、特徴量111が閾値よりも大きい画像領域については前後フレーム映像信号105として入力される2つのフレームの少なくとも一方のフレームのブロックを補間用動きベクトル106に沿って移動させたブロックを使用して補間画像を生成する。一方、出力画像生成部206は、特徴量111が閾値よりも小さい画像領域については補間画像を生成せずに前後フレーム映像信号105として入力される2つのフレームの少なくとも一方のフレームの画像領域をそのまま使用する。
 図5は、図7のシーンを左右それぞれ24Hzで立体撮影した立体映像を立体映像表示装置100で表示した場合のボールの表示位置と時間との関係をグラフ化したものである。また、図6は、この場合の左右眼の視線中心とボールの表示位置とのずれと、それにより生じる左右視差をグラフ化したものである。図6からわかるとおり、入力画像の左右画像間の視差量をN、入力画像のフレーム間での動き量をVとすると、多くのフレーム間で出力画像の両眼視差量がN-1/5VからN+2/5Vの間で変動する。図10と比較すると、本実施形態に係る立体映像表示装置100で表示される立体映像では、視差量の変動が抑制されていることがわかる。これにより、高品位な立体表示が可能となる。
 また、上記のように補間位相を制御することにより、一般的な24Hzから60Hzへのフレーム周波数変換(フィルム・デジャダー)では出力フレームの5フレームのうち4フレームが生成された補間フレームであるのに対し、本明細書に開示した補間方法では、5フレームのうち2フレームのみが生成された補間フレームとなる。前述のように出力映像信号に含まれる、動きベクトルを使って生成された補間フレームの割合は、間違った動きベクトルが検出された場合の画質劣化の大きさに影響を与えるものであるため、本明細書に開示した補間方法では従来よりも画質劣化の小さいフレーム周波数変換が可能となる。またこの際、生成する補間フレームは半分であるため、補間フレームの生成に必要な処理量は従来のフィルム・デジャダーの半分にすることができる。
 特に、本明細書に開示したフレーム周波数変換方法は、特徴量が比較的大きい画像領域については動きベクトルを用いた補間画像を生成することで、図6に示すとおり従来と比較して視差量の変動を抑制することができる。これにより、高品位な立体表示が可能となる。また、特徴量が比較的小さい画像領域については補間画像を生成せずに元の入力映像信号をそのまま使用するため、補間の誤りによる画質劣化を抑制できる。
 さらには、本明細書に開示したフレーム周波数変換方法では、生成する補間フレームの補間位相として0.2と0.8のみを用いる。前述のようにフレームを生成する補間位相が入力フレームに近付くと、入力フレームからの移動量が小さくなるため、間違った動きベクトルの影響が小さくなる。このため本明細書に開示した補間方法では、0.4、0.6の補間位相を用いる従来のフィルム・デジャダーに比べて、間違った動きベクトルが画質に与える影響が小さい。
 すなわち本明細書に開示したフレーム周波数変換方法は、補間フレームの割合が小さく、かつ入力フレームに近い補間位相のみを用いるため、間違った動きベクトルが検出された場合の画質劣化が小さい。
 以上のように、本明細書に開示したフレーム周波数変換方法によれば、高品位な立体表示を可能としつつ、補間の誤りによる画質劣化を抑制できる。
 なお、上記の実施の形態では、フレーム周波数が24Hzの左右それぞれの入力映像信号102からフレーム周波数が60Hzの左右それぞれの出力映像信号103を生成する場合を前提とした説明を行っているが、フレーム周波数はこの例に限定されない。入力映像信号102および出力映像信号103は任意のフレーム周波数の映像信号であってもよい。
 また、上記の実施の形態では、24Hzの立体映像信号101が入力される場合を前提とした説明を行っているが、立体映像信号101が3:2プルダウンされた60Hzの立体映像信号であってもかまわない。3:2プルダウンされた60Hzの立体映像信号から、3:2プルダウンされる前の24Hzの立体映像信号を適切に選択することができれば、同様の処理を行うことが可能である。
 また、図3に示す各信号のタイミング関係は一例であり、映像メモリ202およびベクトルメモリ205の容量次第では、これと異なるタイミングで処理を行うことも可能である。
 また、生成する補間フレームの補間位相は0.2および0.8に限定されない。これらの近傍値、例えば、0.19と0.81を用いてもよい。
 さらに、いきなり0.2あるいは0.8フレーム分位相をずらした補間フレームを生成するのではなく、補間フレームの補間位相を徐々に0.2あるいは0.8に近づけるようにしてもよい。同様に、補間フレームの生成を停止する場合、補間位相をいきなり0にするのではなく、徐々に0に近づけるようにしてもよい。具体的には、出力制御部204が補間位相制御信号107の値を徐々に変化させればよい。こうすることで、補間フレームの表示有りの状態と表示なしの状態とが滑らかに切り替わり、画質が向上する。
 また、映像メモリ202およびベクトルメモリ205は立体映像処理装置2に設ける必要はなく、外部のメモリを用いてもよい。
 また、上記の実施の形態では、立体映像処理装置2はフレーム周波数変換部20を2つ備えているとしたが、立体映像信号の左右の信号系統で1個のフレーム周波数変換部20を時分割共有するようにしてもよい。
 本発明は、立体映像信号から動きベクトルを検出し、検出した動きベクトルを使用してフレーム周波数を変換して表示する装置等に用いることができる。
 1   入力画像選択部
 2   立体映像処理装置
 20  フレーム周波数変換部
 203 ベクトル検出部
 204 出力制御部
 206 出力画像生成部
 207 特徴量算出部
 3   表示部

Claims (9)

  1. 第1のフレーム周波数の左右それぞれの入力映像信号から第2のフレーム周波数の左右それぞれの出力映像信号を生成する立体映像処理装置であって、
     前記入力映像信号のフレームにおけるブロックの動きベクトルを検出するベクトル検出部と、
     前記入力映像信号のフレームおよび前記動きベクトルに基づいて補間フレームを生成し、前記入力映像信号のフレームおよび前記補間フレームを時間軸方向に並べて前記出力映像信号を生成する出力画像生成部と、
     前記補間フレームの生成に係る補間位相を制御する出力制御部と、
     前記補間フレームの生成に使用される前記入力映像信号のフレームにおける画像領域の特徴量を算出する特徴量算出部とを備え、
     前記出力画像生成部は、前記特徴量が閾値よりも大きい画像領域については補間画像を生成して、それ以外の画像領域については前記入力映像信号をそのまま用いて、前記補間フレームを生成する
    ことを特徴とする立体映像処理装置。
  2. 請求項1の立体映像処理装置において、
     前記特徴量は、前記画像領域に含まれる高周波成分を表す指標である
    ことを特徴とする立体映像処理装置。
  3. 請求項1の立体映像処理装置において、
     前記特徴量は、前記画像領域のコントラストを表す指標である
    ことを特徴とする立体映像処理装置。
  4. 請求項1から3のいずれか一つの立体映像処理装置において、
     前記ベクトル検出部、前記出力画像生成部、前記特徴量算出部、および前記出力制御部を含むフレーム周波数変換部を、立体映像信号の左右の信号系統ごとに備えている
    ことを特徴とする立体映像処理装置。
  5. 請求項1から3のいずれか一つの立体映像処理装置において、
     前記ベクトル検出部、前記出力画像生成部、前記特徴量算出部、および前記出力制御部を含むフレーム周波数変換部を、立体映像信号の左右の信号系統で時分割共有する
    ことを特徴とする立体映像処理装置。
  6.  立体映像信号を受け、第1のフレーム周波数の左右それぞれの入力映像信号を出力する入力画像選択部と、
     前記左右それぞれの入力映像信号を処理する請求項1から5のいずれか一つの立体映像処理装置と、
     前記立体映像処理装置から出力された第2のフレーム周波数の左右それぞれの出力映像信号をフレームシーケンシャル表示する表示部とを備えている
    ことを特徴とする立体映像表示装置。
  7. 第1のフレーム周波数の左右それぞれの入力映像信号から第2のフレーム周波数の左右それぞれの出力映像信号を生成する立体映像処理方法であって、
     前記入力映像信号のフレームにおけるブロックの動きベクトルを検出するステップと、
     前記入力映像信号のフレームおよび前記動きベクトルに基づいて補間フレームを生成するステップと、
     前記補間フレームの生成に使用される前記入力映像信号のフレームにおける画像領域の特徴量を算出するステップと、
     前記入力映像信号のフレームおよび前記補間フレームを時間軸方向に並べて前記出力映像信号を生成するステップとを備え、
     前記補間フレームを生成するステップでは、前記特徴量が閾値よりも大きい画像領域については補間画像を生成して、それ以外の画像領域については前記入力映像信号をそのまま用いて、前記補間フレームが生成される
    ことを特徴とする立体映像処理方法。
  8. 請求項7の立体映像処理方法において、
     前記特徴量は、前記画像領域に含まれる高周波成分を表す指標である
    ことを特徴とする立体映像処理方法。
  9. 請求項7の立体映像処理方法において、
     前記特徴量は、前記画像領域のコントラストを表す指標である
    ことを特徴とする立体映像処理方法。
PCT/JP2011/004933 2011-03-03 2011-09-02 立体映像処理装置および方法ならびに立体映像表示装置 WO2012117462A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012526783A JPWO2012117462A1 (ja) 2011-03-03 2011-09-02 立体映像処理装置および方法ならびに立体映像表示装置
US13/541,091 US20120268561A1 (en) 2011-03-03 2012-07-03 Generation interpolation frames

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011-046688 2011-03-03
JP2011046688 2011-03-03

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US13/541,091 Continuation US20120268561A1 (en) 2011-03-03 2012-07-03 Generation interpolation frames

Publications (1)

Publication Number Publication Date
WO2012117462A1 true WO2012117462A1 (ja) 2012-09-07

Family

ID=46757432

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/004933 WO2012117462A1 (ja) 2011-03-03 2011-09-02 立体映像処理装置および方法ならびに立体映像表示装置

Country Status (3)

Country Link
US (1) US20120268561A1 (ja)
JP (1) JPWO2012117462A1 (ja)
WO (1) WO2012117462A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2765775A1 (en) * 2013-02-06 2014-08-13 Koninklijke Philips N.V. System for generating intermediate view images
EP2765774A1 (en) * 2013-02-06 2014-08-13 Koninklijke Philips N.V. System for generating an intermediate view image

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005260810A (ja) * 2004-03-15 2005-09-22 Matsushita Electric Ind Co Ltd カメラレコーダ
JP2006304096A (ja) * 2005-04-22 2006-11-02 Nippon Hoso Kyokai <Nhk> 順次走査変換装置
JP2010226243A (ja) * 2009-03-19 2010-10-07 Sony Corp 映像信号処理装置、立体映像表示装置、立体映像伝送表示システムおよび映像信号処理方法
JP2010268037A (ja) * 2009-05-12 2010-11-25 Panasonic Corp 映像変換方法および映像変換装置
JP2010283548A (ja) * 2009-06-04 2010-12-16 Hitachi Ltd 映像補間装置及び映像表示装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005260810A (ja) * 2004-03-15 2005-09-22 Matsushita Electric Ind Co Ltd カメラレコーダ
JP2006304096A (ja) * 2005-04-22 2006-11-02 Nippon Hoso Kyokai <Nhk> 順次走査変換装置
JP2010226243A (ja) * 2009-03-19 2010-10-07 Sony Corp 映像信号処理装置、立体映像表示装置、立体映像伝送表示システムおよび映像信号処理方法
JP2010268037A (ja) * 2009-05-12 2010-11-25 Panasonic Corp 映像変換方法および映像変換装置
JP2010283548A (ja) * 2009-06-04 2010-12-16 Hitachi Ltd 映像補間装置及び映像表示装置

Also Published As

Publication number Publication date
US20120268561A1 (en) 2012-10-25
JPWO2012117462A1 (ja) 2014-07-07

Similar Documents

Publication Publication Date Title
US8421847B2 (en) Apparatus and method for converting two-dimensional video frames to stereoscopic video frames
US8803947B2 (en) Apparatus and method for generating extrapolated view
JP4748251B2 (ja) 映像変換方法および映像変換装置
JP5325341B2 (ja) 立体映像処理装置および方法ならびに立体映像表示装置
CA2783588C (en) Method and apparatus for optimal motion reproduction in stereoscopic digital cinema
US20120307153A1 (en) Video processing device and video processing method
JP2012129710A (ja) 表示制御装置、表示制御方法及びプログラム
CA2900144A1 (en) System for generating an intermediate view image
US9113140B2 (en) Stereoscopic image processing device and method for generating interpolated frame with parallax and motion vector
WO2012117462A1 (ja) 立体映像処理装置および方法ならびに立体映像表示装置
WO2012117464A1 (ja) 立体映像処理装置および方法ならびに立体映像表示装置
JP5478728B2 (ja) 立体映像処理装置および方法ならびに立体映像表示装置
US9330487B2 (en) Apparatus and method for processing 3D images through adjustment of depth and viewing angle
US8953018B2 (en) Generation and display of stereoscopic images
JP5700998B2 (ja) 立体映像表示装置及びその制御方法
JP5490252B2 (ja) 立体画像処理装置、立体画像表示装置及び立体画像処理方法
JP2012182691A (ja) 画像変換装置
US8902286B2 (en) Method and apparatus for detecting motion vector, and method and apparatus for processing image signal
JP2012015825A (ja) 映像変換方法および映像変換装置
JP2012175309A (ja) 映像表示装置および映像表示方法

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2012526783

Country of ref document: JP

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11859776

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11859776

Country of ref document: EP

Kind code of ref document: A1