JP2011049799A - Stereoscopic video processor - Google Patents

Stereoscopic video processor Download PDF

Info

Publication number
JP2011049799A
JP2011049799A JP2009196242A JP2009196242A JP2011049799A JP 2011049799 A JP2011049799 A JP 2011049799A JP 2009196242 A JP2009196242 A JP 2009196242A JP 2009196242 A JP2009196242 A JP 2009196242A JP 2011049799 A JP2011049799 A JP 2011049799A
Authority
JP
Japan
Prior art keywords
eye
video
image
mismatch
position information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009196242A
Other languages
Japanese (ja)
Inventor
Toshihiro Fujino
寿弘 藤野
Yuichi Ishikawa
雄一 石川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2009196242A priority Critical patent/JP2011049799A/en
Publication of JP2011049799A publication Critical patent/JP2011049799A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To solve the following problem of stereoscopic video display: when a left- and right-eye images are alternately displayed by frame, a scenery or an object which can be seen only at the edge of one eye appears only in one video image, and flicker occurs. <P>SOLUTION: The stereoscopic video processor is provided with a mismatch detection part which determines a mismatch area by comparing a signal at the edge of a right screen for right-eye image signal, using the edge of the right screen for left-eye input image signal as a reference signal, for a right-eye input image signal, and on the contrary, determines a mismatch area by comparing a signal on the edge of a left screen for left-eye image signal, using the edge of the left screen for the right-eye input image signal, for the left-eye input image signal, as a reference signal. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、立体視映像を視聴する際に生じる違和感を軽減させることを目的とした映像処理装置である。   The present invention is a video processing apparatus for reducing the uncomfortable feeling that occurs when viewing a stereoscopic video.

近年、テレビや映画のような映像の視聴に関して、より臨場感を増すことを目的とした技術が進歩している。そのための一つの技術として3次元立体表示がなされている(例えば、特許文献1参照)。さらに、遊園地などのアトラクションや、パソコン用ゲームでは以前から導入されている。また、映画やテレビにおいても3次元化が進んできている。   In recent years, with the aim of increasing the sense of reality with respect to viewing of images such as television and movies, advances have been made. As one technique for that purpose, three-dimensional stereoscopic display is performed (for example, see Patent Document 1). In addition, it has been introduced for amusement parks and other attractions, as well as PC games. Also, three-dimensionalization is progressing in movies and television.

特開平5−316541号公報Japanese Patent Laid-Open No. 5-316541

ここで、2台のカメラで撮影された立体映像においては、撮影する物体の位置によっては片方のカメラ(例えば、左目用のカメラ)には映っているが、もう一方のカメラには映らない場所があり、そのような物体をフレーム毎に右目用映像、左目用映像と交互に表示するディスプレイに出画すると、フリッカのように見える課題がある。
また、画質処理の種類によっては画面端の処理においてノイズや偽輪郭が生じるという弊害が起こる課題がある。
Here, in a 3D image taken by two cameras, depending on the position of the object to be photographed, it appears on one camera (for example, the camera for the left eye) but not on the other camera. When such an object is displayed on a display that alternately displays a right-eye image and a left-eye image for each frame, there is a problem that looks like flicker.
In addition, depending on the type of image quality processing, there is a problem in that noise and false contours are generated in processing at the edge of the screen.

本発明に係る立体映像処理装置は、上記の課題を解決するために、右目用入力映像信号に対しては、左目用入力映像信号の右側画面端をリファレンス信号として、右目用映像信号の右側画面端の信号を比較して一致しない領域を求め、逆に左目用入力映像信号に対しては、右目用入力映像信号の左側画面端をリファレンス信号として、左目用映像信号の左側画面端の信号を比較して一致しない領域を求める不一致検出部を備えることを特徴としている。   In order to solve the above-described problem, the stereoscopic video processing apparatus according to the present invention uses the right screen end of the left-eye input video signal as a reference signal for the right-eye input video signal, and the right-side screen of the right-eye video signal. Compare the edge signals to find the unmatched area. Conversely, for the left-eye input video signal, the left-side screen edge of the left-eye video signal is the left-side screen edge signal of the right-eye input video signal. The present invention is characterized in that it includes a mismatch detection unit that finds a region that does not match by comparison.

また、上記左右端除去部は、前記不一致検出部から受け取った右目画像不一致領域位置情報を元に、右目用処理映像の該当する映像の信号レベルを0にし、同様に左目画像不一致領域位置情報を元に、左目用処理映像の該当する映像の信号レベルを0にすることを特徴としている。   Further, the left and right edge removal unit sets the signal level of the corresponding video of the right-eye processed video based on the right-eye image mismatch region position information received from the mismatch detection unit, and similarly sets the left-eye image mismatch region position information. Originally, the signal level of the corresponding video of the left-eye processed video is set to 0.

また、上記画像処理部は、前記不一致検出部から受け取った右目画像不一致領域位置情報に該当する右端の映像信号を左目用画像の右側に付加した状態で画像処理を行い、同様に左目用画像不一致領域位置情報に該当する左端の映像信号を右目用画像の左側に付加した状態で画像処理を行うことを特徴としている。   Further, the image processing unit performs image processing in a state where the right end video signal corresponding to the right eye image mismatch region position information received from the mismatch detection unit is added to the right side of the left eye image, and similarly, the left eye image mismatch. The image processing is performed in a state where the left end video signal corresponding to the region position information is added to the left side of the right eye image.

本発明では、片側の目でしか見えない領域の映像を無くすことによって、その領域がフリッカすることによる視聴者の目への負担やストレスを解消し、快適に立体映像を視聴することが可能になる。また、表示されなくなる領域の映像を他方の映像に付加して処理することで、画面端においてノイズや偽輪郭といった弊害の発生を軽減することが可能になる。   In the present invention, it is possible to eliminate the burden and stress on the viewer's eyes due to flickering of the area by eliminating the image of the area that can be seen only by one eye, and to comfortably view the stereoscopic image. Become. Further, by adding the video of the area that is no longer displayed to the other video for processing, it is possible to reduce the occurrence of adverse effects such as noise and false contours at the edge of the screen.

本発明の実施の形態に係る立体映像処理装置を示すブロック図The block diagram which shows the three-dimensional video processing apparatus concerning embodiment of this invention 画面端のフリッカが起こる状態を示した状態図State diagram showing the state where screen edge flicker occurs 不一致検出部11の構成を示したブロック図The block diagram which showed the structure of the mismatch detection part 11 画像処理部12における処理の概要を示した状態図State diagram showing an outline of processing in the image processing unit 12 画像処理部12の構成を示したブロック図Block diagram showing the configuration of the image processing unit 12

(実施の形態1)
以下に、本発明の実施の形態1における立体映像処理装置について図1及び図2を用いて説明する。
<1、本発明の立体映像処理装置の全体構成についての説明>
図1は、本発明の立体映像処理装置の概略構成図である。図1に示すように、本発明における立体映像処理装置は、11は不一致検出部、12は画像処理部、13は画像蓄積部、14は左右端除去部、15は表示装置により構成されている。以下、各構成について詳細に説明する。
最初に、不一致検出部11の構成について説明する。不一致検出部11は、右目用入力映像RIと左目用入力映像LIが入力され、画像処理部12と左右端処理分14に対して、左目用画像における右目用画像との不一致の領域の位置情報である右目画像不一致領域位置情報RMIと右目用画像における左目用画像との不一致の領域の位置情報である左目画像不一致領域位置情報LMIを与える。
ここで、図2を参照しながら、上述した左目用画像における右目用画像との不一致の領域について、説明する。図2は、2眼レンズカメラ18を用いて任意の物体A,B,Cを撮影した場合の左目用映像と右目用映像を示す図である。この図から明らかなように、右目用映像と左目用映像信号においては、立体映像を表示するために視差量が必要となるため、図中の物体Bは右目用映像、左目用映像のどちらにも映っているが、物体Aは左目用映像のみ、物体Cは右目用映像にのみ映っている。従って、これらの映像をそのまま表示装置で表示すると、物体AやCは、2フィールドに1回しか表示されずフリッカする。
(Embodiment 1)
Hereinafter, the stereoscopic video processing apparatus according to Embodiment 1 of the present invention will be described with reference to FIGS. 1 and 2.
<1. Description of Overall Configuration of Stereoscopic Video Processing Device of the Present Invention>
FIG. 1 is a schematic configuration diagram of a stereoscopic video processing apparatus according to the present invention. As shown in FIG. 1, the stereoscopic video processing apparatus according to the present invention includes a mismatch detection unit 11, an image processing unit 12, an image storage unit 13, a left and right edge removal unit 14, and a display device 15. . Hereinafter, each configuration will be described in detail.
First, the configuration of the mismatch detection unit 11 will be described. The mismatch detection unit 11 receives the input image RI for the right eye and the input image LI for the left eye, and the positional information of the mismatch region between the image for the right eye and the image for the right eye in the left eye image with respect to the image processing unit 12 and the left and right end processing component 14. The left eye image mismatch area position information LMI, which is the position information of the mismatch area between the right eye image mismatch area position information RMI and the left eye image in the right eye image, is provided.
Here, with reference to FIG. 2, a region inconsistent with the image for the right eye in the image for the left eye described above will be described. FIG. 2 is a diagram illustrating a left-eye image and a right-eye image when an arbitrary object A, B, or C is photographed using the binocular lens camera 18. As is clear from this figure, the right-eye video signal and the left-eye video signal require a parallax amount in order to display a stereoscopic video. Therefore, the object B in the figure is either the right-eye video or the left-eye video. The object A is shown only in the left-eye image, and the object C is shown only in the right-eye image. Therefore, if these images are displayed as they are on the display device, the objects A and C are displayed only once in two fields and flicker.

次に、画像処理部12の構成について説明する。画像処理部12は、例えば輪郭強調(エンハンサ)や、動きベクトルを利用した画質処理、APLを利用した画像処理といった種々の画質処理機能を有している。
次に、左右端除去部14は、不一致検出部11から右目画像不一致領域位置情報RMIと左目画像不一致領域位置情報LMIを受け取り、画像処理部12から受け取った右目用処理映像RPと左目用処理映像LPからそれぞれの不一致領域の信号Lvを0にした出力映像(右目用出力映像ROと左目用出力映像LO)を表示装置15に与える。
Next, the configuration of the image processing unit 12 will be described. The image processing unit 12 has various image quality processing functions such as edge enhancement (enhancer), image quality processing using motion vectors, and image processing using APL.
Next, the left and right edge removing unit 14 receives the right eye image mismatch region position information RMI and the left eye image mismatch region position information LMI from the mismatch detection unit 11, and receives the right eye processing video RP and the left eye processing video received from the image processing unit 12. Output images (right-eye output video RO and left-eye output video LO) in which the signal Lv of each inconsistent area is set to 0 from LP are given to the display device 15.

次に、表示装置15は、左右端除去部14により画面の左右の端部が除去された映像信号が入力され、その映像信号を表示する。なお、表示装置15は、いかなる表示方式のディスプレイであってもよく、例えばプラズマディスプレイであってもよいし、液晶パネルであってもよい。   Next, the display device 15 receives the video signal from which the left and right edges of the screen have been removed by the left and right edge remover 14 and displays the video signal. The display device 15 may be a display of any display method, for example, a plasma display or a liquid crystal panel.

以上のような構成により、左右端除去部は、不一致検出部から受け取った右目画像不一致領域位置情報を元に、右目用処理映像の該当する映像の信号レベルを0にし、同様に左目画像不一致領域位置情報を元に、左目用処理映像の該当する映像の信号レベルを0にすることにより、片方の画像にのみオブジェクトが映ることにより生じるフリッカの問題を防止することが可能になるものである。
(実施の形態2)
以下に、本発明の実施の形態2における立体映像処理装置について図1〜図5を用いて説明する。
<1、本発明の立体映像処理装置の全体構成についての説明>
図1は、本発明の立体映像処理装置の概略構成図である。図1に示すように、本発明における立体映像処理装置は、11は不一致検出部、12は画像処理部、13は画像蓄積部、14は左右端除去部、15は表示装置により構成されている。以下、各構成について詳細に説明する。
最初に、不一致検出部11の構成について説明する。不一致検出部11は、右目用入力映像RIと左目用入力映像LIが入力され、画像処理部12と左右端処理分14に対して、左目用画像における右目用画像との不一致の領域の位置情報である右目画像不一致領域位置情報RMIと右目用画像における左目用画像との不一致の領域の位置情報である左目画像不一致領域位置情報LMIを与える。
ここで、図2を参照しながら、上述した左目用画像における右目用画像との不一致の領域について、説明する。図2は、2眼レンズカメラ18を用いて任意の物体A,B,Cを撮影した場合の左目用映像と右目用映像を示す図である。この図から明らかなように、右目用映像と左目用映像信号においては、立体映像を表示するために視差量が必要となるため、図中の物体Bは右目用映像、左目用映像のどちらにも映っているが、物体Aは左目用映像のみ、物体Cは右目用映像にのみ映っている。従って、これらの映像をそのまま表示装置で表示すると、物体AやCは、2フィールドに1回しか表示されずフリッカする。
With the configuration as described above, the left and right edge removing unit sets the signal level of the corresponding video of the right-eye processed video to 0 based on the right-eye image mismatch region position information received from the mismatch detection unit, and similarly the left-eye image mismatch region. By setting the signal level of the corresponding video of the left-eye processed video to 0 based on the position information, it is possible to prevent the problem of flicker caused by the object appearing in only one image.
(Embodiment 2)
Hereinafter, a stereoscopic video processing apparatus according to Embodiment 2 of the present invention will be described with reference to FIGS.
<1. Description of Overall Configuration of Stereoscopic Video Processing Device of the Present Invention>
FIG. 1 is a schematic configuration diagram of a stereoscopic video processing apparatus according to the present invention. As shown in FIG. 1, the stereoscopic video processing apparatus according to the present invention includes a mismatch detection unit 11, an image processing unit 12, an image storage unit 13, a left and right edge removal unit 14, and a display device 15. . Hereinafter, each configuration will be described in detail.
First, the configuration of the mismatch detection unit 11 will be described. The mismatch detection unit 11 receives the input image RI for the right eye and the input image LI for the left eye, and the positional information of the mismatch region between the image for the right eye and the image for the right eye in the left eye image with respect to the image processing unit 12 and the left and right end processing component 14. The left eye image mismatch area position information LMI, which is the position information of the mismatch area between the right eye image mismatch area position information RMI and the left eye image in the right eye image, is provided.
Here, with reference to FIG. 2, a region inconsistent with the image for the right eye in the image for the left eye described above will be described. FIG. 2 is a diagram illustrating a left-eye image and a right-eye image when an arbitrary object A, B, or C is photographed using the binocular lens camera 18. As is clear from this figure, the right-eye video signal and the left-eye video signal require a parallax amount in order to display a stereoscopic video. Therefore, the object B in the figure is either the right-eye video or the left-eye video. The object A is shown only in the left-eye image, and the object C is shown only in the right-eye image. Therefore, if these images are displayed as they are on the display device, the objects A and C are displayed only once in two fields and flicker.

次に、画像処理部12の構成について説明する。画像処理部12は、例えば輪郭強調(エンハンサ)や、動きベクトルを利用した画質処理、APLを利用した画像処理といった種々の画質処理機能を有している。この画像処理部12は、不一致検出部11から右目画像不一致領域位置情報RMIと左目画像不一致領域位置情報LMIを受け取って、画像蓄積部13から所定の領域の映像を読み出すための制御信号(右目用制御信号RCおよび左目用制御信号LC)を生成して画像蓄積部13に与える。なお、この画像処理部12の処理については、以下の詳細に説明する。
次に、画像蓄積部13の構成について説明する。画像蓄積部13では、上述した右目用入力映像RI及び左目用入力映像LIと、上述した画像処理部12から送信された、画像蓄積部13から所定の領域の映像を読み出すための右目用制御信号RCおよび左目用制御信号LCとを受信する。画像蓄積部13においては、それらの右目用制御信号RCおよび左目用制御信号LCに対応した、右目用入力映像RI及び左目用入力映像LIの一部の領域の映像である右目不一致領域映像RMPと、左目不一致領域映像LMPを出力する。
次に、左右端除去部14は、不一致検出部11から右目画像不一致領域位置情報RMIと左目画像不一致領域位置情報LMIを受け取り、画像処理部12から受け取った右目用処理映像RPと左目用処理映像LPからそれぞれの不一致領域の信号Lvを0にした出力映像(右目用出力映像ROと左目用出力映像LO)を表示装置15に与える。
Next, the configuration of the image processing unit 12 will be described. The image processing unit 12 has various image quality processing functions such as edge enhancement (enhancer), image quality processing using motion vectors, and image processing using APL. The image processing unit 12 receives the right-eye image mismatch region position information RMI and the left-eye image mismatch region position information LMI from the mismatch detection unit 11 and reads a control signal (for the right eye) from the image storage unit 13 in a predetermined region. A control signal RC and a left eye control signal LC) are generated and supplied to the image storage unit 13. The processing of the image processing unit 12 will be described in detail below.
Next, the configuration of the image storage unit 13 will be described. In the image storage unit 13, the above-described right-eye input video RI and left-eye input video LI, and the right-eye control signal for reading out a video of a predetermined area from the image storage unit 13 transmitted from the above-described image processing unit 12. The RC and the left eye control signal LC are received. In the image storage unit 13, the right-eye mismatch region video RMP that is a video of a partial region of the right-eye input video RI and the left-eye input video LI corresponding to the right-eye control signal RC and the left-eye control signal LC The left-eye mismatch area image LMP is output.
Next, the left and right edge removing unit 14 receives the right eye image mismatch region position information RMI and the left eye image mismatch region position information LMI from the mismatch detection unit 11, and receives the right eye processing video RP and the left eye processing video received from the image processing unit 12. Output images (right-eye output video RO and left-eye output video LO) in which the signal Lv of each inconsistent area is set to 0 from LP are given to the display device 15.

次に、表示装置15は、左右端除去部14により画面の左右の端部が除去された映像信号が入力され、その映像信号を表示する。なお、表示装置15は、いかなる表示方式のディスプレイであってもよく、例えばプラズマディスプレイであってもよいし、液晶パネルであってもよい。
<2、本発明の不一致検出部11についての詳細な説明>
ここで、図3を参照しながら、本発明の重要な構成の一つである不一致検出部11の構成について詳細に説明する。
Next, the display device 15 receives the video signal from which the left and right edges of the screen have been removed by the left and right edge remover 14, and displays the video signal. The display device 15 may be a display of any display method, for example, a plasma display or a liquid crystal panel.
<2. Detailed description of the mismatch detection unit 11 of the present invention>
Here, the configuration of the mismatch detection unit 11 which is one of the important configurations of the present invention will be described in detail with reference to FIG.

図3は、不一致検出部11の構成を示すブロック図である。図3に示すように、不一致検出部11は、画面左端比較部21、画面右端比較部22により構成されている。画面左端比較部21は、右目用入力信号RIを元の信号とし、左目用入力映像LIの左画面端付近の映像を比較し、LIにしかないオブジェクトやパターンを含む領域(例えば、図2の物体Aを含む斜線部)の位置情報を示す左目画像不一致領域位置情報LMIを出力する。
同様に、画面右端比較部22は、左目用入力信号LIを元の信号とし、右目用入力映像RIの右画面端付近の映像を比較し、右目用入力信号RIにしかないオブジェクトやパターンを含む領域(図2の物体Cを含む斜線部)の位置情報を示す右目画像不一致領域位置情報RMIを出力する。
なお、画面左端比較部21および画面右端比較部22における画像比較は、顔検出などのオブジェクト検出を用いてもよいし、方法は限定されない。例えば、上述した方法以外にも、一例としては、入力された右目用入力映像RIと左目用入力映像LIとの視差量を検出し、その視差量を0に設定した上で、右目用入力映像RIと左目用入力映像LIとの画像の相違点を検出することにより実現することが可能である。
<3、本発明の画像処理部12についての詳細な説明>
次に、図4及び図5を参照しながら、発明の重要な構成の一つである画像処理部12の構成について詳細に説明する。
FIG. 3 is a block diagram illustrating a configuration of the mismatch detection unit 11. As shown in FIG. 3, the mismatch detection unit 11 includes a screen left end comparison unit 21 and a screen right end comparison unit 22. The screen left edge comparison unit 21 uses the right-eye input signal RI as an original signal, compares the video near the left screen edge of the left-eye input video LI, and includes an area including an object or pattern only in the LI (for example, the object in FIG. 2). The left eye image mismatch area position information LMI indicating the position information of the hatched portion including A) is output.
Similarly, the screen right end comparison unit 22 uses the left-eye input signal LI as an original signal, compares the video near the right screen end of the right-eye input video RI, and includes an object or pattern that is only in the right-eye input signal RI. The right-eye image mismatch area position information RMI indicating the position information of (the hatched portion including the object C in FIG. 2) is output.
The image comparison in the screen left end comparison unit 21 and the screen right end comparison unit 22 may use object detection such as face detection, and the method is not limited. For example, in addition to the method described above, as an example, the parallax amount between the input right-eye input video RI and the left-eye input video LI is detected, the parallax amount is set to 0, and the right-eye input video is then detected. This can be realized by detecting a difference in image between the RI and the left-eye input video LI.
<3. Detailed Description of Image Processing Unit 12 of the Present Invention>
Next, the configuration of the image processing unit 12, which is one of the important configurations of the invention, will be described in detail with reference to FIGS.

図4は、画像処理部12における処理の概要を図示した状態図である。左目用映像、右目用映像にエンハンサや動きベクトルを用いた処理などを施すと、映像の外側に映像が存在しないため、画面端にノイズや偽輪郭といった弊害が生じることがある。
この弊害を軽減するために、画像処理部12では、左目用映像の右側に右目用映像の物体Cを含んだ斜線部分の映像を付加し、左目用映像の右側に映像が続いていると仮定して映像処理する。同様に右目用映像の左側には左目用映像の物体Aを含む斜線部分の映像を付加し、右目用映像の左側に映像が続いていると仮定して映像処理する。その後、映像処理する前に付加信号を除去して、後段の左右端除去部14に映像信号を与える。
FIG. 4 is a state diagram illustrating an outline of processing in the image processing unit 12. When processing using an enhancer or a motion vector is performed on the left-eye video and the right-eye video, since there is no video outside the video, there may be a problem such as noise or false contours at the edge of the screen.
In order to alleviate this problem, the image processing unit 12 assumes that the image of the shaded portion including the object C of the right-eye image is added to the right side of the left-eye image, and the image continues on the right side of the left-eye image. Video processing. Similarly, an image of a hatched portion including the object A of the left-eye image is added to the left side of the right-eye image, and image processing is performed on the assumption that the image continues on the left side of the right-eye image. Thereafter, the additional signal is removed before video processing, and the video signal is given to the left and right edge removal unit 14 in the subsequent stage.

ここで、図5を参照しながら、上述した処理について詳細に説明する。図5は、画像処理部12の詳細な構成を示したブロック図である。図5に示すように、画像処理部12は、制御信号生成部12aと、映像付加部12bと、映像付加部12cと、右目用映像処理部12dと、左目用映像処理部12eと、左端除去部12fと、右端除去部12gとにより構成されている。
まず、制御信号生成部12aについて説明する。制御信号生成部12aは、不一致検出部11から出力された右目画像不一致領域位置情報RMIおよび左目画像不一致領域位置情報LMIのそれぞれから、画像蓄積部13から所望の映像信号を得るための右目用制御信号RCおよび左目用制御信号LCを生成する。
次に、これら制御信号RCおよびLCを画像蓄積部13に与え、左目不一致領域映像LMPと右目不一致領域映像RMPを受け取り、その左目不一致領域映像LMPと右目不一致領域映像RMPと右目用入力映像RI及び左目用入力映像LIとを入力として、それぞれを映像付加部12b、12cにて左目不一致領域映像LMPを右目用入力映像RIに、右目不一致領域映像を左目用入力映像LIに付加する。なお、映像付加部12b、12cでは、同期と映像のブランキングの量以上の映像は付加されないように注意しなければならない。
また、このとき同時に映像付加部12bでは、後で付加した映像を除去するための左端付加終了信号LEを、映像付加部12cでは、右端付加開始信号RSを生成する。
右目用、左目用映像処理部12dおよび12eでは、映像付加部12b、12cで生成された信号を用いて各種画像処理が施される。具体的には、左目用映像、右目用映像にエンハンサや動きベクトルを用いた処理などを行う。
その後、右目用映像信号は、左端除去部12fにて映像付加部12bで付加された左目不一致領域映像LMPを除去し、一方、左目用映像信号は、右端除去部12gにて映像付加部12cで付加された右目不一致領域映像RMPを除去し、画像処理部12から出力され、この出力された右目用処理映像RPと左目用処理映像LPが表示装置15に出力される。なお、この左端除去部12f及び右端除去部12gの構成については、上述した左右端除去部14の構成として組み入れることも可能である。
以上のような構成により、従来の立体映像装置と比較して、右目用映像処理部12d及び左目用映像処理部12eにおいて、エンハンサや動きベクトルを用いた処理を行う際に、左目用映像信号と右目用映像信号との間に、左目用画像と右目用画像との間の視差量に基づくオブジェクトの有無等が生じることがないため、フリッカを生じることなく、さらに、画質処理の種類によっては画面端の処理においてノイズや偽輪郭が生じるという弊害を防止することが可能になるものである。
Here, the above-described processing will be described in detail with reference to FIG. FIG. 5 is a block diagram showing a detailed configuration of the image processing unit 12. As shown in FIG. 5, the image processing unit 12 includes a control signal generation unit 12a, a video addition unit 12b, a video addition unit 12c, a right-eye video processing unit 12d, a left-eye video processing unit 12e, and a left end removal. It is comprised by the part 12f and the right end removal part 12g.
First, the control signal generator 12a will be described. The control signal generation unit 12a obtains a desired video signal from the image storage unit 13 from each of the right eye image mismatch region position information RMI and the left eye image mismatch region position information LMI output from the mismatch detection unit 11. A signal RC and a left eye control signal LC are generated.
Next, the control signals RC and LC are given to the image storage unit 13 to receive the left-eye mismatch region video LMP and the right-eye mismatch region video RMP, the left-eye mismatch region video LMP, the right-eye mismatch region video RMP, and the right-eye input video RI and Using the left-eye input video LI as an input, the video addition units 12b and 12c respectively add the left-eye mismatch area video LMP to the right-eye input video RI and the right-eye mismatch area video to the left-eye input video LI. It should be noted that the video adding units 12b and 12c must be careful not to add more video than the amount of synchronization and video blanking.
At the same time, the video addition unit 12b generates a left end addition end signal LE for removing a video added later, and the video addition unit 12c generates a right end addition start signal RS.
In the right-eye and left-eye video processing units 12d and 12e, various image processes are performed using the signals generated by the video addition units 12b and 12c. Specifically, processing using an enhancer or a motion vector is performed on the left-eye video and the right-eye video.
Thereafter, the left-eye video signal is removed from the left-eye inconsistent area video LMP added by the video addition unit 12b in the left-end removal unit 12f, while the left-eye video signal is outputted from the video addition unit 12c in the right-end removal unit 12g. The added right-eye mismatch region video RMP is removed and output from the image processing unit 12, and the output right-eye processing video RP and left-eye processing video LP are output to the display device 15. In addition, about the structure of this left end removal part 12f and the right end removal part 12g, it is also possible to incorporate as a structure of the right-and-left end removal part 14 mentioned above.
With the configuration as described above, when the processing using the enhancer or the motion vector is performed in the right-eye video processing unit 12d and the left-eye video processing unit 12e as compared with the conventional stereoscopic video device, Since there is no presence or absence of an object based on the amount of parallax between the left-eye image and the right-eye image between the right-eye video signal, flicker does not occur and, depending on the type of image quality processing, the screen It is possible to prevent the adverse effect that noise and false contours are generated in the edge processing.

本発明に係る立体映像処理装置は、立体映像を視聴する際に感じるフリッカをなくし、画面端に生じる画像処理の弊害を軽減させることができるものであり、3次元映像視聴時の違和感やストレス・疲労を軽減できるためその利用価値は高い。   The stereoscopic video processing apparatus according to the present invention eliminates flicker that is felt when viewing stereoscopic video, and can reduce the adverse effects of image processing that occur at the edges of the screen. Its usefulness is high because it can reduce fatigue.

11 不一致検出部
12 画像処理部
13 画像蓄積部
14 左右端除去部
15 表示装置
18 カメラ
21 画面左端比較部
22 画面右端比較部
12a 制御信号生成部
12b 映像付加部(右目用)
12c 映像付加部(左目用)
12d 右目用映像処理部
12e 左目用映像処理部
12f 左端除去部
12g 右端除去部
DESCRIPTION OF SYMBOLS 11 Mismatch detection part 12 Image processing part 13 Image storage part 14 Left-right end removal part 15 Display apparatus 18 Camera 21 Screen left end comparison part 22 Screen right end comparison part 12a Control signal generation part 12b Image | video addition part (for right eyes)
12c Video adder (for left eye)
12d Video processing unit for right eye 12e Video processing unit for left eye 12f Left end removal unit 12g Right end removal unit

Claims (2)

右目用入力映像と左目用入力映像を蓄積する画像蓄積部と、前記右目用入力映像と前記左目用入力映像を比較し、右目用映像の右端にしかないオブジェクト、パターンや、左目用映像の左端にしかないオブジェクト、パターンを検出する不一致検出部と、
前記右目用入力映像と前記左目用入力映像と前記不一致検出部から出力される右目画像不一致領域位置情報と左目画像不一致領域位置情報と前記画像蓄積部から出力される右目不一致領域映像と左目不一致領域映像とから画像処理を行う画像処理部と、
前記画像処理部から出力される右目用処理映像と左目用処理映像と、前記不一致検出部から出力される右目画像不一致領域位置情報と左目画像不一致領域位置情報から左目用映像の左端と右目用映像の右端を除去する左右端除去部と、
前記左右端除去部から出力される右目用出力映像と左目用出力映像から立体視映像を表示する表示装置とを備えることを特徴とする立体映像処理装置。
Compares the right-eye input video and the left-eye input video with the image storage unit that stores the right-eye input video and the left-eye input video, and sets the object, pattern, and left-eye video that are only at the right end of the right-eye video. Non-coincident object, mismatch detection part to detect the pattern,
The input image for the right eye, the input image for the left eye, the right eye image mismatch region position information output from the mismatch detection unit, the left eye image mismatch region position information, and the right eye mismatch region image and the left eye mismatch region output from the image storage unit An image processing unit that performs image processing from video,
Left-eye processed video and left-eye processed video output from the image processing unit, and left-eye video and left-eye video from the right-eye image mismatch region position information and left-eye image mismatch region position information output from the mismatch detection unit Left and right end removal parts for removing the right end of
A stereoscopic video processing apparatus comprising: a display device that displays a stereoscopic video image from a right-eye output video and a left-eye output video output from the left and right edge removal unit.
前記画像処理部は、前記不一致検出部から出力される右目画像不一致領域位置情報と、左目画像不一致領域位置情報を受け取り、前記画像蓄積部へ右目、左目それぞれの不一致領域の映像を要求し、受け取った右目不一致領域映像を左目用入力映像の右端へ、また、左目不一致領域映像を右目用入力映像の左端へ付加した状態でそれぞれの映像に対して画質処理を行うことを特徴とする請求項1記載の立体映像処理装置。 The image processing unit receives right eye image mismatch region position information and left eye image mismatch region position information output from the mismatch detection unit, requests the image storage unit for videos of mismatch regions of the right eye and the left eye, and receives 2. The image quality processing is performed on each video in a state where the right-eye mismatch area video is added to the right end of the left-eye input video and the left-eye mismatch area video is added to the left end of the right-eye input video. The three-dimensional video processing apparatus described.
JP2009196242A 2009-08-27 2009-08-27 Stereoscopic video processor Pending JP2011049799A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009196242A JP2011049799A (en) 2009-08-27 2009-08-27 Stereoscopic video processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009196242A JP2011049799A (en) 2009-08-27 2009-08-27 Stereoscopic video processor

Publications (1)

Publication Number Publication Date
JP2011049799A true JP2011049799A (en) 2011-03-10

Family

ID=43835693

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009196242A Pending JP2011049799A (en) 2009-08-27 2009-08-27 Stereoscopic video processor

Country Status (1)

Country Link
JP (1) JP2011049799A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2489931A (en) * 2011-04-08 2012-10-17 Sony Corp Analysis of 3D video to detect frame violation within cropped images
WO2013145327A1 (en) * 2012-03-30 2013-10-03 富士通株式会社 Generation device, generation program, and generation method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2489931A (en) * 2011-04-08 2012-10-17 Sony Corp Analysis of 3D video to detect frame violation within cropped images
WO2013145327A1 (en) * 2012-03-30 2013-10-03 富士通株式会社 Generation device, generation program, and generation method
JPWO2013145327A1 (en) * 2012-03-30 2015-12-10 富士通株式会社 Generating device, generating program, and generating method

Similar Documents

Publication Publication Date Title
EP2549762B1 (en) Stereovision-image position matching apparatus, stereovision-image position matching method, and program therefor
JP5427035B2 (en) Image observation using multiple individual settings
TWI428007B (en) Apparatus and method for video processing
JP2012239006A (en) Image processing apparatus, control method thereof, and program
JP2013098934A (en) Image processing apparatus and image processing method
KR20130117827A (en) Zero disparity plane for feedback-based three-dimensional video
TWI432013B (en) 3d image display method and image timing control unit
JP5257248B2 (en) Image processing apparatus and method, and image display apparatus
TWI491244B (en) Method and apparatus for adjusting 3d depth of an object, and method and apparatus for detecting 3d depth of an object
US20110074775A1 (en) Image signal processing device and image signal processing method
WO2012117461A1 (en) Three-dimensional video processing device and method, and three-dimensional video display device
JP2011049799A (en) Stereoscopic video processor
JP2013182192A5 (en)
JP2006287813A (en) Three-dimensional image display device
US8976175B2 (en) Depth estimation data generating device, computer readable recording medium having depth estimation data generating program recorded thereon, and pseudo-stereo image display device
JP2013074397A (en) Image processing system, image processing method, and image processing program
JP2011176822A (en) Image processing apparatus, 3d display apparatus, and image processing method
TWI533663B (en) Apparatus and method for processing 3-d image
TWI448146B (en) 3d image processing method with a reduced ghost effect and 3d display device thereof
WO2012117462A1 (en) Three-dimensional video processing device and method, and three-dimensional video display device
US9237334B2 (en) Method and device for controlling subtitle applied to display apparatus
TWI502960B (en) Device and method for 2d to 3d conversion
JP2014057219A (en) Display control apparatus, image capture apparatus, control method, program, and recording medium
JP2013165306A (en) Stereoscopic video display device
JP2012049662A (en) Image processing apparatus, image processing method, and image display apparatus