JP2011119926A - Video processing apparatus, video processing method and computer program - Google Patents

Video processing apparatus, video processing method and computer program Download PDF

Info

Publication number
JP2011119926A
JP2011119926A JP2009274775A JP2009274775A JP2011119926A JP 2011119926 A JP2011119926 A JP 2011119926A JP 2009274775 A JP2009274775 A JP 2009274775A JP 2009274775 A JP2009274775 A JP 2009274775A JP 2011119926 A JP2011119926 A JP 2011119926A
Authority
JP
Japan
Prior art keywords
video
depth
enhanced
frame object
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009274775A
Other languages
Japanese (ja)
Inventor
Takeaki Suenaga
健明 末永
Kenichiro Yamamoto
健一郎 山本
Masahiro Shioi
正宏 塩井
Makoto Otsu
誠 大津
Kenji Tsukuba
健史 筑波
Mikio Seto
幹生 瀬戸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2009274775A priority Critical patent/JP2011119926A/en
Publication of JP2011119926A publication Critical patent/JP2011119926A/en
Pending legal-status Critical Current

Links

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a video processing apparatus that improves a feeling of depth of a video only by image processing using neither an exclusive video display device nor special eyeglasses. <P>SOLUTION: The video processing apparatus 1 which performs processing for enhancing the feeling of depth of the video acquired by a video acquisition part 11 includes: a depth information acquisition part 12 which acquires depth information indicating distance in the depth direction of each of a plurality of video parts constituting the video; a video division part 13 which divides the video into a foreground video part and a background video part based on the depth information acquired by the depth information acquisition part 12 and the video; a frame object giving determination part 15a which determines whether a frame object for enhancing depth of the video should be given; and a video synthesis part 16 which synthesizes each video part with the frame object so that the frame object is superposed on the background video part, and the foreground video part is further superposed on the frame object when it is determined that the frame object should be given. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

入力された映像の奥行き感を強調する処理を行う映像処理装置、映像処理方法、及びコンピュータを前記映像処理装置として動作させるためのコンピュータプログラムに関する。   The present invention relates to a video processing apparatus, a video processing method and a computer program for operating a computer as the video processing apparatus.

テレビ、携帯電話などの映像表示装置に表示される二次元映像の立体感又は奥行き感を高める様々な手法が提案されている。例えば、立体感又は奥行き感を高める方法の一つとして両眼視差を利用した立体視手法が提案されている。立体視手法は、視聴者の左右の目それぞれに、左目用視差画像と、右目用視差画像とを送ることによって、視聴者に錯覚を起こさせ、二次元平面に立体感又は奥行き感を与える手法である。
左右の目それぞれに左目用視差画像及び右目用視差画像を送る方式には、左目用視差画像と右目用視差画像とを交互に切り替えて表示する映像表示装置と、各視差画像の切り替え周波数に同期して、左右のシャッタを切り替えて光路を遮断する眼鏡とを用いた方式がある(例えば、特許文献1)。
また、左目用視差画像及び右目用視差画像を夫々赤色画像及び青色画像に色変換し、色変換された各画像を重畳的に表示する映像表示装置と、赤青眼鏡とを用いることによって、左右の目それぞれに赤色画像及び青色画像を送るアナグリフ方式がある。
更に、左目用視差画像及び右目用視差画像それぞれを異なる偏光にて表示する映像表示装置と、偏光眼鏡とを用いることによって、左右の目それぞれに左目用視差画像及び右目用視差画像を送る方式がある(例えば、特許文献2)。
Various methods have been proposed for enhancing the stereoscopic effect or depth of a two-dimensional image displayed on a video display device such as a television or a mobile phone. For example, a stereoscopic viewing method using binocular parallax has been proposed as one of the methods for enhancing the stereoscopic effect or the sense of depth. The stereoscopic method is a method of giving a viewer an illusion by sending a left-eye parallax image and a right-eye parallax image to each of the viewer's left and right eyes, and giving a stereoscopic effect or a sense of depth to a two-dimensional plane. It is.
The method of sending the left-eye parallax image and the right-eye parallax image to each of the left and right eyes is synchronized with the video display device that alternately displays the left-eye parallax image and the right-eye parallax image and the switching frequency of each parallax image. Then, there is a method using glasses that switch the left and right shutters to block the optical path (for example, Patent Document 1).
Further, the left-eye parallax image and the right-eye parallax image are color-converted into a red image and a blue image, respectively, and by using a video display device that displays each color-converted image in a superimposed manner, and red and blue glasses, There is an anaglyph method that sends a red image and a blue image to each eye.
Furthermore, there is a method of sending a left-eye parallax image and a right-eye parallax image to the left and right eyes, respectively, by using a video display device that displays the left-eye parallax image and the right-eye parallax image with different polarizations and polarized glasses. There is (for example, Patent Document 2).

他方、絵画の分野では、遠近法、陰影法、前進色及び後退色の組み合わせなどの絵画的技巧を利用して絵画の立体感又は奥行き感を高めることが行われている。これらの絵画的技巧を利用して作成される絵画作品は、トリックアート又はトロンプ・ルイユと呼ばれている。トリックアートは、前述の絵画的技巧を利用して、平面作品における背景、各オブジェクト間の重畳関係を描写することで、二次元的に描写されたオブジェクトの一部が恰も現実世界の三次元空間に飛び出しているように錯覚を起こさせ、平面作品に立体感又は奥行き感を与えることができる。   On the other hand, in the field of painting, painting techniques such as a perspective method, a shadow method, a combination of forward color and backward color are used to enhance the stereoscopic effect or depth of the painting. Paintings created using these pictorial techniques are called trick art or Tromp-Rouille. Trick art uses the above-mentioned pictorial techniques to describe the background in a plane work and the overlapping relationship between each object, so that some of the two-dimensionally drawn objects are almost three-dimensional space in the real world. An illusion can be created as if it were protruding into the plane, giving a three-dimensional effect or depth to the two-dimensional work.

特開昭60−7291号公報JP 60-7291 A 特開平1−171390号公報JP-A-1-171390

しかしながら、特許文献1,2に係るシステムにおいては、専用の映像表示装置及び特殊な眼鏡を用意する必要があった。また、視聴者は特殊な眼鏡の装着を義務付けられ、視聴方法が著しく制限されるという問題があった。   However, in the systems according to Patent Documents 1 and 2, it is necessary to prepare a dedicated video display device and special glasses. In addition, viewers are required to wear special glasses, and there is a problem that viewing methods are significantly limited.

本発明は、斯かる事情に鑑みてなされたものであり、専用の映像表示装置及び特殊な眼鏡を用いず、画像処理のみによって映像の奥行き感を向上させることができる映像処理装置、映像処理方法及びコンピュータを前記映像処理装置として動作させるためのコンピュータプログラムを提供することを目的とする。   The present invention has been made in view of such circumstances, and a video processing apparatus and a video processing method capable of improving the sense of depth of video only by image processing without using a dedicated video display device and special glasses. Another object of the present invention is to provide a computer program for operating a computer as the video processing apparatus.

本発明に係る映像処理装置は、入力された映像の奥行き感を強調する処理を行う映像処理装置であって、前記映像を構成する複数の映像部分夫々の奥行き方向の距離を示した奥行き情報を取得する奥行き情報取得手段と、該奥行き情報取得手段にて取得した奥行き情報及び前記映像に基づいて、該映像を奥行き方向の距離が異なる複数の映像部分に分割する映像分割手段と、該映像分割手段にて分割された一の映像部分に、前記映像の奥行きを強調するための奥行き強調映像が重畳され、更に該奥行き強調映像に、前記一の映像部分よりも奥行き方向の距離が短い他の映像部分が重畳されるように各映像部分及び奥行き強調映像を合成する映像合成手段と、前記映像分割手段にて分割された他の映像部分に基づいて、奥行き強調映像を重畳すべきか否かを判定する判定手段とを備え、前記映像合成手段は、前記判定手段が奥行き強調映像を重畳すべしと判定した場合、奥行き強調映像を重畳するようにしてあることを特徴とする。   A video processing apparatus according to the present invention is a video processing apparatus that performs a process of enhancing a sense of depth of an input video, and includes depth information indicating a distance in a depth direction of each of a plurality of video portions constituting the video. Depth information acquisition means to be acquired, video division means for dividing the video into a plurality of video portions having different distances in the depth direction based on the depth information acquired by the depth information acquisition means and the video, and the video division A depth-enhanced video for emphasizing the depth of the video is superimposed on the one video portion divided by the means, and further, the depth-enhanced video has another distance in the depth direction shorter than that of the one video portion. A video composition unit that synthesizes each video part and depth-enhanced video so that the video part is superimposed, and a depth-enhanced video is superimposed based on the other video parts divided by the video division unit. Hear a judging means for judging whether said image synthesis means, when said determination means determines that shalt be superimposed depth-enhancing image, characterized in that you have to be superimposed depth-enhancing image.

本発明に係る映像処理装置は、前記映像分割手段にて分割された他の映像部分であって、入力された映像の端部の映像に対応する映像部分を特定する手段を備え、前記判定手段は、他の映像部分に、入力された映像の端部の映像部分が含まれていない場合、奥行き強調映像を重畳すべしと判定するようにしてあることを特徴とする。   The video processing apparatus according to the present invention includes means for specifying a video part corresponding to a video at an end of the input video, which is another video part divided by the video splitting unit, and the determination unit Is characterized in that when the video portion at the end of the input video is not included in the other video portions, it is determined that the depth-enhanced video should be superimposed.

本発明に係る映像処理装置は、前記映像分割手段にて分割された他の映像部分であって、入力された映像の端部の映像に対応する映像部分を特定する手段を備え、前記判定手段は、他の映像部分に、入力された映像の端部の映像部分が含まれている場合、他の映像部分に含まれる端部の映像部分の面積の大小に応じて、奥行き強調映像を重畳すべきか否かを判定するようにしてあることを特徴とする。   The video processing apparatus according to the present invention includes means for specifying a video part corresponding to a video at an end of the input video, which is another video part divided by the video splitting unit, and the determination unit If the video portion at the end of the input video is included in the other video portion, the depth-enhanced video is superimposed according to the size of the area of the video portion at the end included in the other video portion It is characterized in that it is determined whether or not to be performed.

本発明に係る映像処理装置は、入力された映像の輝度又は色に基づいて、輝度又は色が該映像と異なる奥行き強調映像を生成する生成手段を備え、前記映像合成手段は、前記生成手段にて生成された奥行き強調映像を合成するようにしてあることを特徴とする。   The video processing apparatus according to the present invention includes a generation unit that generates a depth-enhanced video having a luminance or color different from that of the video based on the luminance or color of the input video, and the video synthesis unit includes the generation unit. The depth-enhanced video generated in this way is synthesized.

本発明に係る映像処理装置は、前記生成手段は、前記映像分割手段にて分割された一の映像部分及び/又は他の映像部分の輝度又は色に基づいて、輝度又は色が該映像部分と異なる奥行き強調映像を生成するようにしてあることを特徴とする。   In the video processing apparatus according to the present invention, the generation unit may be configured such that the luminance or color is based on the luminance or color of one video portion and / or another video portion divided by the video dividing unit. A feature is that different depth-emphasized videos are generated.

本発明に係る映像処理装置は、時系列順に複数の映像が入力されるように構成されており、奥行き強調映像が合成されていない映像及び奥行き強調映像を合成して得た映像の中から、奥行き強調映像を合成して得た映像を選択する手段を備えることを特徴とする。   The video processing apparatus according to the present invention is configured so that a plurality of videos are input in chronological order, and from the video obtained by synthesizing the depth-enhanced video and the video not synthesized with the depth-enhanced video, A means for selecting an image obtained by synthesizing the depth-enhanced image is provided.

本発明に係る映像処理装置は、時系列順に複数の映像が入力されるように構成されており、時系列順に入力された各映像間における映像部分の移動方向を示した移動方向情報を取得する移動方向情報取得手段と、該移動方向情報取得手段にて取得した移動方向情報に応じた形状を有する奥行き強調映像を生成する生成手段とを備え、前記映像合成手段は、前記生成手段にて生成された奥行き強調映像を合成するようにしてあることを特徴とする。   The video processing apparatus according to the present invention is configured such that a plurality of videos are input in chronological order, and acquires moving direction information indicating the moving direction of the video portion between the videos input in chronological order. A moving direction information acquiring unit; and a generating unit that generates a depth-enhanced video having a shape corresponding to the moving direction information acquired by the moving direction information acquiring unit, wherein the video synthesizing unit is generated by the generating unit It is characterized in that the depth-enhanced video is synthesized.

本発明に係る映像処理装置は、時系列順に複数の映像が入力されるように構成されており、時系列順に入力された各映像間における映像部分の移動方向を示した移動方向情報を取得する移動方向情報取得手段を備え、前記生成手段は、該移動方向情報取得手段にて取得した移動方向情報に応じた形状を有する奥行き強調映像を生成するようにしてあることを特徴とする。   The video processing apparatus according to the present invention is configured such that a plurality of videos are input in chronological order, and acquires moving direction information indicating the moving direction of the video portion between the videos input in chronological order. A moving direction information acquisition unit is provided, and the generation unit generates a depth-enhanced video having a shape corresponding to the movement direction information acquired by the moving direction information acquisition unit.

本発明に係る映像処理装置は、所定の三次元画像を記憶する記憶手段を備え、前記生成手段は、前記記憶手段が記憶している三次元画像と、前記移動方向情報取得手段にて取得した一の映像部分の移動方向情報が示す移動方向とが所定の位置関係になるように、該三次元画像を回転させる回転処理手段を備え、該回転処理手段にて回転した三次元画像を所定の二次元平面に射影させて得られる二次元形状を有する奥行き強調映像を生成するようにしてあることを特徴とする。   The video processing apparatus according to the present invention includes a storage unit that stores a predetermined three-dimensional image, and the generation unit acquires the three-dimensional image stored in the storage unit and the movement direction information acquisition unit. Rotation processing means for rotating the three-dimensional image so that the movement direction indicated by the movement direction information of one video portion has a predetermined positional relationship, and the three-dimensional image rotated by the rotation processing means is A depth-emphasized video having a two-dimensional shape obtained by projecting onto a two-dimensional plane is generated.

本発明に係る映像処理方法は、入力された映像の奥行き感を強調する処理を行う映像処理方法であって、前記映像を構成する複数の映像部分夫々の奥行き方向の距離を示した奥行き情報を取得し、取得した奥行き情報及び前記映像に基づいて、該映像を奥行き方向の距離が異なる複数の映像部分に分割し、分割された他の映像部分に基づいて、前記映像の奥行きを強調するための奥行き強調映像を映像部分に重畳すべきか否かを判定し、奥行き強調映像を重畳すべしと判定した場合、分割された一の映像部分に、前記映像の奥行きを強調するための奥行き強調映像が重畳され、更に該奥行き強調映像に、前記一の映像部分よりも奥行き方向の距離が短い他の映像部分が重畳されるように各映像部分及び奥行き強調映像を合成することを特徴とする。   A video processing method according to the present invention is a video processing method for performing a process of enhancing a sense of depth of an input video, and depth information indicating a distance in a depth direction of each of a plurality of video parts constituting the video. In order to divide the video into a plurality of video parts having different distances in the depth direction based on the acquired depth information and the video, and to emphasize the depth of the video based on the other video parts divided It is determined whether or not the depth-enhanced video should be superimposed on the video portion, and if it is determined that the depth-enhanced video should be superimposed, the depth-enhanced video for emphasizing the depth of the video on one divided video portion Each of the video portions and the depth-enhanced video is synthesized such that another video portion having a shorter distance in the depth direction than the one video portion is superimposed on the depth-enhanced video. That.

本発明に係るコンピュータプログラムは、コンピュータに、映像の奥行き感を強調する処理を実行させるコンピュータプログラムであって、前記コンピュータに、前記映像を構成する複数の映像部分夫々の奥行き方向の距離を示した奥行き情報及び前記映像に基づいて、該映像を奥行き方向の距離が異なる複数の映像部分に分割するステップと、分割された他の映像部分に基づいて、前記映像の奥行きを強調するための奥行き強調映像を映像部分に重畳すべきか否かを判定するステップと、奥行き強調映像を重畳すべしと判定した場合、分割された一の映像部分に、前記映像の奥行きを強調するための奥行き強調映像が重畳され、更に該奥行き強調映像に、前記一の映像部分よりも奥行き方向の距離が短い他の映像部分が重畳されるように各映像部分及び奥行き強調映像を合成するステップとを実行させることを特徴とする。   A computer program according to the present invention is a computer program that causes a computer to execute processing for enhancing a sense of depth of an image, and indicates the distance in the depth direction of each of a plurality of image portions constituting the image. Dividing the video into a plurality of video parts having different distances in the depth direction based on the depth information and the video, and depth enhancement for emphasizing the depth of the video based on the other divided video parts Determining whether or not to superimpose the video on the video portion, and if it is determined that the depth-enhanced video should be superimposed, a depth-enhanced video for emphasizing the depth of the video is displayed on the divided video portion. In addition, each depth-enhanced video is superimposed on another video portion having a shorter distance in the depth direction than the one video portion. Characterized in that and a step of synthesizing an image portion and a depth-enhancing image.

本発明にあっては、映像を構成する複数の映像部分夫々の奥行き方向の距離を示した奥行き情報を取得し、取得した奥行き情報に基づいて、該映像を奥行き方向の距離が異なる複数の映像部分に分割する。そして、分割された他の映像部分に基づいて、奥行き強調映像を映像部分に重畳すべきか否かを判定する。奥行き強調映像を映像部分に重畳すべきでは無いと判定された場合、奥行き強調映像は重畳されない。奥行き強調映像を重畳すべしと判定された場合、少なくとも一の映像部分に、前記映像の奥行きを強調するための奥行き強調映像が重畳され、更に該奥行き強調映像に、前記一の映像部分よりも奥行き方向の距離が短い他の映像部分が重畳されるように各映像部分及び奥行き強調映像が合成される。合成された映像は、一の映像部分、奥行き強調映像、及び他の映像部分がこの順で重畳的に合成されたものであるため、一の映像部分及び他の映像部分の奥行きが奥行き強調映像によって強調される。
具体的には、一の映像部分の一部に奥行き強調映像が重畳的に合成された場合、視聴者は、奥行き強調映像が一の映像部分の手前側に位置していると認識する。また、奥行き強調映像の一部に他の映像部分が重畳的に合成された場合、視聴者は、他の映像部分が奥行き強調映像部分の手前側に位置していると認識する。従って、一の映像部分と、他の映像部分とが奥行き方向に離隔しているという奥行き感を、視聴者に与えることが可能になる。
なお、奥行き強調映像の数は1つに限定されず、映像を、3以上の映像部分に分割し、各映像部分間夫々に奥行き強調映像が挿入されるように、各映像部分及び奥行き強調映像を合成する技術的思想も本発明に含まれる。
In the present invention, the depth information indicating the distance in the depth direction of each of the plurality of video portions constituting the video is acquired, and based on the acquired depth information, the video is a plurality of videos having different distances in the depth direction. Divide into parts. Then, based on the other divided video parts, it is determined whether or not the depth-enhanced video should be superimposed on the video part. If it is determined that the depth-enhanced video should not be superimposed on the video part, the depth-enhanced video is not superimposed. When it is determined that the depth-enhanced video should be superimposed, a depth-enhanced video for emphasizing the depth of the video is superimposed on at least one video part, and further, the depth-enhanced video is more than the one video part. Each video portion and the depth-enhanced video are combined so that other video portions having a short distance in the depth direction are superimposed. The synthesized video is one video part, depth-enhanced video, and other video part superimposed in this order, so the depth of one video part and the other video part is depth-enhanced video. Is emphasized by.
Specifically, when a depth-enhanced video is superimposed on a part of one video part, the viewer recognizes that the depth-enhanced video is located on the near side of the one video part. In addition, when another video portion is superimposed on a part of the depth-enhanced video, the viewer recognizes that the other video portion is positioned on the near side of the depth-enhanced video portion. Therefore, it is possible to give the viewer a sense of depth that one video portion and another video portion are separated in the depth direction.
Note that the number of depth-enhanced videos is not limited to one, and each video part and depth-enhanced video are divided so that the video is divided into three or more video parts and the depth-enhanced video is inserted between each video part. The technical idea of synthesizing is also included in the present invention.

本発明にあっては、他の映像部分、即ち前景の映像部分が、入力された映像の端部の映像部分を含む場合、奥行き強調映像を重畳すべきで無いと判定し、入力された映像の端部の映像部分を含まない場合、奥行き強調映像を重畳すべしと判定する。   In the present invention, when another video portion, that is, the foreground video portion includes the video portion at the end of the input video, it is determined that the depth-enhanced video should not be superimposed, and the input video If the video portion at the end of the image is not included, it is determined that the depth-enhanced video should be superimposed.

本発明にあっては、他の映像部分、即ち前景の映像部分であって、映像の端部に位置している映像部分の面積の大小に応じて、奥行き強調映像を重畳すべきか否かを判定する。例えば、端部の映像部分の面積が大きい場合、奥行き強調映像を重畳すべきで無いと判定し、端部の映像部分の面積が小さい場合、奥行き強調映像を重畳すべしと判定する。   In the present invention, whether or not the depth-enhanced video should be superimposed according to the size of the area of another video part, that is, the video part of the foreground located at the edge of the video. judge. For example, when the area of the video portion at the end is large, it is determined that the depth-enhanced video should not be superimposed. When the area of the video portion at the end is small, it is determined that the depth-enhanced video should be superimposed.

本発明にあっては、生成手段は、入力された映像の輝度又は色に基づいて、輝度又は色が該映像と異なる奥行き強調映像を生成する。従って、奥行き強調映像と、映像部分とは異なる輝度又は色を有する。よって、一の映像部分及び他の映像部分の奥行きを効果的に強調することが可能になる。   In the present invention, the generation unit generates a depth-enhanced video having a luminance or color different from that of the video based on the luminance or color of the input video. Therefore, the depth-enhanced video and the video portion have different brightness or color. Therefore, it is possible to effectively enhance the depth of one video part and another video part.

本発明にあっては、生成手段は、一の映像部分及び/又は他の映像部分の輝度又は色に基づいて、輝度又は色が該映像部分と異なる奥行き強調映像を生成する。従って、奥行き強調映像と、映像部分とは異なる輝度又は色を有する。よって、一の映像部分及び他の映像部分の奥行きを効果的に強調することが可能になる。   In the present invention, the generation means generates a depth-enhanced video having a luminance or color different from that of the video portion based on the luminance or color of one video portion and / or another video portion. Therefore, the depth-enhanced video and the video portion have different brightness or color. Therefore, it is possible to effectively enhance the depth of one video part and another video part.

本発明にあっては、時系列順に入力された複数の映像それぞれに対して、奥行き強調映像を重畳させるか否かを判定し、奥行き強調映像を選択的に重畳させて、奥行きを強調させる。そして、奥行き強調映像が合成されていない映像及び奥行き強調映像を合成して得た映像の中から、奥行き強調映像を合成して得た映像を選択する。従って、奥行きが強調された映像からなる動画を視聴することが可能になる。   In the present invention, it is determined whether or not a depth-enhanced video is superimposed on each of a plurality of videos input in chronological order, and the depth-enhanced video is selectively superimposed to enhance the depth. Then, an image obtained by synthesizing the depth-enhanced video is selected from an image obtained by synthesizing the depth-enhanced video and an image in which the depth-enhanced video is not synthesized. Therefore, it is possible to view a moving image consisting of a video with an emphasized depth.

本発明にあっては、移動方向情報取得手段は、時系列順に入力された各映像間における映像部分の移動方向を示した移動方向情報を取得する。そして、生成手段は、取得した移動方向情報に応じた形状を有する奥行き強調映像を生成する。つまり、生成手段は、映像部分の移動を強調することが可能な形状を有する奥行き強調映像を生成する。   In the present invention, the movement direction information acquisition means acquires movement direction information indicating the movement direction of the video portion between the videos input in chronological order. And a production | generation means produces | generates the depth emphasis video which has a shape according to the acquired moving direction information. That is, the generation unit generates a depth-enhanced video having a shape that can emphasize the movement of the video part.

本発明にあっては、記憶手段は、奥行き強調映像の元になる三次元画像を記憶している。回転処理手段は、記憶手段が記憶している三次元画像と、移動方向情報取得手段にて取得した移動方向情報が示す移動方向とが所定の位置関係になるように、該三次元画像を回転させる。つまり、三次元画像は、映像部分の移動方向を向くように回転する。そして、生成手段は、回転した三次元画像を所定の二次元平面に射影させて得られる二次元形状を有する奥行き強調映像を生成する。従って、合成される奥行き強調映像は、映像部分の移動方向を向いたような形状となる。よって、映像部分の移動が強調される。
なお、三次元画像とは、三次元空間における画像を意味し、三次元画像には、三次元空間における立体的な画像はもちろん、平面的な画像も含まれる。
In the present invention, the storage means stores a three-dimensional image that is the basis of the depth-enhanced video. The rotation processing unit rotates the three-dimensional image so that the three-dimensional image stored in the storage unit and the movement direction indicated by the movement direction information acquired by the movement direction information acquisition unit have a predetermined positional relationship. Let That is, the three-dimensional image rotates so as to face the moving direction of the video part. Then, the generation unit generates a depth-enhanced video having a two-dimensional shape obtained by projecting the rotated three-dimensional image onto a predetermined two-dimensional plane. Therefore, the synthesized depth-enhanced video has a shape that faces the moving direction of the video part. Therefore, the movement of the video part is emphasized.
The three-dimensional image means an image in a three-dimensional space, and the three-dimensional image includes a planar image as well as a three-dimensional image in the three-dimensional space.

本発明によれば、専用の映像表示装置及び特殊な眼鏡を用いず、画像処理のみによって映像の奥行き感を向上させることができる。   According to the present invention, it is possible to improve the sense of depth of video only by image processing without using a dedicated video display device and special glasses.

本発明の実施の形態に係る映像処理装置の一構成例を示すブロック図である。It is a block diagram which shows the example of 1 structure of the video processing apparatus which concerns on embodiment of this invention. 映像取得部が取得した映像の一例を示す説明図である。It is explanatory drawing which shows an example of the image | video which the video acquisition part acquired. 奥行き情報を概念的に示す説明図である。It is explanatory drawing which shows depth information notionally. 前景映像部分及び背景映像部分を概念的に示す説明図である。It is explanatory drawing which shows a foreground image part and a background image part notionally. 飛び出し情報を概念的に示した説明図である。It is explanatory drawing which showed popping-out information notionally. 枠オブジェクトの付与判定方法を概念的に示した説明図である。It is explanatory drawing which showed notion | assignment determination method of the frame object notionally. 映像取得部が取得した他の映像の一例を示す説明図である。It is explanatory drawing which shows an example of the other image | video which the image | video acquisition part acquired. 前記他の映像の奥行き情報を概念的に示す説明図である。It is explanatory drawing which shows notionally the depth information of the said other image | video. 前記他の映像を分割して得た前景映像部分及び背景映像部分を概念的に示す説明図である。It is explanatory drawing which shows notionally the foreground image part and background image part which were obtained by dividing | segmenting the said other image | video. 枠オブジェクトの付与判定方法を概念的に示した説明図である。It is explanatory drawing which showed notion | assignment determination method of the frame object notionally. 原三次元枠オブジェクトを概念的に示す説明図である。It is explanatory drawing which shows an original three-dimensional frame object notionally. 枠オブジェクトの形状決定方法を概念的に示す説明図である。It is explanatory drawing which shows notionally the shape determination method of a frame object. 枠オブジェクトの輝度及び色の決定方法を概念的に示す説明図である。It is explanatory drawing which shows notionally the determination method of the brightness | luminance and color of a frame object. 映像合成部の処理内容を概念的に示す説明図である。It is explanatory drawing which shows notionally the processing content of a video synthetic | combination part. 動画を構成する複数の映像に対して、枠オブジェクトを選択的に付与して得られた動画を概念的に示す説明図である。It is explanatory drawing which shows notionally the moving image obtained by selectively providing a frame object with respect to the some image | video which comprises a moving image. 映像処理装置が実施する映像処理方法の流れを示すフローチャートである。It is a flowchart which shows the flow of the video processing method which a video processing apparatus implements. 枠オブジェクト生成部の動作の流れを示すフローチャートである。It is a flowchart which shows the flow of operation | movement of a frame object production | generation part. 変形例1に係る映像処理装置の一構成例を示すブロック図である。10 is a block diagram illustrating a configuration example of a video processing apparatus according to Modification 1. FIG. 枠オブジェクトを付与された映像を選択的に並べて得られる動画像を概念的に示す説明図である。It is explanatory drawing which shows notionally the moving image obtained by selectively arranging the image | video to which the frame object was provided. 変形例2に係る映像処理装置の一構成例を示すブロック図である。FIG. 10 is a block diagram illustrating a configuration example of a video processing apparatus according to Modification 2. 変形例3に係る映像処理装置の一構成例を示すブロック図である。10 is a block diagram illustrating a configuration example of a video processing apparatus according to Modification 3. FIG. 奥行き強調映像の一例であるカーテンオブジェクトを示す模式図である。It is a schematic diagram which shows the curtain object which is an example of a depth emphasis image | video. 変形例5に係る枠オブジェクトの形状決定方法を概念的に示す説明図である。It is explanatory drawing which shows notionally the shape determination method of the frame object which concerns on the modification 5. FIG. 変形例6に係る映像処理装置を示すブロック図である。It is a block diagram which shows the video processing apparatus which concerns on the modification 6.

以下、本発明をその実施の形態を示す図面に基づいて詳述する。
図1は、本発明の実施の形態に係る映像処理装置1の一構成例を示すブロック図である。本実施の形態に係る映像処理装置1は、映像取得部11、奥行き情報取得部12、映像分割部13、飛び出し情報取得部14、枠オブジェクト生成部15及び映像合成部16を備える。
Hereinafter, the present invention will be described in detail with reference to the drawings illustrating embodiments thereof.
FIG. 1 is a block diagram showing a configuration example of a video processing apparatus 1 according to an embodiment of the present invention. The video processing apparatus 1 according to the present embodiment includes a video acquisition unit 11, a depth information acquisition unit 12, a video division unit 13, a pop-out information acquisition unit 14, a frame object generation unit 15, and a video synthesis unit 16.

<映像取得部>
映像取得部11は、立体感又は奥行き感を向上させる映像処理対象の映像を取得し、取得した映像を映像分割部13へ出力する。映像取得部11にて取得される映像は、静止画像又は動画像のいずれでも良い。静止画は、1フレームの映像で構成され、動画像は、時系列順の複数フレームの映像で構成される。また、該映像は、所定の符号化方式、例えばJPEG(Joint Photographic Experts Group)、MPEG−2(Moving Picture Expert Group phase2)等で圧縮されたものであっても、非圧縮のものであっても良い。符号化された映像を取得する構成である場合、映像取得部11は、取得した映像を所定の符号化方式に従って、該映像を例えばRGB形式やYUV形式の映像に復号し、復号して得た映像を映像分割部13へ出力する。
以下、本実施の形態では、説明の簡単のため、主に、静止画又は動画を構成する1フレームの映像に対して行う処理を説明するが、動画の場合、時系列順に連続する各フレームの映像に対して同様の処理を行うものとする。
<Video acquisition unit>
The video acquisition unit 11 acquires a video to be processed to improve the stereoscopic effect or the depth feeling, and outputs the acquired video to the video dividing unit 13. The video acquired by the video acquisition unit 11 may be either a still image or a moving image. A still image is composed of one frame of video, and a moving image is composed of multiple frames of video in time series order. The video may be compressed by a predetermined encoding method such as JPEG (Joint Photographic Experts Group), MPEG-2 (Moving Picture Expert Group phase 2) or the like, or may be uncompressed. good. When the encoded image is acquired, the image acquisition unit 11 obtains the acquired image by decoding the acquired image into, for example, an RGB format or a YUV format according to a predetermined encoding method. The video is output to the video dividing unit 13.
In the following, in this embodiment, for the sake of simplicity of explanation, a description will be given mainly of processing performed on a single frame image constituting a still image or a moving image. It is assumed that the same processing is performed on the video.

図2は、映像取得部11が取得した映像の一例を示す説明図である。図2に示した映像F1は、二次元に配列された複数の画素夫々の輝度及び色を示したデータであり、奥行き方向の距離が異なる複数のオブジェクト、例えば鳥、木、太陽、空、雲等の被写体に相当する映像から構成されている。以下、図2に示した特定の映像を示す場合、「映像F1」と表記し、映像取得部11が取得した任意の映像を、「映像」と表記する。奥行き方向の距離とは、オブジェクトに係る被写体と、所定位置、例えば該映像の撮像に用いた撮影装置の位置との距離をいう。以下、該距離を適宜、奥行きという。   FIG. 2 is an explanatory diagram illustrating an example of a video acquired by the video acquisition unit 11. The image F1 shown in FIG. 2 is data indicating the brightness and color of each of a plurality of pixels arranged two-dimensionally, and a plurality of objects having different distances in the depth direction, for example, birds, trees, sun, sky, clouds It is comprised from the image | video equivalent to subjects. Hereinafter, when the specific video shown in FIG. 2 is shown, it will be referred to as “video F1”, and any video acquired by the video acquisition unit 11 will be referred to as “video”. The distance in the depth direction refers to the distance between the subject related to the object and a predetermined position, for example, the position of the photographing apparatus used for capturing the video. Hereinafter, the distance is referred to as depth as appropriate.

<奥行き情報取得部>
奥行き情報取得部12は、映像取得部11から得られる映像を構成する複数のオブジェクト夫々の奥行きを示した奥行き情報を取得し、取得した奥行き情報を映像分割部13へ出力する。本実施の形態では、奥行き方向における撮影装置及び各被写体間の距離を撮像時に計測しておき、計測して得られた距離の情報を有する奥行き情報が映像とは別に映像処理装置1に入力されるものとする。
なお、撮影装置及び各被写体間の距離は、例えばステレオ法を応用して計測すれば良い。具体的には、離隔配置した2つの撮像部で共通の被写体を撮像し、各撮像部で撮像された2枚の映像における被写体の視差を算出し、三角測量の原理により撮像装置と被写体との距離を求める。
また、被写体に赤外線を照射する測距用の赤外線照射部と、被写体で反射された赤外線の強度を測定する赤外線検出部とを撮像装置に設け、各被写体から反射された赤外線の強度に基づいて、撮像装置と被写体との距離を求めても良い。
<Depth information acquisition unit>
The depth information acquisition unit 12 acquires depth information indicating the depth of each of the plurality of objects constituting the video obtained from the video acquisition unit 11, and outputs the acquired depth information to the video division unit 13. In the present embodiment, the distance between the imaging device and each subject in the depth direction is measured at the time of imaging, and depth information having distance information obtained by measurement is input to the video processing device 1 separately from the video. Shall be.
In addition, what is necessary is just to measure the distance between an imaging device and each to-be-photographed object, for example applying a stereo method. Specifically, a common subject is imaged by two imaging units that are separated from each other, the parallax of the subject in the two images captured by each imaging unit is calculated, and the imaging device and the subject are calculated based on the principle of triangulation. Find the distance.
Further, the imaging apparatus is provided with an infrared irradiating unit for ranging to irradiate the subject with infrared rays and an infrared detecting unit for measuring the intensity of infrared rays reflected from the subject, and based on the intensity of infrared rays reflected from each subject. The distance between the imaging device and the subject may be obtained.

図3は、奥行き情報を概念的に示す説明図である。図3に示すように、映像を構成する複数のオブジェクト夫々に対応付けられた奥行きの情報を有する画像を奥行き画像G1という。奥行きは、例えば、距離の短い順に1、2、…、5の昇順の数字で示されている。具体的には、奥行き画像G1は、入力された映像と同様の複数の画素から構成されており、入力された映像を構成する各画素に対応する奥行きを示した1〜5のいずれかの数値が、奥行き画像G1の各画素の画素値として割り当てられている。なお、ここでは説明の簡単のために、奥行き情報を5段階で示すものとするが、奥行き情報は5段階未満乃至は5段階より多くても良く、もちろん無段階で示すものとしても問題はない。   FIG. 3 is an explanatory diagram conceptually showing the depth information. As shown in FIG. 3, an image having depth information associated with each of a plurality of objects constituting a video is referred to as a depth image G1. For example, the depth is indicated by numbers in ascending order of 1, 2,. Specifically, the depth image G1 is composed of a plurality of pixels similar to the input video, and any numerical value of 1 to 5 indicating the depth corresponding to each pixel constituting the input video Is assigned as the pixel value of each pixel of the depth image G1. Here, for simplicity of explanation, the depth information is shown in five stages. However, the depth information may be less than five or more than five, and of course, there is no problem even if the information is shown steplessly. .

<映像分割部>
映像分割部13は、映像取得部11で取得した映像、例えばF1を、奥行き情報取得部12で取得した奥行き情報に基づいて、前景映像部分F11と、背景映像部分F12とに分割する(図4参照)。そして、映像分割部13は、分割した前景映像部分F11及び背景映像部分F12を、枠オブジェクト生成部15及び映像合成部16へ出力する。具体的には、映像分割部13は、取得した映像の各画素に対応する奥行きと、所定の閾値とを比較し、奥行きが閾値未満である場合、該画素を前景映像部分F11の画素とし、奥行きが閾値以上である場合、背景映像部分F12の画素とする。閾値は、映像分割部13が予め記憶している定数である。
各画素を示した変数をn=0、1、2…、前景映像部分F11及び背景映像部分F12の別を示す変数をPx(n)、各画素の奥行きを示す変数をDepth(n)、閾値をTh1とした場合、Px(n)は、下記式(1)、(2)で表される。
Px(n)=背景 (Th1<Depth(n))…(1)
Px(n)=前景 (Th1≧Depth(n))…(2)
<Video division unit>
The video dividing unit 13 divides the video acquired by the video acquiring unit 11, for example, F1, into a foreground video portion F11 and a background video portion F12 based on the depth information acquired by the depth information acquiring unit 12 (FIG. 4). reference). Then, the video dividing unit 13 outputs the divided foreground video part F11 and background video part F12 to the frame object generation unit 15 and the video composition unit 16. Specifically, the video dividing unit 13 compares the depth corresponding to each pixel of the acquired video with a predetermined threshold, and when the depth is less than the threshold, the pixel is set as a pixel of the foreground video portion F11. If the depth is greater than or equal to the threshold value, the pixel of the background video portion F12 is used. The threshold value is a constant stored in advance by the video dividing unit 13.
The variable indicating each pixel is n = 0, 1, 2,..., The variable indicating the foreground video portion F11 and the background video portion F12 is Px (n), the variable indicating the depth of each pixel is Depth (n), the threshold value Is Th1, Px (n) is represented by the following formulas (1) and (2).
Px (n) = background (Th1 <Depth (n)) (1)
Px (n) = Foreground (Th1 ≧ Depth (n)) (2)

図4は、前景映像部分F11及び背景映像部分F12を概念的に示す説明図である。閾値Th1が2である場合、図2に示した映像F1は、図3に示した奥行き画像G1及び閾値Th1=2に基づき、前景映像部分F11(図4(a)中の実線で囲まれた白色領域)と背景映像部分F12(図4(b)中の実線で囲まれた白色領域(破線で囲まれたグレー領域を除いた領域))に分割される。   FIG. 4 is an explanatory diagram conceptually showing the foreground video portion F11 and the background video portion F12. When the threshold Th1 is 2, the video F1 shown in FIG. 2 is surrounded by the foreground video part F11 (solid line in FIG. 4A) based on the depth image G1 and the threshold Th1 = 2 shown in FIG. A white area) and a background video portion F12 (a white area surrounded by a solid line in FIG. 4B (an area excluding a gray area surrounded by a broken line)).

なお、閾値Th1は予め映像分割部13に記録されている値として説明を行ったが、映像処理装置1を使用する視聴者が自由に設定できる値としても良い。また、閾値Th1を計算で求めても良い。例えば、閾値Th1は、下記式(3)で表される。
Th=(ΣDepth(n))/(w*h)…(3)
但し、nは0、1、2、…、w*hの整数、hは映像F1の高さ(垂直方向に配列した画素の数)、wは映像F1の幅(水平方向に配列した画素の数)である。
The threshold value Th1 has been described as a value recorded in advance in the video dividing unit 13, but may be a value that can be freely set by a viewer using the video processing device 1. Further, the threshold Th1 may be obtained by calculation. For example, the threshold Th1 is expressed by the following formula (3).
Th = (ΣDepth (n)) / (w * h) (3)
Where n is an integer of 0, 1, 2,..., W * h, h is the height of the image F1 (the number of pixels arranged in the vertical direction), and w is the width of the image F1 (the pixels arranged in the horizontal direction). Number).

<飛び出し情報取得部>
飛び出し情報取得部14は、映像F1内の各オブジェクトに設定された飛び出しの方向を示した飛び出し情報を取得し、取得した飛び出し情報を枠オブジェクト生成部15へ出力する。ここで、飛び出しの方向とは、映像内の各オブジェクトの飛び出しを強調する際に、どちらの方向に飛び出し感を与えるべきかを示した情報である。
<Jump Information Acquisition Unit>
The pop-out information acquisition unit 14 acquires pop-out information indicating the pop-out direction set for each object in the video F <b> 1 and outputs the acquired pop-out information to the frame object generation unit 15. Here, the pop-out direction is information indicating in which direction the pop-out feeling should be given when emphasizing the pop-out of each object in the video.

図5は、飛び出し情報を概念的に示した説明図である。飛び出し情報は例えば、図5(a)に示すように、映像F1の縦方向(垂直方向)をY軸、横方向(水平方向)をX軸、映像面に対して垂直な前後方向の仮想的な軸をZ軸とした3次元空間における3次元のベクトルで表される。この飛び出し情報は、図5(b)に示すように、オブジェクトごとに指定されているものとする。なお、本実施の形態では飛び出し情報は正規化された単位ベクトルとして扱うものとする。   FIG. 5 is an explanatory diagram conceptually showing pop-out information. For example, as shown in FIG. 5A, the pop-up information is a virtual image in the longitudinal direction (vertical direction) of the image F1 in the Y-axis, the horizontal direction (horizontal direction) in the X-axis, and the longitudinal direction perpendicular to the image plane. It is represented by a three-dimensional vector in a three-dimensional space with a simple axis as the Z axis. This pop-out information is specified for each object, as shown in FIG. In this embodiment, the pop-out information is handled as a normalized unit vector.

<枠オブジェクト生成部>
枠オブジェクト生成部15は、映像の奥行きを強調するための枠オブジェクトH3(図14参照)を入力された映像、例えば映像F1,F2(図2、図7参照)に付与すべきか否かを判定する枠オブジェクト付与判定部15aと、該枠オブジェクトH3の基になる情報を記憶する記憶部15bと、飛び出し情報に基づいて、枠オブジェクトH3の形状を決定するための回転処理部15c及び射影変換部15dと、前景映像部分F11及び背景映像部分F12の輝度及び色に基づいて枠オブジェクトH3の輝度及び色を決定する色決定部15eとを備える。ここで枠オブジェクトH3とは、前景映像部分F11と、背景映像部分F12との間に挿入することで前景及び背景との相対的な距離感を与え、視聴者に立体感、奥行き感を知覚させるためのオブジェクトである。本実施の形態では、枠オブジェクトH3として、映像F1の外周を囲う枠状の映像を生成する。特に、本実施の形態では、枠オブジェクト生成部15は、枠オブジェクトH3を入力された映像F1,F2に付与した際に、飛び出し感の強調効果があるか否かを判断し、効果があると判断した場合、枠オブジェクトH3として、映像の外周を囲う枠状の映像を生成し、逆に飛び出し感の強調効果が低いと判断した場合は、枠オブジェクトH3を生成しないように構成されている。
<Frame object generator>
The frame object generation unit 15 determines whether or not a frame object H3 (see FIG. 14) for emphasizing the depth of the video should be added to the input video, for example, the videos F1 and F2 (see FIGS. 2 and 7). A frame object addition determination unit 15a, a storage unit 15b that stores information on which the frame object H3 is based, a rotation processing unit 15c and a projection conversion unit for determining the shape of the frame object H3 based on the pop-out information 15d and a color determination unit 15e that determines the luminance and color of the frame object H3 based on the luminance and color of the foreground video portion F11 and the background video portion F12. Here, the frame object H3 is inserted between the foreground video portion F11 and the background video portion F12 to give a sense of relative distance between the foreground and the background, and to allow the viewer to perceive a stereoscopic effect and a sense of depth. It is an object for. In the present embodiment, a frame-shaped image surrounding the outer periphery of the image F1 is generated as the frame object H3. In particular, in this embodiment, the frame object generation unit 15 determines whether or not there is an effect of emphasizing popping out when the frame object H3 is given to the input images F1 and F2, and if it is effective. When the determination is made, a frame-like image surrounding the outer periphery of the image is generated as the frame object H3. Conversely, when it is determined that the effect of emphasizing the pop-out feeling is low, the frame object H3 is not generated.

枠オブジェクト付与判定部15aは、入力された前景映像部分F11及び背景映像部分F12に基づいて、枠オブジェクトH3を映像F1に付与することによって、飛び出し感の強調効果があるか否かを判定する。
本実施の形態では、入力された映像F1を前景映像部分F11及び背景映像部分F12に分割し、背景映像部分F12に枠オブジェクトH3及び前景映像部分F11を適切に重畳することによって、二次元的に描写されたオブジェクトの一部が恰も現実世界の三次元空間に飛び出しているように錯覚を起こさせ、映像F1の飛び出し感を強調させる。ここで、視聴者にオブジェクトの一部が現実世界の三次元空間に飛び出していると錯覚を起こさせる為には、飛び出すオブジェクト即ち前景映像部分F11の一部が欠けることなく、全て描写されていることが望ましい。
そこで、本実施の形態の枠オブジェクト付与判定部15aは、前景映像部分F11が欠けることなく描写されているか否かを判定し、この判定結果に基づいて、枠オブジェクトH3を生成するか否かを判断する。即ち、前景映像部分F11が欠けることなく描写されている場合、枠オブジェクト付与判定部15aは枠オブジェクトを生成し、前景映像部分F11が欠けている場合、枠オブジェクトH3を生成しない。次に、枠オブジェクト付与判定部15aで行われる具体的な処理内容を説明する。
The frame object addition determination unit 15a determines whether or not there is an effect of emphasizing popping out by adding a frame object H3 to the video F1 based on the input foreground video portion F11 and background video portion F12.
In the present embodiment, the input video F1 is divided into a foreground video portion F11 and a background video portion F12, and the frame object H3 and the foreground video portion F11 are appropriately superimposed on the background video portion F12, thereby two-dimensionally. An illusion is caused as if a part of the drawn object is popping out into the real world three-dimensional space, and the popping out feeling of the video F1 is emphasized. Here, in order to cause the viewer to have an illusion that a part of the object has jumped out into the three-dimensional space of the real world, the popping out object, that is, the foreground video part F11 is all depicted without being lost. It is desirable.
Therefore, the frame object provision determination unit 15a of the present embodiment determines whether or not the foreground video portion F11 is depicted without being missing, and determines whether or not to generate the frame object H3 based on the determination result. to decide. That is, when the foreground video portion F11 is depicted without being missing, the frame object provision determining unit 15a generates a frame object, and when the foreground video portion F11 is missing, the frame object H3 is not generated. Next, specific processing contents performed by the frame object provision determination unit 15a will be described.

まず、枠オブジェクト付与判定部15aは、映像分割部13から出力された前景映像部分F11及び背景映像部分F12(図4参照)を取得する。そして、枠オブジェクト付与判定部15aは、前景映像部分F11が、映像の縁へ接しているかどうか、言い換えると、前景映像部分F11に、入力された映像F1の端部の映像が含まれているか否かを判定する。より具体的には、枠オブジェクト付与判定部15aは、映像F1における上辺、下辺、左辺、右辺のいずれかにおいて、前景映像部分F11を構成する画素が含まれるか否かを判定する。   First, the frame object addition determination unit 15a acquires the foreground video part F11 and the background video part F12 (see FIG. 4) output from the video dividing unit 13. Then, the frame object addition determination unit 15a determines whether or not the foreground video portion F11 is in contact with the edge of the video, in other words, whether or not the foreground video portion F11 includes the video at the end of the input video F1. Determine whether. More specifically, the frame object addition determination unit 15a determines whether or not the pixels constituting the foreground video portion F11 are included in any of the upper side, the lower side, the left side, and the right side in the video F1.

図6は、枠オブジェクトの付与判定方法を概念的に示した説明図である。図6(a)は、入力された映像F1の概念図である。映像F1は、複数の画素Px_in(x,y)から構成されている。但し、x(0≦x≦w)は、映像F1の幅方向(水平方向)の画素位置、y(0≦y≦h)は、高さ方向(垂直方向)の画素位置を示している。各画素Px_in(x,y)は、映像F1の輝度情報を有する。
図6(b)は、前景映像部分F11の概念図である。前景映像部分F11は、複数の画素Px_fwd(x,y)から構成されている。各画素Px_fwd(x,y)は、当該画素が前景映像を構成しているか否かを示す情報、前景映像を構成している場合、該前景映像に係る輝度情報を有している。
FIG. 6 is an explanatory view conceptually showing the frame object assignment determination method. FIG. 6A is a conceptual diagram of the input video F1. The image F1 is composed of a plurality of pixels Px_in (x, y). However, x (0 ≦ x ≦ w) indicates a pixel position in the width direction (horizontal direction) of the image F1, and y (0 ≦ y ≦ h) indicates a pixel position in the height direction (vertical direction). Each pixel Px_in (x, y) has luminance information of the video F1.
FIG. 6B is a conceptual diagram of the foreground video portion F11. The foreground video portion F11 is composed of a plurality of pixels Px_fwd (x, y). Each pixel Px_fwd (x, y) has information indicating whether or not the pixel constitutes a foreground video, and has luminance information related to the foreground video when constituting the foreground video.

枠オブジェクト付与判定部15aは、前景映像部分F11を構成する画素Px_fwd(x,y)の情報を用いて、映像F1の上辺P01を構成する画素Px_in(x=1,y=1)〜Px_in(x=w,y=1)から前景映像部分F11を構成する画素Px_in(x,y)を特定し、映像F1の上辺P01に位置する前景映像部分F11の画素数を算出する。同様に、枠オブジェクト付与判定部15aは、映像F1の下辺を構成するクセルPx_in(x=1,y=h)〜Px_in(x=w,y=h)、左辺を構成する画素Px_in(x=1,y=1)〜Px_in(x=1,y=h)、右辺を構成する画素Px_in(x=w,y=1)〜Px_in(x=w,y=h)から前景映像部分F11を構成する画素を特定し、映像F1の上辺P01、下辺、左辺、右辺のいずれかに位置する前景映像部分F11の画素数を算出する。そして、枠オブジェクト付与判定部15aは、映像F1の上辺P01、下辺、左辺、右辺のいずれかに位置する前景映像部分F11の画素数が0である場合、枠オブジェクトH3を付与すべきと判定し、該画素数が0でない場合、枠オブジェクトH3を付与すべきではないと判定する。
映像F1の場合、前景映像部分F11に含まれるオブジェクトは、映像F1の上辺P01、下辺、左辺、右辺のいずれにも接触していないため、つまり、映像F1の上辺P01、下辺、左辺、右辺のいずれかに位置する前景映像部分F11の画素数が0であるため、枠オブジェクトH3を付与すべしと判定する。この場合、枠オブジェクト生成部15は、後述する処理手順で枠オブジェクトH3を生成し、生成された枠オブジェクトH3を映像合成部16へ出力する。
The frame object addition determination unit 15a uses the information on the pixel Px_fwd (x, y) that forms the foreground image portion F11, and the pixels Px_in (x = 1, y = 1) to Px_in () that form the upper side P01 of the image F1. The pixel Px_in (x, y) constituting the foreground image portion F11 is specified from x = w, y = 1), and the number of pixels of the foreground image portion F11 located on the upper side P01 of the image F1 is calculated. Similarly, the frame object addition determination unit 15a includes the pixels Px_in (x = 1, y = h) to Px_in (x = w, y = h) constituting the lower side of the video F1, and the pixel Px_in (x = x) constituting the left side. 1, y = 1) to Px_in (x = 1, y = h) and the foreground image portion F11 from the pixels Px_in (x = w, y = 1) to Px_in (x = w, y = h) constituting the right side The constituent pixels are specified, and the number of pixels of the foreground video portion F11 located on any of the upper side P01, the lower side, the left side, and the right side of the video F1 is calculated. Then, the frame object addition determination unit 15a determines that the frame object H3 should be added when the number of pixels of the foreground video portion F11 located on any of the upper side P01, the lower side, the left side, and the right side of the video F1 is zero. If the number of pixels is not 0, it is determined that the frame object H3 should not be added.
In the case of the video F1, the object included in the foreground video portion F11 is not in contact with any of the upper side P01, the lower side, the left side, and the right side of the video F1, that is, the upper side P01, the lower side, the left side, and the right side of the video F1. Since the number of pixels of the foreground video portion F11 located in any one is 0, it is determined that the frame object H3 should be added. In this case, the frame object generation unit 15 generates a frame object H3 according to a processing procedure described later, and outputs the generated frame object H3 to the video composition unit 16.

図7は、映像取得部が取得した他の映像F2の一例を示す説明図、図8は、前記他の映像F2の奥行き情報を概念的に示す説明図、図9は、前記他の映像F2を分割して得た前景映像部分F21及び背景映像部分F22を概念的に示す説明図、図10は、枠オブジェクトの付与判定方法を概念的に示した説明図である。上述した同様の手順で、映像取得部11は、映像F2を取得し、取得した映像F2を映像分割部13へ出力し、奥行き情報取得部12は、映像F2の奥行き画像G2を取得し、取得した奥行き画像G2を映像分割部13へ出力する。映像分割部13は、映像F2及び奥行き画像G2を取得し、該映像F2及び奥行き画像G2に基づいて、映像F2を、前景映像部分F21及び背景映像部分F22に分割し、分割された前景映像部分F21及び背景映像部分F22を枠オブジェクト生成部15へ出力する。   FIG. 7 is an explanatory diagram showing an example of another video F2 acquired by the video acquisition unit, FIG. 8 is an explanatory diagram conceptually showing the depth information of the other video F2, and FIG. 9 is the other video F2. FIG. 10 is an explanatory diagram conceptually showing the frame object assignment determination method. FIG. 10 is a conceptual diagram showing the foreground video portion F21 and the background video portion F22 obtained by dividing. With the same procedure as described above, the video acquisition unit 11 acquires the video F2, outputs the acquired video F2 to the video division unit 13, and the depth information acquisition unit 12 acquires and acquires the depth image G2 of the video F2. The obtained depth image G2 is output to the video dividing unit 13. The video dividing unit 13 acquires the video F2 and the depth image G2, divides the video F2 into the foreground video portion F21 and the background video portion F22 based on the video F2 and the depth image G2, and the divided foreground video portion. F 21 and the background video portion F 22 are output to the frame object generation unit 15.

枠オブジェクト付与判定部15aは、映像F2に対しても、映像F1と同様にして、枠オブジェクトH3を付与すべきか否かを判定する。映像F2の場合、前景映像部分F21の一部P02が、入力された映像F2の上辺に接しているため、枠オブジェクトH3を付与すべきでは無いと判定される。この場合、枠オブジェクト生成部15は、枠オブジェクトH3の生成を行わず、枠オブジェクトH3を映像合成部16へ出力しない。   The frame object addition determination unit 15a determines whether or not the frame object H3 should be added to the video F2 as well as the video F1. In the case of the video F2, since a part P02 of the foreground video portion F21 is in contact with the upper side of the input video F2, it is determined that the frame object H3 should not be added. In this case, the frame object generation unit 15 does not generate the frame object H3 and does not output the frame object H3 to the video composition unit 16.

なお、上述した枠オブジェクトの付与判定方法は一例である。例えば、映像F1の上辺P01、下辺、左辺、右辺のいずれかに位置する前景映像部分F11,F21の画素数が所定の閾値未満である場合、枠オブジェクトH3を付与すべしと判定し、該画素数が所定の閾値以上である場合、枠オブジェクトH3を付与すべきではないと判定するように構成しても良い。
また、上述の例では、映像F1、F2の端部の映像部分の画素の中から、前景映像部分F11,21を構成する画素を特定する場合を説明したが、言うまでも無く、前景映像部分F11,21を構成する画素の中から、映像F1、F2の端部を構成する画素を特定しても良い。
Note that the frame object assignment determination method described above is an example. For example, when the number of pixels of the foreground video portions F11 and F21 located on any of the upper side P01, the lower side, the left side, and the right side of the video F1 is less than a predetermined threshold, it is determined that the frame object H3 should be added, and the pixel When the number is equal to or greater than a predetermined threshold, the frame object H3 may be determined not to be given.
In the above example, the case where the pixels constituting the foreground video portions F11 and F21 are specified from the pixels of the video portions at the ends of the videos F1 and F2 has been described. You may specify the pixel which comprises the edge part of image | video F1, F2 from the pixel which comprises F11,21.

記憶部15bは、枠オブジェクトH3の基になる情報を予め記憶している。具体的には、三次元空間における三次元画像を記憶している。以下、該三次元画像を原三次元枠オブジェクトH1(図11参照)という。   The storage unit 15b stores information that is the basis of the frame object H3 in advance. Specifically, a three-dimensional image in a three-dimensional space is stored. Hereinafter, the three-dimensional image is referred to as an original three-dimensional frame object H1 (see FIG. 11).

図11は、原三次元枠オブジェクトH1を概念的に示す説明図である。原三次元枠オブジェクトH1は、三次元空間における原点に中心が位置し、XY平面に略平行な矩形枠状をなしている。H2は、原三次元枠オブジェクトH1の法線ベクトルH2を示している。   FIG. 11 is an explanatory diagram conceptually showing the original three-dimensional frame object H1. The original three-dimensional frame object H1 has a rectangular frame shape that is centered at the origin in the three-dimensional space and substantially parallel to the XY plane. H2 represents a normal vector H2 of the original three-dimensional frame object H1.

まず、枠オブジェクト生成部15は、原三次元枠オブジェクトH1と、飛び出し情報とに基づいて、枠オブジェクトH3の形状を決定する。
図12は、枠オブジェクトH3の形状決定方法を概念的に示す説明図である。ここでは、図12(a)に示すように、映像F3内にオブジェクトF31が存在し、その飛び出し情報が指定されているものとする。なお、映像F3は、枠オブジェクトH3の生成方法を説明すべく、映像F1を簡略化したものである。枠オブジェクトH3の形状は、図12(b)で示した仮想的な3次元空間中で原三次元枠オブジェクトH1を飛び出し方向に応じて回転させ、即ち傾きを与え、傾いた三次元枠オブジェクトH11,H21(図12参照)をXY平面上に射影することによって得られる。以下、詳細に説明する。
First, the frame object generation unit 15 determines the shape of the frame object H3 based on the original three-dimensional frame object H1 and the pop-out information.
FIG. 12 is an explanatory diagram conceptually showing a method for determining the shape of the frame object H3. Here, as shown in FIG. 12A, it is assumed that an object F31 exists in the video F3 and its pop-out information is designated. Note that the video F3 is a simplified version of the video F1 in order to explain the method of generating the frame object H3. The shape of the frame object H3 is such that the original three-dimensional frame object H1 is rotated in accordance with the pop-out direction in the virtual three-dimensional space shown in FIG. , H21 (see FIG. 12) is projected onto the XY plane. This will be described in detail below.

まず、原三次元枠オブジェクトH1の傾きを規定する傾きベクトルを算出する。傾きベクトルは下記式(4)で表される。
(x1,y1,z1)=(a*x,b*y,c*z)…(4)
但し、(x1,y1,z1)は飛び出し情報、a,b,cは、枠オブジェクト生成部15が予め記憶している定数(0≦a,b,c≦1.0)である。
First, an inclination vector that defines the inclination of the original three-dimensional frame object H1 is calculated. The inclination vector is expressed by the following equation (4).
(X1, y1, z1) = (a * x, b * y, c * z) (4)
However, (x1, y1, z1) is pop-out information, and a, b, c are constants (0 ≦ a, b, c ≦ 1.0) stored in advance by the frame object generation unit 15.

そして、回転処理部15cは、原三次元枠オブジェクトH1の法線ベクトルH2が傾きベクトル(x1,y1,z1)に一致するように、原三次元枠オブジェクトH1を回転させる。   Then, the rotation processing unit 15c rotates the original three-dimensional frame object H1 so that the normal vector H2 of the original three-dimensional frame object H1 matches the inclination vector (x1, y1, z1).

次いで、射影変換部15dは、回転処理後の三次元枠オブジェクトH11,H21をXY平面に正射影した二次元形状に変換し、該二次元形状を枠オブジェクトH3の形状として記憶する。   Next, the projective conversion unit 15d converts the three-dimensional frame objects H11 and H21 after the rotation processing into a two-dimensional shape that is orthogonally projected onto the XY plane, and stores the two-dimensional shape as the shape of the frame object H3.

例えば、図12(b)に示すようにオブジェクトF31の飛び出し情報が(0,0,1)で与えられ、a=1.0、b=1.0、c=1.0である場合、傾きベクトルは(0,0,1)となる。そして、回転処理部15cは、原三次元枠オブジェクトH1の法線ベクトルH2が傾きベクトル(0,0,1)と略一致するように、該原三次元枠オブジェクトH1を回転させる。回転処理後の三次元枠オブジェクトH11をXY平面上に投射した最終的な形状は図12(b)のXY平面に示した形となる。   For example, as shown in FIG. 12B, when the pop-out information of the object F31 is given by (0, 0, 1) and a = 1.0, b = 1.0, and c = 1.0, the slope The vector is (0,0,1). Then, the rotation processing unit 15c rotates the original three-dimensional frame object H1 so that the normal vector H2 of the original three-dimensional frame object H1 substantially matches the inclination vector (0, 0, 1). The final shape obtained by projecting the three-dimensional frame object H11 after the rotation processing onto the XY plane is the shape shown on the XY plane in FIG.

また、図12(c)に示すように、オブジェクトF31の飛び出し情報が(x,0,√(1−x2 ))で与えられ、a=1.0、b=1.0、c=1.0である場合、傾きベクトルは(x,0,√(1−x2 ))となる。そして、回転処理部15cは、原三次元枠オブジェクトH1の法線ベクトルH2が傾きベクトル(x,0,√(1−x2 )と略一致するように、該原三次元枠オブジェクトH1を回転させる。回転処理後の三次元枠オブジェクトH21をXY平面上に投射した最終的な形状は図12(c)のXY平面に示すような形となる。 Also, as shown in FIG. 12C, the pop-out information of the object F31 is given by (x, 0, √ (1-x 2 )), and a = 1.0, b = 1.0, c = 1. In the case of .0, the inclination vector is (x, 0, √ (1−x 2 )). Then, the rotation processing unit 15c rotates the original three-dimensional frame object H1 so that the normal vector H2 of the original three-dimensional frame object H1 substantially coincides with the inclination vector (x, 0, √ (1-x 2 )). The final shape obtained by projecting the three-dimensional frame object H21 after the rotation processing onto the XY plane has a shape as shown in the XY plane of FIG.

次に、枠オブジェクト生成部15は枠の輝度及び色を決定する。
図13は、枠オブジェクトH3の輝度及び色の決定方法を概念的に示す説明図である。色決定部15eは、枠オブジェクトH3の色を映像全体の輝度、つまり前景映像部分F11及び背景映像部分F12双方の輝度に基づいて決定する。図13(a)は、特にある一の時点で映像取得部11が取得した映像F4、図13(b)は、映像F4の輝度ヒストグラムであり、映像F4の輝度の平均値がf4で表されている。色決定部15eは、予め閾値Th2と、平均輝度f4が閾値Th2以上であった場合の枠オブジェクトH3の色C1と、閾値Th2未満であった場合の枠オブジェクトH3の色C2を記憶している。なお、色C1及び色C2は、異なる輝度を有している。映像F4の平均輝度f4は閾値Th2以上であるため、色決定部15eは、図13(c)に示すように枠オブジェクトH3の色としてC1を決定する。
Next, the frame object generation unit 15 determines the luminance and color of the frame.
FIG. 13 is an explanatory diagram conceptually showing a method of determining the brightness and color of the frame object H3. The color determination unit 15e determines the color of the frame object H3 based on the luminance of the entire video, that is, the luminance of both the foreground video portion F11 and the background video portion F12. FIG. 13A is a video F4 acquired by the video acquisition unit 11 particularly at a certain point in time, and FIG. 13B is a luminance histogram of the video F4. The average value of the luminance of the video F4 is represented by f4. ing. The color determination unit 15e stores in advance the threshold value Th2, the color C1 of the frame object H3 when the average luminance f4 is equal to or greater than the threshold value Th2, and the color C2 of the frame object H3 when it is less than the threshold value Th2. . Note that the color C1 and the color C2 have different luminance. Since the average brightness f4 of the video F4 is equal to or greater than the threshold Th2, the color determination unit 15e determines C1 as the color of the frame object H3 as illustrated in FIG.

同様に、図13(d)は他の時点で映像取得部11が取得した映像F5、図13(e)は、映像F5の輝度ヒストグラムであり、映像F5の輝度の平均値がf5で表されている。映像F5の平均輝度f5は閾値Th2未満であるため、色決定部15eは、図13(f)に示すように枠オブジェクトH3の色として色C2を決定する。   Similarly, FIG. 13D is a video F5 acquired by the video acquisition unit 11 at another time point, and FIG. 13E is a luminance histogram of the video F5, and the average value of the luminance of the video F5 is represented by f5. ing. Since the average luminance f5 of the video F5 is less than the threshold Th2, the color determination unit 15e determines the color C2 as the color of the frame object H3 as shown in FIG.

なお、枠オブジェクトH3の色については、特に限定されない。但し、平均輝度が閾値Th2以上である場合は閾値Th2より輝度が低い色を、平均輝度が閾値Th2より低い場合は閾値Th2より輝度が高い色を選ぶ方が好ましい。
また、予め定数dを色決定部15eに記憶させておき、枠オブジェクトH3の輝度を下記式(5)、(6)で決定するようにすると良い。
枠オブジェクトH3の輝度=平均輝度−d (平均輝度≧閾値Th2)…(5)
枠オブジェクトH3の輝度=平均輝度+d (平均輝度<閾値Th2)…(6)
The color of the frame object H3 is not particularly limited. However, it is preferable to select a color whose luminance is lower than the threshold Th2 when the average luminance is equal to or higher than the threshold Th2, and a color whose luminance is higher than the threshold Th2 when the average luminance is lower than the threshold Th2.
In addition, the constant d may be stored in advance in the color determination unit 15e, and the luminance of the frame object H3 may be determined by the following equations (5) and (6).
Luminance of frame object H3 = average luminance-d (average luminance ≧ threshold Th2) (5)
Luminance of frame object H3 = average luminance + d (average luminance <threshold Th2) (6)

更に、背景映像部分F12に基づいて、半透明の枠オブジェクトH3を生成するように構成しても良い。枠オブジェクトH3が半透明である場合、枠オブジェクトH3によって背景映像部分F12が覆い隠されても、視聴者は、覆い隠された背景映像部分F12の内容を伺い知ることができる。従って、映像の情報削減量を抑え、かつ映像の奥行きを強調することができる。   Further, a translucent frame object H3 may be generated based on the background video portion F12. When the frame object H3 is translucent, even if the background video portion F12 is obscured by the frame object H3, the viewer can know the content of the obscured background video portion F12. Therefore, it is possible to reduce the amount of information reduction of the video and to emphasize the depth of the video.

更にまた、枠オブジェクトH3を額縁、窓の枠やテレビの枠などを模したオブジェクトとして配置しても良い。   Furthermore, the frame object H3 may be arranged as an object imitating a frame, a window frame, a television frame, or the like.

更にまた、映像F4,F5の輝度に基づいて、枠オブジェクトH3の色C1,C2を決定する例を説明したが、映像F4,F5の色、例えば平均彩度に基づいて、枠オブジェクトH3の色を映像の色と異なるように決定するように構成しても良い。また、映像F4,F5の輝度及び色夫々に基づいて、枠オブジェクトH3の輝度及び色を決定するように構成しても良い。   Furthermore, although the example in which the colors C1 and C2 of the frame object H3 are determined based on the luminance of the images F4 and F5 has been described, the color of the frame object H3 is determined based on the colors of the images F4 and F5, for example, the average saturation. May be determined to be different from the color of the video. Further, the luminance and color of the frame object H3 may be determined based on the luminance and color of the images F4 and F5.

更にまた、映像全体の輝度に基づいて枠オブジェクトH3の色及び輝度を決定する例を説明したが、前景映像部分F11のみの平均輝度に基づいて、枠オブジェクトH3の色及び輝度を決定しても良い。つまり、前景映像部分F11の輝度と、枠オブジェクトH3の輝度とが異なるように、該枠オブジェクトH3の色及び輝度を決定しても良い。この場合、枠オブジェクトH3と、前景映像部分F11との差異が際だつため、前景映像部分F11の奥行きを効果的に強調することが可能になる。
同様に、背景映像部分F12のみの平均輝度に基づいて、枠オブジェクトH3の色及び輝度を決定しても良い。つまり、背景映像部分F12の輝度と、枠オブジェクトH3の輝度とが異なるように、該枠オブジェクトH3の色及び輝度を決定しても良い。この場合、枠オブジェクトH3と、背景映像部分F12との差異が際だつため、背景映像部分F12の奥行きを効果的に強調することが可能になる。
更に、前景映像部分F11及び背景映像部分F12の平均輝度を各別に算出し、算出された各平均輝度と、枠オブジェクトH3の輝度とが異なるように、該枠オブジェクトH3の輝度及び色を決定するように構成しても良い。この場合、枠オブジェクトH3、前景映像部分F11、背景映像部分F12夫々の差異が際だつため、前景映像部分F11及び背景映像部分F12の奥行きを効果的に強調することが可能になる。
Furthermore, although the example in which the color and brightness of the frame object H3 are determined based on the brightness of the entire video has been described, the color and brightness of the frame object H3 may be determined based on the average brightness of only the foreground video portion F11. good. That is, the color and brightness of the frame object H3 may be determined so that the brightness of the foreground video portion F11 and the brightness of the frame object H3 are different. In this case, since the difference between the frame object H3 and the foreground video portion F11 is significant, the depth of the foreground video portion F11 can be effectively enhanced.
Similarly, the color and brightness of the frame object H3 may be determined based on the average brightness of only the background video portion F12. That is, the color and luminance of the frame object H3 may be determined so that the luminance of the background video portion F12 and the luminance of the frame object H3 are different. In this case, since the difference between the frame object H3 and the background video portion F12 is conspicuous, the depth of the background video portion F12 can be effectively enhanced.
Further, the average luminance of the foreground video portion F11 and the background video portion F12 is calculated separately, and the luminance and color of the frame object H3 are determined so that the calculated average luminance and the luminance of the frame object H3 are different. You may comprise as follows. In this case, since the differences among the frame object H3, the foreground video portion F11, and the background video portion F12 are conspicuous, the depths of the foreground video portion F11 and the background video portion F12 can be effectively enhanced.

枠オブジェクト生成部15は、射影変換部15dにて決定した形状と、色決定部15eにて決定した色とを有する枠オブジェクトH3を生成し、生成した枠オブジェクトH3を映像合成部16へ出力する。   The frame object generation unit 15 generates a frame object H3 having the shape determined by the projection conversion unit 15d and the color determined by the color determination unit 15e, and outputs the generated frame object H3 to the video composition unit 16. .

<映像合成部>
映像合成部16は、映像分割部13から出力された前景映像部分F11及び背景映像部分F12と、枠オブジェクト生成部15から出力された枠オブジェクトH3とを取得する。但し、枠オブジェクト生成部15から枠オブジェクトH3が出力されない場合、例えば、映像F2を処理した場合、前景映像部分F21及び背景映像部分F22のみを取得する。
枠オブジェクト生成部15から枠オブジェクトH3が出力されなかった場合、背景映像部分F22及び前景映像部分F21をこの順に合成、即ち入力された映像F2と同様の映像を生成し、表示部2へ出力する。
枠オブジェクト生成部15から枠オブジェクトH3が出力された場合、以下の処理を実行する。
<Video composition part>
The video composition unit 16 acquires the foreground video part F11 and the background video part F12 output from the video division unit 13 and the frame object H3 output from the frame object generation unit 15. However, when the frame object H3 is not output from the frame object generation unit 15, for example, when the video F2 is processed, only the foreground video portion F21 and the background video portion F22 are acquired.
When the frame object H3 is not output from the frame object generation unit 15, the background video part F22 and the foreground video part F21 are synthesized in this order, that is, a video similar to the input video F2 is generated and output to the display unit 2. .
When the frame object H3 is output from the frame object generation unit 15, the following processing is executed.

図14は、映像合成部16の処理内容を概念的に示す説明図である。映像合成部16は、映像分割部13から出力された前景映像部分F11及び背景映像部分F12と、枠オブジェクト生成部15から出力された枠オブジェクトH3を入力する。そして、映像合成部16は、図14(a)、(b)に示すように背景映像部分F12に枠オブジェクトH3が重畳され、更に枠オブジェクトH3に前景映像部分F11が重畳されるように、背景映像部分F12、枠オブジェクトH3及び前景映像部分F11を合成する。また、映像及び枠オブジェクトH3の形状及び寸法が一致しない場合、図14(b)に示すように、枠オブジェクトH3の外側の領域が発生するが、映像合成部16は、枠オブジェクトH3の外側にはみ出た背景映像部分F12を表示させないように、該領域には所定の補完映像I1,I2を合成する。なお、枠オブジェクトH3の外側にはみ出た前景映像部分F11は、そのまま表示させる。つまり、補完映像I1,I2に重畳させるように、前景映像部分F11を表示させる。補完映像I1,I2は、例えば、単色の映像、壁のテクスチャ等の任意の映像である。枠オブジェクトH3の外側にはみ出た背景映像部分F12をそのまま表示した場合、視聴者が背景映像部分F12の奥行きを誤って認識するおそれがあるところ、補完映像I1,I2によって、枠オブジェクトH3の外側にはみ出た映像部分を覆うことによって、奥行きの誤認を防止することができ、効果的に映像の奥行きを強調することが可能になる。   FIG. 14 is an explanatory diagram conceptually showing the processing content of the video composition unit 16. The video composition unit 16 receives the foreground video portion F11 and the background video portion F12 output from the video division unit 13 and the frame object H3 output from the frame object generation unit 15. Then, as shown in FIGS. 14A and 14B, the video compositing unit 16 superimposes the background so that the frame object H3 is superimposed on the background video portion F12 and further the foreground video portion F11 is superimposed on the frame object H3. The video part F12, the frame object H3, and the foreground video part F11 are combined. If the shape and dimensions of the video and the frame object H3 do not match, as shown in FIG. 14B, an area outside the frame object H3 is generated, but the video composition unit 16 is outside the frame object H3. In order not to display the protruding background video portion F12, predetermined complementary videos I1 and I2 are synthesized in the area. The foreground video portion F11 that protrudes outside the frame object H3 is displayed as it is. That is, the foreground image portion F11 is displayed so as to be superimposed on the complementary images I1 and I2. The complementary images I1 and I2 are arbitrary images such as a monochrome image and a wall texture, for example. When the background video portion F12 that protrudes outside the frame object H3 is displayed as it is, there is a possibility that the viewer may erroneously recognize the depth of the background video portion F12. By covering the protruding video portion, it is possible to prevent the depth from being misidentified and to effectively enhance the depth of the video.

なお、表示装置周辺の映像を取得できる場合は、該映像を補完映像として表示することとしても良い。   In addition, when the video around the display device can be acquired, the video may be displayed as a complementary video.

映像合成部16は、背景映像部分F12、枠オブジェクトH3及び前景映像部分F11の合成によって得られた合成映像を外部の表示部2へ出力する。   The video composition unit 16 outputs a composite video obtained by combining the background video part F12, the frame object H3, and the foreground video part F11 to the external display unit 2.

以上、1フレームの映像F1,F2に対する映像処理手順を説明したが、動画を構成する複数フレームの映像を処理する場合、同様の映像処理を各映像に対して実行すれば良い。   The video processing procedure for one frame of video F1 and F2 has been described above. However, when processing a plurality of frames of video constituting a moving image, the same video processing may be executed for each video.

図15は、動画を構成する複数の映像に対して、枠オブジェクトH3を選択的に付与して得られた動画を概念的に示す説明図である。例えば、図15に示すように動画像Q1が与えられた場合には、該動画像Q1を構成する各フレームの映像に上述の処理を行う。動画像Q1は、複数のフレーム群Q01〜Q07から構成されている。特にフレーム群Q01,Q04,Q06を構成する映像は、前景映像部分が映像の端部に接触しておらず、フレーム群Q02,Q03,Q05,Q07を構成する映像は、前景映像部分が映像の端部に接触している。つまり、動画像Q1は、枠オブジェクトH3を付与することで飛び出し感強調の効果が得られると判定されるフレーム群Q01,Q04,Q06と、枠オブジェクトH3を付与しても飛び出し感強調の効果が得られないフレーム群Q02,Q03,Q05,Q07とから成る。この場合、各フレーム群Q01〜Q07に上述の処理を実行すると、フレーム群Q01,Q04,Q06を構成する映像に対してのみ枠オブジェクトH3が選択的に重畳された動画像Q2が得られる。   FIG. 15 is an explanatory diagram conceptually showing a moving image obtained by selectively assigning the frame object H3 to a plurality of videos constituting the moving image. For example, when the moving image Q1 is given as shown in FIG. 15, the above-described processing is performed on the video of each frame constituting the moving image Q1. The moving image Q1 is composed of a plurality of frame groups Q01 to Q07. In particular, for the images constituting the frame groups Q01, Q04, Q06, the foreground image portion is not in contact with the end of the image, and for the images constituting the frame groups Q02, Q03, Q05, Q07, the foreground image portion is the image. Touching the edge. That is, the moving image Q1 has the frame group Q01, Q04, Q06, which is determined to have the effect of emphasizing popping out by adding the frame object H3, and the effect of emphasizing popping out even when the frame object H3 is added. It consists of frame groups Q02, Q03, Q05, and Q07 that cannot be obtained. In this case, when the above-described processing is executed for each of the frame groups Q01 to Q07, a moving image Q2 in which the frame object H3 is selectively superimposed only on the video that forms the frame groups Q01, Q04, and Q06 is obtained.

表示部2は、例えば液晶表示パネル、プラズマディスプレイ、有機EL(Electro-Luminescence)ディスプレイであり、映像処理装置1から出力された合成映像を入力し、合成映像を表示する。
なお、合成映像の出力先として表示部2を例示したが、合成映像を出力することが可能であれば、プリンタ、送信装置その他、各種出力装置を採用しても良い。
The display unit 2 is, for example, a liquid crystal display panel, a plasma display, or an organic EL (Electro-Luminescence) display. The display unit 2 receives the composite video output from the video processing device 1 and displays the composite video.
Although the display unit 2 is exemplified as the output destination of the composite video, a printer, a transmission device, and other various output devices may be employed as long as the composite video can be output.

図16は、映像処理装置1が実施する映像処理方法の流れを示すフローチャートである。処理動作開始の指示が与えられた場合、各構成部は動作を開始し、映像取得部11は、映像処理装置1に入力した映像、例えば映像F1,F2を取得し、取得した映像F1,F2を映像分割部13へ出力する(ステップS11)。次いで、奥行き情報取得部12は、映像処理装置1に入力した奥行き情報を取得し、取得した奥行き情報を映像分割部13へ出力する(ステップS12)。   FIG. 16 is a flowchart showing the flow of a video processing method performed by the video processing apparatus 1. When an instruction to start the processing operation is given, each component starts operation, and the video acquisition unit 11 acquires videos input to the video processing device 1, for example, videos F1 and F2, and acquires the acquired videos F1 and F2. Is output to the video dividing unit 13 (step S11). Next, the depth information acquisition unit 12 acquires the depth information input to the video processing device 1 and outputs the acquired depth information to the video division unit 13 (step S12).

そして、映像分割部13は、映像F1,F2及び奥行き情報を入力し、該映像F1,F2及び奥行き情報に基づいて、枠オブジェクトH3の配置位置を決定する(ステップS13)。次いで、映像分割部13は、奥行き情報及び映像F1,F2を枠オブジェクトH3の配置位置に基づいて、映像F1,F2を前景映像部分F11,F21と、背景映像部分F12,F22とに分割し、分割された前景映像部分F11,F12及び背景映像部分F12,F22を枠オブジェクト生成部15及び映像合成部16へ出力する(ステップS14)。   Then, the video dividing unit 13 inputs the videos F1 and F2 and the depth information, and determines the arrangement position of the frame object H3 based on the videos F1 and F2 and the depth information (Step S13). Next, the video dividing unit 13 divides the videos F1 and F2 into the foreground video parts F11 and F21 and the background video parts F12 and F22 based on the depth information and the positions of the frame objects H3. The divided foreground video portions F11 and F12 and background video portions F12 and F22 are output to the frame object generation unit 15 and the video composition unit 16 (step S14).

次いで、飛び出し情報取得部14は、映像処理装置1に入力した飛び出し情報を取得し、取得した飛び出し情報を枠オブジェクト生成部15へ出力する(ステップS15)。   Next, the pop-out information acquisition unit 14 acquires the pop-out information input to the video processing device 1, and outputs the acquired pop-out information to the frame object generation unit 15 (step S15).

そして、枠オブジェクト生成部15の枠オブジェクト付与判定部15aは、前景映像部分F11,F21であって、入力された映像F1,F2の端部に対応する映像部分を特定する(ステップS16)。例えば、枠オブジェクト付与判定部15aは、映像F1,F2における上辺、下辺、左辺、右辺のいずれかにおいて、前景映像部分F11,F21を構成する画素を特定し、その数を算出する。   Then, the frame object addition determination unit 15a of the frame object generation unit 15 specifies the video portions corresponding to the end portions of the input videos F1 and F2 that are the foreground video portions F11 and F21 (step S16). For example, the frame object addition determination unit 15a specifies pixels constituting the foreground video portions F11 and F21 on any of the upper side, the lower side, the left side, and the right side in the videos F1 and F2, and calculates the number thereof.

次いで、枠オブジェクト付与判定部15aは、ステップS16で算出した画素の数に基づいて、枠オブジェクトH3を付与すべきか否かを判定する(ステップS17)。つまり、枠オブジェクト付与判定部15aは、映像F1,F2に枠オブジェクトH3を付与することによって飛び出し感強調の効果が得られるか否かを判定する。具体的には、枠オブジェクト付与判定部15aは、前景映像部分F11,F21に、入力された映像F1,F2の端部の映像部分が含まれていない場合、枠オブジェクトH3を付与すべしと判定する。また、枠オブジェクト付与判定部15aは、前景映像部分F11,F21に、入力された映像F1,F2の端部の映像部分が含まれている場合であって、前景映像部分F11,F21に含まれる端部の映像部分の画素数が所定の閾値未満である場合、枠オブジェクトH3を付与すべしと判定するようにしても良い。   Next, the frame object provision determination unit 15a determines whether or not the frame object H3 should be imparted based on the number of pixels calculated in step S16 (step S17). That is, the frame object addition determination unit 15a determines whether or not the effect of emphasizing popping out can be obtained by adding the frame object H3 to the videos F1 and F2. Specifically, the frame object addition determination unit 15a determines that the frame object H3 should be added when the foreground video portions F11 and F21 do not include the end video portions of the input images F1 and F2. To do. Further, the frame object addition determination unit 15a is a case where the foreground video portions F11 and F21 include the video portions at the ends of the input videos F1 and F2, and is included in the foreground video portions F11 and F21. If the number of pixels in the video portion at the end is less than a predetermined threshold, it may be determined that the frame object H3 should be added.

枠オブジェクトを付与すべきで無いと判定した場合(ステップS17:NO)、枠オブジェクト生成部15は、枠オブジェクトH3を生成せず、映像合成部16は、例えば、前景映像部分F21及び背景映像部分F22をこの順で合成し、合成して得た映像、つまり取得した当初の映像F2を表示部2へ出力し(ステップS21)、処理を終える。   When it is determined that the frame object should not be added (step S17: NO), the frame object generation unit 15 does not generate the frame object H3, and the video composition unit 16 performs, for example, the foreground video portion F21 and the background video portion. F22 is synthesized in this order, and the video obtained by synthesis, that is, the acquired initial video F2 is output to the display unit 2 (step S21), and the process is completed.

枠オブジェクトを付与すべきであると判定した場合(ステップS17:YES)、枠オブジェクト生成部15は、枠オブジェクトH3を生成し、生成した枠オブジェクトH3を映像合成部16へ出力する(ステップS18)。   When it is determined that a frame object should be added (step S17: YES), the frame object generation unit 15 generates a frame object H3 and outputs the generated frame object H3 to the video composition unit 16 (step S18). .

図17は、枠オブジェクト生成部15の動作の流れを示すフローチャートである。枠オブジェクト生成部15は、記憶部15bから原三次元枠オブジェクトH1を読み出す(ステップS31)。そして、枠オブジェクト生成部15の回転処理部15cは、飛び出し情報に応じて、原三次元枠オブジェクトH1を回転させる処理を実行し(ステップS32)、射影変換部15dは、回転処理後の三次元枠オブジェクトH11,H21の射影変換によって、枠オブジェクトH3の形状を決定する(ステップS33)。   FIG. 17 is a flowchart showing an operation flow of the frame object generation unit 15. The frame object generation unit 15 reads the original three-dimensional frame object H1 from the storage unit 15b (step S31). Then, the rotation processing unit 15c of the frame object generation unit 15 executes a process of rotating the original 3D frame object H1 according to the pop-out information (step S32), and the projective conversion unit 15d performs the 3D after the rotation process. The shape of the frame object H3 is determined by projective transformation of the frame objects H11 and H21 (step S33).

そして、色決定部15eは、映像の輝度及び色に基づいて、枠オブジェクトH3の輝度及び色を決定し(ステップS34)、枠オブジェクトH3の生成に係る処理を終える。   Then, the color determination unit 15e determines the luminance and color of the frame object H3 based on the luminance and color of the video (step S34), and finishes the process related to the generation of the frame object H3.

ステップS18の処理に次いで、映像合成部16は、前景映像部分F11及び背景映像部分F12と、枠オブジェクトH3とを入力し、背景映像部分F12、枠オブジェクトH3、前景映像部分F11をこの順で重畳的に合成し、また補完映像I1,I2を合成し、合成して得た合成映像を表示部2へ出力する(ステップS19)。   Following the processing in step S18, the video composition unit 16 inputs the foreground video portion F11, the background video portion F12, and the frame object H3, and superimposes the background video portion F12, the frame object H3, and the foreground video portion F11 in this order. The complementary images I1 and I2 are synthesized, and the synthesized video obtained by the synthesis is output to the display unit 2 (step S19).

そして、表示部2は、映像合成部16から出力された合成映像を入力し、該合成映像を表示し(ステップS20)、処理を終える。
以上、1フレームの映像に対する映像処理手順を説明したが、動画を構成する複数フレームの映像を処理する場合、同様の映像処理を各映像に対して実行すれば良い。
なお、複数フレームの映像に対して枠オブジェクトH3の配置位置、形状及び色が急激に変化すると視聴者に違和感を与えるおそれがあるため、時系列順に隣り合う各映像夫々で決定された配置位置、生成された形状及び色の変化量を一定に抑えるローパスフィルタを備えても良い。
Then, the display unit 2 inputs the synthesized video output from the video synthesizing unit 16, displays the synthesized video (Step S20), and ends the process.
The video processing procedure for one frame of video has been described above. However, when processing a plurality of frames of video constituting a moving image, the same video processing may be executed for each video.
Note that if the arrangement position, shape, and color of the frame object H3 change suddenly with respect to a plurality of frames of video, the viewer may feel uncomfortable, so the arrangement position determined for each video adjacent in time series, A low-pass filter that keeps the amount of change in the generated shape and color constant may be provided.

このように構成された映像処理装置1及び映像処理方法にあっては、専用の映像表示装置及び特殊な眼鏡を用いず、画像処理のみによって映像の奥行き感を向上させることができる。   In the video processing device 1 and the video processing method configured as described above, it is possible to improve the sense of depth of video only by image processing without using a dedicated video display device and special glasses.

なお、本実施の形態に係る映像処理装置1及び映像処理方法は、表示部2を備える液晶テレビ、有機ELテレビ、プラズマテレビ等のテレビ、表示部2を備える静止画カメラ、ビデオカメラ、携帯電話機、PDA(Personal Digital Assistants)等の各種携帯機器、パーソナルコンピュータ、インフォメーションディスプレイ、映像を出力するBD(Blu-ray Disc)レコーダ、DVD(Digital Versatile Disc)レコーダ、HDD(Hard Disk Drive)レコーダ等の各種レコーダ、デジタルフォトフレーム、その他ディスプレイが設けられた各種家具及び家電に適用することが可能である。   Note that the video processing apparatus 1 and the video processing method according to the present embodiment include a liquid crystal television including a display unit 2, a television such as an organic EL television and a plasma television, a still image camera including the display unit 2, a video camera, and a mobile phone. , PDAs (Personal Digital Assistants) and other portable devices, personal computers, information displays, video output BD (Blu-ray Disc) recorders, DVD (Digital Versatile Disc) recorders, HDD (Hard Disk Drive) recorders, etc. The present invention can be applied to a recorder, a digital photo frame, and other various furniture and home appliances provided with a display.

(変形例1)
変形例1に係る映像処理装置は、枠オブジェクトH3が付与された映像F1のみを選択的に出力するように構成されている点が、上述の実施の形態とは異なるため、以下では主に上記相異点について説明する。
(Modification 1)
Since the video processing apparatus according to the modification 1 is configured to selectively output only the video F1 to which the frame object H3 is attached, it differs from the above-described embodiment. The differences will be described.

図18は、変形例1に係る映像処理装置101の一構成例を示すブロック図である。変形例1に係る映像処理装置101は、映像合成部16から出力された映像を取得し、取得した映像を編集して出力する出力映像編集部117を備える。   FIG. 18 is a block diagram illustrating a configuration example of the video processing apparatus 101 according to the first modification. The video processing apparatus 101 according to the modification 1 includes an output video editing unit 117 that acquires the video output from the video synthesis unit 16, edits the acquired video, and outputs the edited video.

出力映像編集部117は、取得した映像の出力の有無を、枠オブジェクトH3が付与された映像であるか否かによって切り替えるように構成されている。つまり、出力映像編集部117は、取得した映像が、枠オブジェクトH3が付与された映像であるか否かを判定し、枠オブジェクトH3が付与された映像である場合、該映像を表示部2へ出力し、枠オブジェクトH3が付与されていない映像である場合、該映像を表示部2へ出力しない。   The output video editing unit 117 is configured to switch whether or not the acquired video is output depending on whether or not the video is provided with the frame object H3. That is, the output video editing unit 117 determines whether or not the acquired video is a video to which the frame object H3 is added. If the acquired video is the video to which the frame object H3 is added, the output video editing unit 117 sends the video to the display unit 2. When the video is output and the frame object H3 is not attached, the video is not output to the display unit 2.

図19は、枠オブジェクトH3を付与された映像を選択的に並べて得られる動画像を概念的に示す説明図である。図19に示すように、動画像Q1を構成する複数の映像に対して選択的に枠オブジェクトH3を付与することによって、動画像Q2が得られる。更に、出力映像編集部117は、枠オブジェクトH3が付与されたフレーム群Q01,Q04,Q06からなる動画像Q3を生成する。その結果、枠オブジェクトH3が付与された映像のみ、即ち飛び出し感強調効果がある映像のみで構成された動画像Q3を出力することができる。   FIG. 19 is an explanatory diagram conceptually showing a moving image obtained by selectively arranging videos provided with the frame object H3. As shown in FIG. 19, a moving image Q2 is obtained by selectively assigning a frame object H3 to a plurality of videos constituting the moving image Q1. Further, the output video editing unit 117 generates a moving image Q3 including the frame groups Q01, Q04, and Q06 to which the frame object H3 is assigned. As a result, it is possible to output a moving image Q3 composed only of a video to which the frame object H3 is added, that is, only a video having a pop-out feeling enhancement effect.

(変形例2)
図20は、変形例2に係る映像処理装置201の一構成例を示すブロック図である。本実施の形態では、奥行き情報を映像とは別に取得するように構成されているところ、変形例2に係る映像処理装置201は、映像取得部211にて取得した映像から各種演算によって奥行き情報を取得するように構成されている。具体的には、映像取得部211及び奥行き情報取得部212の構成が異なるため、以下では主に上記相異点について説明する。
(Modification 2)
FIG. 20 is a block diagram illustrating a configuration example of the video processing apparatus 201 according to the second modification. In this embodiment, the depth information is configured to be acquired separately from the video. However, the video processing apparatus 201 according to the modification 2 obtains the depth information from the video acquired by the video acquisition unit 211 by various operations. Is configured to get. Specifically, since the configurations of the video acquisition unit 211 and the depth information acquisition unit 212 are different, the differences will be mainly described below.

映像取得部211は、立体感又は奥行き感を向上させる映像処理対象の映像を取得し、取得した映像を映像分割部13へ出力すると共に、奥行き情報取得部212へ出力する。   The video acquisition unit 211 acquires a video to be processed to improve the stereoscopic effect or the depth feeling, outputs the acquired video to the video dividing unit 13, and outputs the acquired video to the depth information acquisition unit 212.

奥行き情報取得部212は、映像取得部211から出力された映像を入力し、入力した映像に基づいて奥行き情報を算出し、算出して得た奥行き情報を映像分割部13へ出力する。   The depth information acquisition unit 212 receives the video output from the video acquisition unit 211, calculates depth information based on the input video, and outputs the calculated depth information to the video division unit 13.

奥行き情報の算出方法は、例えば特開平9−161074号公報に示された方法を利用すれば良い。   As a method for calculating depth information, for example, a method disclosed in Japanese Patent Laid-Open No. 9-161074 may be used.

また、映像がなんらかの方式で符号化されている場合、その符号化情報から奥行き情報を作成しても良い。例えばMoving Picture Experts Group(MPEG)によって作られた標準動画規格の一つであるMPEG−4(Moving Picture Expert Group phase4)では背景や人物などのオブジェクト単位で符号化することが可能である。映像が該機能を用いて、背景と人物が別々に符号化されていた場合は、この情報を用いて、例えば、背景の奥行きを「2」、人物の奥行きを「1」と割り当てた2段階の奥行き情報を作成する。但し、数字が小さいほど手前側を意味する。   Further, when the video is encoded by some method, depth information may be created from the encoded information. For example, in MPEG-4 (Moving Picture Expert Group phase 4), which is one of the standard moving image standards created by the Moving Picture Experts Group (MPEG), encoding can be performed in units of objects such as backgrounds and persons. If the video is encoded using the function and the background and the person are encoded separately, using this information, for example, the background depth is assigned to “2” and the depth of the person is assigned to “1”. Create depth information. However, the smaller the number, the closer to the front.

変形例2にあっては、映像処理装置201に奥行き情報を与えなくても、映像を前景映像部分F11、背景映像部分F12に分割し、枠オブジェクトH3を挿入することができ、映像の奥行きを強調することができる。   In the second modification, the video can be divided into the foreground video portion F11 and the background video portion F12 without inserting depth information to the video processing device 201, and the frame object H3 can be inserted. Can be emphasized.

(変形例3)
図21は、変形例3に係る映像処理装置301の一構成例を示すブロック図である。本実施の形態では、飛び出し情報を映像とは別に取得するように構成されているところ、変形例3に係る映像処理装置301は、映像取得部311にて取得した映像から各種演算によって飛び出し情報を取得するように構成されている。具体的には、映像取得部311及び飛び出し情報取得部314の構成が異なるため、以下では主に上記相異点について説明する。
(Modification 3)
FIG. 21 is a block diagram illustrating a configuration example of the video processing device 301 according to the third modification. In the present embodiment, the pop-up information is obtained separately from the video. However, the video processing device 301 according to the modification 3 obtains the pop-out information by various operations from the video acquired by the video acquisition unit 311. Is configured to get. Specifically, since the configurations of the video acquisition unit 311 and the pop-out information acquisition unit 314 are different, the difference will be mainly described below.

映像取得部311は、立体感又は奥行き感を向上させる映像処理対象の映像、特に、背景や人物などのオブジェクト単位で符号化された動画の映像を取得し、取得した映像を映像分割部13へ出力すると共に、飛び出し情報取得部314へ出力する。   The video acquisition unit 311 acquires a video to be processed for improving a stereoscopic effect or a depth feeling, in particular, a moving image encoded in units of objects such as a background and a person, and the acquired video is supplied to the video dividing unit 13. Output to the pop-out information acquisition unit 314.

飛び出し情報取得部314は、連続するフレームを構成する映像中のオブジェクトの移動方向及び大きさの変化を算出する。そして、飛び出し情報取得部314は、オブジェクトの水平方向の移動量に基づいて、飛び出し情報のX軸ベクトル成分を算出する。図12に示す三次元空間において、オブジェクトがX軸正方向へ移動している場合、飛び出し情報のX軸ベクトル成分を正の値とし、オブジェクトの移動量が大きい程、該値を大きく設定する。逆に、オブジェクトがX軸負方向へ移動している場合、飛び出し情報のX軸ベクトル成分を負の値とし、オブジェクトの移動量が大きい程、該値の絶対値を大きく設定する。
同様に、飛び出し情報取得部314は、オブジェクトの垂直方向の移動量に基づいて、飛び出し情報のY軸ベクトル成分を算出する。
また、飛び出し情報取得部314は、オブジェクトの大きさが大きくなる方向へ変化している場合、飛び出し情報のZ軸ベクトル成分を正の値とし、オブジェクトの大きさの変化量が大きい程、該値を大きく設定する。逆に、オブジェクトの大きさが小さくなる方向へ変化している場合、飛び出し情報のX軸ベクトル成分を負の値とし、オブジェクトの大きさの変化量が大きい程、該値の絶対値を大きく設定する。
The pop-out information acquisition unit 314 calculates a change in the moving direction and size of the object in the video constituting the continuous frame. Then, the pop-out information acquisition unit 314 calculates an X-axis vector component of the pop-out information based on the amount of movement of the object in the horizontal direction. In the three-dimensional space shown in FIG. 12, when the object is moving in the positive X-axis direction, the X-axis vector component of the pop-out information is set to a positive value, and the value is set to be larger as the movement amount of the object is larger. Conversely, when the object is moving in the negative X-axis direction, the X-axis vector component of the pop-out information is set to a negative value, and the absolute value of the value is set larger as the amount of movement of the object increases.
Similarly, the pop-out information acquisition unit 314 calculates the Y-axis vector component of the pop-out information based on the amount of vertical movement of the object.
Further, when the pop-out information acquisition unit 314 changes in the direction in which the size of the object increases, the Z-axis vector component of the pop-out information is set to a positive value, and the larger the change amount of the object size, the larger the value Set a larger value. Conversely, if the object size is changing in a decreasing direction, the X-axis vector component of the pop-out information is set to a negative value, and the absolute value of the value is set to increase as the amount of change in the object size increases. To do.

変形例3にあっては、映像処理装置301に飛び出し情報を与えなくても、映像を前景映像部分F11、背景映像部分F12に分割し、枠オブジェクトH3を挿入することができ、映像の奥行きを強調することができる。   In the third modification, the video can be divided into the foreground video portion F11 and the background video portion F12 without inserting the jump information to the video processing device 301, and the frame object H3 can be inserted. Can be emphasized.

なお、変形例2及び変形例3を組み合わせ、映像処理装置301に入力した映像から奥行き情報及び飛び出し情報夫々を算出するように構成しても良い。この場合、映像処理装置301に奥行き情報及び飛び出し情報の双方を与えなくても、映像の奥行きを強調することができる。   Note that the modification 2 and the modification 3 may be combined, and the depth information and the pop-out information may be calculated from the video input to the video processing device 301. In this case, the depth of the video can be emphasized without giving both the depth information and the pop-out information to the video processing device 301.

(変形例4)
実施の形態では、映像の奥行きを強調する奥行き強調映像として、額縁型の枠オブジェクトH3を例示したところ、変形例4に係る映像処理装置1は、枠オブジェクトH3に代えてカーテンオブジェクトH401を表示するように構成されている。具体的には、変形例4に係る映像処理装置1は、枠オブジェクト生成部15に代えて、図示しないカーテンオブジェクト生成部を備える。
(Modification 4)
In the embodiment, the frame-type frame object H3 is illustrated as the depth-enhanced video that emphasizes the depth of the video. However, the video processing device 1 according to the modification 4 displays the curtain object H401 instead of the frame object H3. It is configured as follows. Specifically, the video processing device 1 according to the modification 4 includes a curtain object generation unit (not shown) instead of the frame object generation unit 15.

図22は、奥行き強調映像の一例であるカーテンオブジェクトH401を示す模式図である。カーテンオブジェクト生成部は、映像の水平方向両側夫々に位置するカーテン形状のカーテンオブジェクトH401を記憶しており、該カーテンオブジェクトH401を映像合成部16へ出力する。カーテンオブジェクトH401の形状及び色は映像の内容に拘わらず一定である。なお、言うまでもなく、カーテンオブジェクト生成部が前景映像部分F11及び背景映像部分F12を入力し、該前景映像部分F11及び背景映像部分F12の輝度に基づいて、カーテンオブジェクトH401の色及び輝度を変更するように構成しても良い。また、三次元形状の原三次元カーテンオブジェクトを記憶しておき、飛び出し情報を入力し、該飛び出し情報を用いて原三次元カーテンオブジェクトを回転及び射影変換することによって、二次元形状のカーテンオブジェクトH401を生成するように構成しても良い。   FIG. 22 is a schematic diagram illustrating a curtain object H401 that is an example of a depth-enhanced video. The curtain object generation unit stores curtain-shaped curtain objects H401 located on both sides in the horizontal direction of the video, and outputs the curtain objects H401 to the video composition unit 16. The shape and color of the curtain object H401 are constant regardless of the content of the video. Needless to say, the curtain object generation unit inputs the foreground video portion F11 and the background video portion F12, and changes the color and luminance of the curtain object H401 based on the luminance of the foreground video portion F11 and the background video portion F12. You may comprise. In addition, the original three-dimensional curtain object having a three-dimensional shape is stored, the pop-out information is input, and the original three-dimensional curtain object is rotated and projectively converted using the pop-out information, whereby the two-dimensional shape curtain object H401 is obtained. May be configured to generate.

なお、奥行き強調映像の一例として実施の形態では枠形状、変形例4ではカーテン形状を例示したが、映像の奥行きを強調可能であれば、奥行き強調映像の形状はこれに限定されない。例えば、かぎ括弧形状の奥行き強調映像を採用しても良い。なお、背景映像の主要部分が隠れ無いよう、奥行き強調映像は、映像の端側に位置するように構成する方が好ましい。   As an example of the depth-enhanced video, the frame shape is illustrated in the embodiment, and the curtain shape is illustrated in the fourth modification. However, the shape of the depth-enhanced video is not limited to this as long as the depth of the video can be emphasized. For example, a bracket-enhanced depth-enhanced video may be employed. It should be noted that the depth-enhanced video is preferably configured to be located on the end side of the video so that the main part of the background video is not hidden.

(変形例5)
実施の形態では、図12(b)に示すように映像の飛び出し情報がZ軸成分のみを有する場合、枠オブジェクトH503の形状は特に変形しないため、Z軸方向への飛び出しを強調することができない。変形例5に係る映像処理装置1は、飛び出し情報がZ軸成分のみを有する場合、枠オブジェクトH503の形状をZ軸方向へ迫り出すように変更することによって、Z軸方向、つまり視聴者側への飛び出しを強調することができるように構成したものである。実施の形態とは、枠オブジェクト生成部15の処理内容のみが異なるため、以下では主に上記相異点について説明する。
(Modification 5)
In the embodiment, when the video pop-out information has only the Z-axis component as shown in FIG. 12B, the shape of the frame object H503 is not particularly deformed, so that the pop-out in the Z-axis direction cannot be emphasized. . When the pop-out information includes only the Z-axis component, the video processing device 1 according to the modified example 5 changes the shape of the frame object H503 so as to protrude in the Z-axis direction, thereby moving the frame object H503 toward the viewer side. It is constructed so that the popping out of the can be emphasized. Since only the processing content of the frame object generation unit 15 is different from the embodiment, the above differences will be mainly described below.

図23は、変形例5に係る枠オブジェクトH503の形状決定方法を概念的に示す説明図である。枠オブジェクト生成部15は、飛び出し情報のZ軸成分のみを含む場合、又はZ軸成分がX軸成分、Y軸成分に比べて所定値以上大きい場合、特にZ軸成分が正の場合、図23に示すように、原三次元枠オブジェクトH501の水平方向略中央部を山としてX軸正方向へ迫り出すように屈曲させ、更に原三次元枠オブジェクトH501の水平枠部分(枠の長辺部分)を垂直方向へ押し広げた立体形状に変形させる。そして、枠オブジェクト生成部15は、変形後の三次元枠オブジェクトH501をXY平面に射影変換した二次元形状を算出し、算出された二次元形状を枠オブジェクトH503の形状として決定する。   FIG. 23 is an explanatory diagram conceptually illustrating a method for determining the shape of the frame object H503 according to the fifth modification. When the frame object generation unit 15 includes only the Z-axis component of the pop-out information, or when the Z-axis component is larger than the X-axis component and the Y-axis component by a predetermined value or more, particularly when the Z-axis component is positive, FIG. As shown in FIG. 4, the horizontal center portion of the original three-dimensional frame object H501 is bent so as to protrude in the positive direction along the X axis with a substantially central portion in the horizontal direction as a mountain, and further, the horizontal frame portion (long side portion of the frame) of the original three-dimensional frame object H501 Is deformed into a three-dimensional shape that is spread in the vertical direction. Then, the frame object generation unit 15 calculates a two-dimensional shape obtained by projecting and transforming the deformed three-dimensional frame object H501 onto the XY plane, and determines the calculated two-dimensional shape as the shape of the frame object H503.

逆に、Z軸成分が負の場合、枠オブジェクト生成部15は、原三次元枠オブジェクトH501の水平方向略中央部を谷としてX軸負方向へ迫り出すように屈曲させ、更に原三次元枠オブジェクトH501の水平枠部分(枠の長辺部分)を垂直方向へ押し狭めた立体形状に変形させる。そして、枠オブジェクト生成部15は、変形後の三次元枠オブジェクトH501をXY平面に射影変換した二次元形状を算出し、算出された二次元形状を枠オブジェクトの形状として決定する。   On the other hand, when the Z-axis component is negative, the frame object generation unit 15 bends the original three-dimensional frame object H501 so that it protrudes in the negative direction of the X-axis with the substantially horizontal central portion of the original three-dimensional frame object H501 as a valley. The horizontal frame portion (long side portion of the frame) of the object H501 is deformed into a three-dimensional shape that is narrowed by pushing in the vertical direction. Then, the frame object generation unit 15 calculates a two-dimensional shape obtained by projecting the deformed three-dimensional frame object H501 onto the XY plane, and determines the calculated two-dimensional shape as the shape of the frame object.

映像合成部16の処理内容は、本実施の形態と同様である。映像合成部16は、背景映像部分F12に、枠オブジェクトH503、補完映像I501,I502,I503,I504、及び前景映像部分F11が順に重畳させるように合成し、合成して得た合成映像部分を外部へ出力する。   The processing content of the video composition unit 16 is the same as that of the present embodiment. The video composition unit 16 synthesizes the background video part F12 so that the frame object H503, the complementary videos I501, I502, I503, and I504, and the foreground video part F11 are sequentially superimposed, and the synthesized video part obtained by the synthesis is externally generated. Output to.

変形例5に係る映像処理装置1及び映像処理方法にあっては、オブジェクトがZ軸方向、つまりオブジェクトが手前側に迫ってくるような映像、あるいは手前側に飛び出してくるオブジェクトが2個存在し、各々の飛び出し方向が左右別々である映像、例えば中央に位置する人間が画面左右両端に向かって両手を広げたような映像であっても、飛び出し感を強調することができる。   In the video processing device 1 and the video processing method according to the modified example 5, there are two images in which the object moves in the Z-axis direction, that is, the object approaches the near side, or the object that pops out toward the near side. Even in a video in which the pop-out directions of the left and right are different, for example, a video in which a person located in the center spreads both hands toward the left and right ends of the screen, the pop-out feeling can be emphasized.

(変形例6)
図24は、変形例6に係る映像処理装置を示すブロック図である。変形例6に係る映像処理装置は、本発明に係るコンピュータプログラム4aをコンピュータ3に実行させることによって実現される。
(Modification 6)
FIG. 24 is a block diagram illustrating a video processing apparatus according to the sixth modification. The video processing apparatus according to the modified example 6 is realized by causing the computer 3 to execute the computer program 4a according to the present invention.

コンピュータ3は、装置全体を制御するCPU(Central Processing Unit)31を備える。CPU31は、ROM(Read Only Memory)32と、演算に伴って発生する一時的な情報を記憶するRAM(Random Access Memory)33と、本発明の実施の形態に係るコンピュータプログラム4aを記録した記録媒体4、例えばCD−ROMからコンピュータプログラム4aを読み取る外部記憶装置34と、外部記憶装置34により読み取ったコンピュータプログラム4aを記録するハードディスク等の内部記憶装置35と、入力部36と、出力部37とが接続されている。CPU31は、内部記憶装置35からコンピュータプログラム4aをRAM33に読み出して各種演算処理を実行することによって、本発明に係る映像処理方法を実施する。CPU31の処理手順は、図16及び図17に示す通りであり、ステップS11〜21、ステップS31〜34の処理手順を実行する。該処理手順は、本実施の形態及び変形例5に係る映像処理装置1を構成した各構成部の処理内容と同様であるため、その詳細な説明を省略する。   The computer 3 includes a CPU (Central Processing Unit) 31 that controls the entire apparatus. The CPU 31 includes a ROM (Read Only Memory) 32, a RAM (Random Access Memory) 33 that stores temporary information generated in accordance with the calculation, and a recording medium that records the computer program 4a according to the embodiment of the present invention. 4, for example, an external storage device 34 that reads a computer program 4a from a CD-ROM, an internal storage device 35 such as a hard disk that records the computer program 4a read by the external storage device 34, an input unit 36, and an output unit 37 It is connected. The CPU 31 implements the video processing method according to the present invention by reading the computer program 4a from the internal storage device 35 into the RAM 33 and executing various arithmetic processes. The processing procedure of the CPU 31 is as shown in FIGS. 16 and 17, and the processing procedure of steps S11 to 21 and steps S31 to 34 is executed. Since the processing procedure is the same as the processing contents of each component constituting the video processing device 1 according to the present embodiment and the modification 5, detailed description thereof is omitted.

変形例6に係るコンピュータ3及びコンピュータプログラム4aにあっては、コンピュータ3を本実施の形態に係る映像処理装置として機能させ、また本実施の形態に係る映像処理方法を実施させることができ、本実施の形態及び変形例2〜4と同様の効果を奏する。   In the computer 3 and the computer program 4a according to the modified example 6, the computer 3 can function as the video processing apparatus according to the present embodiment, and the video processing method according to the present embodiment can be performed. The same effects as in the embodiment and the second to fourth modifications are obtained.

なお、本変形例6に係るコンピュータプログラム4aは、言うまでもなく記録媒体4に記録されているものに限定されず、有線又は無線の通信網を介してダウンロードし、記憶し、実行されるものであっても良い。   Needless to say, the computer program 4a according to the sixth modification is not limited to the one recorded in the recording medium 4, and is downloaded, stored, and executed via a wired or wireless communication network. May be.

また、今回開示された実施の形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。   In addition, it should be considered that the embodiment disclosed this time is illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the meanings described above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

1 映像処理装置
2 表示部
3 コンピュータ
4 記録媒体
4a コンピュータプログラム
11 映像取得部
12 奥行き情報取得部
13 映像分割部
14 飛び出し情報取得部
15 枠オブジェクト生成部
16 映像合成部
15a 枠オブジェクト付与判定部
15b 記憶部
15c 回転処理部
15d 射影変換部
15e 色決定部
31 CPU
32 ROM
33 RAM
34 外部記憶装置
36 入力部
37 出力部
117 出力映像編集部
F11 前景映像部分
F12 背景映像部分
H1 原三次元枠オブジェクト
H3 枠オブジェクト
DESCRIPTION OF SYMBOLS 1 Image processing apparatus 2 Display part 3 Computer 4 Recording medium 4a Computer program 11 Image | video acquisition part 12 Depth information acquisition part 13 Image | video division | segmentation part 14 Pop-out information acquisition part 15 Frame object generation part 16 Image | video synthetic | combination part 15a Frame object provision determination part 15b Memory | storage 15c Rotation processing unit 15d Projection conversion unit 15e Color determination unit 31 CPU
32 ROM
33 RAM
34 External storage device 36 Input unit 37 Output unit 117 Output video editing unit F11 Foreground video part F12 Background video part H1 Original 3D frame object H3 Frame object

Claims (11)

入力された映像の奥行き感を強調する処理を行う映像処理装置であって、
前記映像を構成する複数の映像部分夫々の奥行き方向の距離を示した奥行き情報を取得する奥行き情報取得手段と、
該奥行き情報取得手段にて取得した奥行き情報及び前記映像に基づいて、該映像を奥行き方向の距離が異なる複数の映像部分に分割する映像分割手段と、
該映像分割手段にて分割された一の映像部分に、前記映像の奥行きを強調するための奥行き強調映像が重畳され、更に該奥行き強調映像に、前記一の映像部分よりも奥行き方向の距離が短い他の映像部分が重畳されるように各映像部分及び奥行き強調映像を合成する映像合成手段と、
前記映像分割手段にて分割された他の映像部分に基づいて、奥行き強調映像を重畳すべきか否かを判定する判定手段と
を備え、
前記映像合成手段は、
前記判定手段が奥行き強調映像を重畳すべしと判定した場合、奥行き強調映像を重畳するようにしてある
ことを特徴とする映像処理装置。
An image processing apparatus that performs processing for enhancing a sense of depth of an input image,
Depth information acquisition means for acquiring depth information indicating the distance in the depth direction of each of a plurality of video parts constituting the video;
Video dividing means for dividing the video into a plurality of video parts having different distances in the depth direction based on the depth information acquired by the depth information acquiring means and the video;
A depth-enhanced video for emphasizing the depth of the video is superimposed on the one video portion divided by the video dividing means, and the depth-enhanced video has a distance in the depth direction relative to the one video portion. Video synthesizing means for synthesizing each video part and depth-enhanced video so that other short video parts are superimposed;
Determination means for determining whether or not a depth-enhanced video should be superimposed based on another video portion divided by the video dividing means,
The video composition means
A video processing apparatus characterized in that when the determination means determines that a depth-enhanced video should be superimposed, a depth-enhanced video is superimposed.
前記映像分割手段にて分割された他の映像部分であって、入力された映像の端部の映像に対応する映像部分を特定する手段を備え、
前記判定手段は、
他の映像部分に、入力された映像の端部の映像部分が含まれていない場合、奥行き強調映像を重畳すべしと判定するようにしてある
ことを特徴とする請求項1に記載の映像処理装置。
Means for identifying a video part corresponding to the video at the end of the input video, which is another video part divided by the video splitting means;
The determination means includes
The video processing according to claim 1, wherein when the video portion at the end of the input video is not included in the other video portions, it is determined that the depth-enhanced video should be superimposed. apparatus.
前記映像分割手段にて分割された他の映像部分であって、入力された映像の端部の映像に対応する映像部分を特定する手段を備え、
前記判定手段は、
他の映像部分に、入力された映像の端部の映像部分が含まれている場合、他の映像部分に含まれる端部の映像部分の面積の大小に応じて、奥行き強調映像を重畳すべきか否かを判定するようにしてある
ことを特徴とする請求項1に記載の映像処理装置。
Means for identifying a video part corresponding to the video at the end of the input video, which is another video part divided by the video splitting means;
The determination means includes
If the video portion at the end of the input video is included in another video portion, should the depth-enhanced video be superimposed according to the size of the area of the video portion at the end included in the other video portion? The video processing apparatus according to claim 1, wherein it is determined whether or not.
入力された映像の輝度又は色に基づいて、輝度又は色が該映像と異なる奥行き強調映像を生成する生成手段を備え、
前記映像合成手段は、
前記生成手段にて生成された奥行き強調映像を合成するようにしてある
ことを特徴とする請求項1から請求項3までのいずれか一つに記載の映像処理装置。
Based on the luminance or color of the input video, comprising generation means for generating a depth-enhanced video having a luminance or color different from that of the video
The video composition means
The video processing apparatus according to any one of claims 1 to 3, wherein the depth-emphasized video generated by the generating unit is synthesized.
前記生成手段は、
前記映像分割手段にて分割された一の映像部分及び/又は他の映像部分の輝度又は色に基づいて、輝度又は色が該映像部分と異なる奥行き強調映像を生成するようにしてある
ことを特徴とする請求項4に記載の映像処理装置。
The generating means includes
Based on the luminance or color of one video portion and / or another video portion divided by the video dividing means, a depth-enhanced video having a luminance or color different from that of the video portion is generated. The video processing apparatus according to claim 4.
時系列順に複数の映像が入力されるように構成されており、
奥行き強調映像が合成されていない映像及び奥行き強調映像を合成して得た映像の中から、奥行き強調映像を合成して得た映像を選択する手段を備える
ことを特徴とする請求項1から請求項5までのいずれか一つに記載の映像処理装置。
It is configured to input multiple videos in chronological order,
The apparatus according to claim 1, further comprising means for selecting a video obtained by synthesizing the depth-enhanced video from a video obtained by synthesizing the depth-enhanced video and a video obtained by synthesizing the depth-enhanced video. Item 6. The video processing device according to any one of Items 5 to 5.
時系列順に複数の映像が入力されるように構成されており、
時系列順に入力された各映像間における映像部分の移動方向を示した移動方向情報を取得する移動方向情報取得手段と、
該移動方向情報取得手段にて取得した移動方向情報に応じた形状を有する奥行き強調映像を生成する生成手段と
を備え、
前記映像合成手段は、
前記生成手段にて生成された奥行き強調映像を合成するようにしてある
ことを特徴とする請求項1から請求項3のいずれか一つに記載の映像処理装置。
It is configured to input multiple videos in chronological order,
Movement direction information acquisition means for acquiring movement direction information indicating the movement direction of the video portion between each video input in chronological order;
Generating means for generating a depth-enhanced video having a shape corresponding to the moving direction information acquired by the moving direction information acquiring means,
The video composition means
The video processing apparatus according to any one of claims 1 to 3, wherein the depth-emphasized video generated by the generation unit is synthesized.
時系列順に複数の映像が入力されるように構成されており、
時系列順に入力された各映像間における映像部分の移動方向を示した移動方向情報を取得する移動方向情報取得手段を備え、
前記生成手段は、
該移動方向情報取得手段にて取得した移動方向情報に応じた形状を有する奥行き強調映像を生成するようにしてある
ことを特徴とする請求項4又は請求項5に記載の映像処理装置。
It is configured to input multiple videos in chronological order,
A moving direction information acquisition means for acquiring moving direction information indicating the moving direction of the video portion between the videos input in time series order,
The generating means includes
6. The video processing apparatus according to claim 4, wherein a depth-enhanced video having a shape corresponding to the movement direction information acquired by the movement direction information acquisition unit is generated.
所定の三次元画像を記憶する記憶手段を備え、
前記生成手段は、
前記記憶手段が記憶している三次元画像と、前記移動方向情報取得手段にて取得した一の映像部分の移動方向情報が示す移動方向とが所定の位置関係になるように、該三次元画像を回転させる回転処理手段を備え、
該回転処理手段にて回転した三次元画像を所定の二次元平面に射影させて得られる二次元形状を有する奥行き強調映像を生成するようにしてある
ことを特徴とする請求項7又は請求項8に記載の映像処理装置。
A storage means for storing a predetermined three-dimensional image;
The generating means includes
The three-dimensional image stored in the storage means and the three-dimensional image so that the movement direction indicated by the movement direction information of one video portion acquired by the movement direction information acquisition means has a predetermined positional relationship. A rotation processing means for rotating
The depth-enhanced video having a two-dimensional shape obtained by projecting the three-dimensional image rotated by the rotation processing unit onto a predetermined two-dimensional plane is generated. The video processing apparatus described in 1.
入力された映像の奥行き感を強調する処理を行う映像処理方法であって、
前記映像を構成する複数の映像部分夫々の奥行き方向の距離を示した奥行き情報を取得し、
取得した奥行き情報及び前記映像に基づいて、該映像を奥行き方向の距離が異なる複数の映像部分に分割し、
分割された他の映像部分に基づいて、前記映像の奥行きを強調するための奥行き強調映像を映像部分に重畳すべきか否かを判定し、
奥行き強調映像を重畳すべしと判定した場合、分割された一の映像部分に、前記映像の奥行きを強調するための奥行き強調映像が重畳され、更に該奥行き強調映像に、前記一の映像部分よりも奥行き方向の距離が短い他の映像部分が重畳されるように各映像部分及び奥行き強調映像を合成する
ことを特徴とする映像処理方法。
An image processing method for performing a process of enhancing the sense of depth of an input image,
Obtaining depth information indicating a distance in a depth direction of each of a plurality of video portions constituting the video;
Based on the acquired depth information and the video, the video is divided into a plurality of video parts having different distances in the depth direction,
Determining whether or not to superimpose a depth-enhanced video for emphasizing the depth of the video on the video part based on the other divided video parts;
When it is determined that the depth-enhanced video is to be superimposed, a depth-enhanced video for emphasizing the depth of the video is superimposed on the divided one video portion, and further, the depth-enhanced video is compared with the one video portion. A video processing method comprising: synthesizing each video portion and depth-enhanced video so that another video portion having a short distance in the depth direction is superimposed.
コンピュータに、映像の奥行き感を強調する処理を実行させるコンピュータプログラムであって、
前記コンピュータに、
前記映像を構成する複数の映像部分夫々の奥行き方向の距離を示した奥行き情報及び前記映像に基づいて、該映像を奥行き方向の距離が異なる複数の映像部分に分割するステップと、
分割された他の映像部分に基づいて、前記映像の奥行きを強調するための奥行き強調映像を映像部分に重畳すべきか否かを判定するステップと、
奥行き強調映像を重畳すべしと判定した場合、分割された一の映像部分に、前記映像の奥行きを強調するための奥行き強調映像が重畳され、更に該奥行き強調映像に、前記一の映像部分よりも奥行き方向の距離が短い他の映像部分が重畳されるように各映像部分及び奥行き強調映像を合成するステップと
を実行させることを特徴とするコンピュータプログラム。
A computer program for causing a computer to execute processing for enhancing a sense of depth of an image,
In the computer,
Dividing the video into a plurality of video parts having different distances in the depth direction based on the depth information indicating the distance in the depth direction of each of the video parts constituting the video and the video; and
Determining whether or not a depth-enhanced video for emphasizing the depth of the video should be superimposed on the video portion based on the other divided video parts;
When it is determined that the depth-enhanced video is to be superimposed, a depth-enhanced video for emphasizing the depth of the video is superimposed on the divided one video portion, and further, the depth-enhanced video is more than the one video portion. And a step of synthesizing each video portion and the depth-enhanced video so that another video portion having a short distance in the depth direction is superimposed.
JP2009274775A 2009-12-02 2009-12-02 Video processing apparatus, video processing method and computer program Pending JP2011119926A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009274775A JP2011119926A (en) 2009-12-02 2009-12-02 Video processing apparatus, video processing method and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009274775A JP2011119926A (en) 2009-12-02 2009-12-02 Video processing apparatus, video processing method and computer program

Publications (1)

Publication Number Publication Date
JP2011119926A true JP2011119926A (en) 2011-06-16

Family

ID=44284730

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009274775A Pending JP2011119926A (en) 2009-12-02 2009-12-02 Video processing apparatus, video processing method and computer program

Country Status (1)

Country Link
JP (1) JP2011119926A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013042301A (en) * 2011-08-12 2013-02-28 Casio Comput Co Ltd Image processor, image processing method, and program
US20160180514A1 (en) * 2014-12-17 2016-06-23 Lite-On Electronics (Guangzhou) Limited Image processing method and electronic device thereof
CN115314698A (en) * 2022-07-01 2022-11-08 深圳市安博斯技术有限公司 Stereoscopic shooting and displaying device and method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000512833A (en) * 1997-04-18 2000-09-26 エイ・ティ・アンド・ティ・コーポレーション Improving depth perception by integrating monocular cues
JP2003111100A (en) * 2001-09-26 2003-04-11 Sanyo Electric Co Ltd Image composing method and apparatus
JP2004145448A (en) * 2002-10-22 2004-05-20 Toshiba Corp Terminal device, server device, and image processing method
JP2005026966A (en) * 2003-07-01 2005-01-27 Nippon Telegr & Teleph Corp <Ntt> Method and device for reproducing depth information, program, and recording medium
JP2005295163A (en) * 2004-03-31 2005-10-20 Omron Entertainment Kk Photographic printer, photographic printer control method, program, and recording medium with the program recorded thereeon
JP2009053748A (en) * 2007-08-23 2009-03-12 Nikon Corp Image processing apparatus, image processing program, and camera

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000512833A (en) * 1997-04-18 2000-09-26 エイ・ティ・アンド・ティ・コーポレーション Improving depth perception by integrating monocular cues
JP2003111100A (en) * 2001-09-26 2003-04-11 Sanyo Electric Co Ltd Image composing method and apparatus
JP2004145448A (en) * 2002-10-22 2004-05-20 Toshiba Corp Terminal device, server device, and image processing method
JP2005026966A (en) * 2003-07-01 2005-01-27 Nippon Telegr & Teleph Corp <Ntt> Method and device for reproducing depth information, program, and recording medium
JP2005295163A (en) * 2004-03-31 2005-10-20 Omron Entertainment Kk Photographic printer, photographic printer control method, program, and recording medium with the program recorded thereeon
JP2009053748A (en) * 2007-08-23 2009-03-12 Nikon Corp Image processing apparatus, image processing program, and camera

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013042301A (en) * 2011-08-12 2013-02-28 Casio Comput Co Ltd Image processor, image processing method, and program
US20160180514A1 (en) * 2014-12-17 2016-06-23 Lite-On Electronics (Guangzhou) Limited Image processing method and electronic device thereof
CN105791793A (en) * 2014-12-17 2016-07-20 光宝电子(广州)有限公司 Image processing method and electronic device
CN115314698A (en) * 2022-07-01 2022-11-08 深圳市安博斯技术有限公司 Stereoscopic shooting and displaying device and method

Similar Documents

Publication Publication Date Title
JP4903240B2 (en) Video processing apparatus, video processing method, and computer program
Battisti et al. Objective image quality assessment of 3D synthesized views
KR101385514B1 (en) Method And Apparatus for Transforming Stereoscopic Image by Using Depth Map Information
JP4879326B2 (en) System and method for synthesizing a three-dimensional image
US8488869B2 (en) Image processing method and apparatus
US10095953B2 (en) Depth modification for display applications
RU2503062C2 (en) Method and system for encoding three-dimensional video signal, encoder for encoding three-dimensional video signal, encoded three-dimensional video signal, method and system for decoding three-dimensional video signal, decoder for decoding three-dimensional video signal
JP4963124B2 (en) Video processing apparatus, video processing method, and program for causing computer to execute the same
US20150002636A1 (en) Capturing Full Motion Live Events Using Spatially Distributed Depth Sensing Cameras
JP5183277B2 (en) Stereoscopic image display device
US20130182184A1 (en) Video background inpainting
CA2302199A1 (en) Image processing method and apparatus
JP2012507907A (en) Method and apparatus for generating a depth map
JP2011086283A (en) System and method for three-dimensional video capture workflow for dynamic rendering
Schmeing et al. Depth image based rendering: A faithful approach for the disocclusion problem
KR101458986B1 (en) A Real-time Multi-view Image Synthesis Method By Using Kinect
Zhang et al. Visual pertinent 2D-to-3D video conversion by multi-cue fusion
JP2011119926A (en) Video processing apparatus, video processing method and computer program
KR20170097745A (en) Apparatus and method for generating extrapolated images using recursive hierarchical processes
JP5254297B2 (en) Image processing device
Lin et al. A stereoscopic video conversion scheme based on spatio-temporal analysis of MPEG videos
WO2020066008A1 (en) Image data output device, content creation device, content reproduction device, image data output method, content creation method, and content reproduction method
TWI502960B (en) Device and method for 2d to 3d conversion
Jin et al. Joint multilateral filtering for stereo image generation using depth camera
Priya et al. 3d Image Generation from Single 2d Image using Monocular Depth Cues

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120223

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121022

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121030

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130402