JP4427140B2 - Object video display device - Google Patents

Object video display device Download PDF

Info

Publication number
JP4427140B2
JP4427140B2 JP27382299A JP27382299A JP4427140B2 JP 4427140 B2 JP4427140 B2 JP 4427140B2 JP 27382299 A JP27382299 A JP 27382299A JP 27382299 A JP27382299 A JP 27382299A JP 4427140 B2 JP4427140 B2 JP 4427140B2
Authority
JP
Japan
Prior art keywords
object video
video
pasting
pasted
material object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP27382299A
Other languages
Japanese (ja)
Other versions
JP2001103375A (en
Inventor
堅助 上原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP27382299A priority Critical patent/JP4427140B2/en
Publication of JP2001103375A publication Critical patent/JP2001103375A/en
Application granted granted Critical
Publication of JP4427140B2 publication Critical patent/JP4427140B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、例えばMPEG方式により符号化された複数のオブジェクト映像を表示できるオブジェクト映像表示装置に関するもので、特に、あるオブジェクト映像内の他の映像と貼付可能な領域を検出し、その領域に合わせた映像を選択して、その領域に貼付して表示する技術に関する。
【0002】
【従来の技術】
表示対象となる画像に対して修正をする領域を設定し、その領域に別な素材データをはめ込んで、全体として新たな別の画像を作成する技術がある。例えば、特開平8−287225には、3次元で住宅を撮影した画像に対して、壁の一部を新たな別の素材データに置き換えて表示させる技術が開示されている。この従来例においては、画像において、壁を斜視している場合、素材データも元の壁領域に合わせて変更している。そして、素材データをはめ込む際には、そのはめ込む領域を予め手作業でマウス等により、対象となる画像上で選択することを前提としている。つまり、壁の頂点をマウスで設定して、多角形を生成し、その多角形に合わせて素材データを変形し、その素材データを該当する領域に貼り付けている。
【0003】
図6はオブジェクト映像に対して他の映像を貼付させた例を示した説明図である。図6は、対象映像あるいは対象被写体である人物のオブジェクト映像102に数字、人名あるいはCM等のロゴオブジェクト映像104を貼付した例を示している。人物オブジェクト映像102は汎用的に使われ、その一部領域にロゴオブジェクト映像104(例えばこの人物の名前)を貼り付けることで、オブジェクト映像102を色々な用途に使うことができる。また、別の人物のオブジエクト映像108は、顔領域を隠蔽するためマスクオブジェクト映像110が貼付されている。人物オブジェクト映像108の顔を隠蔽することで、誰のオブジェクト映像か分からなくなり、プライバシーの保護に役立つ。112は装飾枠オブジェクト映像である。装飾枠オブジェクト映像112に対して文字オブジェクト映像114を貼り付けることで、汎用の複数種類の装飾枠オブジェクト映像112を用意しておき、文字オブジェクト映像114の内容を適宜変えることで、場面場面で色々な表現手段が実現できる。
【0004】
【発明が解決しようとする課題】
上述した特開平8−287225に開示された技術では、元の住宅画像に対して、素材画像を貼り付ける領域を人手によりマウス等で指定しなければならない。このため、人手がかかるため元の画像は静止画に限定されている。また、従来、図6のオブジェクト映像102に貼り付けるロゴオブジェクト映像104の位置、オブジェクト映像108に貼り付けるマスクオブジェクト映像110の位置、装飾枠オブジェクト映像112に貼り付ける文字オブジェクト映像114の位置は、人手により設定する必要があった。特に、オブジェクト映像102、オブジェクト映像108および装飾枠オブジェクト映像112が動画像の場合、時々刻々位置が変わり、形状も変わる可能性がある。そのため、人手によりロゴオブジェクト映像104、マスクオブジェクト映像110、文字オブジェクト映像114を貼り付ける作業は非常に手間がかかった。従って、実用的には上記オブジェクト映像102、オブジェクト映像108、装飾枠オブジェクト映像112をディスク等の蓄積メディアに格納しておき、人間が少しずつ読み出しながらオブジェクト映像A102、オブジェクト映像B108および文字オブジェクト映像114の位置および形状を確認し、素材側のオブジェクト映像の形状を変えて、適切な位置に貼り付ける作業を行なう必要があった。
【0005】
【課題を解決するための手段】
本発明は上記課題を解決するためになされたもので、オブジェクト映像を供給するオブジェクト映像供給手段と、前記オブジェクト映像供給手段より供給された一つのオブジェクト映像からその形状の情報を抽出し、形状情報として出力する手段と、前記オブジェクト映像供給手段より供給されたオブジェクト映像上に貼付して表示させる素材オブジェクト映像が複数記憶されている素材オブジェクト映像記憶手段と、前記形状情報出力手段より出力されたオブジェクト映像の形状情報に基づいて、当該オブジェクト映像上に素材オブジェクト映像を貼付させる領域を検出する検出手段と、前記検出手段で検出された貼付領域の大きさに適合する素材オブジェクト映像を、前記素材オブジェクト映像記憶手段に記憶されている複数の素材オブジェクト映像の中から選択する選択手段と、前記選択手段で選択された素材オブジェクト映像と貼付される対象のオブジェクト映像とを貼付する貼付手段と、前記貼付手段で貼付された二つのオブジェクト映像を表示する表示手段とを具備したことを特徴としている。
【0006】
また、本発明の前記選択手段は、前記検出手段で検出された貼付領域の大きさに近い素材オブジェクト映像を、前記素材オブジェクト映像記憶手段に記憶されている複数の素材オブジェクト映像の中から選択し、選択された素材オブジェクト映像を、前記貼付領域の大きさに適合するよう変形して出力することを特徴としている。
【0007】
上記した本発明のオブジェクト表示装置にあっては、貼付対象となるオブジェクト映像の形状情報に基づいて自動的に素材オブジェクトの貼付領域を検出する。そして、検出された貼付領域に適合した素材オブジェクトを記憶手段から読み出して貼付領域に貼り付ける。あるいは素材オブジェクト映像の形状を変形して貼付領域に適合した素材オブジェクトを貼付領域に貼り付ける。こうすることにより、従来人手で行っていた作業が貼付自動化されると共に、動画像にも対応することができる。
【0008】
【発明の実施の形態】
以下、図面を参照して本発明の実施形態を説明する。
(第1の実施形態)
図1は本発明によるオブジェクト映像表示装置の実施の形態を示すブロック図である。映像ソース2は、ディスクなどのメディアで映画等のシーンの出演者あるいは静物等がオブジェクト映像として格納されている。本発明では、ディスクに格納されたオブジェクト映像を再生する用途で説明するが、テレビカメラ等で撮影した映像から被写体を領域抽出してからオブジェクト映像符号化したようなリアルタイムでのオブジェクト映像を表示させてもよい。 映像ソース2から読み出されたオブジェクト映像は直列符号化データ4として出力される。直列符号化データ4はオブジェクト映像選択部6に印加される。素材が貼付される対象となるオブジェクト映像100とその他のオブジェクト映像101はオブジェクト映像選択部6で分類される。この分類はあらかじめ編集時に、当該オブジェクトが貼付される対象である旨を示すインデックスを付加することにより実現できる。あるいは、映像ソース2より供給されるシーン構成情報12の中にどのオブジェクト映像を貼付対象とするか、どの時点で貼付するかの情報を含ませておくことでも実現可能である。あるいは、ユーザが、貼付対象とするオブジェクト映像の情報を設定部16を介してオブジェクト映像選択部6に供給してもよい。
【0009】
オブジェクト映像選択部6からはオブジェクト映像100の形状情報8も出力される。ここで形状情報は一種の座標の情報で、当該オブジェクトが存在する座標位置がわかる情報である。したがって、この形状情報は当該オブジェクトの輪郭に関する情報も含んでいる。形状情報はアルファープレーンと呼ばれ、オブジェクト映像が存在する領域を論理値1、存在しない残りの領域を論理値0と表現したもので、論理値1の座標はオブジェクト映像がある領域、論理値0の座標は当該オブジェクト映像のない残りの領域を示す。なお、図1ではオブジェクト映像100を1サンプルと仮定しているが実際の応用では複数のサンプルを対象としてもかまわない。
【0010】
形状情報8は貼付領域検出部18に印加される。貼付領域検出部18では、貼付情報20が算出される。貼付情報20はオブジェクト映像上の素材オブジェクト映像が貼付される貼付領域の情報である。この貼付情報20は素材オブジェクト変形部26に印加される。素材オブジェクト変形部26では貼付情報20から適切な大きさの素材オブジェクト映像を素材オブジェクト記憶部28から読み出す。素材オブジェクト記憶部28には例えば登場人物の人名などの素材オブジェクト映像が複数記憶されている。素材オブジェクト記憶部28に貼付領域と当てはまるちょうどよい大きさの素材オブジェクト映像がない場合、貼付領域に近い大きさの素材オブジェクト映像を読み出して、貼付領域に合うように拡大あるいは縮小して変形させる処理も行う。
【0011】
素材オブジェクト変形部26で生成された素材オブジェクト映像10は、素材オブジェクト貼付部30に印加される。素材オブジェクト貼付部30では元のオブジェクト映像100が印加されており、検出された貼付領域に素材オブジェクト映像を貼付して処理済オブジェクト映像32として出力する。
【0012】
映像合成部34は、素材オブジェクト映像が貼付されていないオブジェクト映像101と処理済オブジェクト映像32を重ね合わせ、合成直列データ36として出力する。モニタ14はオブジェクト映像101と処理済オブジェクト映像32の合成映像を表示する。
【0013】
次に、図2を用いて人物のオブジェクト映像から素材オブジェクト映像を貼付する領域を検出する方法(貼付領域検出部18内の処理)を説明する。図2は人物オブジェクトの胸部に素材オブジェクト(例えば当該人物の名前)を貼付する例を説明するための図である。
【0014】
まず、オブジェクトの輪郭を示す形状情報8の頭頂dを検出する。頭頂dを検出するには、形状情報8に対して、上側から水平線38を降ろしていく。そして、形状情報8と接触した個所を頭頂としている。そして、頭頂から下側に向かい、形状情報8の周囲に沿って辿っていく。そして、辿る過程で最も大きく窪んだ個所を首とする(参照符号f)。
【0015】
そして、首から水平線40を引く。水平線38と水平線40の間隔(参照符号a)を測定する。aは頭部の縦方向の大きさになる。次に、頭部からαaだけ下側に水平線42を引く。αaは頭部の大きさで正規化した素材オブジェクト映像を重複する位置になる。すなわち、シーンによってオブジェクト映像102が奥の方に引き下がると形状情報8も小さくなり、頭部も小さくなる。αを一定にしておくと、頭部の大きさaに合わせて、αaも小さくすることができる。
【0016】
次に、水平線42と形状情報8が交差した個所gとhを検出する。そして、gとhから垂直線を下側に引き、長さcで図2のような貼付領域24を生成する。ここでは、bが測定されれば、bと比率を同じくしてcを決める。以上のように、形状情報8の座標が移動し、形状情報8そのものの大きさが変わっても、貼付領域24を検出することができ、貼付領域24は常に相似の大きさとして検出される。ちなみに従来では、人物の頭部から所定の距離だけ下側の胸の位置を検出することは容易でない。まず、映像に登場する人物そのものを検出しなければならない。例えば、MPEG2方式では、動きベクトルなどを使用して検出するが、人物が静止していれば動きベクトルが生じないため、人物そのものの頭部などを背景から識別するなど高度な画像処理を必要とする。本発明ではオブジェクト映像に伴う形状情報8から上述した方法により比較的容易に頭部が検出でき、頭部が検出できれば、胸の位置も容易に検出できる。
【0017】
図1に戻ると、貼付領域検出部18が、検出した上記貼付領域24とhの座標を貼付情報20として出力し、これが素材オブジェクト変形部26に印加される。素材オブジェクト変形部26では貼付情報20から適合する大きさの素材を素材オブジェクト記憶部28から読み出す。
【0018】
図5は本発明による素材オブジェクト記憶部28に格納された色々な大きさの素材オブジェクト映像を示した図である。図5(A)、(B)、(C)は貼付領域検出部18で検出された貼付領域24と同じ縦横比、大きさの異なる素材オブジェクト映像10を示している。そして、図5(D)は現在検出された貼付領域24を示している。図5(D)に大きさが最も近い素材オブジェクト映像10を図5(A)、(B)、(C)から選択する。素材オブジェクト記憶部28に記憶されている素材オブジェクト映像10の数に限りがあるため、大きさが最も近い素材オブジェクト映像10を選択して、素材オブジェクト変形部26で、重複領域24に合致するように縦横の大きさを変形してもよい。素材オブジェクト変形部26で素材が確定すると、素材オブジェクト映像10は素材オブジェクト重複部30に印加される。素材オブジェクト重複部30ではオブジェクト映像100の重複すべき領域に素材オブジェクト映像10が重複されて、処理済オブジェクト映像32として映像合成部34に印加される。映像合成部34では素材オブジェクト映像10が貼付されていない、その他のオブジェクト映像101と処理済オブジェクト映像32が決められた画面上の位置に配置されて、合成直列データ36として出力し、モニタ4で表示される。
以下、本発明の他の実施形態を説明する。
(第2の実施形態)
図3を用いて装飾枠オブジェクト映像に素材オブジェクト映像を貼付する領域を検出する方法(貼付領域検出部18内の処理)を説明する。なお、参照符号は図2に用いたものと同じものについては同じ符号を使用する。
【0019】
まず、装飾枠オブジェクト映像の形状情報8の上端に接する水平線38と下端に接する水平線40を引く。次に、形状情報8の左端に接する垂直線44と右端に接する垂直線46を引く。水平線38、水平線40、垂直線44、垂直線46で囲まれた長方形を検出する。そして、水平線38から下側にcだけ下げ、水平線40から上側にcだけ上げる。また、右端から右側にdだけずらし、左端から左側にdだけずらすことで、貼付領域24すなわちb×cの長方形を検出する。オブジェクト映像の貼付から合成、表示の処理については先の説明と同じなので省略する。
【0020】
従来では、本実施形態のように装飾された枠内の文字などは、その都度人手で内容を変えていた。特に、装飾枠が表示面を動いたり、大きさが変わったりすると、人手で装飾枠内に文字をはめ込む作業は困難だった。本発明によると、オブジェクト映像選択部において該当する装飾枠オブジェクト映像112を選択し、シーン構成情報12により貼付される素材オブジェクト映像10を決めておけば、後は自動的に装飾枠オブジェクト映像112の枠内にバランスよく素材オブジェクト映像10を変形して貼付することができる。さらに、本発明の特徴として、装飾枠オブジェクト映像112の大きさが変わったり、位置が変わっても自動的に素材オブジェクト映像10を所定に位置に貼付することができる。
(第3の実施形態)
次に、人物のオブジェクト映像で顔面領域を自動抽出して素材オブジェクト映像を貼付する領域を検出する方法(貼付領域検出部18内の処理)を図4を用いて説明する。なお、参照符号は図2、3に用いたものと同じものについては同じ符号を使用する。
【0021】
まず、図2で説明した方法と同様に形状情報8に対して、上部から水平線38を降ろしていき、頭頂dを検出する。そして、上記と同様に頭部の外周を辿っていき、首の部分fを検出する。次に、fから水平線40を引く。そして、水平線40から上で、水平線38から下の区域すなわちaの区間で、左右から垂直線44と垂直線46を外周方向に移動して、外周に接触した位置で止める(区間b)。これで矩形(axb)が検出されたことになる。この矩形は大まかに顔面部分を囲っていることになる。そして、水平方向でβaだけ隙間を空けた水平線42と水平線48を引き、水平線42と外周が交差した点から垂直方向に垂直線50と垂直線52を引く。矩形h×iは顔面部分の目、鼻および口など、重要領域を含んでいる。前記矩形部分に対して、素材オブジェクト映像を貼付する。貼付する処理方法は図1に示した方法と同様なので省略する。素材オブジェクト映像はモザイクでもよい。あるいは、単色の素材オブジェクト映像で外周部分にフィルタをかけてぼかしてもかまわない。
【0022】
従来は予め映像を見ながら人手で、顔面部分を選択して顔面に対してモザイク処理を施していた。従って、処理対象の被写体が動いていると正確に顔面に対して、モザイク処理ができず、背景までモザイク処理を行ってしまう欠点があった。しかし、本実施形態によると、モザイク対象となるオブジェクト映像を選択すれば、後は自動的に形状情報を利用して、顔面領域を検出し、その領域に合った素材オブジェクト映像を正確に貼付することができる。 上述した実施形態は、貼付対象映像としてオブジェクト映像を貼付する例で説明した。しかし、貼付対象となる映像が形状情報を有している映像ならば、上述した方法により貼付領域を容易に検出できる。そして、貼付領域に対しては、アニメーション映像を作成する手法のようにレイヤー構造にし、貼付素材として上側のレイヤーに素材のビットマップ映像を配置して、下側のレイヤーに配置したオブジェクト映像に重ねあわせてもかまわない。このように本発明の趣旨を逸脱しない範囲で種々の変形が可能である。
【0023】
【発明の効果】
以上詳述したように本発明のオブジェクト映像表示装置によれば、貼付対象となるオブジェクト映像の形状情報に基づいて自動的に素材オブジェクトの貼付領域を検出し、検出された貼付領域に適合した素材オブジェクトを記憶手段から読み出して貼付領域に貼り付けるので、従来人手で行っていた作業が貼付自動化されると共に、動画像にも対応することができる。
【図面の簡単な説明】
【図1】本発明によるオブジェクト映像表示装置の一実施形態を示すブロック構成図。
【図2】人物のオブジェクト映像から素材オブジェクト映像を貼付する領域を検出する方法を説明するための図。
【図3】装飾枠に素材オブジェクト映像を貼付する領域を検出する方法を説明するための図。
【図4】人物のオブジェクト映像で顔面領域を検出する方法を説明するための図。
【図5】素材オブジェクト記憶部に格納された色々な大きさの素材オブジェクト映像を示す図。
【図6】オブジェクト映像に対して他の映像を貼付させた例を説明するための図。
【符号の説明】
2 映像ソース
6 オブジェクト映像選択部
8 形状情報
12 シーン構成情報
14 モニタ
16 設定部
18 貼付領域検出部
20 貼付情報
26 素材オブジェクト変形部
28 素材オブジェクト記憶部
30 素材オブジェクト貼付部
32 処理済オブジェクト映像
34 映像合成部
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an object video display device capable of displaying a plurality of object videos encoded by, for example, the MPEG method, and in particular, detects an area that can be pasted with another video in an object video, and matches the area The present invention relates to a technique for selecting an image and pasting and displaying it on the area.
[0002]
[Prior art]
There is a technique in which a region to be corrected is set for an image to be displayed, and another material data is inserted into the region to create another new image as a whole. For example, Japanese Patent Application Laid-Open No. 8-287225 discloses a technique for displaying a three-dimensional image of a house by replacing a part of the wall with another new material data. In this conventional example, when the wall is oblique in the image, the material data is also changed in accordance with the original wall area. When the material data is inserted, it is assumed that the area to be inserted is previously selected on the target image manually by a mouse or the like. In other words, the vertex of the wall is set with the mouse, a polygon is generated, the material data is deformed according to the polygon, and the material data is pasted to the corresponding area.
[0003]
FIG. 6 is an explanatory diagram showing an example in which another video is pasted on the object video. FIG. 6 shows an example in which a logo object video 104 such as a number, a person's name, or a CM is attached to the object video 102 of the person who is the target video or the target subject. The person object video 102 is used for general purposes, and the object video 102 can be used for various purposes by pasting a logo object video 104 (for example, the name of this person) on a partial area thereof. In addition, a mask object video 110 is pasted on the object video 108 of another person in order to hide the face area. By concealing the face of the person object video 108, it is difficult to know who the object video is, and this helps protect privacy. Reference numeral 112 denotes a decorative frame object image. By pasting the character object video 114 on the decorative frame object video 112, a plurality of general-purpose decorative frame object videos 112 are prepared, and by changing the contents of the character object video 114 as appropriate, there are various situations in the scene. Can be realized.
[0004]
[Problems to be solved by the invention]
In the technique disclosed in the above-mentioned Japanese Patent Laid-Open No. 8-287225, an area where a material image is to be pasted must be manually designated with a mouse or the like with respect to the original house image. For this reason, the original image is limited to a still image because it requires human labor. Further, conventionally, the position of the logo object video 104 pasted on the object video 102 in FIG. 6, the position of the mask object video 110 pasted on the object video 108, and the position of the character object video 114 pasted on the decorative frame object video 112 are manually It was necessary to set by. In particular, when the object video 102, the object video 108, and the decorative frame object video 112 are moving images, the position may change from moment to moment and the shape may also change. Therefore, it takes a lot of work to manually paste the logo object video 104, the mask object video 110, and the character object video 114 manually. Therefore, practically, the object video 102, the object video 108, and the decorative frame object video 112 are stored in a storage medium such as a disc, and the object video A102, the object video B108, and the character object video 114 are read while being read by a human. It was necessary to check the position and shape of the object, change the shape of the object video on the material side, and perform the work of pasting it at an appropriate position.
[0005]
[Means for Solving the Problems]
The present invention has been made in order to solve the above-described problems, and includes object video supply means for supplying an object video, shape information extracted from one object video supplied from the object video supply means, and shape information. Output means, material object video storage means for storing a plurality of material object videos to be displayed on the object video supplied from the object video supply means, and object output from the shape information output means Based on the shape information of the video, a detecting means for detecting an area where the material object video is pasted on the object video, and a material object video matching the size of the pasting area detected by the detecting means, the material object Multiple material objects stored in the video storage means A selection means for selecting from among the target video, a pasting means for pasting the material object video selected by the selection means and a target object video to be pasted, and two object videos pasted by the pasting means are displayed. And display means.
[0006]
Further, the selecting means of the present invention selects a material object video close to the size of the pasting area detected by the detecting means from a plurality of material object videos stored in the material object video storing means. The selected material object video is transformed so as to be adapted to the size of the pasting area and output.
[0007]
In the object display device of the present invention described above, the pasting area of the material object is automatically detected based on the shape information of the object video to be pasted. Then, a material object suitable for the detected pasting area is read from the storage means and pasted on the pasting area. Alternatively, the shape of the material object video is deformed, and a material object suitable for the pasting area is pasted on the pasting area. This makes it possible to automate pasting work that has been performed manually and can also handle moving images.
[0008]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(First embodiment)
FIG. 1 is a block diagram showing an embodiment of an object video display device according to the present invention. In the video source 2, a performer of a scene such as a movie or a still life is stored as an object video on a medium such as a disc. In the present invention, the object video stored on the disc will be described for use. However, the object video is extracted in real time from the video captured by the TV camera or the like, and the real-time object video is displayed. May be. The object video read from the video source 2 is output as serially encoded data 4. The serially encoded data 4 is applied to the object video selection unit 6. The object video 100 and the other object video 101 to which the material is attached are classified by the object video selection unit 6. This classification can be realized in advance by adding an index indicating that the object is a target to be pasted at the time of editing. Alternatively, it can be realized by including in the scene configuration information 12 supplied from the video source 2 information on which object video is to be pasted and at what point in time. Alternatively, the user may supply information on the object video to be pasted to the object video selection unit 6 via the setting unit 16.
[0009]
The shape information 8 of the object video 100 is also output from the object video selection unit 6. Here, the shape information is a kind of coordinate information, and is information for knowing the coordinate position where the object exists. Therefore, this shape information includes information on the contour of the object. The shape information is called an alpha plane, and the area where the object video is present is expressed as a logical value 1, and the remaining area which does not exist is expressed as a logical value 0. The coordinates of indicate the remaining area without the object video. In FIG. 1, the object video 100 is assumed to be one sample, but a plurality of samples may be targeted in actual application.
[0010]
The shape information 8 is applied to the pasting area detection unit 18. In the pasting area detection unit 18, pasting information 20 is calculated. The pasting information 20 is information on the pasting area where the material object video on the object video is pasted. This pasting information 20 is applied to the material object deformation unit 26. The material object deforming unit 26 reads a material object video of an appropriate size from the pasting information 20 from the material object storage unit 28. The material object storage unit 28 stores a plurality of material object images such as the names of characters. When there is no material object video of a size that fits the pasting area in the material object storage unit 28, a material object video having a size close to the pasting area is read and enlarged or reduced so as to fit the pasting area. Also do.
[0011]
The material object video 10 generated by the material object deforming unit 26 is applied to the material object pasting unit 30. The original object video 100 is applied to the material object pasting unit 30, and the material object video is pasted on the detected pasting area and output as a processed object video 32.
[0012]
The video composition unit 34 superimposes the object video 101 to which the material object video is not pasted and the processed object video 32 and outputs it as composite serial data 36. The monitor 14 displays a composite video of the object video 101 and the processed object video 32.
[0013]
Next, a method for detecting a region to which a material object video is pasted from a person object video (processing in the pasting region detection unit 18) will be described with reference to FIG. FIG. 2 is a diagram for explaining an example in which a material object (for example, the name of the person) is pasted on the chest of the person object.
[0014]
First, the vertex d of the shape information 8 indicating the outline of the object is detected. In order to detect the head d, the horizontal line 38 is lowered from the upper side with respect to the shape information 8. And the part which contacted the shape information 8 is the top of the head. And it goes along the circumference | surroundings of the shape information 8 toward the lower side from the top of the head. Then, the most depressed portion in the process of tracing is defined as a neck (reference number f).
[0015]
Then, a horizontal line 40 is drawn from the neck. The interval (reference symbol a) between the horizontal line 38 and the horizontal line 40 is measured. a is the vertical size of the head. Next, a horizontal line 42 is drawn downward from the head by αa. αa is a position where the material object image normalized by the size of the head overlaps. That is, when the object video 102 is pulled down depending on the scene, the shape information 8 is also reduced and the head is also reduced. If α is kept constant, αa can be reduced in accordance with the size a of the head.
[0016]
Next, the points g and h where the horizontal line 42 and the shape information 8 intersect are detected. Then, a vertical line is drawn downward from g and h, and a pasting region 24 as shown in FIG. Here, if b is measured, c is determined in the same ratio as b. As described above, even if the coordinates of the shape information 8 move and the size of the shape information 8 itself changes, the pasting area 24 can be detected, and the pasting area 24 is always detected as a similar size. Incidentally, conventionally, it is not easy to detect the position of the lower chest by a predetermined distance from the head of a person. First, the person who appears in the video must be detected. For example, in the MPEG2 method, detection is performed using a motion vector or the like, but if a person is stationary, no motion vector is generated. Therefore, advanced image processing such as identifying the head of the person itself from the background is required. To do. In the present invention, the head can be detected relatively easily from the shape information 8 accompanying the object video by the above-described method, and if the head can be detected, the position of the chest can also be detected easily.
[0017]
Returning to FIG. 1, the pasting region detection unit 18 outputs the detected coordinates of the pasting region 24 and h as pasting information 20, and this is applied to the material object deformation unit 26. The material object deforming unit 26 reads a material having a size suitable from the pasting information 20 from the material object storage unit 28.
[0018]
FIG. 5 is a diagram showing material object videos of various sizes stored in the material object storage unit 28 according to the present invention. FIGS. 5A, 5 </ b> B, and 5 </ b> C show the material object video 10 having the same aspect ratio and size as the pasting area 24 detected by the pasting area detection unit 18. FIG. 5D shows the pasting area 24 currently detected. The material object video 10 having the closest size to FIG. 5D is selected from FIGS. 5A, 5B, and 5C. Since the number of material object videos 10 stored in the material object storage unit 28 is limited, the material object video 10 having the closest size is selected so that the material object deforming unit 26 matches the overlapping area 24. The vertical and horizontal sizes may be modified. When the material is determined by the material object deforming unit 26, the material object video 10 is applied to the material object overlapping unit 30. In the material object duplication unit 30, the material object video 10 is duplicated in a region to be overlapped in the object video 100 and is applied to the video composition unit 34 as a processed object video 32. In the video composition unit 34, the other object video 101 and the processed object video 32, to which the material object video 10 is not pasted, are arranged at predetermined positions on the screen and output as composite serial data 36. Is displayed.
Hereinafter, other embodiments of the present invention will be described.
(Second Embodiment)
A method for detecting a region in which the material object video is pasted on the decorative frame object video (processing in the pasting region detection unit 18) will be described with reference to FIG. Note that the same reference numerals are used for the same reference numerals as those used in FIG.
[0019]
First, a horizontal line 38 in contact with the upper end of the shape information 8 of the decorative frame object image and a horizontal line 40 in contact with the lower end are drawn. Next, a vertical line 44 in contact with the left end of the shape information 8 and a vertical line 46 in contact with the right end are drawn. A rectangle surrounded by the horizontal line 38, the horizontal line 40, the vertical line 44, and the vertical line 46 is detected. Then, the horizontal line 38 is lowered by c and the horizontal line 40 is raised by c. Further, by shifting by d from the right end to the right side and by shifting by d from the left end to the left side, the pasting area 24, that is, a rectangle of b × c is detected. The processing from pasting the object video to compositing and displaying is the same as described above, and will be omitted.
[0020]
Conventionally, the contents of a frame or the like decorated as in this embodiment are manually changed each time. In particular, when the decorative frame moves on the display surface or changes its size, it is difficult to manually insert characters into the decorative frame. According to the present invention, if the appropriate decorative frame object video 112 is selected in the object video selection unit, and the material object video 10 to be pasted is determined by the scene configuration information 12, then the decorative frame object video 112 is automatically displayed. The material object video 10 can be deformed and pasted in a well-balanced manner within the frame. Further, as a feature of the present invention, the material object video 10 can be automatically pasted at a predetermined position even if the size or position of the decorative frame object video 112 changes.
(Third embodiment)
Next, a method for automatically extracting a facial region from a person object video and detecting a region to which a material object video is pasted (processing in the pasting region detector 18) will be described with reference to FIG. Note that the same reference numerals are used for the same reference numerals as those used in FIGS.
[0021]
First, similarly to the method described in FIG. 2, the horizontal line 38 is lowered from the top of the shape information 8 to detect the top d. Then, the outer periphery of the head is traced in the same manner as described above, and the neck portion f is detected. Next, a horizontal line 40 is drawn from f. Then, the vertical line 44 and the vertical line 46 are moved in the outer peripheral direction from the left and right in the section above the horizontal line 40 and below the horizontal line 38, that is, the section a, and stopped at the position in contact with the outer periphery (section b). Thus, a rectangle (axb) is detected. This rectangle roughly surrounds the face. Then, a horizontal line 42 and a horizontal line 48 with a gap of βa in the horizontal direction are drawn, and a vertical line 50 and a vertical line 52 are drawn in the vertical direction from the point where the horizontal line 42 intersects the outer periphery. The rectangle h × i includes important areas such as eyes, nose and mouth of the face portion. A material object video is attached to the rectangular portion. The processing method to be applied is the same as that shown in FIG. The material object video may be a mosaic. Alternatively, the outer peripheral portion may be filtered and blurred with a monochromatic material object video.
[0022]
Conventionally, a face portion is manually selected while watching an image in advance, and mosaic processing is performed on the face. Therefore, when the subject to be processed is moving, the mosaic processing cannot be accurately performed on the face, and the mosaic processing is performed up to the background. However, according to the present embodiment, if an object video to be mosaic-selected is selected, then the face information is automatically detected using the shape information, and the material object video that matches the region is accurately pasted. be able to. The embodiment described above has been described with an example in which an object video is pasted as a pasting target video. However, if the video to be pasted is a video having shape information, the pasted area can be easily detected by the method described above. For the pasted area, a layer structure is used as in the method of creating an animation video, and a bitmap image of the material is placed on the upper layer as the pasting material, and is superimposed on the object video placed on the lower layer. It does not matter if they are combined. As described above, various modifications can be made without departing from the spirit of the present invention.
[0023]
【The invention's effect】
As described above in detail, according to the object video display device of the present invention, the material object paste area is automatically detected based on the shape information of the object video to be pasted, and the material suitable for the detected paste area Since the object is read from the storage means and pasted on the pasting area, the work that has been done manually by the past can be automated and the moving image can be handled.
[Brief description of the drawings]
FIG. 1 is a block diagram showing an embodiment of an object video display device according to the present invention.
FIG. 2 is a diagram for explaining a method for detecting a region to which a material object video is pasted from an object video of a person.
FIG. 3 is a diagram for explaining a method for detecting an area in which a material object video is pasted on a decorative frame.
FIG. 4 is a diagram for explaining a method of detecting a face area in a person object video.
FIG. 5 is a view showing material object videos of various sizes stored in a material object storage unit;
FIG. 6 is a diagram for explaining an example in which another video is pasted on an object video.
[Explanation of symbols]
2 Video source 6 Object video selection unit 8 Shape information 12 Scene configuration information 14 Monitor 16 Setting unit 18 Pasting area detection unit 20 Pasting information 26 Material object deformation unit 28 Material object storage unit 30 Material object pasting unit 32 Processed object video 34 Video Compositing part

Claims (2)

オブジェクト映像を供給するオブジェクト映像供給手段と、前記オブジェクト映像供給手段より供給された一つのオブジェクト映像からその形状の情報を抽出し、形状情報として出力する手段と、前記オブジェクト映像供給手段より供給されたオブジェクト映像上に貼付して表示させる素材オブジェクト映像が複数記憶されている素材オブジェクト映像記憶手段と、前記形状情報出力手段より出力されたオブジェクト映像の形状情報に基づいて、当該オブジェクト映像上に素材オブジェクト映像を貼付させる領域を検出する検出手段と、前記検出手段で検出された貼付領域の大きさに適合する素材オブジェクト映像を、前記素材オブジェクト映像記憶手段に記憶されている複数の素材オブジェクト映像の中から選択する選択手段と、前記選択手段で選択された素材オブジェクト映像と貼付される対象のオブジェクト映像とを貼付する貼付手段と、前記貼付手段で貼付された二つのオブジェクト映像を表示する表示手段とを具備したことを特徴とするオブジェクト映像表示装置。Object video supply means for supplying object video, means for extracting shape information from one object video supplied from the object video supply means, and outputting it as shape information, and supplied from the object video supply means A material object video storage means for storing a plurality of material object videos to be pasted and displayed on the object video, and a material object on the object video based on the shape information of the object video output from the shape information output means. Detection means for detecting a region to which a video is pasted, and a material object video that matches the size of the pasting region detected by the detection means, among a plurality of material object videos stored in the material object video storage means Selecting means for selecting from the selection An object comprising: pasting means for pasting the material object video selected in the stage and the target object video to be pasted; and display means for displaying the two object videos pasted by the pasting means. Video display device. 前記選択手段は、前記検出手段で検出された貼付領域の大きさに近い素材オブジェクト映像を、前記素材オブジェクト映像記憶手段に記憶されている複数の素材オブジェクト映像の中から選択し、選択された素材オブジェクト映像を、前記貼付領域の大きさに適合するよう変形して出力することを特徴とする請求項1記載のオブジェクト映像表示装置。The selection means selects a material object video close to the size of the pasting area detected by the detection means from a plurality of material object videos stored in the material object video storage means, and selects the selected material The object video display device according to claim 1, wherein the object video is transformed and output so as to match the size of the pasting area.
JP27382299A 1999-09-28 1999-09-28 Object video display device Expired - Fee Related JP4427140B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP27382299A JP4427140B2 (en) 1999-09-28 1999-09-28 Object video display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP27382299A JP4427140B2 (en) 1999-09-28 1999-09-28 Object video display device

Publications (2)

Publication Number Publication Date
JP2001103375A JP2001103375A (en) 2001-04-13
JP4427140B2 true JP4427140B2 (en) 2010-03-03

Family

ID=17533051

Family Applications (1)

Application Number Title Priority Date Filing Date
JP27382299A Expired - Fee Related JP4427140B2 (en) 1999-09-28 1999-09-28 Object video display device

Country Status (1)

Country Link
JP (1) JP4427140B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4756357B2 (en) * 2006-03-31 2011-08-24 サクサ株式会社 Video surveillance device
JP5408156B2 (en) * 2011-02-24 2014-02-05 三菱電機株式会社 Image processing device for monitoring

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3166173B2 (en) * 1991-07-19 2001-05-14 プリンストン エレクトロニック ビルボード,インコーポレイテッド Television display with selected and inserted mark
IL108957A (en) * 1994-03-14 1998-09-24 Scidel Technologies Ltd System for implanting an image into a video stream
JPH08221547A (en) * 1995-02-09 1996-08-30 Nippon Telegr & Teleph Corp <Ntt> Face image model retrieval processing method
JP3053169B2 (en) * 1997-08-07 2000-06-19 日本電信電話株式会社 Communication device and system using landscape label

Also Published As

Publication number Publication date
JP2001103375A (en) 2001-04-13

Similar Documents

Publication Publication Date Title
JP4136420B2 (en) Information processing method and apparatus
US6351265B1 (en) Method and apparatus for producing an electronic image
JP3030485B2 (en) Three-dimensional shape extraction method and apparatus
EP3218878B1 (en) Image to item mapping
JPH05501184A (en) Method and apparatus for changing the content of continuous images
EP0917148A3 (en) An apparatus for editing moving picture having a related information thereof, an editing method and recording medium for storing procedures in the same method
US20080262944A1 (en) Online clothing display system and method therefor
CA2124604A1 (en) Method and Apparatus for Operating on an Object-Based Model Data Structure to Produce a Second Image in the Spatial Context of a First Image
CN106447788B (en) Method and device for indicating viewing angle
CN103702040A (en) Real-time video graphic decoration superposing processing method and system
JP5163008B2 (en) Image processing apparatus, image processing method, and image processing program
WO1993017517A1 (en) Image editing system, for inserting part of a video image on a background
CN109478344A (en) Method and apparatus for composograph
CN110992484B (en) Display method of traffic dynamic video in real scene three-dimensional platform
US11900552B2 (en) System and method for generating virtual pseudo 3D outputs from images
CN103391396B (en) Display control apparatus and display control method
WO1997022087A1 (en) Computer animation display system and method
WO1997022087A9 (en) Computer animation display system and method
EP0780003B1 (en) Method and apparatus for determining the location of a reflective object within a video field
CN110267079B (en) Method and device for replacing human face in video to be played
US8866970B1 (en) Method for real-time processing of a video sequence on mobile terminals
JP4427140B2 (en) Object video display device
JP5519220B2 (en) Image processing apparatus and program
US11276241B2 (en) Augmented reality custom face filter
EP0853295A3 (en) Method of animating an image by squiggling the edges of image features

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20050414

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20050606

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060831

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091113

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091214

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121218

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121218

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131218

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees