JP4427140B2 - Object video display device - Google Patents
Object video display device Download PDFInfo
- Publication number
- JP4427140B2 JP4427140B2 JP27382299A JP27382299A JP4427140B2 JP 4427140 B2 JP4427140 B2 JP 4427140B2 JP 27382299 A JP27382299 A JP 27382299A JP 27382299 A JP27382299 A JP 27382299A JP 4427140 B2 JP4427140 B2 JP 4427140B2
- Authority
- JP
- Japan
- Prior art keywords
- object video
- video
- pasting
- pasted
- material object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
【0001】
【発明の属する技術分野】
本発明は、例えばMPEG方式により符号化された複数のオブジェクト映像を表示できるオブジェクト映像表示装置に関するもので、特に、あるオブジェクト映像内の他の映像と貼付可能な領域を検出し、その領域に合わせた映像を選択して、その領域に貼付して表示する技術に関する。
【0002】
【従来の技術】
表示対象となる画像に対して修正をする領域を設定し、その領域に別な素材データをはめ込んで、全体として新たな別の画像を作成する技術がある。例えば、特開平8−287225には、3次元で住宅を撮影した画像に対して、壁の一部を新たな別の素材データに置き換えて表示させる技術が開示されている。この従来例においては、画像において、壁を斜視している場合、素材データも元の壁領域に合わせて変更している。そして、素材データをはめ込む際には、そのはめ込む領域を予め手作業でマウス等により、対象となる画像上で選択することを前提としている。つまり、壁の頂点をマウスで設定して、多角形を生成し、その多角形に合わせて素材データを変形し、その素材データを該当する領域に貼り付けている。
【0003】
図6はオブジェクト映像に対して他の映像を貼付させた例を示した説明図である。図6は、対象映像あるいは対象被写体である人物のオブジェクト映像102に数字、人名あるいはCM等のロゴオブジェクト映像104を貼付した例を示している。人物オブジェクト映像102は汎用的に使われ、その一部領域にロゴオブジェクト映像104(例えばこの人物の名前)を貼り付けることで、オブジェクト映像102を色々な用途に使うことができる。また、別の人物のオブジエクト映像108は、顔領域を隠蔽するためマスクオブジェクト映像110が貼付されている。人物オブジェクト映像108の顔を隠蔽することで、誰のオブジェクト映像か分からなくなり、プライバシーの保護に役立つ。112は装飾枠オブジェクト映像である。装飾枠オブジェクト映像112に対して文字オブジェクト映像114を貼り付けることで、汎用の複数種類の装飾枠オブジェクト映像112を用意しておき、文字オブジェクト映像114の内容を適宜変えることで、場面場面で色々な表現手段が実現できる。
【0004】
【発明が解決しようとする課題】
上述した特開平8−287225に開示された技術では、元の住宅画像に対して、素材画像を貼り付ける領域を人手によりマウス等で指定しなければならない。このため、人手がかかるため元の画像は静止画に限定されている。また、従来、図6のオブジェクト映像102に貼り付けるロゴオブジェクト映像104の位置、オブジェクト映像108に貼り付けるマスクオブジェクト映像110の位置、装飾枠オブジェクト映像112に貼り付ける文字オブジェクト映像114の位置は、人手により設定する必要があった。特に、オブジェクト映像102、オブジェクト映像108および装飾枠オブジェクト映像112が動画像の場合、時々刻々位置が変わり、形状も変わる可能性がある。そのため、人手によりロゴオブジェクト映像104、マスクオブジェクト映像110、文字オブジェクト映像114を貼り付ける作業は非常に手間がかかった。従って、実用的には上記オブジェクト映像102、オブジェクト映像108、装飾枠オブジェクト映像112をディスク等の蓄積メディアに格納しておき、人間が少しずつ読み出しながらオブジェクト映像A102、オブジェクト映像B108および文字オブジェクト映像114の位置および形状を確認し、素材側のオブジェクト映像の形状を変えて、適切な位置に貼り付ける作業を行なう必要があった。
【0005】
【課題を解決するための手段】
本発明は上記課題を解決するためになされたもので、オブジェクト映像を供給するオブジェクト映像供給手段と、前記オブジェクト映像供給手段より供給された一つのオブジェクト映像からその形状の情報を抽出し、形状情報として出力する手段と、前記オブジェクト映像供給手段より供給されたオブジェクト映像上に貼付して表示させる素材オブジェクト映像が複数記憶されている素材オブジェクト映像記憶手段と、前記形状情報出力手段より出力されたオブジェクト映像の形状情報に基づいて、当該オブジェクト映像上に素材オブジェクト映像を貼付させる領域を検出する検出手段と、前記検出手段で検出された貼付領域の大きさに適合する素材オブジェクト映像を、前記素材オブジェクト映像記憶手段に記憶されている複数の素材オブジェクト映像の中から選択する選択手段と、前記選択手段で選択された素材オブジェクト映像と貼付される対象のオブジェクト映像とを貼付する貼付手段と、前記貼付手段で貼付された二つのオブジェクト映像を表示する表示手段とを具備したことを特徴としている。
【0006】
また、本発明の前記選択手段は、前記検出手段で検出された貼付領域の大きさに近い素材オブジェクト映像を、前記素材オブジェクト映像記憶手段に記憶されている複数の素材オブジェクト映像の中から選択し、選択された素材オブジェクト映像を、前記貼付領域の大きさに適合するよう変形して出力することを特徴としている。
【0007】
上記した本発明のオブジェクト表示装置にあっては、貼付対象となるオブジェクト映像の形状情報に基づいて自動的に素材オブジェクトの貼付領域を検出する。そして、検出された貼付領域に適合した素材オブジェクトを記憶手段から読み出して貼付領域に貼り付ける。あるいは素材オブジェクト映像の形状を変形して貼付領域に適合した素材オブジェクトを貼付領域に貼り付ける。こうすることにより、従来人手で行っていた作業が貼付自動化されると共に、動画像にも対応することができる。
【0008】
【発明の実施の形態】
以下、図面を参照して本発明の実施形態を説明する。
(第1の実施形態)
図1は本発明によるオブジェクト映像表示装置の実施の形態を示すブロック図である。映像ソース2は、ディスクなどのメディアで映画等のシーンの出演者あるいは静物等がオブジェクト映像として格納されている。本発明では、ディスクに格納されたオブジェクト映像を再生する用途で説明するが、テレビカメラ等で撮影した映像から被写体を領域抽出してからオブジェクト映像符号化したようなリアルタイムでのオブジェクト映像を表示させてもよい。 映像ソース2から読み出されたオブジェクト映像は直列符号化データ4として出力される。直列符号化データ4はオブジェクト映像選択部6に印加される。素材が貼付される対象となるオブジェクト映像100とその他のオブジェクト映像101はオブジェクト映像選択部6で分類される。この分類はあらかじめ編集時に、当該オブジェクトが貼付される対象である旨を示すインデックスを付加することにより実現できる。あるいは、映像ソース2より供給されるシーン構成情報12の中にどのオブジェクト映像を貼付対象とするか、どの時点で貼付するかの情報を含ませておくことでも実現可能である。あるいは、ユーザが、貼付対象とするオブジェクト映像の情報を設定部16を介してオブジェクト映像選択部6に供給してもよい。
【0009】
オブジェクト映像選択部6からはオブジェクト映像100の形状情報8も出力される。ここで形状情報は一種の座標の情報で、当該オブジェクトが存在する座標位置がわかる情報である。したがって、この形状情報は当該オブジェクトの輪郭に関する情報も含んでいる。形状情報はアルファープレーンと呼ばれ、オブジェクト映像が存在する領域を論理値1、存在しない残りの領域を論理値0と表現したもので、論理値1の座標はオブジェクト映像がある領域、論理値0の座標は当該オブジェクト映像のない残りの領域を示す。なお、図1ではオブジェクト映像100を1サンプルと仮定しているが実際の応用では複数のサンプルを対象としてもかまわない。
【0010】
形状情報8は貼付領域検出部18に印加される。貼付領域検出部18では、貼付情報20が算出される。貼付情報20はオブジェクト映像上の素材オブジェクト映像が貼付される貼付領域の情報である。この貼付情報20は素材オブジェクト変形部26に印加される。素材オブジェクト変形部26では貼付情報20から適切な大きさの素材オブジェクト映像を素材オブジェクト記憶部28から読み出す。素材オブジェクト記憶部28には例えば登場人物の人名などの素材オブジェクト映像が複数記憶されている。素材オブジェクト記憶部28に貼付領域と当てはまるちょうどよい大きさの素材オブジェクト映像がない場合、貼付領域に近い大きさの素材オブジェクト映像を読み出して、貼付領域に合うように拡大あるいは縮小して変形させる処理も行う。
【0011】
素材オブジェクト変形部26で生成された素材オブジェクト映像10は、素材オブジェクト貼付部30に印加される。素材オブジェクト貼付部30では元のオブジェクト映像100が印加されており、検出された貼付領域に素材オブジェクト映像を貼付して処理済オブジェクト映像32として出力する。
【0012】
映像合成部34は、素材オブジェクト映像が貼付されていないオブジェクト映像101と処理済オブジェクト映像32を重ね合わせ、合成直列データ36として出力する。モニタ14はオブジェクト映像101と処理済オブジェクト映像32の合成映像を表示する。
【0013】
次に、図2を用いて人物のオブジェクト映像から素材オブジェクト映像を貼付する領域を検出する方法(貼付領域検出部18内の処理)を説明する。図2は人物オブジェクトの胸部に素材オブジェクト(例えば当該人物の名前)を貼付する例を説明するための図である。
【0014】
まず、オブジェクトの輪郭を示す形状情報8の頭頂dを検出する。頭頂dを検出するには、形状情報8に対して、上側から水平線38を降ろしていく。そして、形状情報8と接触した個所を頭頂としている。そして、頭頂から下側に向かい、形状情報8の周囲に沿って辿っていく。そして、辿る過程で最も大きく窪んだ個所を首とする(参照符号f)。
【0015】
そして、首から水平線40を引く。水平線38と水平線40の間隔(参照符号a)を測定する。aは頭部の縦方向の大きさになる。次に、頭部からαaだけ下側に水平線42を引く。αaは頭部の大きさで正規化した素材オブジェクト映像を重複する位置になる。すなわち、シーンによってオブジェクト映像102が奥の方に引き下がると形状情報8も小さくなり、頭部も小さくなる。αを一定にしておくと、頭部の大きさaに合わせて、αaも小さくすることができる。
【0016】
次に、水平線42と形状情報8が交差した個所gとhを検出する。そして、gとhから垂直線を下側に引き、長さcで図2のような貼付領域24を生成する。ここでは、bが測定されれば、bと比率を同じくしてcを決める。以上のように、形状情報8の座標が移動し、形状情報8そのものの大きさが変わっても、貼付領域24を検出することができ、貼付領域24は常に相似の大きさとして検出される。ちなみに従来では、人物の頭部から所定の距離だけ下側の胸の位置を検出することは容易でない。まず、映像に登場する人物そのものを検出しなければならない。例えば、MPEG2方式では、動きベクトルなどを使用して検出するが、人物が静止していれば動きベクトルが生じないため、人物そのものの頭部などを背景から識別するなど高度な画像処理を必要とする。本発明ではオブジェクト映像に伴う形状情報8から上述した方法により比較的容易に頭部が検出でき、頭部が検出できれば、胸の位置も容易に検出できる。
【0017】
図1に戻ると、貼付領域検出部18が、検出した上記貼付領域24とhの座標を貼付情報20として出力し、これが素材オブジェクト変形部26に印加される。素材オブジェクト変形部26では貼付情報20から適合する大きさの素材を素材オブジェクト記憶部28から読み出す。
【0018】
図5は本発明による素材オブジェクト記憶部28に格納された色々な大きさの素材オブジェクト映像を示した図である。図5(A)、(B)、(C)は貼付領域検出部18で検出された貼付領域24と同じ縦横比、大きさの異なる素材オブジェクト映像10を示している。そして、図5(D)は現在検出された貼付領域24を示している。図5(D)に大きさが最も近い素材オブジェクト映像10を図5(A)、(B)、(C)から選択する。素材オブジェクト記憶部28に記憶されている素材オブジェクト映像10の数に限りがあるため、大きさが最も近い素材オブジェクト映像10を選択して、素材オブジェクト変形部26で、重複領域24に合致するように縦横の大きさを変形してもよい。素材オブジェクト変形部26で素材が確定すると、素材オブジェクト映像10は素材オブジェクト重複部30に印加される。素材オブジェクト重複部30ではオブジェクト映像100の重複すべき領域に素材オブジェクト映像10が重複されて、処理済オブジェクト映像32として映像合成部34に印加される。映像合成部34では素材オブジェクト映像10が貼付されていない、その他のオブジェクト映像101と処理済オブジェクト映像32が決められた画面上の位置に配置されて、合成直列データ36として出力し、モニタ4で表示される。
以下、本発明の他の実施形態を説明する。
(第2の実施形態)
図3を用いて装飾枠オブジェクト映像に素材オブジェクト映像を貼付する領域を検出する方法(貼付領域検出部18内の処理)を説明する。なお、参照符号は図2に用いたものと同じものについては同じ符号を使用する。
【0019】
まず、装飾枠オブジェクト映像の形状情報8の上端に接する水平線38と下端に接する水平線40を引く。次に、形状情報8の左端に接する垂直線44と右端に接する垂直線46を引く。水平線38、水平線40、垂直線44、垂直線46で囲まれた長方形を検出する。そして、水平線38から下側にcだけ下げ、水平線40から上側にcだけ上げる。また、右端から右側にdだけずらし、左端から左側にdだけずらすことで、貼付領域24すなわちb×cの長方形を検出する。オブジェクト映像の貼付から合成、表示の処理については先の説明と同じなので省略する。
【0020】
従来では、本実施形態のように装飾された枠内の文字などは、その都度人手で内容を変えていた。特に、装飾枠が表示面を動いたり、大きさが変わったりすると、人手で装飾枠内に文字をはめ込む作業は困難だった。本発明によると、オブジェクト映像選択部において該当する装飾枠オブジェクト映像112を選択し、シーン構成情報12により貼付される素材オブジェクト映像10を決めておけば、後は自動的に装飾枠オブジェクト映像112の枠内にバランスよく素材オブジェクト映像10を変形して貼付することができる。さらに、本発明の特徴として、装飾枠オブジェクト映像112の大きさが変わったり、位置が変わっても自動的に素材オブジェクト映像10を所定に位置に貼付することができる。
(第3の実施形態)
次に、人物のオブジェクト映像で顔面領域を自動抽出して素材オブジェクト映像を貼付する領域を検出する方法(貼付領域検出部18内の処理)を図4を用いて説明する。なお、参照符号は図2、3に用いたものと同じものについては同じ符号を使用する。
【0021】
まず、図2で説明した方法と同様に形状情報8に対して、上部から水平線38を降ろしていき、頭頂dを検出する。そして、上記と同様に頭部の外周を辿っていき、首の部分fを検出する。次に、fから水平線40を引く。そして、水平線40から上で、水平線38から下の区域すなわちaの区間で、左右から垂直線44と垂直線46を外周方向に移動して、外周に接触した位置で止める(区間b)。これで矩形(axb)が検出されたことになる。この矩形は大まかに顔面部分を囲っていることになる。そして、水平方向でβaだけ隙間を空けた水平線42と水平線48を引き、水平線42と外周が交差した点から垂直方向に垂直線50と垂直線52を引く。矩形h×iは顔面部分の目、鼻および口など、重要領域を含んでいる。前記矩形部分に対して、素材オブジェクト映像を貼付する。貼付する処理方法は図1に示した方法と同様なので省略する。素材オブジェクト映像はモザイクでもよい。あるいは、単色の素材オブジェクト映像で外周部分にフィルタをかけてぼかしてもかまわない。
【0022】
従来は予め映像を見ながら人手で、顔面部分を選択して顔面に対してモザイク処理を施していた。従って、処理対象の被写体が動いていると正確に顔面に対して、モザイク処理ができず、背景までモザイク処理を行ってしまう欠点があった。しかし、本実施形態によると、モザイク対象となるオブジェクト映像を選択すれば、後は自動的に形状情報を利用して、顔面領域を検出し、その領域に合った素材オブジェクト映像を正確に貼付することができる。 上述した実施形態は、貼付対象映像としてオブジェクト映像を貼付する例で説明した。しかし、貼付対象となる映像が形状情報を有している映像ならば、上述した方法により貼付領域を容易に検出できる。そして、貼付領域に対しては、アニメーション映像を作成する手法のようにレイヤー構造にし、貼付素材として上側のレイヤーに素材のビットマップ映像を配置して、下側のレイヤーに配置したオブジェクト映像に重ねあわせてもかまわない。このように本発明の趣旨を逸脱しない範囲で種々の変形が可能である。
【0023】
【発明の効果】
以上詳述したように本発明のオブジェクト映像表示装置によれば、貼付対象となるオブジェクト映像の形状情報に基づいて自動的に素材オブジェクトの貼付領域を検出し、検出された貼付領域に適合した素材オブジェクトを記憶手段から読み出して貼付領域に貼り付けるので、従来人手で行っていた作業が貼付自動化されると共に、動画像にも対応することができる。
【図面の簡単な説明】
【図1】本発明によるオブジェクト映像表示装置の一実施形態を示すブロック構成図。
【図2】人物のオブジェクト映像から素材オブジェクト映像を貼付する領域を検出する方法を説明するための図。
【図3】装飾枠に素材オブジェクト映像を貼付する領域を検出する方法を説明するための図。
【図4】人物のオブジェクト映像で顔面領域を検出する方法を説明するための図。
【図5】素材オブジェクト記憶部に格納された色々な大きさの素材オブジェクト映像を示す図。
【図6】オブジェクト映像に対して他の映像を貼付させた例を説明するための図。
【符号の説明】
2 映像ソース
6 オブジェクト映像選択部
8 形状情報
12 シーン構成情報
14 モニタ
16 設定部
18 貼付領域検出部
20 貼付情報
26 素材オブジェクト変形部
28 素材オブジェクト記憶部
30 素材オブジェクト貼付部
32 処理済オブジェクト映像
34 映像合成部[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an object video display device capable of displaying a plurality of object videos encoded by, for example, the MPEG method, and in particular, detects an area that can be pasted with another video in an object video, and matches the area The present invention relates to a technique for selecting an image and pasting and displaying it on the area.
[0002]
[Prior art]
There is a technique in which a region to be corrected is set for an image to be displayed, and another material data is inserted into the region to create another new image as a whole. For example, Japanese Patent Application Laid-Open No. 8-287225 discloses a technique for displaying a three-dimensional image of a house by replacing a part of the wall with another new material data. In this conventional example, when the wall is oblique in the image, the material data is also changed in accordance with the original wall area. When the material data is inserted, it is assumed that the area to be inserted is previously selected on the target image manually by a mouse or the like. In other words, the vertex of the wall is set with the mouse, a polygon is generated, the material data is deformed according to the polygon, and the material data is pasted to the corresponding area.
[0003]
FIG. 6 is an explanatory diagram showing an example in which another video is pasted on the object video. FIG. 6 shows an example in which a
[0004]
[Problems to be solved by the invention]
In the technique disclosed in the above-mentioned Japanese Patent Laid-Open No. 8-287225, an area where a material image is to be pasted must be manually designated with a mouse or the like with respect to the original house image. For this reason, the original image is limited to a still image because it requires human labor. Further, conventionally, the position of the
[0005]
[Means for Solving the Problems]
The present invention has been made in order to solve the above-described problems, and includes object video supply means for supplying an object video, shape information extracted from one object video supplied from the object video supply means, and shape information. Output means, material object video storage means for storing a plurality of material object videos to be displayed on the object video supplied from the object video supply means, and object output from the shape information output means Based on the shape information of the video, a detecting means for detecting an area where the material object video is pasted on the object video, and a material object video matching the size of the pasting area detected by the detecting means, the material object Multiple material objects stored in the video storage means A selection means for selecting from among the target video, a pasting means for pasting the material object video selected by the selection means and a target object video to be pasted, and two object videos pasted by the pasting means are displayed. And display means.
[0006]
Further, the selecting means of the present invention selects a material object video close to the size of the pasting area detected by the detecting means from a plurality of material object videos stored in the material object video storing means. The selected material object video is transformed so as to be adapted to the size of the pasting area and output.
[0007]
In the object display device of the present invention described above, the pasting area of the material object is automatically detected based on the shape information of the object video to be pasted. Then, a material object suitable for the detected pasting area is read from the storage means and pasted on the pasting area. Alternatively, the shape of the material object video is deformed, and a material object suitable for the pasting area is pasted on the pasting area. This makes it possible to automate pasting work that has been performed manually and can also handle moving images.
[0008]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(First embodiment)
FIG. 1 is a block diagram showing an embodiment of an object video display device according to the present invention. In the video source 2, a performer of a scene such as a movie or a still life is stored as an object video on a medium such as a disc. In the present invention, the object video stored on the disc will be described for use. However, the object video is extracted in real time from the video captured by the TV camera or the like, and the real-time object video is displayed. May be. The object video read from the video source 2 is output as serially encoded data 4. The serially encoded data 4 is applied to the object video selection unit 6. The
[0009]
The
[0010]
The
[0011]
The
[0012]
The
[0013]
Next, a method for detecting a region to which a material object video is pasted from a person object video (processing in the pasting region detection unit 18) will be described with reference to FIG. FIG. 2 is a diagram for explaining an example in which a material object (for example, the name of the person) is pasted on the chest of the person object.
[0014]
First, the vertex d of the
[0015]
Then, a
[0016]
Next, the points g and h where the
[0017]
Returning to FIG. 1, the pasting region detection unit 18 outputs the detected coordinates of the
[0018]
FIG. 5 is a diagram showing material object videos of various sizes stored in the material
Hereinafter, other embodiments of the present invention will be described.
(Second Embodiment)
A method for detecting a region in which the material object video is pasted on the decorative frame object video (processing in the pasting region detection unit 18) will be described with reference to FIG. Note that the same reference numerals are used for the same reference numerals as those used in FIG.
[0019]
First, a
[0020]
Conventionally, the contents of a frame or the like decorated as in this embodiment are manually changed each time. In particular, when the decorative frame moves on the display surface or changes its size, it is difficult to manually insert characters into the decorative frame. According to the present invention, if the appropriate decorative
(Third embodiment)
Next, a method for automatically extracting a facial region from a person object video and detecting a region to which a material object video is pasted (processing in the pasting region detector 18) will be described with reference to FIG. Note that the same reference numerals are used for the same reference numerals as those used in FIGS.
[0021]
First, similarly to the method described in FIG. 2, the
[0022]
Conventionally, a face portion is manually selected while watching an image in advance, and mosaic processing is performed on the face. Therefore, when the subject to be processed is moving, the mosaic processing cannot be accurately performed on the face, and the mosaic processing is performed up to the background. However, according to the present embodiment, if an object video to be mosaic-selected is selected, then the face information is automatically detected using the shape information, and the material object video that matches the region is accurately pasted. be able to. The embodiment described above has been described with an example in which an object video is pasted as a pasting target video. However, if the video to be pasted is a video having shape information, the pasted area can be easily detected by the method described above. For the pasted area, a layer structure is used as in the method of creating an animation video, and a bitmap image of the material is placed on the upper layer as the pasting material, and is superimposed on the object video placed on the lower layer. It does not matter if they are combined. As described above, various modifications can be made without departing from the spirit of the present invention.
[0023]
【The invention's effect】
As described above in detail, according to the object video display device of the present invention, the material object paste area is automatically detected based on the shape information of the object video to be pasted, and the material suitable for the detected paste area Since the object is read from the storage means and pasted on the pasting area, the work that has been done manually by the past can be automated and the moving image can be handled.
[Brief description of the drawings]
FIG. 1 is a block diagram showing an embodiment of an object video display device according to the present invention.
FIG. 2 is a diagram for explaining a method for detecting a region to which a material object video is pasted from an object video of a person.
FIG. 3 is a diagram for explaining a method for detecting an area in which a material object video is pasted on a decorative frame.
FIG. 4 is a diagram for explaining a method of detecting a face area in a person object video.
FIG. 5 is a view showing material object videos of various sizes stored in a material object storage unit;
FIG. 6 is a diagram for explaining an example in which another video is pasted on an object video.
[Explanation of symbols]
2 Video source 6 Object
Claims (2)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP27382299A JP4427140B2 (en) | 1999-09-28 | 1999-09-28 | Object video display device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP27382299A JP4427140B2 (en) | 1999-09-28 | 1999-09-28 | Object video display device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2001103375A JP2001103375A (en) | 2001-04-13 |
JP4427140B2 true JP4427140B2 (en) | 2010-03-03 |
Family
ID=17533051
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP27382299A Expired - Fee Related JP4427140B2 (en) | 1999-09-28 | 1999-09-28 | Object video display device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4427140B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4756357B2 (en) * | 2006-03-31 | 2011-08-24 | サクサ株式会社 | Video surveillance device |
JP5408156B2 (en) * | 2011-02-24 | 2014-02-05 | 三菱電機株式会社 | Image processing device for monitoring |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3166173B2 (en) * | 1991-07-19 | 2001-05-14 | プリンストン エレクトロニック ビルボード,インコーポレイテッド | Television display with selected and inserted mark |
IL108957A (en) * | 1994-03-14 | 1998-09-24 | Scidel Technologies Ltd | System for implanting an image into a video stream |
JPH08221547A (en) * | 1995-02-09 | 1996-08-30 | Nippon Telegr & Teleph Corp <Ntt> | Face image model retrieval processing method |
JP3053169B2 (en) * | 1997-08-07 | 2000-06-19 | 日本電信電話株式会社 | Communication device and system using landscape label |
-
1999
- 1999-09-28 JP JP27382299A patent/JP4427140B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2001103375A (en) | 2001-04-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4136420B2 (en) | Information processing method and apparatus | |
US6351265B1 (en) | Method and apparatus for producing an electronic image | |
JP3030485B2 (en) | Three-dimensional shape extraction method and apparatus | |
EP3218878B1 (en) | Image to item mapping | |
JPH05501184A (en) | Method and apparatus for changing the content of continuous images | |
EP0917148A3 (en) | An apparatus for editing moving picture having a related information thereof, an editing method and recording medium for storing procedures in the same method | |
US20080262944A1 (en) | Online clothing display system and method therefor | |
CA2124604A1 (en) | Method and Apparatus for Operating on an Object-Based Model Data Structure to Produce a Second Image in the Spatial Context of a First Image | |
CN106447788B (en) | Method and device for indicating viewing angle | |
CN103702040A (en) | Real-time video graphic decoration superposing processing method and system | |
JP5163008B2 (en) | Image processing apparatus, image processing method, and image processing program | |
WO1993017517A1 (en) | Image editing system, for inserting part of a video image on a background | |
CN109478344A (en) | Method and apparatus for composograph | |
CN110992484B (en) | Display method of traffic dynamic video in real scene three-dimensional platform | |
US11900552B2 (en) | System and method for generating virtual pseudo 3D outputs from images | |
CN103391396B (en) | Display control apparatus and display control method | |
WO1997022087A1 (en) | Computer animation display system and method | |
WO1997022087A9 (en) | Computer animation display system and method | |
EP0780003B1 (en) | Method and apparatus for determining the location of a reflective object within a video field | |
CN110267079B (en) | Method and device for replacing human face in video to be played | |
US8866970B1 (en) | Method for real-time processing of a video sequence on mobile terminals | |
JP4427140B2 (en) | Object video display device | |
JP5519220B2 (en) | Image processing apparatus and program | |
US11276241B2 (en) | Augmented reality custom face filter | |
EP0853295A3 (en) | Method of animating an image by squiggling the edges of image features |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20050414 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20050606 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060831 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20091113 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20091214 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121218 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121218 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131218 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |