JP3957479B2 - Video signal editing device - Google Patents

Video signal editing device Download PDF

Info

Publication number
JP3957479B2
JP3957479B2 JP2001172237A JP2001172237A JP3957479B2 JP 3957479 B2 JP3957479 B2 JP 3957479B2 JP 2001172237 A JP2001172237 A JP 2001172237A JP 2001172237 A JP2001172237 A JP 2001172237A JP 3957479 B2 JP3957479 B2 JP 3957479B2
Authority
JP
Japan
Prior art keywords
image
superimposed image
unit
face
video signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001172237A
Other languages
Japanese (ja)
Other versions
JP2002368978A (en
Inventor
喜子 幡野
和宏 杉山
浩 川端
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2001172237A priority Critical patent/JP3957479B2/en
Publication of JP2002368978A publication Critical patent/JP2002368978A/en
Application granted granted Critical
Publication of JP3957479B2 publication Critical patent/JP3957479B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
この発明は、画像入力装置により取り込まれた映像信号を重畳画像と合成して出力する映像信号編集装置に関する。
【0002】
【従来の技術】
例えば、ゲームセンターやスーパーマーケット等に設置されるシール製造装置では、画像入力装置から入力させた顔の映像信号に対して、被せるように静止画の重畳画像を合成した合成画像をシールにして出力することができる。
【0003】
また、近年のカメラ付き携帯電話装置やテレビ電話システム等では、画像入力装置により取り込まれた送信者の顔の映像が相手に送信され、相手の装置のディスプレイに送信者の顔を表示することができる。さらに、送信する顔の映像に対して、静止画によるマスキングを施してから送信できるテレビ電話等が知られている。
【0004】
図9は、画像に静止画によるマスキングを施してから送信するテレビ電話装置の一例として、特開平5−64180号公報に記載された従来のテレビ電話を示すブロック図である。
図9のテレビ電話装置500では、画像入力装置501から入力された映像信号は、画像処理ユニット502を介して、フレームメモリ503に一旦取りこまれる。なお、画像入力装置501としては、例えば、撮像ユニットが挙げられる。
【0005】
次に、画像処理ユニット502は、フレームメモリ503から読み出した映像信号に対して2値画像メモリ504から読み出したマスキング画像を被せるように合成(オーバーレイ)した後、その合成画像を画像出力装置505へと出力する。また、画像出力装置505としては、例えば、伝送ユニットが挙げられる。
【0006】
図10は、図9のテレビ電話500における各入力画像と合成された出力画像を示す図である。
図10(a)は、画像入力装置501の撮像ユニットで撮影された撮像画像550を示すものであり、例えば、テレビ電話等では、送信者の姿(顔)551が背景552の中に示される。
【0007】
図10(b)は、静止画の2値画像であるマスキング画像560を示すものであり、マスキング部562中に透過部561を有している。
【0008】
図10(c)は、図10(a)の画像に被さるように(オーバーレイ)して図10(b)を合成した出力映像を示すものであり、背景552はマスキング部562によりマスキングされ、透過部561の中に送信者の姿(顔)551が表れた画像となっている。
【0009】
このように、従来のテレビ電話装置等では、静止画のマスキング部562中に設けられた透過部561の位置に、送信者の姿(顔)551が入るように画像入力装置を操作したり、送信者が透過部561の位置に合わせて移動することで、背景552をマスキングすることができた。
【0010】
例えば、従来のテレビ電話装置の送信者が、人物の顔は伝送したいが、背景は伝送したくない場合には、送信者は、マスキング部を使用し、顔の撮像位置をあらかじめ定めた透過部の領域内に合わせていた。つまり、この場合には、送信者が、自分の手動操作により、背景とマスキング部とを一致させるか、あるいは、顔と透過部とを一致させる必要があった。
【0011】
また、例えば、送信者が背景は伝送したくない場合で、顔の撮像位置を透過部の領域内に合わせられない場合には、全ての画像の送信を中止して、音声のみの送信にするしかなかった。
【0012】
【発明が解決しようとする課題】
上記したように、従来のテレビ電話装置等では、撮像した画像の背景部を伝送したくない場合には、上記したように、送信者が顔と透過部等を一致させて背景をマスキングするか、あるいは、画像の送信を中止するしかなかったので、例えば、入力画像中の人物(送信者)の位置が移動しているときには、送信者は、顔の位置を透過部の位置と手動操作で一致させるという煩雑な作業を実施しなければならなかった。また、顔の位置と透過部の位置とを一致させることが難しい場合には、画像送信を断念しなければならないという問題がある。
【0013】
また、送信者が移動中である場合には、送信者の顔の位置と画像入力装置の位置も変動するため、入力画像中の人物(顔)の大きさが変わり、静止画のマスキング部では、顔が小さくなった時には回りの背景が透過部に映ってしまい、顔が大きくなった時には、顔の一部しか映らず顔全体が映し出されなくなるという問題があった。
【0014】
この発明は、上述のような問題を解消するためになされたものであり、自動的に入力画像中から特定領域として人物の顔のみを検出し、他の領域をマスキングして出力できる映像信号編集装置を提供することを目的とする。
【0015】
【課題を解決するための手段】
上記した目的を達成するため、請求項1に記載した映像信号編集装置は、画像入力装置から入力する映像信号中から特定領域を検出して該特定領域のフレーム内における位置データを出力する特定領域検出部と、画像入力装置から入力する画像の少なくとも一部を覆うように合成される重畳画像を格納する重畳画像記憶部と、前記位置データに基づき、フレーム内における前記重畳画像の位置を変更する重畳画像編集部と、画像入力装置から入力する映像信号と前記重畳画像とを合成する画像合成部とを備え、前記特定領域検出部は、特定領域の寸法を検出して寸法データを出力する手段を有し、前記重畳画像編集部は、前記寸法データを前記重畳画像と比較することにより寸法差を検出し、該寸法差に基づいて、前記重畳画像の倍率を変更する手段を有し、前記重畳画像記憶部に格納される前記重畳画像は、動画であり、前記重畳画像編集部は、時間経過により変化する動画の重畳画像を、前記位置データおよび前記寸法データに適応させて位置および倍率を変更することを特徴とする。
【0017】
また、請求項2に記載した映像信号編集装置は、重畳画像記憶部に格納される重畳画像は、透過あるいは非透過が自在となる背景部を有し、重畳画像編集部は、外部からの制御信号により、背景部の透過度を変更する手段を有することを特徴とする。
【0019】
また、請求項3に記載した映像信号編集装置は、重畳画像編集部が、時間経過に従って動画の重畳画像の背景の透過度を、非透過から透過に漸次変更するか、あるいは、非透過から透過に漸次変更することを特徴とする。
【0020】
【発明の実施の形態】
以下、この発明の実施の形態を図面に基づいて具体的に説明する。
実施の形態1.
図1は、この発明の実施の形態1である映像信号編集装置の構成を示すブロック図である。
同図において、1はカメラなどの撮像装置を備え入力画像をデジタルの映像信号として出力する画像入力装置である。2は、映像信号中の顔の位置を映像信号から検出し、その顔の位置に合わせてマスキング画像の透過部の位置を変更して、映像信号と合成(オーバーレイ)できる映像信号編集装置である。3は、合成された映像信号を画像表示する画像出力装置である。なお、本実施の形態の映像信号編集装置2が、例えば、テレビ電話装置に用いられる場合には、合成された映像信号は、まず、図示しない符号化装置に入力されて送信符号となって相手のテレビ電話装置に向けて送出される。符号化装置は、例えば、MPEG4、H.263等の画像符号化方式を用いて映像信号を符号化するものである。
【0021】
また、映像信号編集装置2の内部において、11は、画像入力装置1から入力する映像信号である入力画像データP1から送信者の顔等を特定領域として検出し、検出した領域に関するデータ(領域データ:AR)を出力する特定領域検出部である。12は、静止画のマスキング画像あるいは送信者の顔等の画像を修飾するために被せる静止画の重畳画像を格納し、重畳画像データP2として出力する重畳画像記憶部である。13は、領域データARに基づいて、画像フレーム内における重畳画像データP2の表示位置を変更する重畳画像編集部である。14は、入力画像データP1に被せる(オーバーレイする)ように重畳画像データP2を合成して合成画像データP3を出力する画像合成部である。
【0022】
図2は、本実施の形態の映像信号編集装置2の内部の一部の構成を示すブロック図である。
特定領域検出部11には、入力する入力画像データP1から、顔等の特定領域の境界を検出する特定領域境界検出部21と、その検出された境界の画像フレーム中における座標位置を判定して位置データAR−Pを出力する座標位置判定部22とを有している。顔の検出方法としては、例えば、顔の輪郭を色差情報、輝度差情報、形状判定等を利用して、肌色領域の検出や動き検出などの方法により顔領域を検出すれば良い。また、座標位置の判定は、例えば、輪郭全ての座標位置を判定しても良いし、X軸およびY軸における顔の輪郭の最大値と最小値等から中心値を得るようにしても良い。
【0023】
重畳画像編集部13には、画像フレームにおける入力する重畳画像データP2の表示位置を、位置データAR−Pに適合するようにシフト(編集)させてからその重畳画像データMP2を出力する座標位置シフト部34を有している。
【0024】
以下、本実施の形態の映像信号編集装置の動作について説明する。
図3は、図1に示した映像信号編集装置2の入力画像データと出力画像データを表す図である。
図3(a)は、画像入力装置1から入力される入力画像データP1による撮像映像である。撮像映像100には、送信者の顔110およびその背景112が表示される。また、本実施の形態で検出される特定領域としては、送信者の顔110であり、例えば、色差情報、輝度差情報、あるいは形状判定等により、その顔110の輪郭110aが検出される。
【0025】
図3(b)は、図1の重畳画像記憶部(画像メモリ)12に格納されたマスキング画像等の重畳画像である。重畳画像200には、合成後にも送信者の顔を表示させるための顔用透過領域201と、顔の回りをマスキングまたは修飾する顔周囲用非透過領域202と、合成後に背景を表示させるための背景用透過領域203とを有している。
【0026】
図3(c)は、映像信号編集装置2の画像合成部14から出力される合成画像データP3による出力映像である。出力映像300では、送信者の顔110の位置に合わせて位置がシフトされた顔周囲用非透過領域202が表示され、あるいは、その顔用透過領域201内を透過して顔110が表示され、また、背景用透過領域203を透過して背景112が表示される。
【0027】
図4は、座標位置判定部22による座標の判定動作を示す図である。
特定領域境界検出部21により検出された顔の輪郭(境界線)110aにより、送信者の顔110の画像部分は、景色112の画像部分と分かられている。走査線の副走査方向をX軸にとり、主走査方向をY軸にとった場合の左上端からの境界線110aの各方向の距離を計測する。
【0028】
境界線110aにおけるx軸の値が最小値となるポイントをAとして、そのポイントAの座標を(X1、Y1)とする。また、x軸の値が最大値となるポイントをBとして、そのポイントBの座標を(X2、Y2)とする。同様にして、y軸の値が最小値となるポイントをCとして、そのポイントCの座標を(X3、Y3)とし、y軸の値が最大値となるポイントをDとして、そのポイントDの座標を(X4、Y4)とする。
【0029】
送信者の顔110の画像部分は、x軸上の範囲がX1からX2までであり、y軸上の範囲がY3からY4となる。例えば、送信者の顔110の画像部分の中心点としては、x軸上の座標点を(X2−X1)/2とし、y軸上の座標点を(Y4−Y3)/2とすれば良い。
【0030】
図3(b)の顔用透過領域201が円形状や楕円形状である場合には、顔用透過領域201の中心点を((X2−X1)/2、(Y4−Y3)/2)となるように重畳画像200の表示位置をシフトさせることで図3(c)に示した画像を得ることができる。
【0031】
このように、本実施の形態では、送信者の顔の画像位置に合わせてマスキング画像(オーバーレイ画像)の表示位置を自動的にシフトさせることができるので、送信者は、自分で位置調整を実施する必要がなくなり、煩雑な作業を実施しなくてもよくなる。また、自動で顔の位置と透過部の位置とを一致させることができるので、画像送信を断念する事態も回避することができる。
【0032】
実施の形態2.
上記した実施の形態1では、特定領域検出部11で顔の位置データを検出し、重畳画像編集部13でマスキング画像の表示位置を自動的にシフトさせるようにしたが、送信者が移動している場合には、位置が変わるだけでなく、顔の大きさが変わる場合もある。そこで、以下に示す実施の形態2では、顔の位置データに加えて大きさのデータも検出し、マスキング画像の表示位置および大きさを自動的に変更する場合について説明する。
【0033】
図5は、本実施の形態の映像信号編集装置2の内部の一部の構成を示すブロック図である。
特定領域検出部11aには、実施の形態1と同様な機能を有する特定領域境界検出部21と座標位置判定部22に加えて、座標位置判定部22から出力される位置データAR−Pに基づいて領域寸法を計測して寸法データAR−Lを出力する領域寸法計測部23とを有している。領域寸法の計測方法としては、例えば、図4に示したX2−X1の演算により顔の横方向の寸法を計測し、Y4−Y3の演算により顔の縦方向の寸法を計測してその結果を寸法データAR−Lとして出力すれば良い。
【0034】
重畳画像編集部13aには、実施の形態1と同様な機能を有する座標位置シフト部34の前段に、入力する重畳画像データP2を寸法データAR−Lと比較する領域比較部32と、領域比較部32の比較結果を受けて重畳画像データP2の表示倍率を変更する画像倍率変更部33とを有している。
【0035】
本実施の形態の座標位置シフト部34では、画像倍率変更部33で表示倍率が変更された重畳画像データP2の表示位置を、位置データAR−Pでシフトさせる。
以下、本実施の形態の映像信号編集装置の動作について説明する。
【0036】
図6は、本実施の形態の映像信号編集装置2の入力画像データと出力画像データを表す図である。
図6(a)は、画像入力装置1から入力される入力画像データP1による撮像映像である。本実施の形態における撮像映像120中の送信者の顔110は、実施の形態1よりも大きく表示されている。他の表示内容は実施の形態1と同様である。
【0037】
図6(b)は、図1の重畳画像記憶部(画像メモリ)12に格納されたマスキング画像等の重畳画像であり、実施の形態1と同様である。
図6(c)は、映像信号編集装置2の画像合成部14から出力される合成画像データP3による出力映像である。
【0038】
出力映像310では、送信者の顔130の大きさに合わせて拡大後に位置がシフトされた顔周囲用非透過領域302が表示され、その顔用透過領域内を透過して顔130が表示され、また、拡大された背景用透過領域203を透過して背景132が表示される。
【0039】
このように本実施の形態では、図6(a)に示したように撮像画像中の顔の大きさが変わる場合であっても、変わらない場合と同じマスキング画像(オーバーレイ画像)を用いることができ、そのマスキング画像の表示位置および大きさを自動的に顔の領域に合わせて拡大あるいは縮小させることができる。
【0040】
実施の形態3.
また、上記実施の形態1ないし2ではオーバーレイ画像に顔用透過領域201以外に背景用透過領域203を用意したが、背景を非透過にする構成としてもよい。
【0041】
上記した実施の形態1および2では、マスキング画像の背景にも透過領域203を設けて、撮像映像の背景の一部が見えるようにしたが、例えば、撮像映像の背景を全く見えないようにしたい場合もある。そこで、以下に示す実施の形態3では、撮像映像の背景を全く見えないようにする場合について説明する。
【0042】
図7は、本実施の形態の映像信号編集装置2の内部の一部の構成を示すブロック図である。
特定領域検出部11bには、実施の形態2と同様な機能を有する特定領域境界検出部21と座標位置判定部22と領域寸法計測部23とを有している。
重畳画像編集部13bには、実施の形態2と同様な機能を有する領域比較部32と、画像倍率変更部33と、座標位置シフト部34に加えて、外部からの制御信号により重畳画像データP2の背景の透過度を変更できる背景透過度調節部31とを有している。
【0043】
本実施の形態の領域比較部32では、背景透過度調節部31で背景の透過度が調節された重畳画像データP2について、寸法データAR−Lと比較し、画像倍率変更部33で倍率を変更する。
【0044】
本実施の形態の座標位置シフト部34では、背景透過度調節部31で背景の透過度が調節され、さらに、画像倍率変更部33で表示倍率が変更された重畳画像データP2の表示位置を、位置データAR−Pでシフトさせる。
【0045】
以下、本実施の形態の映像信号編集装置の動作について説明する。
図8は、本実施の形態の映像信号編集装置2の入力画像データと出力画像データを表す図である。
図8(a)は、画像入力装置1から入力される入力画像データP1による撮像映像であり、実施の形態2と同様である。
【0046】
図8(b)は、図1の重畳画像記憶部(画像メモリ)12に格納されたマスキング画像等の重畳画像であり、位置や形状については実施の形態1と同様であるが背景については非透過の画像となっている。
【0047】
図8(c)は、映像信号編集装置2の画像合成部14から出力される合成画像データP3による出力映像である。出力映像320では、送信者の顔130の大きさに合わせて拡大後に位置がシフトされた顔周囲用非透過領域302が表示され、その顔用透過領域内を透過して顔130が表示される点では実施の形態2と同様であるが、拡大された背景用透過領域314が表示される。
【0048】
このように本実施の形態では、図8(a)に示したように撮像画像中の顔の大きさが変わる場合であっても、変わらない場合と同じマスキング画像(オーバーレイ画像)を用いることができ、そのマスキング画像の表示位置および大きさに合わせて自動的に背景部をマスキングすることができる。
【0049】
実施の形態4.
また、上記した実施の形態3では、マスキング画像(オーバーレイ画像)が静止画である場合について説明したが、例えば、顔部分に透過領域有する複数のマスキング画像からなるアニメーション(動画)を重畳画像記憶部12に格納することができる。
【0050】
その場合、時間の経過に従って位置や大きさが変化するアニメーションの画像中の顔部分の透過領域の位置や寸法が既知である時には、その位置や寸法に従って、例えば、図7に示した画像領域変更部33や座標位置シフト部34により、マスキング画像の座標位置や寸法位置を制御する。
【0051】
また、アニメーションの画像中の顔部分の透過領域の位置や寸法が不明である時には、例えば、特定領域検出部11b中の特定領域境界検出部21、座標位置判定部22および領域寸法計測部23と同様な回路部を重畳画像編集部13bの入力段に設けることで、顔部分の透過領域の位置や寸法を知ることができる。以後の制御は上記した位置や寸法が既知である時と同様である。
【0052】
このようにして、本実施形態では、アニメーションをマスキング画像(オーバーレイ画像)として用いることができ、そのアニメーションのマスキング画像の表示位置および大きさに合わせて、自動的に顔の透過領域に撮像画像中の顔を入れたり、背景部をマスキングさせることができる。
【0053】
実施の形態5.
また、上記した実施の形態4では、マスキング画像が透過か非透過かの何れかである場合について説明したが、その際に、例えば、フェードイン/フェードアウトの手法を用いて、背景の透過度調整部31を制御することにより、時間の経過とともに透過された背景からマスキング画像に切り替わるように構成しても良い。
【0054】
その場合、重畳画像編集部13は、例えば、送信者が移動中に背景を隠したい場所にさしかかった場合には、時間の経過に従って重畳画像の背景の透過度を透過から非透過に漸次変更する(フェードアウト)することで、相手に急な切替による不快感を与えることが少なく背景をマスキングできる。同様に、送信者が移動中に背景を隠す必要のない場所にさしかかった場合には、時間の経過に従って重畳画像の背景の透過度を非透過から透過に漸次変更する(フェードイン)することで、相手に不快感を与えることが少なく背景を表示させることができる。
【0055】
このようにして、本実施形態では、例えば、送信者が移動中であっても、場所に応じて背景を隠したり、背景を表示させたりする事ができ、さらに、背景をフェードインさせたりフェードアウトさせることができるので、画像を見る相手に不快感を与える事態を減少させることができる。
【0056】
尚、上記した各実施の形態では、入力画像データから検出する特定領域として、顔を検出するようにしていたが、本発明はこれに限られるものではなく、入力画像から特定可能であるあらゆる領域に対して適用することができる。例えば、手や指先を特定画像として、他をマスキングするようにしても良いし、動物や移動体を特定領域として、背景をマスキングするようにしても良い。
【0057】
【発明の効果】
上記したように請求項1に記載した本発明では、送信者の顔の画像位置に合わせてマスキング画像(オーバーレイ画像)の表示位置を自動的にシフトさせることができるので、送信者は、自分で位置調整を実施する必要がなくなり、煩雑な作業を省略することができ、自動で顔の位置と透過部の位置とを一致させることができるので、画像送信を断念する事態も回避することができる。
【0058】
また、請求項に記載した本発明では、撮像画像中の顔の大きさが変わる場合であっても、上記した大きさが変わらない場合と同じマスキング画像(オーバーレイ画像)を用いて、マスキング画像の表示位置および大きさを自動的に顔の領域に合わせて拡大あるいは縮小することができる。
【0059】
また、請求項に記載した本発明では、撮像画像中の顔の大きさが変わる場合であっても、変わらない場合と同じマスキング画像(オーバーレイ画像)を用いることができることに加えて、マスキング画像の表示位置および大きさに合わせて自動的に背景部をマスキングすることができる。
【0060】
また、請求項に記載した本発明では、アニメーションをマスキング画像(オーバーレイ画像)として用いることができ、そのアニメーションのマスキング画像の表示位置および大きさに合わせて、自動的に顔の透過領域に撮像画像中の顔を入れたり、背景部をマスキングさせることができる。
【0061】
また、請求項に記載した本発明では、送信者が移動中であっても、場所に応じて背景を隠したり、背景を表示させたりする事ができ、さらに、背景をフェードインさせたりフェードアウトさせることができるので、画像を見る相手に不快感を与える事態を減少させることができる。
【図面の簡単な説明】
【図1】 この発明の実施の形態1である映像信号編集装置の構成を示すブロック図である。
【図2】 図1の映像信号編集装置の内部の一部の構成を示すブロック図である。
【図3】 (a)〜(c)は図1に示した映像信号編集装置の入力画像データと出力画像データを表す図である。
【図4】 座標位置判定部による座標の判定動作を示す図である。
【図5】 この発明の実施の形態2である映像信号編集装置の内部の一部の構成を示すブロック図である。
【図6】 (a)〜(c)は図5の映像信号編集装置の入力画像データと出力画像データを表す図である。
【図7】 この発明の実施の形態3である映像信号編集装置の内部の一部の構成を示すブロック図である。
【図8】 (a)〜(c)は図7の映像信号編集装置の入力画像データと出力画像データを表す図である。
【図9】 従来のテレビ電話を示すブロック図である。
【図10】 (a)〜(c)は図9のテレビ電話における各入力画像と合成された出力画像を示す図である。
【符号の説明】
1 画像入力装置(撮像装置)、 2 映像信号編集装置、 3 画像出力装置、 11 特定領域(顔)検出部、 12 重畳画像記憶部、 13 重畳画像編集部、 14 画像合成部、 21 特定領域境界検出部、 22 座標位置判定部、 23 領域寸法計測部、 31 背景透過度調整部、 32 領域比較部、 33 画像倍率変更部、 34 座標位置シフト部。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a video signal editing apparatus that synthesizes and outputs a video signal captured by an image input apparatus with a superimposed image.
[0002]
[Prior art]
For example, in a sticker manufacturing apparatus installed in a game center, a supermarket, or the like, a composite image obtained by combining a still image superimposed image so as to cover the face video signal input from the image input device is output as a sticker. be able to.
[0003]
Also, in recent mobile phone devices with cameras, videophone systems, etc., the image of the sender's face captured by the image input device is transmitted to the other party, and the sender's face is displayed on the display of the other party's device. it can. Furthermore, a videophone or the like is known that can transmit a face image to be transmitted after masking with a still image.
[0004]
FIG. 9 is a block diagram showing a conventional videophone described in Japanese Patent Laid-Open No. 5-64180 as an example of a videophone device that transmits an image after masking with a still image.
In the videophone device 500 of FIG. 9, the video signal input from the image input device 501 is once captured in the frame memory 503 via the image processing unit 502. An example of the image input device 501 is an imaging unit.
[0005]
Next, the image processing unit 502 combines (overlays) the video signal read from the frame memory 503 so as to cover the masking image read from the binary image memory 504, and then transmits the combined image to the image output device 505. Is output. Further, as the image output device 505, for example, a transmission unit can be cited.
[0006]
FIG. 10 is a diagram showing an output image combined with each input image in the videophone 500 of FIG.
FIG. 10A shows a captured image 550 taken by the imaging unit of the image input device 501. For example, in a videophone or the like, the appearance (face) 551 of the sender is shown in the background 552. .
[0007]
FIG. 10B shows a masking image 560 that is a binary image of a still image, and has a transmission part 561 in the masking part 562.
[0008]
FIG. 10C shows an output image obtained by combining (overlaying) the image of FIG. 10A and overlaying FIG. 10B. The background 552 is masked by the masking unit 562 and transmitted. In the part 561, the image of the sender (face) 551 appears.
[0009]
As described above, in a conventional videophone device or the like, the image input device is operated so that the sender (face) 551 enters the position of the transmission unit 561 provided in the masking unit 562 of the still image, The background 552 could be masked by the sender moving according to the position of the transmission part 561.
[0010]
For example, when a sender of a conventional videophone device wants to transmit a person's face but does not want to transmit a background, the sender uses a masking unit to set the imaging position of the face in advance. Was fit within the area. That is, in this case, the sender needs to match the background and the masking part or match the face and the transmissive part by his / her manual operation.
[0011]
Also, for example, when the sender does not want to transmit the background and the imaging position of the face cannot be adjusted within the area of the transmission part, transmission of all images is stopped and only audio is transmitted. There was only.
[0012]
[Problems to be solved by the invention]
As described above, in a conventional videophone device or the like, when the background portion of the captured image is not to be transmitted, as described above, the sender masks the background by matching the face and the transparent portion. Alternatively, since the transmission of the image has only been canceled, for example, when the position of the person (sender) in the input image is moving, the sender can manually change the position of the face to the position of the transmission part. We had to carry out the troublesome work of matching. In addition, when it is difficult to match the position of the face and the position of the transmission part, there is a problem that it is necessary to give up image transmission.
[0013]
In addition, when the sender is moving, the position of the sender's face and the position of the image input device also fluctuate, so the size of the person (face) in the input image changes, and the still image masking unit When the face is small, the surrounding background is reflected in the transmission part, and when the face is large, only a part of the face is reflected and the entire face is not projected.
[0014]
The present invention has been made to solve the above-mentioned problems, and is a video signal editing that can automatically detect only a human face as a specific area from an input image and mask and output other areas. An object is to provide an apparatus.
[0015]
[Means for Solving the Problems]
In order to achieve the above object, the video signal editing apparatus according to claim 1 is a specification that detects a specific area from a video signal input from an image input device and outputs position data in a frame of the specific area. Based on the position data, the position of the superimposed image is changed based on the position data, a region detection unit, a superimposed image storage unit that stores a superimposed image that is synthesized so as to cover at least a part of the image input from the image input device A superimposed image editing unit, and an image synthesis unit that synthesizes the video signal input from the image input device and the superimposed image, and the specific region detection unit detects a size of the specific region and outputs size data. And the superimposed image editing unit detects a dimensional difference by comparing the dimensional data with the superimposed image, and changes the magnification of the superimposed image based on the dimensional difference. The superimposed image stored in the superimposed image storage unit is a moving image, and the superimposed image editing unit converts the superimposed image of the moving image that changes over time into the position data and the dimension data. It is characterized by changing the position and magnification in an adaptive manner.
[0017]
In the video signal editing apparatus according to claim 2, the superimposed image stored in the superimposed image storage unit has a background part that can be freely transmitted or transmitted, and the superimposed image editing unit is controlled from the outside. It has a means for changing the transparency of the background portion according to the signal.
[0019]
The video signal editing apparatus according to claim 3, superimposed image editing unit, transmitted through the transmission of the background video in the superimposed image with the lapse of time, gradually to change the transmission from a non-transparent, or from non-transparent It is characterized by gradually changing to.
[0020]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be specifically described with reference to the drawings.
Embodiment 1 FIG.
FIG. 1 is a block diagram showing a configuration of a video signal editing apparatus according to Embodiment 1 of the present invention.
In the figure, reference numeral 1 denotes an image input device that includes an imaging device such as a camera and outputs an input image as a digital video signal. Reference numeral 2 denotes a video signal editing apparatus that can detect the position of a face in a video signal from the video signal, change the position of the transmission part of the masking image in accordance with the face position, and synthesize (overlay) the video signal. . An image output device 3 displays an image of the synthesized video signal. When the video signal editing apparatus 2 according to the present embodiment is used in, for example, a videophone apparatus, the synthesized video signal is first input to an encoding apparatus (not shown) and becomes a transmission code. Sent to the videophone device. The encoding device is, for example, MPEG4, H.264, or the like. The video signal is encoded using an image encoding method such as H.263.
[0021]
Further, in the video signal editing device 2, 11 detects a sender's face or the like as a specific region from the input image data P 1 that is a video signal input from the image input device 1, and data relating to the detected region (region data) : AR) is a specific area detector. Reference numeral 12 denotes a superimposed image storage unit that stores a still image masked image or a still image superimposed image to modify an image such as a sender's face and outputs it as superimposed image data P2. Reference numeral 13 denotes a superimposed image editing unit that changes the display position of the superimposed image data P2 in the image frame based on the area data AR. Reference numeral 14 denotes an image composition unit that synthesizes the superimposed image data P2 so as to cover (overlay) the input image data P1, and outputs the composite image data P3.
[0022]
FIG. 2 is a block diagram showing a partial configuration of the video signal editing apparatus 2 according to the present embodiment.
The specific region detection unit 11 determines a specific region boundary detection unit 21 that detects a boundary of a specific region such as a face from the input image data P1 to be input, and determines the coordinate position of the detected boundary in the image frame. And a coordinate position determination unit 22 that outputs position data AR-P. As a face detection method, for example, the face region may be detected by a method such as skin color region detection or motion detection using color difference information, luminance difference information, shape determination, and the like. The coordinate position may be determined, for example, by determining the coordinate positions of all the contours, or obtaining the center value from the maximum and minimum values of the face contour on the X and Y axes.
[0023]
The superimposed image editing unit 13 shifts (edits) the display position of the input superimposed image data P2 in the image frame so as to match the position data AR-P and then outputs the superimposed image data MP2. Part 34 is provided.
[0024]
The operation of the video signal editing apparatus according to this embodiment will be described below.
FIG. 3 is a diagram showing input image data and output image data of the video signal editing apparatus 2 shown in FIG.
FIG. 3A is a captured image by the input image data P <b> 1 input from the image input device 1. In the captured image 100, the sender's face 110 and its background 112 are displayed. The specific area detected in the present embodiment is the face 110 of the sender, and the contour 110a of the face 110 is detected by, for example, color difference information, luminance difference information, or shape determination.
[0025]
FIG. 3B is a superimposed image such as a masking image stored in the superimposed image storage unit (image memory) 12 of FIG. The superimposed image 200 includes a face transparent area 201 for displaying the sender's face even after composition, a face surrounding non-transparent area 202 for masking or modifying the periphery of the face, and a background for displaying the background after composition. And a background transmissive region 203.
[0026]
FIG. 3C shows an output video image by the synthesized image data P3 output from the image synthesis unit 14 of the video signal editing device 2. In the output video 300, the non-transparent area 202 for the periphery of the face shifted in accordance with the position of the face 110 of the sender is displayed, or the face 110 is displayed through the transparent area 201 for the face, Further, the background 112 is displayed through the transparent area 203 for background.
[0027]
FIG. 4 is a diagram illustrating a coordinate determination operation by the coordinate position determination unit 22.
The image portion of the sender's face 110 is separated from the image portion of the scenery 112 by the face outline (boundary line) 110 a detected by the specific region boundary detection unit 21. The distance in each direction of the boundary line 110a from the upper left end when the sub-scanning direction of the scanning line is taken on the X axis and the main scanning direction is taken on the Y axis is measured.
[0028]
A point where the x-axis value on the boundary line 110a is the minimum value is A, and the coordinates of the point A are (X1, Y1). Also, let B be the point where the value of the x-axis is the maximum value, and let the coordinates of that point B be (X2, Y2). Similarly, the point where the y-axis value is the minimum value is C, the coordinate of the point C is (X3, Y3), the point where the y-axis value is the maximum value is D, and the coordinates of the point D are the same. Is (X4, Y4).
[0029]
In the image portion of the sender's face 110, the range on the x-axis is from X1 to X2, and the range on the y-axis is from Y3 to Y4. For example, as the center point of the image portion of the sender's face 110, the coordinate point on the x-axis may be (X2-X1) / 2, and the coordinate point on the y-axis may be (Y4-Y3) / 2. .
[0030]
When the face transparent area 201 in FIG. 3B is circular or elliptical, the center point of the face transparent area 201 is ((X2-X1) / 2, (Y4-Y3) / 2). By shifting the display position of the superimposed image 200 so that the image shown in FIG. 3C can be obtained.
[0031]
As described above, in this embodiment, the display position of the masking image (overlay image) can be automatically shifted according to the image position of the sender's face, so that the sender can adjust the position himself. This eliminates the need to perform complicated operations. In addition, since the face position and the transmissive part position can be automatically matched, the situation of giving up image transmission can be avoided.
[0032]
Embodiment 2. FIG.
In the first embodiment described above, the position data of the face is detected by the specific area detection unit 11 and the display position of the masking image is automatically shifted by the superimposed image editing unit 13. If it is, not only the position but also the face size may change. In the second embodiment described below, a case will be described in which size data is detected in addition to face position data, and the display position and size of the masking image are automatically changed.
[0033]
FIG. 5 is a block diagram showing a partial configuration of the video signal editing apparatus 2 according to the present embodiment.
The specific area detecting unit 11a is based on position data AR-P output from the coordinate position determining unit 22 in addition to the specific area boundary detecting unit 21 and the coordinate position determining unit 22 having the same functions as those in the first embodiment. An area dimension measuring unit 23 that measures area dimensions and outputs dimension data AR-L. As an area dimension measuring method, for example, the horizontal dimension of the face is measured by the calculation of X2-X1 shown in FIG. 4, the vertical dimension of the face is measured by the calculation of Y4-Y3, and the result is obtained. What is necessary is just to output as dimension data AR-L.
[0034]
The superimposed image editing unit 13a includes a region comparison unit 32 that compares the input superimposed image data P2 with the dimension data AR-L, and a region comparison before the coordinate position shift unit 34 having the same function as in the first embodiment. An image magnification changing unit 33 that receives the comparison result of the unit 32 and changes the display magnification of the superimposed image data P2.
[0035]
In the coordinate position shift unit 34 of the present embodiment, the display position of the superimposed image data P2 whose display magnification has been changed by the image magnification change unit 33 is shifted by the position data AR-P.
The operation of the video signal editing apparatus according to this embodiment will be described below.
[0036]
FIG. 6 is a diagram showing input image data and output image data of the video signal editing apparatus 2 according to the present embodiment.
FIG. 6A is a captured image by the input image data P <b> 1 input from the image input device 1. The sender's face 110 in the captured image 120 in the present embodiment is displayed larger than that in the first embodiment. Other display contents are the same as those in the first embodiment.
[0037]
FIG. 6B is a superimposed image such as a masking image stored in the superimposed image storage unit (image memory) 12 of FIG. 1 and is the same as that of the first embodiment.
FIG. 6C shows an output video image by the synthesized image data P3 output from the image synthesis unit 14 of the video signal editing apparatus 2.
[0038]
In the output video 310, the non-transparent area 302 for the face periphery whose position is shifted after being enlarged in accordance with the size of the face 130 of the sender is displayed, and the face 130 is displayed through the transparent area for the face. In addition, the background 132 is displayed through the enlarged background transparent area 203.
[0039]
As described above, in this embodiment, even when the face size in the captured image changes as shown in FIG. 6A, the same masking image (overlay image) as in the case where the face size does not change is used. The display position and size of the masking image can be automatically enlarged or reduced in accordance with the face area.
[0040]
Embodiment 3 FIG.
In the first and second embodiments, the background transparent area 203 is prepared in addition to the face transparent area 201 in the overlay image. However, the background may be made non-transparent.
[0041]
In the first and second embodiments described above, the transparent region 203 is also provided in the background of the masking image so that a part of the background of the captured image can be seen. For example, it is desired that the background of the captured image is not visible at all. In some cases. Therefore, in the third embodiment described below, a case where the background of the captured image is completely hidden will be described.
[0042]
FIG. 7 is a block diagram showing a partial configuration of the video signal editing apparatus 2 according to the present embodiment.
The specific area detection unit 11 b includes a specific area boundary detection unit 21, a coordinate position determination unit 22, and a region dimension measurement unit 23 having the same functions as those in the second embodiment.
In the superimposed image editing unit 13b, in addition to the region comparison unit 32, the image magnification changing unit 33, and the coordinate position shift unit 34 having the same functions as those in the second embodiment, the superimposed image data P2 is received by an external control signal. A background transparency adjusting unit 31 that can change the transparency of the background.
[0043]
In the area comparison unit 32 according to the present embodiment, the superimposed image data P2 whose background transparency is adjusted by the background transparency adjustment unit 31 is compared with the dimension data AR-L, and the magnification is changed by the image magnification change unit 33. To do.
[0044]
In the coordinate position shift unit 34 of the present embodiment, the display position of the superimposed image data P2 in which the background transparency is adjusted by the background transparency adjusting unit 31 and the display magnification is changed by the image magnification changing unit 33, Shift with position data AR-P.
[0045]
The operation of the video signal editing apparatus according to this embodiment will be described below.
FIG. 8 is a diagram showing input image data and output image data of the video signal editing apparatus 2 of the present embodiment.
FIG. 8A shows a captured image by input image data P1 input from the image input apparatus 1, and is the same as that in the second embodiment.
[0046]
FIG. 8B is a superimposed image such as a masking image stored in the superimposed image storage unit (image memory) 12 of FIG. 1. The position and shape are the same as those in the first embodiment, but the background is not. It is a transparent image.
[0047]
FIG. 8C shows an output video image by the synthesized image data P3 output from the image synthesis unit 14 of the video signal editing device 2. In the output video 320, the non-transparent area 302 for the face periphery whose position is shifted after being enlarged in accordance with the size of the face 130 of the sender is displayed, and the face 130 is displayed through the transparent area for the face. The point is the same as that of the second embodiment, but the enlarged background transparent region 314 is displayed.
[0048]
As described above, in this embodiment, even when the face size in the captured image changes as shown in FIG. 8A, the same masking image (overlay image) as in the case where the face does not change is used. The background portion can be automatically masked according to the display position and size of the masking image.
[0049]
Embodiment 4 FIG.
In the above-described third embodiment, the case where the masking image (overlay image) is a still image has been described. 12 can be stored.
[0050]
In this case, when the position and size of the transparent area of the face portion in the animation image whose position and size change with the passage of time are known, the image area change shown in FIG. The coordinate position and dimension position of the masking image are controlled by the unit 33 and the coordinate position shift unit 34.
[0051]
Further, when the position and size of the transparent region of the face part in the animation image are unknown, for example, the specific region boundary detection unit 21, the coordinate position determination unit 22, and the region size measurement unit 23 in the specific region detection unit 11b By providing a similar circuit unit at the input stage of the superimposed image editing unit 13b, it is possible to know the position and size of the transmission region of the face portion. The subsequent control is the same as when the position and dimensions are known.
[0052]
In this way, in this embodiment, an animation can be used as a masking image (overlay image), and the captured image is automatically displayed in the transparent region of the face according to the display position and size of the masking image of the animation. You can put your face or mask the background.
[0053]
Embodiment 5 FIG.
In the fourth embodiment, the case where the masking image is either transparent or non-transparent has been described. At that time, for example, the background transparency is adjusted by using a fade-in / fade-out method. By controlling the unit 31, it may be configured to switch from the transmitted background to the masking image as time passes.
[0054]
In that case, for example, when the sender reaches a place where the background is desired to be hidden while moving, the superimposed image editing unit 13 gradually changes the transparency of the background of the superimposed image from transparent to non-transparent over time. By (fade out), the background can be masked with less discomfort due to sudden switching. Similarly, when the sender approaches a place where the background does not need to be hidden while moving, the transparency of the background of the superimposed image is gradually changed from non-transparent to transparent (fade in) as time passes. The background can be displayed with less discomfort to the other party.
[0055]
In this way, in this embodiment, for example, even if the sender is moving, the background can be hidden or displayed depending on the location, and the background can be faded in or faded out. As a result, it is possible to reduce the situation in which the person who sees the image feels uncomfortable.
[0056]
In each of the above embodiments, the face is detected as the specific area detected from the input image data. However, the present invention is not limited to this, and any area that can be specified from the input image is used. Can be applied. For example, the hand or fingertip may be used as a specific image and the other may be masked, or the background may be masked using an animal or a moving body as a specific area.
[0057]
【The invention's effect】
As described above, in the present invention described in claim 1, the display position of the masking image (overlay image) can be automatically shifted in accordance with the image position of the sender's face. Since it is not necessary to perform position adjustment, complicated operations can be omitted, and the position of the face and the position of the transmission part can be automatically matched, so that the situation of giving up image transmission can be avoided. .
[0058]
According to the first aspect of the present invention, even when the size of the face in the captured image changes, the masking image is used by using the same masking image (overlay image) as that in the case where the size does not change. Can be automatically enlarged or reduced in accordance with the face area.
[0059]
Further, in the present invention described in claim 2 , in addition to the fact that the same masking image (overlay image) can be used even when the face size in the captured image changes, the masking image can be used. The background portion can be automatically masked according to the display position and size.
[0060]
According to the first aspect of the present invention, an animation can be used as a masking image (overlay image), and an image is automatically captured in the transparent region of the face according to the display position and size of the masking image of the animation. You can put a face in the image or mask the background.
[0061]
Further, in the present invention described in claim 3 , even when the sender is moving, the background can be hidden or the background can be displayed depending on the location, and the background can be faded in or faded out. As a result, it is possible to reduce the situation in which the person who sees the image feels uncomfortable.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of a video signal editing apparatus according to Embodiment 1 of the present invention.
2 is a block diagram showing a partial configuration of the inside of the video signal editing apparatus of FIG. 1;
FIGS. 3A to 3C are diagrams showing input image data and output image data of the video signal editing apparatus shown in FIG.
FIG. 4 is a diagram illustrating a coordinate determination operation by a coordinate position determination unit.
FIG. 5 is a block diagram showing a configuration of a part of a video signal editing apparatus according to a second embodiment of the present invention.
6A to 6C are diagrams showing input image data and output image data of the video signal editing apparatus of FIG.
FIG. 7 is a block diagram showing a partial configuration of a video signal editing apparatus according to Embodiment 3 of the present invention.
8A to 8C are diagrams showing input image data and output image data of the video signal editing apparatus of FIG.
FIG. 9 is a block diagram showing a conventional videophone.
FIGS. 10A to 10C are diagrams showing output images synthesized with respective input images in the videophone of FIG. 9;
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 Image input device (imaging device), 2 Video signal editing device, 3 Image output device, 11 Specific area (face) detection part, 12 Superimposed image memory | storage part, 13 Superimposed image editing part, 14 Image composition part, 21 Specific area boundary A detection unit, 22 a coordinate position determination unit, 23 an area size measurement unit, 31 a background transparency adjustment unit, 32 an area comparison unit, 33 an image magnification change unit, and 34 a coordinate position shift unit.

Claims (3)

画像入力装置から入力する映像信号中から特定領域を検出して該特定領域のフレーム内における位置データを出力する特定領域検出部と、
画像入力装置から入力する画像の少なくとも一部を覆うように合成される重畳画像を格納する重畳画像記憶部と、
前記位置データに基づき、フレーム内における前記重畳画像の位置を変更する重畳画像編集部と、
画像入力装置から入力する映像信号と前記重畳画像とを合成する画像合成部と
を備え
前記特定領域検出部は、特定領域の寸法を検出して寸法データを出力する手段を有し、
前記重畳画像編集部は、前記寸法データを前記重畳画像と比較することにより寸法差を検出し、該寸法差に基づいて、前記重畳画像の倍率を変更する手段を有し、
前記重畳画像記憶部に格納される前記重畳画像は、動画であり、
前記重畳画像編集部は、時間経過により変化する動画の重畳画像を、前記位置データおよび前記寸法データに適応させて位置および倍率を変更する
ことを特徴とする映像信号編集装置。
A specific area detection unit that detects a specific area from a video signal input from an image input device and outputs position data in a frame of the specific area;
A superimposed image storage unit that stores a superimposed image synthesized so as to cover at least a part of an image input from the image input device;
A superimposed image editing unit that changes the position of the superimposed image in a frame based on the position data;
An image synthesis unit that synthesizes a video signal input from an image input device and the superimposed image ;
The specific area detection unit includes means for detecting a dimension of the specific area and outputting dimension data;
The superimposed image editing unit has a means for detecting a dimensional difference by comparing the dimensional data with the superimposed image, and changing a magnification of the superimposed image based on the dimensional difference,
The superimposed image stored in the superimposed image storage unit is a moving image,
The video signal editing apparatus, wherein the superimposed image editing unit changes a position and a magnification of a superimposed image of a moving image that changes over time according to the position data and the dimension data .
前記重畳画像記憶部に格納される重畳画像は、透過あるいは非透過が自在となる背景部を有し、
前記重畳画像編集部は、外部からの制御信号により、前記背景部の透過度を変更する手段を有する
ことを特徴とする請求項1に記載の映像信号編集装置。
The superimposed image stored in the superimposed image storage unit has a background part that can be transparent or non-transparent,
The video signal editing apparatus according to claim 1, wherein the superimposed image editing unit includes means for changing the transparency of the background portion by a control signal from the outside.
記重畳画像編集部は、時間経過に従って動画の重畳画像の背景の透過度を、非透過から透過に漸次変更するか、あるいは、非透過から透過に漸次変更する
ことを特徴とする請求項に記載の映像信号編集装置。
Prior Symbol superimposed image editing unit, the transparency of the background video superimposed image with the lapse of time, or gradually changed in the transmission from a non-transparent, or claim 2, characterized by gradually changing the transmission from the non-transparent The video signal editing apparatus described in 1.
JP2001172237A 2001-06-07 2001-06-07 Video signal editing device Expired - Fee Related JP3957479B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001172237A JP3957479B2 (en) 2001-06-07 2001-06-07 Video signal editing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001172237A JP3957479B2 (en) 2001-06-07 2001-06-07 Video signal editing device

Publications (2)

Publication Number Publication Date
JP2002368978A JP2002368978A (en) 2002-12-20
JP3957479B2 true JP3957479B2 (en) 2007-08-15

Family

ID=19013892

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001172237A Expired - Fee Related JP3957479B2 (en) 2001-06-07 2001-06-07 Video signal editing device

Country Status (1)

Country Link
JP (1) JP3957479B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE60329620D1 (en) * 2002-08-30 2009-11-19 Sony Corp IMAGE EXTRACTION DEVICE, IMAGE EXTRACTION PROCESS, IMAGE PROCESSING DEVICE, IMAGE PROCESSING METHOD AND IMAGING APPARATUS
WO2005015899A1 (en) * 2003-08-11 2005-02-17 Matsushita Electric Industrial Co., Ltd. Photographing system and photographing method
JP4378250B2 (en) * 2003-09-25 2009-12-02 富士フイルム株式会社 Videophone and program
US8199242B2 (en) 2006-03-23 2012-06-12 Nikon Corporation Camera and image processing program
JP4994204B2 (en) * 2007-11-30 2012-08-08 三洋電機株式会社 Image synthesizer
CN102271224A (en) * 2011-07-19 2011-12-07 中兴通讯股份有限公司 Method for realizing dynamic photo frame of video telephone and terminal
JP7456702B1 (en) 2023-11-07 2024-03-27 リベラルロジック株式会社 Programs, information processing systems and information processing methods

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2921973B2 (en) * 1990-11-29 1999-07-19 株式会社日立製作所 Image extraction method and image extraction device for specific object
JPH08149356A (en) * 1994-11-17 1996-06-07 Canon Inc Moving picture display device
JPH08317284A (en) * 1995-05-23 1996-11-29 Sanyo Electric Co Ltd Image output device and data synthesizing method
JPH10210364A (en) * 1997-01-21 1998-08-07 Matsushita Electric Ind Co Ltd Image compositing method and picture compositing

Also Published As

Publication number Publication date
JP2002368978A (en) 2002-12-20

Similar Documents

Publication Publication Date Title
FI111892B (en) Multifunction messaging device
US5786846A (en) User interface of a video communication terminal unit and a method for notifying a terminal user&#39;s deviation from an appropriate shoot range
US7999843B2 (en) Image processor, image processing method, recording medium, computer program, and semiconductor device
JP6732716B2 (en) Image generation apparatus, image generation system, image generation method, and program
EP2800351A1 (en) Expression output device and expression output method
KR20100056049A (en) Method and apparatus for composing images
JP2005287004A (en) Image display method, program, image display apparatus, and image display system
JP3957479B2 (en) Video signal editing device
JP3983624B2 (en) Image composition apparatus, image composition method, image composition program, and recording medium on which image composition program is recorded
JP4351023B2 (en) Image processing method and apparatus
JPH09200714A (en) Image processor with video telephone
JP2020064592A (en) Image generator, image generation system, image generation method, and program
JP4633023B2 (en) User interface device
JP2004056488A (en) Image processing method, image processor and image communication equipment
TW201337644A (en) Information processing device, information processing method, and recording medium
JP2006294066A (en) Image processor, image processing method, recording medium, computer program, and semiconductor device
JPH08139994A (en) Image synthesis system
JP2004072677A (en) Device, method and program for compositing image and recording medium recording the program
JPH02127886A (en) Moving picture synthesizer and special effect device and video telephone set using same
JPH07162750A (en) On-screen controller
JPH05316504A (en) Seat selection device in video communication
JPH09154114A (en) Electronic conference terminal equipment
US20240085207A1 (en) Information processing system
JP2005110160A (en) Imaging apparatus
JP2007019956A (en) Image synthesizing apparatus and image synthesizing method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050812

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070206

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070403

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070508

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070508

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100518

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110518

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110518

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120518

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120518

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130518

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140518

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees