JP7058147B2 - 画像合成装置、画像合成方法及びプログラム - Google Patents

画像合成装置、画像合成方法及びプログラム Download PDF

Info

Publication number
JP7058147B2
JP7058147B2 JP2018038520A JP2018038520A JP7058147B2 JP 7058147 B2 JP7058147 B2 JP 7058147B2 JP 2018038520 A JP2018038520 A JP 2018038520A JP 2018038520 A JP2018038520 A JP 2018038520A JP 7058147 B2 JP7058147 B2 JP 7058147B2
Authority
JP
Japan
Prior art keywords
identification
image
identification target
video
superimposed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018038520A
Other languages
English (en)
Other versions
JP2019153956A (ja
Inventor
貴之 篠田
誠 佐藤
正斗 神崎
寿晃 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Television Network Corp
Original Assignee
Nippon Television Network Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Television Network Corp filed Critical Nippon Television Network Corp
Priority to JP2018038520A priority Critical patent/JP7058147B2/ja
Publication of JP2019153956A publication Critical patent/JP2019153956A/ja
Application granted granted Critical
Publication of JP7058147B2 publication Critical patent/JP7058147B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Circuits (AREA)
  • Studio Devices (AREA)

Description

本発明は画像合成装置、画像合成方法及びプログラムに関し、特に、映像に他の画像を重畳する画像合成装置、画像合成方法及びプログラムに関する。
従来から、実写映像とCG(computer graphics)画像とを合成し、ひとつの映像とする合成技術が行われている(例えば、特許文献1)。
このような合成処理を行う装置には、本映像信号、キー信号及びフィル(Fill)信号(以下、CG画像と記載する場合がある)の3種類の映像信号が必要となる。
図18は従来の合成処理を説明するための図である。合成処理は、本映像信号(図18(A))の全領域のうち、キー信号(図18(B))に基づいて指定される領域(図18(D))に、フィル信号のCG画像(図18(C))をはめ込むことによって、合成映像信号(図18(E))を生成する。
ここでは、理解を容易にするために、キー信号の透過率を0パーセント(不透明)又は100パーセント(透明)とした場合を説明する。図18から明らかなように、合成処理によって得られる合成映像の全領域のうち、キー信号の透過率が100パーセント(透明)の領域(図18(B)の黒領域)には本映像が用いられ、キー信号の透過率が0パーセント(透明)の領域(図18(B)の白領域)にはCG画像が用いられる。
特開2002-185851号公報
しかし、上述した合成処理は、人物や、物の前面にCG画像を重畳することを前提に構成されており、自然な形で人物や物の間にCG画像を重畳することを前提としていない。
そこで、本発明は、映像上に複数の人物や物が存在する場合、その人物や物の間に、自然な形でCG画像を重畳することができる画像合成装置、画像合成方法及びプログラムを提供することを目的とする。
本発明の一態様は、映像から複数の識別対象を識別する画像識別部と、前記画像識別部により識別された識別対象が前記映像で占める識別対象領域を検出する識別対象領域検出部と、前記映像における前記複数の識別対象の位置関係を識別する位置関係識別部と、前記映像上の前記識別対象の所定位置に重畳する画像を含むフィル信号を生成するフィル信号生成部と、前記識別対象領域と、前記複数の識別対象の位置関係と、前記識別対象に重畳する重畳画像の映像上の位置と、を用いて、キー信号を生成するキー信号生成部と、前記映像と前記フィル信号と前記キー信号とを合成し、合成映像信号を生成する画像合成部とを有する画像合成装置である。
本発明の一態様は、映像から複数の識別対象を識別し、前記識別された識別対象が前記映像で占める識別対象領域を検出し、前記映像における前記複数の識別対象の位置関係を識別し、前記映像上の前記識別対象の所定位置に重畳する画像を含むフィル信号を生成し、前記識別対象領域と、前記複数の識別対象の位置関係と、前記識別対象に重畳する重畳画像の映像上の位置と、を用いて、キー信号を生成し、前記映像と前記フィル信号と前記キー信号とを合成し、合成映像信号を生成する画像合成方法である。
本発明の一態様は、映像から複数の識別対象を識別する処理と、前記識別された識別対象が前記映像で占める識別対象領域を検出する処理と、前記映像における前記複数の識別対象の位置関係を識別する処理と、前記映像上の前記識別対象の所定位置に重畳する画像を含むフィル信号を生成する処理と、前記識別対象領域と、前記複数の識別対象の位置関係と、前記識別対象に重畳する重畳画像の映像上の位置と、を用いて、キー信号を生成する処理と、前記映像と前記フィル信号と前記キー信号とを合成し、合成映像信号を生成する処理とをコンピュータに実行させるプログラムである。
本発明は、映像上に複数の人物や物が存在する場合、その人物や物の間に、自然な形でCG画像を重畳することができる。
図1は従来の合成技術を説明するための図である。 図2は本発明の概要を説明するための図である。 図3は実施の形態における画像合成装置のブロック図である。 図4は時刻tにおける画像フレームの画像内に存在する人物を検出した場合の概念図である。 図5は注目領域を説明するための図である。 図6は算出された識別対象(クラス)毎の尤度を、一例を示した図である。 図7は実施の形態を説明するための図である。 図8は実施の形態を説明するための図である。 図9は実施の形態を説明するための図である。 図10は実施の形態を説明するための図である。 図11は本実施の形態における画像合成装置の動作を説明するための図である。 図12は本実施の形態における画像合成装置の動作を説明するための図である。 図13は本実施の形態における画像合成装置の動作を説明するための図である。 図14は本実施の形態における画像合成装置の動作を説明するための図である。 図15は本実施の形態における画像合成装置の他の動作を説明するための図である。 図16は本実施の形態における画像合成装置の他の動作を説明するための図である。 図17は本実施の形態における画像合成装置の他の動作を説明するための図である。 図18は従来の合成技術を説明するための図である。
以下、図面を参照して、本発明の実施の形態における画像合成装置及びプログラムを説明する。
まず、具体的な画像合成装置の説明を始める前に、本発明の実施の形態の概要を説明する。尚、以下の説明では、識別対象を、特定の特定人物とする例を説明するが、識別対象は人物に限らず、置物、建物等のオブジェトでも良い。
図1は従来の合成技術を説明する図である。尚、以下の説明では、理解を容易にするために、キー信号の透過率を0パーセント(不透明)又は100パーセント(透明)とした場合を説明する。
図1中の本映像には選手Aと選手Bとが存在している(図1の(A))。ここで、映像中の選手Aに「○○大学選手A」というCG画像(フィル信号:図1の(C))を重畳する場合、「○○大学選手A」というCG画像を埋め込む領域のキー信号が生成される(図1の(B))。すなわち、図1の(B)では、合成処理によって得られる合成映像の全領域のうち、キー信号の透過率が100パーセント(透明)の領域(図1の(B)の黒で占められた領域)に相当する領域には、本映像が用いられ、キー信号の透過率が0パーセント(透明)の領域(図1の(B)の白で占められた領域)にはCG画像が用いられる。これらの概念を示したのが、図1の(D)である。そして、本映像信号とキー信号とフィル信号とを合成することにより、CG画像が重畳された合成画像信号が生成される(図1の(E))。
しかし、図1の(E)に示す如く、選手Aの前のみに重畳されるべき「○○大学選手A」のCG画像が、選手Aと選手Bとの前面に重畳されており、不自然である。更に、視聴者によっては、選手BのためのCG画像とみなされる可能性もある。このような弊害は、映像上に複数の人物が存在する場合、その人物間に、自然な形でCG画像を重畳することができないことに起因する。
そこで、本発明の実施の形態は、映像上に複数の人物が存在する場合、その人物間に、自然な形でCG画像を重畳するものである。
具体的に説明すると、図2中の本映像には選手Aと選手Bとが存在している(図2の(A))。実施の形態では、選手Aと選手Bとの間に自然な形でCG画像を重畳するために、選手Aと選手Bとの位置関係を考慮する。図2の(A)本映像信号では、選手Aが後方に位置し、選手Bが前方に位置している。ここで、選手Aのための「○○大学選手A」のCG画像を本映像信号に重畳する場合を考える。「○○大学選手A」のCG画像が選手AのためのCG画像であるように表示させるには、図2の(E)の合成映像信号のように、「○○大学選手A」のCG画像のうち、選手Bと重なる領域のCG画像が選手Bによって見えないように表示することが自然である。
そこで、図2の(B)に示すように、重畳するCG画像のうち、選手Bの人物領域と重なる部分は選手Bの映像を用いられるようなキー信号を生成すれば良い。そして、このキー信号(図2の(B))と、「○○大学選手A」のCG画像のフィル信号(図2の(C))と、本映像信号(図2の(A))とを合成処理することにより、図2の(E)の合成映像信号を生成することができる。
次に、本発明の実施の形態における画像合成装置を具体的に説明する。図3は実施の形態における画像合成装置のブロック図である。尚、本発明の実施の形態では、映像から特定の特定人物を識別する例として、多くの観客(人物)が存在する映像から駅伝の競技中の選手(特定人物)を識別する例を説明する。但し、あくまでも例であり、本発明は本例に限定されるものではない。
実施の形態における画像合成装置は、画像識別部1と、人物領域検出部2と、位置関係識別部3と、フィル信号生成部4と、キー信号生成部5と、画像合成部6とを備える。
画像識別部1は、入力された映像から人物を認識し、認識された人物から選手(特定人物)を識別する。映像上の人物の認識であるが、人物であることが認識できればよく、個々の人物の属性等まで認識できる必要はない。すなわち、映像中の木や車等の存在物と人物とが区別できるような認識ができれば良い。そして、認識した人物の個人を特定するような属性(氏名や、属するチーム等)まで、識別する必要はない。
次に、画像識別部1は、識別された人物から選手(特定人物)を識別する。識別する識別対象は、例えば、映像中の選手(特定人物)及びその選手の属性である。選手の属性とは、選手個々の氏名や年齢のみならず、例えば、選手の属するチームや大学、役割(野球の場合には投手や野手等、サッカーの場合には、オフェンスやディフェンス)等である。尚、以下の説明では、便宜的に、識別対象をクラスと記載する場合がある。また、カテゴリーとは、選手及びその選手の属性を識別するために用いられる特徴量の種類である。代表的なカテゴリーとしては、例えば、選手の顔、選手が着ているユニフォーム、背番号、タスキ及びゼッケンに記載されている文字等である。
多数の人物が存在する映像から正しく選手及びその選手の属性を識別するためには、どのカテゴリーに着目して識別するかが重要である。例えば、映像中の選手の位置や選手の属するチームを識別するには、ユニフォームの色や模様、タスキ及びゼッケンに記載されている文字等が重要なカテゴリーとなる。一方、個々の選手(氏名等)まで特定したいのならば、各選手の顔のカテゴリーは重要である。更に、どのようなカテゴリーを用い、そのカテゴリーにどのような重みをかけるかは、競技毎に異なる。例えば、競技がマラソン、駅伝である場合、映像中に選手以外の観客等の人物が多数存在しており、選手が履いているシューズ等の特徴量に重点を置いて用いても、類似するシューズを履いている観客がおり、精度よく識別することはできない。一方、競技が野球やサッカー等の場合、映像中に存在する観客等の位置がほぼ決まっているので、観客等を識別前に識別対象から除くことは比較的容易であり、識別自体は主に選手が着ているユニフォームに着目すれば良い。
このような画像識別部1の画像識別方法としては、パターンマッチングや、ディープラーニング等の手法を用いた機械学習などがある。
上記の理由から、画像識別部1は、競技毎又は識別する選手毎に各カテゴリーに対して異なる重みのパラメータを記憶するように構成しても良い。
画像識別部1による識別の一例を以下に説明する。
画像識別部1は、入力された映像の時刻tにおける画像フレームに関して、画像内に存在する人物が、予め学習した識別対象(クラス)に属するかどうかを推定する。
まず、画像識別部1は、フレームの画像中から人物を検出する。人物を検出する方法は限定するものではない。図4は、時刻tにおける画像フレームの画像内に存在する人物を検出した場合の概念図である。図4では、四角で囲んだものが人物であると検出されたものであり、選手、観客にかかわらず、人物であると識別できるものを検出している。
次に、画像識別部1は、検出した人物に関して、図5に示す如く、頭頂部から首中点を結ぶ直線の距離をLとし、人物の首中心から下方向の位置にL×2Lの大きさの注目領域を設定する。そして、検出された人物が予め学習した識別対象(クラス)に属する尤度(信頼度)を算出する。画像識別部1は、算出された尤度が予め定められた閾値より越え、最も尤度が高い人物をそのクラスに属する人物と判定する。
図6は、算出された識別対象(クラス)毎の尤度を、一例を示した図である。尚、図6の例では、識別対象の大学名以外にも精度を高めるために、白バイと観客のクラスを設けている。図6の例では、人物Aは観客である確からしさが最も高く、人物Bは大学Yの選手である確からしさが最も高く、人物Cは大学Xの選手である確からしさが最も高く、人物Dは大学Zの選手である確からしさが最も高い。ここで、閾値を0.7とすると、画像識別部1は、人物Aは観客のクラスに属し、人物Bは大学Yのクラスに属し、人物Cは大学Xのクラスに属し、人物Dは大学Zのクラスに属すると判定する。そして、人物Bの映像上の位置情報(例えば、注目領域を特定する座標情報)と大学名Yとを出力する。同様に、人物Cの映像上の位置情報(例えば、注目領域を特定する座標情報)と大学名Xとを出力する。同様に、人物Dの映像上の位置情報(例えば、注目領域を特定する座標情報)と大学名Zとを出力する。尚、人物Aについては、選手ではないので、出力対象から除外するが、出力することを妨げるものではない。
尚、前処理として、多くの人物(例えば、観客)と選手(特定人物)とを区別し、選手と思われる人物に対して、より細かな選手の属性を識別した方が、高精度に選手(特定人物)の属性等を識別できる可能性が高い。
例えば、マラソンや駅伝等のスポーツでは、選手を一定の大きさで映るように、カメラは選手と一定の距離を保ちながら移動するケースが多い。この場合、選手はカメラと共に移動するが、観客はその場に留まる傾向が高い。例えば、時刻tの画像フレームの映像が図7に示すような場合、時刻t+1の画像フレームの映像では、観客はその場に留まり、図8に示すような映像になる。つまり、選手とカメラとの位置は時刻が進んでも維持されるが、各観客とカメラとの距離は離れるため、異なる時刻で得られるフレーム画像中の人物に関して同一人物を対応付ける追跡処理を行うことにより、各人物のカメラとの相対的な移動量を推定することができる。この移動量を用いることで、選手と観客とを判別できる。移動量は、対応付けられた異なる時刻に得られた画像内の人物の座標位置の差分ベクトルで表す。
このような差分ベクトルの移動量と、各フレーム単位で算出された識別対象(クラス)毎の尤度とを関連付けて記憶していく。そして、差分ベクトルの移動量が予め定めた値以上である人物を観客とし、その人物を識別対象の選手の候補から除外する。そして、除外された人物の中から選手として尤度が高いものを選択していくようにする。そして、選手として識別された人物について、上述の方法で選手の属性を識別する。
このようにすれば、選手と顧客とを精度よく識別可能であり、結果として識別対象の選手を高精度で識別することができる。
人物領域検出部2は、画像識別部1により選手として識別された人物が映像上で占める領域(人物領域)を検出するものである。映像上の人物領域の検出は、既知のエッジ部の検出方法等を用いることができる。
位置関係識別部3は、画像識別部1により識別された選手の映像上の位置関係を識別するものである。位置関係を識別する一つの方法としては、映像上の人物の大きさを用いる。2次元の映像では、手前にあるものが大きく映り、遠方にあるものほど小さく映る。これは競技を撮影している場合も同様である。例えば、マラソンや駅伝では、選手を正面から撮影した場合、手前を走る選手ほど映像上で大きく映り、後方の選手ほど映像上で小さく映る。選手を背面から撮影した場合も、同様である。位置関係識別部3は、このような性質を利用し、画像識別部1により識別した選手(特定人物)の映像上の大きさから各識別対象の位置関係を識別する。
具体的には、位置関係識別部3は、上述した画像識別部1と同様に、画像識別部1が識別した選手(特定人物)に関して、図5に示す如く、頭頂部から首中点を結ぶ直線の距離をLとし、人物の首中心から下方向の位置にL×2Lの大きさの注目領域を設定する。そして、位置関係識別部3は、識別した選手(特定人物)の映像上の大きさの指標として、この注目領域の大きさ(例えば、面積)に着目する。
例えば、図9は選手を正面から撮影した映像の場合であり、図9の例では、人物Dの注目領域が最も大きく、人物Cの注目領域が最も小さい。従って、選手の位置関係は、映像手前から、人物D(大学Zの選手)、人物B(大学Yの選手)、人物C(大学Xの選手)の順であることが識別できる。同様に、図10は選手を背面から撮影した映像の場合であり、図10の例でも、人物Dの注目領域が最も大きく、人物Cの注目領域が最も小さい。従って、選手の位置関係は、図9と同様に、映像手前から、人物D(大学Zの選手)、人物B(大学Yの選手)、人物C(大学Xの選手)の順であることが識別できる。
このように、識別された選手の映像上の大きさに着目することにより、位置関係識別部3は、画像識別部1により識別された選手の映像上の位置関係を識別することができる。
尚、上述した例では、識別した選手の注目領域に着目して位置関係を識別したが、これに限られない。注目領域の大きさを決定したL等の長さに着目するようにしても良い。更に、例えば、選手自体の映像内での選手の大きさでも良い。また、他の方法として、各選手が共通して装着している装着具に着目する方法がある。例えば、ゼッケン等は、選手間で共通の大きさなので、好適である。更に、位置関係を識別する一つの方法としては、映像上にある基準点を利用する方法がある。基準点の例としては、映像上の消失点等がある。位置関係の特定は、まず、画像識別部1により、識別された選手の映像上の位置情報を取得する。映像上にある消失点と各選手の映像上の位置情報との距離を計算し、この距離が長い程、映像上手前にあると推定する。
更に、本例の応用例として、位置関係を識別するに用いた大きさから、相対的な距離も求めることが可能である。競技の撮影に用いられるカメラは、撮影した映像とともに、画角などの撮影情報を取得する機能を有する。従って、画角などと、位置関係を識別するに用いた大きさと距離との関係とを、予め学習しておけば、選手(識別対象)間の距離も算出することが可能である。
フィル信号生成部4は、本映像信号と合成するフィル信号を生成する。フィル信号生成部4は、画像識別部1により識別された選手の本映像上の位置情報(例えば、注目領域を特定する座標情報)、及び、選手の属性情報を受信する。そして、選手の属性情報から、その選手に対応するCG画像を生成する。また、CG画像と選手の本映像上の位置情報とから、フィル信号を生成する。
キー信号生成部5は、人物領域検出部2で検出された選手の映像上の人物領域と、位置関係識別部3で識別された選手の映像上の位置関係と、フィル信号生成部4から得られるCG画像の領域の位置及びサイズとから、キー信号を生成する。尚、以下の説明では、理解を容易にするために、図面上、キー信号の透過率が100パーセント(透明)の領域を黒で示し、キー信号の透過率が0パーセント(不透明)の領域を白で示す。しかし、これに限られず、例えば、映像の演出上、CG画像を重畳する領域の透過率を50パーセントとし、CG画像から本映像の部分が透けて見えるようにすることも可能である。
画像合成部6は、本映像信号と、フィル信号生成部4が生成したフィル信号と、キー信号生成部5が生成したキー信号とを合成し、合成映像信号を生成する。
上述した画像合成装置は、例えば、CPU(Central Processing Unit)等のプロセッサと、一時記憶としてのメモリと、不揮発性の記憶装置(EEPROMやハードディスク)とを含み構成される。記憶装置に記憶されたプログラムをメモリに読み出して実行することにより、CPU等のプロセッサが、画像識別部1と、人物領域検出部2と、位置関係識別部3と、フィル信号生成部4と、キー信号生成部5と、画像合成部6として機能する。
次に、上述した画像合成装置の動作について説明する。尚、本動作では、映像上で識別した各選手にCG画像を重畳する例を説明する。図11から図14は、本実施の形態における画像合成装置の動作を説明するための図である。
まず、本映像信号が画像識別部1に入力される(図11(A))。画像識別部1は、本映像信号から、選手を識別する。本例では、本映像信号から、選手A、選手B及び観客が識別されている(図11(B))。
続いて、位置関係識別部3は、選手Aの注目領域の大きさと選手Bの注目領域の大きさとを比較する。本例では、選手Bの注目領域の大きさが、選手Aの注目領域の大きさよりも大きいので、映像上、選手Aよりも選手Bが手前に位置していることが識別できる(図11(C))。
フィル信号生成部4は、画像識別部1により識別された選手のCG画像を重畳する映像の位置を決定する。本例では、まず、選手AのCG画像を重畳する映像の位置及びサイズを決定する(図11(D))。
人物領域検出部2は、画像識別部1により識別された選手A及び選手Bの人物領域を検出する(図11(E))。
キー信号生成部5は、人物領域検出部2で検出された選手A及び選手Bの映像上の人物領域と、位置関係識別部3で得られた選手Aと選手Bとの映像上の位置関係と、フィル信号生成部4から得られるCG画像の領域の位置及びサイズとから、キー信号を生成する(図11(F))。
画像合成部6は、図12に示す如く、本映像信号と、選手Aのキー信号と、選手Aのフィル信号(「選手A○○大学」のCG画像)とを合成し、選手Aのための「選手A○○大学」のCG画像が重畳された第1合成映像信号を生成する。
次に、選手BにCG画像を重畳する動作に移る。
本映像信号が画像識別部1に入力される(図13(A))。画像識別部1は、本映像信号から、選手を識別する。本例では、本映像信号から、選手A、選手B及び観客が識別されている(図13(B))。
位置関係識別部3は、選手Aの注目領域の大きさと選手Bの注目領域の大きさとを比較する。本例では、選手Bの注目領域の大きさが、選手Aの注目領域の大きさよりも大きいので、映像上、選手Aよりも選手Bが手前に位置していることが識別できる(図13(C))。
人物領域検出部2は、画像識別部1により識別された選手A及び選手Bの人物領域を検出する(図13(E))。
以上の動作は、選手AにCG画像を重畳する際に行っているので、再度行わなくても良く、それらの情報を再利用すれば良い。
続いて、フィル信号生成部4は、画像識別部1により識別された選手のCG画像を重畳する映像の位置を決定する。本例では、選手BのCG画像を重畳する映像の位置及びサイズを決定する(図13(D))。
キー信号生成部5は、人物領域検出部2で検出された選手A及び選手Bの映像上の人物領域と、位置関係識別部3で得られた選手Aと選手Bとの映像上の位置関係と、フィル信号生成部4から得られるCG画像の領域の位置及びサイズとから、キー信号を生成する(図13(F))。
画像合成部6は、図14に示す如く、第1合成映像信号と、選手Bのキー信号と、選手Bのフィル信号(「選手BXX大学」のCG画像)とを合成し、選手Aのための「選手A○○大学」のCG画像と選手Bのための「選手BXX大学」のCG画像とが重畳された第2合成映像信号を生成する。
第2合成映像信号が示す如く、選手Aのための「選手A○○大学」のCG画像のうち、選手Bと重なる領域のCG画像は選手Bによって見えないように重畳されていることがわかる。一方、選手Bのための「選手BXX大学」のCG画像は、選手Bの前に人物が存在しないので、全てのCG画像が見える形で重畳されている。
このように、本実施の形態は、映像上に複数の人物が存在する場合、その人物間に、自然な形でCG画像を重畳することができる。
尚、上述した動作例では、選手Aのための「選手A○○大学」のCG画像と、選手Bのための「選手BXX大学」のCG画像とを、別々に、本映像信号に重畳する例を説明したが、これに限られない。例えば、図15に示すように、上述した手法と同様に、選手A及び選手Bのキー信号を生成し、選手A及び選手Bのフィル信号を生成し、これらのキー信号とフィル信号と本映像信号とを合成し、一度に、「選手A○○大学」のCG画像と「選手BXX大学」のCG画像とが本映像に重畳された合成信号を生成しても良い。
また、上述した説明では、人物領域検出部2は、画像識別部1により選手として識別された人物が映像上で占める領域(人物領域)を検出する構成を説明した。この手法は、映像の美しさの点から好ましい方法である。しかし、人物のエッジを細かく検出すると、エッジ検出の処理に時間がかかる場合がある。そこで、人物の細かなエッジを検出することなく、例えば、図16に示すように、識別した選手を囲む矩形領域を、人物領域として検出するようにしても良い。この場合のキー信号は、例えば、選手Aのキー信号の例は、図17に示すようになる。
以上好ましい実施の形態をあげて本発明を説明したが、全ての実施の形態の構成を備える必要はなく、適時組合せて実施することができるばかりでなく、本発明は必ずしも上記実施の形態に限定されるものではなく、その技術的思想の範囲内において様々に変形し実施することが出来る。
1 画像識別部
2 人物領域検出部
3 位置関係識別部
4 フィル信号生成部
5 キー信号生成部
6 画像合成部

Claims (9)

  1. 複数の識別対象が存在する映像から前記複数の識別対象を識別する画像識別部と、
    前記画像識別部により識別された識別対象毎に、前記識別対象が前記映像で占める識別対象領域を検出する識別対象領域検出部と、
    前記映像における前記複数の識別対象の位置関係を識別する位置関係識別部と、
    前記映像上の前記識別対象の各々に対応する重畳画像であって、対応する前記識別対象の所定位置に重畳する重畳画像を含むフィル信号を生成するフィル信号生成部と、
    前記識別対象領域と、前記複数の識別対象の位置関係と、前記識別対象に重畳する重畳画像の映像上の位置と、を用いて、キー信号を生成するキー信号生成部と、
    前記映像と前記フィル信号と前記キー信号とを合成し、合成映像信号を生成する画像合成部と
    を有し、
    前記キー信号生成部は、第1の識別対象に対応する前記重畳画像と、前記第1の識別対象よりも映像上において前方に位置する第2の識別対象の識別対象領域と、が重なる領域に、前記第1の識別対象に対応する重畳画像を重畳させないキー信号を生成する、
    する画像合成装置。
  2. 前記位置関係識別部は、前記画像識別部により識別された識別対象の所定部位の大きさに基づいて、前記映像における前記複数の識別対象の位置関係を識別する
    請求項1に記載の画像合成装置。
  3. 前記画像識別部は、前記識別対象の属性情報を識別し、
    前記フィル信号生成部は、前記識別対象の属性情報を用いて、前記識別対象に対応する重畳画像を生成する、
    請求項1又は請求項2に記載の画像合成装置。
  4. 複数の識別対象が存在する映像から前記複数の識別対象を識別し、
    前記識別された識別対象毎に、前記識別対象が前記映像で占める識別対象領域を検出し、
    前記映像における前記複数の識別対象の位置関係を識別し、
    前記映像上の前記識別対象の各々に対応する重畳画像であって、対応する前記識別対象の所定位置に重畳する重畳画像を含むフィル信号を生成し、
    前記識別対象領域と、前記複数の識別対象の位置関係と、前記識別対象に重畳する重畳画像の映像上の位置と、を用いて、キー信号を生成し、
    前記映像と前記フィル信号と前記キー信号とを合成し、合成映像信号を生成し、
    前記キー信号の生成は、第1の識別対象に対応する前記重畳画像と、前記第1の識別対象よりも映像上において前方に位置する第2の識別対象の識別対象領域と、が重なる領域に、前記第1の識別対象に対応する重畳画像を重畳させないキー信号を生成する、
    画像合成方法。
  5. 前記識別された識別対象の所定部位の大きさに基づいて、前記映像における前記複数の識別対象の位置関係を識別する
    請求項4に記載の画像合成方法。
  6. 前記識別対象の属性情報を識別し、
    前記識別対象の属性情報を用いて、前記識別対象に対応する重畳画像を生成する、
    請求項4又は請求項5に記載の画像合成方法。
  7. 複数の識別対象が存在する映像から前記複数の識別対象を識別する処理と、
    前記識別された識別対象毎に、前記識別対象が前記映像で占める識別対象領域を検出する処理と、
    前記映像における前記複数の識別対象の位置関係を識別する処理と、
    前記映像上の前記識別対象の各々に対応する重畳画像であって、対応する前記識別対象の所定位置に重畳する重畳画像を含むフィル信号を生成する処理と、
    前記識別対象領域と、前記複数の識別対象の位置関係と、前記識別対象に重畳する重畳画像の映像上の位置と、を用いて、キー信号を生成する処理と、
    前記映像と前記フィル信号と前記キー信号とを合成し、合成映像信号を生成する処理と
    をコンピュータに実行させ、
    前記キー信号を生成する処理は、第1の識別対象に対応する前記重畳画像と、前記第1の識別対象よりも映像上において前方に位置する第2の識別対象の識別対象領域と、が重なる領域に、前記第1の識別対象に対応する重畳画像を重畳させないキー信号を生成する、
    プログラム。
  8. 前記複数の識別対象の位置関係を識別する処理は、前記識別された識別対象の所定部位の大きさに基づいて、前記映像における前記複数の識別対象の位置関係を識別する
    請求項7に記載のプログラム。
  9. 前記識別対象を識別する処理は、前記識別対象の属性情報を識別し、
    前記フィル信号を生成する処理は、前記識別対象の属性情報を用いて、前記識別対象に対応する重畳画像を生成する、
    請求項7又は請求項8に記載のプログラム。
JP2018038520A 2018-03-05 2018-03-05 画像合成装置、画像合成方法及びプログラム Active JP7058147B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018038520A JP7058147B2 (ja) 2018-03-05 2018-03-05 画像合成装置、画像合成方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018038520A JP7058147B2 (ja) 2018-03-05 2018-03-05 画像合成装置、画像合成方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2019153956A JP2019153956A (ja) 2019-09-12
JP7058147B2 true JP7058147B2 (ja) 2022-04-21

Family

ID=67947164

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018038520A Active JP7058147B2 (ja) 2018-03-05 2018-03-05 画像合成装置、画像合成方法及びプログラム

Country Status (1)

Country Link
JP (1) JP7058147B2 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009290782A (ja) 2008-05-30 2009-12-10 Canon Inc 撮像装置、その制御方法及びプログラム
JP2013070274A (ja) 2011-09-22 2013-04-18 Sharp Corp 画像処理装置、画像処理方法、画像処理プログラム、及び撮像装置
JP2016036081A (ja) 2014-08-01 2016-03-17 キヤノン株式会社 画像処理装置、方法及びプログラム並びに記録媒体

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07212653A (ja) * 1994-01-18 1995-08-11 Matsushita Electric Ind Co Ltd 画像処理装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009290782A (ja) 2008-05-30 2009-12-10 Canon Inc 撮像装置、その制御方法及びプログラム
JP2013070274A (ja) 2011-09-22 2013-04-18 Sharp Corp 画像処理装置、画像処理方法、画像処理プログラム、及び撮像装置
JP2016036081A (ja) 2014-08-01 2016-03-17 キヤノン株式会社 画像処理装置、方法及びプログラム並びに記録媒体

Also Published As

Publication number Publication date
JP2019153956A (ja) 2019-09-12

Similar Documents

Publication Publication Date Title
CN113810587B (zh) 一种图像处理方法及装置
JP6525453B2 (ja) オブジェクト位置推定システム、及びそのプログラム
US9305206B2 (en) Method for enhancing depth maps
KR101469398B1 (ko) 텍스트 기반 3d 증강 현실
JP5280503B2 (ja) 画像表示方法、共有ボードシステム
CN103140879B (zh) 信息呈现装置、数字照相机、头戴式显示器、投影仪、信息呈现方法和信息呈现程序
US20160171296A1 (en) Image processing device and image processing method
KR101984496B1 (ko) 물체 영역에 근거하여 화상을 처리하는 장치 및 그 방법
US9147113B2 (en) Deformable surface tracking in augmented reality applications
US20180182171A1 (en) Systems and Methods for Real-time Multimedia Augmented Reality
CN109816766A (zh) 图像处理装置、图像处理方法及存储介质
JP2015192198A (ja) 映像表示装置および映像表示システム
CN111160291B (zh) 基于深度信息与cnn的人眼检测方法
JP6742221B2 (ja) オブジェクト追跡装置及びそのプログラム
JP6850751B2 (ja) 物体追跡装置、物体追跡方法、及びコンピュータプログラム
Morimitsu et al. Exploring structure for long-term tracking of multiple objects in sports videos
US20160253554A1 (en) Determination device and determination method
Kim et al. Real-time facial feature extraction scheme using cascaded networks
US10976829B1 (en) Systems and methods for displaying augmented-reality objects
JP7066405B2 (ja) 画像識別装置、プログラム及び画像識別方法
JP7058147B2 (ja) 画像合成装置、画像合成方法及びプログラム
JP2019096062A (ja) 物体追跡装置、物体追跡方法、および、物体追跡プログラム
JP2020109556A (ja) 距離推定装置、距離推定方法及びプログラム
JP2004355494A (ja) 表示インタフェース方法および装置
Nanda et al. A robust elliptical head tracker

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201112

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210712

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210728

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210922

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220406

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220411

R150 Certificate of patent or registration of utility model

Ref document number: 7058147

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150