JP2007304675A - 画像合成方法および装置ならびにプログラム - Google Patents
画像合成方法および装置ならびにプログラム Download PDFInfo
- Publication number
- JP2007304675A JP2007304675A JP2006129863A JP2006129863A JP2007304675A JP 2007304675 A JP2007304675 A JP 2007304675A JP 2006129863 A JP2006129863 A JP 2006129863A JP 2006129863 A JP2006129863 A JP 2006129863A JP 2007304675 A JP2007304675 A JP 2007304675A
- Authority
- JP
- Japan
- Prior art keywords
- image
- subject
- moving
- face
- registered
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
- Collating Specific Patterns (AREA)
Abstract
【課題】撮影者が注目している移動被写体が消去されるような合成が行われるのを防止する。
【解決手段】動画像MPの各フレーム画像中から移動している移動被写体S1、S2が検出される。その後、移動被写体S1、S2が被写体データベース20に登録されているか否かが認識される。そして、被写体認識手段30において移動被写体S1が認識されたとき、背景画像Gの合成は行われず、移動被写体S2が認識されなかったとき、背景抽出手段60により背景画像Gが抽出され、画像合成手段70により背景画像Gが合成された合成画像が生成される。
【選択図】図1
【解決手段】動画像MPの各フレーム画像中から移動している移動被写体S1、S2が検出される。その後、移動被写体S1、S2が被写体データベース20に登録されているか否かが認識される。そして、被写体認識手段30において移動被写体S1が認識されたとき、背景画像Gの合成は行われず、移動被写体S2が認識されなかったとき、背景抽出手段60により背景画像Gが抽出され、画像合成手段70により背景画像Gが合成された合成画像が生成される。
【選択図】図1
Description
本発明は、動画像から移動被写体を除去した合成画像を生成するときの画像合成方法および装置ならびにプログラムに関するものである。
動画像処理技術において、動画像中の物体(オブジェクト)等に対して、移動、変形、削除等の操作を自由に行なう技術が開発されており、特に、オブジェクトの消去に関して、オブジェクト消去後の画像が不自然に見えないようにするため、オブジェクトに隠れた背景画像をオブジェクトの存在する場所に合成することが提案されている(たとえば特許文献1、2参照)。特許文献1において、動画像において各フレーム上の各画素の動きベクトルを使用して移動被写体により隠れた背景画素の動きベクトルを推定するとともに、推定した動きベクトルを用いて他フレームにおける背景画素の画素値を推定し、移動被写体の画素値を推定した画素値と置き換えることにより、背景画像を合成するようにしている。特許文献2においては、動画像を構成する複数のフレーム画像を複数の区間に分割し、各区間に属するフレーム画像を用いて移動物体を切り出すためのマスクを作成し、作成したマスクを各フレーム画像に適用することにより移動物体を切り出した画像を生成するとともに、切り出した部分に背景画像を合成するようになっている。
特開平9−130803号公報
特開2001−155163号公報
上述した特許文献1、2において、動画像内に存在する移動物体すべてについて背景画像の合成が行われてしまうと、撮影者が注目している被写体が動いている場合にも動画像から当該被写体が除去されてしまう。このため、合成後の画像は撮影者が見たい被写体が写っていない画像になってしまうという問題がある。
そこで、本発明は、撮影者が注目している移動被写体が消去されるような合成が行われるのを防止することができる画像合成方法および装置ならびにプログラムを提供することを目的とするものである。
本発明の画像合成方法は、動画像内において移動している移動被写体を検出し、検出した移動被写体が被写体データベース内に登録された特定の被写体であるか否かを認識し、移動被写体が被写体データベースに登録されていないと認識したとき、移動被写体により隠れた背景画像を動画像内から抽出し、抽出した背景画像を移動被写体の位置に合成した合成画像を生成することを特徴とするものである。
本発明の画像合成装置は、動画像において移動している移動被写体を検出する被写体検出手段と、特定の被写体に関する情報が登録されている被写体データベースと、被写体検出手段により検出された移動被写体が被写体データベース内に登録された特定の被写体であるか否かを認識する被写体認識手段と、移動被写体により隠れた背景画像を動画像内から抽出する背景抽出手段と、背景抽出手段により抽出された背景画像を移動被写体の位置に合成する画像合成手段と、を備え、被写体認識手段において移動被写体が被写体データベースに登録されていないと認識されたとき、背景抽出手段が動画像内から背景画像を抽出し、画像合成手段が背景画像を移動被写体の位置に合成するものであることを特徴とするものである。
本発明の画像合成プログラムは、コンピュータに、動画像内において移動している移動被写体を検出し、特定の被写体に関する情報が登録されている被写体データベース内に検出した移動被写体が登録されているか否かを認識し、移動被写体がデータベースに登録されていないと認識したとき、移動被写体により隠れた背景画像を動画像内から抽出し、抽出した背景画像を移動被写体の位置に合成した合成画像を生成することを実行させることを特徴とするものである。
ここで、画像合成手段が生成する合成画像は、静止画であっても良いし動画であっても良い。静止画である場合には動画を構成する1つのフレーム画像について合成画像を生成し、動画像である場合には各フレーム画像について合成画像を生成する。なお、画像合成手段が静止画からなる合成画像を生成するとき、複数のフレーム画像の中から基準となるフレーム画像を決定し、決定したフレーム画像内の移動被写体の位置に背景画像を合成することになる。このとき、画像合成手段は、基準となるフレーム画像の決定を自動的に決定するようにしても良いし、複数のフレーム画像の中から基準となるフレーム画像の複数の候補を選択して表示装置に表示し、表示装置に表示された複数のフレーム画像のうち、ユーザーにより入力手段を介して選択されたフレーム画像を基準となるフレーム画像として決定するようにしてもよい。
また、特定の被写体に関する情報は被写体認識手段において認識可能なものであれば良く、たとえば特定の被写体の顔に関する情報(たとえば顔画像や顔画像の局所特徴量等)や、被写体の形状、色、大きさ等の移動被写体の外見的特徴もしくは被写体が有しているICタグ情報等であってもよい。
なお、移動被写体はいかなる物体でも良く、乗り物やボールであっても良いし人物被写体であっても良い。移動被写体が人物被写体であるとき、被写体データベースが特定の人物の顔情報を登録したものであり、被写体認識手段が被写体検出手段により検出された移動被写体に被写体データベースに登録された顔情報が含まれているか否かを認識するものであってもよい。
また、被写体認識手段は、移動被写体を認識するものであればいかなる認識手法を用いることができ、たとえば被写体検出手段により検出された移動被写体から顔画像を検出する顔検出手段と、顔検出手段により検出された顔画像を用いて移動被写体が被写体データベースに登録されている顔情報を有しているか否かを照合する照合手段とを備え、顔検出手段が、動画像を構成するフレーム画像上に設定画素数の枠からなるサブウィンドウを走査させ複数の部分画像を生成する部分画像生成手段と、部分画像生成手段により生成された複数の部分画像のうち顔である部分画像を検出する顔判別器とを有するものであり、顔判別器が、複数の弱判別器による複数の判別結果を用いて部分画像が顔であるか否かを判別する顔判別器を備えたものであってもよい。
本発明の画像合成方法および装置ならびにプログラムによれば、動画像内において移動している移動被写体を検出し、検出した移動被写体が被写体データベース内に登録された特定の被写体であるか否かを認識し、移動被写体が被写体データベースに登録されていないと認識したとき、移動被写体により隠れた背景画像を動画像内から抽出し、抽出した背景画像を移動被写体の位置に合成した合成画像を生成することにより、撮影者が注目している移動被写体が消去されてしまうのを防止することができるため、撮影者の意図を反映した画像の合成を行うことができる。
なお、移動被写体が人物被写体であり、被写体データベースが特定の人物の顔情報を登録したものであり、被写体認識手段が被写体検出手段により検出された移動被写体に被写体データベースに登録された顔情報が含まれているか否かを認識するものであれば、撮影者が注目している人物が自動的に画像合成処理がなされることにより、動画像内から消えてしまうのを防止することができる。
また、被写体認識手段が、被写体検出手段により検出された移動被写体から顔画像を検出する顔検出手段と、顔検出手段により検出された顔画像を用いて移動被写体が被写体データベースに登録されている顔情報を有するか否かを照合する照合手段とを備え、顔検出手段が、動画像を構成するフレーム画像上に設定画素数の枠からなるサブウィンドウを走査させ複数の部分画像を生成する部分画像生成手段と、部分画像生成手段により生成された複数の部分画像のうち顔である部分画像を検出する顔判別器とを有し、顔判別器が、複数の弱判別器による複数の判別結果を用いて部分画像が顔であるか否かを判別する顔判別器を備えたものであるとき、精度良く効率的に移動被写体の認識を行うことができる。
以下、図面を参照して本発明の画像合成装置の好ましい実施の形態を詳細に説明する。なお、図1のような画像合成装置1の構成は、補助登録装置に読み込まれた画像合成プログラムをコンピュータ(たとえばパーソナルコンピュータ等)上で実行することにより実現される。このとき、この画像合成プログラムは、CD−ROM等の情報登録媒体に登録され、もしくはインターネット等のネットワークを介して配布され、コンピュータにインストールされることになる。もしくは画像合成プログラムがデジタルカメラ内のプロセッサにより時刻させることにより実現されたものであってもよい。
画像合成装置1は、動画像MPにおいて移動している移動被写体Sを検出する被写体検出手段10と、特定の被写体が登録されている被写体データベース20と、被写体検出手段10により検出された移動被写体Sが被写体データベース20内に登録された特定の被写体である否かを認識する被写体認識手段30と、移動被写体Sにより隠れた背景画像Bを動画像MP内から抽出する背景抽出手段60と、背景画像Bを移動被写体Sの位置に合成した合成画像を生成する画像合成手段70とを備えている。
被写体検出手段10は、たとえば上述した特許文献2(特開2001−155163号公報)に開示されている技術を用いて動画像MPから移動している移動被写体Sを検出する機能を有している。具体的には、被写体検出手段10は動画像MPを構成する複数のフレーム画像Pn〜Pn+mの区間に区切り、このフレーム画像Pn〜Pn+mに対して同一位置の点の画素値をフレーム順に追いかけて、平均値からのずれが大きい画素値を特異データとして除去する。そして、フレーム画像Pn〜Pn+mの特異データが除去された同一位置の点の画素値の近似式および近似式表現パラメータを作成し、この近似式表現パラメータを用いて背景画像を生成する。そして、この背景画像とフレーム画像Pn〜Pn+mとの差分画像から移動被写体S1、S2を検出する。なお、移動被写体S1、S2の検出方法としては、上述した方法の他に各フレーム画像Pn〜Pn+mの各画素における動きベクトルを用いる方法等の公知の技術を用いることができる。よって、図2のように動画像MPの人物とボールとが動いている移動被写体である場合、被写体検出手段10は2つの移動被写体S1、S2を検出することになる。
図1の被写体認識手段30は、被写体検出手段10により検出された移動被写体Sが特定の被写体であるか否かを認識するものである。なお、被写体認識手段30は、各フレーム画像Pn〜Pn+m毎に認識された移動被写体Sに対し被写体の認識を行うようにしても良いし、いずれか1つのフレーム画像Pn内の移動被写体Sに対し被写体の認識を行うようにしても良い。
ここで、特定の被写体が人物被写体である場合について例示する。被写体認識手段30は、被写体検出手段10により検出された移動被写体の中から顔画像Fを検出する顔検出手段40と、顔検出手段40により検出された顔画像Fが特定の人物の顔であるか否かを照合する照合手段50とを備えている。また、顔検出手段40は、図3に示すように、たとえば動画像を構成するフレーム画像Pn上にサブウィンドウWを走査させることにより部分画像PPを生成する部分画像生成手段41と、部分画像生成手段41により生成された複数の部分画像PPから正面顔である部分画像を判別する正面顔検出手段42Aおよび横顔である部分画像を判別する横顔検出手段42Bとを有している。
なお、部分画像生成手段41に入力されるフレーム画像Pnは前処理手段40aにより前処理が施されている。前処理手段40aは、フレーム画像Pnに対し図4(A)〜(D)に示すように、フレーム画像Pnを多重解像度化して解像度の異なる複数のフレーム画像P2、P3、P4を生成する機能を有している。さらに、前処理手段40aは、生成した複数のフレーム画像P2、P3、P4に対して、局所的な領域におけるコントラストのばらつきを抑制しフレーム画像Pnの全領域においてコントラストを所定レベルに揃える正規化(以下、局所正規化という)を施す機能を有している。
部分画像生成手段41は、図4(A)に示すように、設定された画素数(たとえば32画素×32画素)を有するサブウィンドウWをフレーム画像Pn内において走査させ、サブウィンドウWにより囲まれた領域を切り出すことにより設定画素数からなる部分画像PPを生成するようになっている。特に、部分画像生成手段41は、一定画素数だけ飛ばしながらサブウィンドウWを走査させることにより、部分画像PPを生成するようになっている。
なお、部分画像生成手段41は、図4(B)〜(D)に示すように、生成された低解像度画像上においてサブウィンドウWを走査させたときの部分画像PPをも生成するようになっている。このように、低解像度画像からも部分画像PPを生成することにより、動画像を構成するフレーム画像PnにおいてサブウィンドウW内に顔もしくは顔が収まらなかった場合であっても、低解像度画像上においてはサブウィンドウW内に収めることが可能となり、検出を確実に行うことができる。
正面顔検出手段42Aおよび横顔検出手段42Bは、たとえばアダブースティングアルゴリズム(Adaboosting Algorithm)を用いて顔画像Fを検出するものである。正面顔検出手段42Aは面内回転している正面顔を検出する機能を有しており(図5(A)参照)、30°〜330°の範囲で回転角度が30°ずつ異なる42個の正面顔判別器43−1〜43−12を有している。なお、各正面顔判別器43−1〜43−12は回転角度が0°を中心に−15°(=345°)〜+15°の範囲内にある顔を検出できるようになっている。横顔検出手段12Bは、面内回転している横顔を検出する機能を有しており(図5(B)参照)、たとえば−90°〜+90°の範囲で30°ずつ回転角度の異なる7個の横顔判別器44−1〜44−7を有している。なお、横顔検出手段12Bは、さらに画面内の顔の向きが回転している画像(面外回転)を検出する横顔判別器をさらに備えていても良い。
上述した正面顔判別器43−1〜43−12および横顔判別器44−1〜44−7は、部分画像PPが顔であるか非顔かの2値検出を行う機能を有し、複数の弱判別器CF1〜CFM(M:弱判別器の個数)を有している。各弱判別器CF1〜CFMはそれぞれ部分画像PPから特徴量xを抽出し、この特徴量xを用いて部分画像PPが顔であるか否かの検出を行う機能を備える。そして、各顔判別器は弱判別器CF1〜CFMおける検出結果を用いて顔であるか否かの最終的な検出を行うようになっている。
具体的には、各弱判別器CF1〜CFMは図3に示すように部分画像PP内の設定された座標P1a、P1b、P1cにおける輝度値等を抽出する。さらに、部分画像PPの低解像度画像PP2内の設定された座標位置P2a、P2b、低解像度画像PP3内の設定された座標位置P3a、P3bにおける輝度値等をそれぞれ抽出する。その後、上述した7個の座標P1a〜P3bの2つをペアとして組み合わせ、この組み合わせた輝度の差分を特徴量xとする。各弱判別器CF1〜CFM毎にそれぞれ異なる特徴量が用いられるものであり、たとえば弱判別器CF1では座標P1a、P1cにおける輝度の差分を特徴量として用い、弱判別器CF2では座標P2a、P2bにおける輝度の差分を特徴量として用いるようになっている。
なお、各弱判別器CF1〜CFMがそれぞれ特徴量xを抽出する場合について例示しているが、複数の部分画像PPについて上述した特徴量xを予め抽出しておき、各弱判別器CF1〜CFMに入力するようにしてもよい。さらに、輝度値を用いた場合について例示しているが、コントラスト、エッジ等の情報を用いるようにしても良い。
各弱判別器CF1〜CFMは図6に示すようなヒストグラムを有しており、このヒストグラムに基づいて特徴量xの値に応じたスコアf1(x)〜fM(x)を出力する。さらに、各弱判別器CF1〜CFMは判別性能を示す信頼度β1〜βMを有している。各弱判別器CF1〜CFMは、スコアf1(x)〜fM(x)と信頼度β1〜βMとを用いて判定スコアβm・fm(x)を算出するようになっている。そして、各弱判別器CFmの判定スコアβm・fm(x)自体が設定しきい値Sref以上であるか否かを判断し、設定しきい値以上であるときに顔であると判別する(βm・fm(x)≧Sref)。
また、顔判別器42の各弱判別器CF1〜CFMはカスケード構造を有しており、各弱判別器CF1〜CFMのすべてが顔であると判別した部分画像PPのみを顔画像Fとして出力するようになっている。つまり、弱判別器CFmにおいて顔であると判別した部分画像PPのみ下流側の弱判別器CFm+1による判別を行い、弱判別器CFmで非顔であると判別された部分画像PPは下流側の弱判別器CFm+1による判別は行わない。これにより、下流側の弱判別器において判別すべき部分画像PPの量を減らすことができるため、判別作業の高速化を図ることができる。なお、カスケード構造を有する判別器の詳細は、Shihong LAO等、「高速全方向顔検出」、画像の認識・理解シンポジウム(MIRU2004)、2004年7月に開示されている。
なお、各弱判別器CF1〜CFMから出力された判定スコアS1〜SMをそれぞれ個別に判定スコアしきい値Sref以上であるか否かを判断するのではなく、弱判別器CFmにおいて判別を行う際、弱判別器CFmの上流側の弱判別器CF1〜CFm−1での判定スコアの和Σr=1 mβr・frが判定スコアしきい値S1ref以上であるか否かにより判別を行うようにしても良い(Σr=1 mβr・fr(x)≧S1ref)。これにより、上流側の弱判別器による判定スコアを考慮した判定を行うことができるため、判定精度の向上を図ることができる。また、被写体検出手段10はアダブースティングアルゴリズムを用いて顔を検出する場合について例示しているが、公知のSVM(Support Vector Machine)アルゴリズムを用いて下を検出するものであっても良い。
一方、図1の被写体データベース20には、たとえば過去に撮影者等が写っている画像等を用いて撮影者およびその関係者の顔等の撮影者が注目する顔画像Fの情報が予め登録されており、照合手段50は、検出された顔画像Fが被写体データベース20内に登録された顔画像Fであるか否かを照合する。ここで、顔の認識には種々の手法を用いることができる。たとえば顔画像の局所特徴量を用いて顔認識する方法、Adaboostアルゴリズムを用いて顔認識する方法、グラフマッチング法、テンプレートマッチング法等の公知の顔認識技術を用いることができ、詳細については、W. Y. Zhao, R. Chellappa, A.Rosenfeld, P. J. Phillips: “Face recognition: A literature survey”, UMD CfAR Technical Report CAR-TR-948,2000.,労世紅、山口修、平山高嗣、“画像処理による顔検出と顔認識“、CVIM2005年5月(第149回)研究会、坂野鋭、“パターン認識における主成分分析“、統計数理、vol. 49, no. 1, pp. 23-42,2001等の文献に記載されている。なお、被写体データベース20には、上述した各顔認識アルゴリズムに合った最適な形式の顔情報(たとえば顔画像の局所特徴量、顔画像自体等)が登録されている。そして、照合手段50において顔画像Fが被写体データベース20に登録されていると判断された場合、被写体認識手段30は移動被写体S1が被写体データベース20に登録されている特定の被写体であると判断する。
背景抽出手段60は移動被写体Sにより隠れた背景画像Bを抽出し、画像合成手段70は移動被写体Sの領域に背景画像Bを合成した合成画像を生成する機能を有している。ここで背景の抽出および画像の合成には種々の手法を用いることができる。たとえば、上述した被写体検出手段10が背景抽出手段60としても機能しており、画像合成手段70が移動被写体Sを検出する際に生成した背景画像を合成するようにしてもよい。
ここで、画像合成手段70は、被写体認識手段30において移動被写体Sが認識されなかった場合のみ画像の合成を行うものであり、移動被写体が被写体データベース20に登録されていると認識されたとき、背景抽出手段60および画像合成手段70による背景の抽出および画像の合成は行われない。たとえば図2において、移動被写体S1の顔画像Fが被写体データベース20に登録されており、移動被写体S2が被写体データベース20に登録されていない場合、図8に示すように、画像合成手段70は移動被写体S1の部分の背景画像Gが合成されず移動被写体S2の部分の背景画像Gが合成されたフレーム画像Pnを生成するようになっている。なお、画像合成手段70は背景を合成した1つのフレーム画像Pnを静止画として出力するものであっても良いし、各フレーム画像Pn〜Pn+mに対し合成を行い動画として出力するものであってもよい。
このように、人物被写体が被写体データベース20に登録されていない場合のみ背景画像の合成を行い、被写体データベース20に登録されている場合には背景画像Gの合成を行わないことにより、撮影者が移動被写体S1に注目しているにもかかわらず移動被写体S1が背景画像Gになってしまうといった不具合を防止して、撮影者の意図を反映した背景画像の合成を行うことができる。
図9は本発明の画像合成方法の好ましい実施の形態を示すフローチャートであり、図1から図9を参照して画像合成方法について説明する。まず、被写体検出手段10において、動画像MPの各フレーム画像Pn〜Pn+mの中から移動している移動被写体S1、S2が検出される(ステップST1、図2参照)。その後、移動被写体S1、S2が被写体データベース20に登録された特定の被写体であるか否かが認識される(ステップST2、図3〜図7参照)。そして、被写体認識手段30において移動被写体S1が認識されたとき、背景画像Gの合成は行われず、移動被写体S2が認識されなかったとき、背景抽出手段60により背景画像Gが抽出され、画像合成手段70により背景画像Gが合成された合成画像が生成される(ステップST3、図8参照)。
上記実施の形態によれば、動画像MP内において移動している移動被写体を検出し、特定の被写体が登録されている被写体データベース20内に検出した移動被写体が登録されているか否かを認識し、移動被写体が被写体データベース20に登録されていないと認識したとき、移動被写体により隠れた背景画像Gを動画像内から抽出し、抽出した背景画像を移動被写体の位置に合成した合成画像を生成することにより、撮影者が注目している移動被写体が消去されてしまうのを防止することができるため、撮影者の意図を反映した画像の合成を行うことができる。
特に、被写体が人物であるとき、被写体検出手段10が人物被写体の顔画像を検出することにより移動被写体を検出するものであり、被写体データベース20が特定の人物の顔画像Fを登録したものであり、被写体認識手段が被写体検出手段により検出された顔画像Fが被写体データベース20に登録された顔画像Fであるか否かを認識するものであれば、撮影者が注目している人物が自動的に画像合成処理がなされることにより、動画像MP内から消えてしまうのを防止することができる。
本発明の実施の形態は上記実施の形態に限定されない。たとえば、上記実施の形態において移動被写体が人物被写体である場合について例示しているが、たとえば自動車、動物、ボール等の移動する被写体にも適用することができる。このとき、被写体データベース20には除去すべき移動被写体の画像が登録されることになる。
また、上記実施の形態において、被写体データベース20には顔画像、顔の局所特徴量等が登録されている場合について例示しているが、特定の被写体に関する情報は被写体認識手段において認識可能なものであればよく、たとえば被写体の形状、色、大きさ等の移動被写体の外見的特徴もしくは被写体が有しているICタグ情報等であってもよい。
さらに上述した赤目処理装置はデジタルカメラに実装してもよいし、プリンタ装置に実装しても良い。ここで、デジタルカメラの場合は撮影時に処理してもよいし,撮影済み画像に対する画像補正機能としてもよい.また、赤目処理を行うときにユーザーからの入力に従うようなユーザー確認手段をもたせて半自動処理のような形態をとってもよい。
また、動画から静止画からなる合成画像を生成するとき、複数のフレーム画像Pn〜Pn+mの中から基準となるフレーム画像Pnを顔の表情などに基づいて自動的に決定し合成画像を生成するようにしてもよいし、複数のフレーム画像の中から基準となるフレーム画像の複数の候補を選択して表示装置に表示し、表示装置に表示された複数のフレーム画像のうち、ユーザーにより入力手段を介して選択されたフレーム画像を基準となるフレーム画像として決定し合成画像を生成するようにしてもよい。
1 画像合成装置
10 被写体検出手段
11 部分画像生成手段
20 被写体データベース
30 被写体認識手段
40 顔検出手段
40 背景抽出手段
50 照合手段
60 画像合成手段
B 背景画像
CF1〜CFm 弱判別器
F 顔画像
G 背景画像
MP 動画像
PnPn+m フレーム画像
S、S1、S2 移動被写体
10 被写体検出手段
11 部分画像生成手段
20 被写体データベース
30 被写体認識手段
40 顔検出手段
40 背景抽出手段
50 照合手段
60 画像合成手段
B 背景画像
CF1〜CFm 弱判別器
F 顔画像
G 背景画像
MP 動画像
PnPn+m フレーム画像
S、S1、S2 移動被写体
Claims (7)
- 動画像内において移動している移動被写体を検出し、
検出した前記移動被写体が被写体データベース内に登録された特定の被写体であるか否かを認識し、
前記移動被写体が前記被写体データベースに登録されていないと認識したとき、前記動画像内から前記移動被写体により隠れた背景画像を抽出し、
抽出した前記背景画像を前記移動被写体の位置に合成する
ことを特徴とする画像合成方法。 - 動画像において移動している移動被写体を検出する被写体検出手段と、
特定の被写体に関する情報が登録されている被写体データベースと、
前記被写体検出手段により検出された前記移動被写体が前記被写体データベース内に登録された前記特定の被写体であるか否かを認識する被写体認識手段と、
前記移動被写体により隠れた背景画像を前記動画像内から抽出する背景抽出手段と、
該背景抽出手段により抽出された前記背景画像を前記移動被写体の位置に合成する画像合成手段と、
を備え、
前記被写体認識手段において前記移動被写体が前記被写体データベースに登録されていないと認識されたとき、前記背景抽出手段が前記動画像内から前記背景画像を抽出し、前記画像合成手段が前記背景画像を前記移動被写体の位置に合成するものであることを特徴とする画像合成装置。 - 前記移動被写体が人物被写体であり、前記被写体データベースが特定の人物の顔情報を登録したものであり、前記被写体認識手段が前記被写体検出手段により検出された前記移動被写体に前記被写体データベースに登録された前記顔情報が含まれているか否かを認識するものであることを特徴とする請求項2記載の画像合成装置。
- 前記被写体認識手段が、
前記被写体検出手段により検出された前記移動被写体から顔画像を検出する顔検出手段と、
該顔検出手段により検出された前記顔画像を用いて前記移動被写体が前記被写体データベースに登録されている顔情報を有するか否かを照合する照合手段と
を備え、
前記顔検出手段が、
前記動画像を構成するフレーム画像上に設定画素数の枠からなるサブウィンドウを走査させ複数の部分画像を生成する部分画像生成手段と、
該部分画像生成手段により生成された前記複数の部分画像のうち顔である該部分画像を検出する顔判別器と
を有し、
該顔判別器が、複数の弱判別器による複数の判別結果を用いて前記部分画像が顔であるか否かを判別する顔判別器を備えたものであることを特徴とする請求項2または3項記載の画像合成装置。 - 前記画像合成手段が静止画からなる前記合成画像を生成するものであり、前記複数のフレーム画像の中から基準となる前記フレーム画像を決定し、決定した該フレーム画像内の前記移動被写体の位置に前記背景画像を合成するものであることを特徴とする請求項2から4のいずれか1項記載の画像合成装置。
- 前記画像合成手段が、前記基準となるフレーム画像を決定するとき、前記複数のフレーム画像の中から前記基準となるフレーム画像の複数の候補を選択して表示装置に表示する機能を有し、該表示装置に表示された前記複数のフレーム画像のうち、入力手段を介して選択された前記フレーム画像を前記基準となるフレーム画像として決定するものであることを特徴とする請求項5記載の画像合成装置。
- コンピュータに、
動画像内において移動している移動被写体を検出し、
特定の被写体に関する情報が登録されている被写体データベース内に検出した前記移動被写体が登録されているか否かを認識し、
前記移動被写体が前記被写体データベースに登録されていないと認識したとき、前記動画像内から前記移動被写体により隠れた背景画像を抽出し、
抽出した前記背景画像を前記移動被写体の位置に合成する
ことを実行させるための画像合成プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006129863A JP2007304675A (ja) | 2006-05-09 | 2006-05-09 | 画像合成方法および装置ならびにプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006129863A JP2007304675A (ja) | 2006-05-09 | 2006-05-09 | 画像合成方法および装置ならびにプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007304675A true JP2007304675A (ja) | 2007-11-22 |
Family
ID=38838576
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006129863A Withdrawn JP2007304675A (ja) | 2006-05-09 | 2006-05-09 | 画像合成方法および装置ならびにプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007304675A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2063255A2 (en) | 2007-11-26 | 2009-05-27 | Denso Corporation | Fog detector and method of placing detector in vehicle |
US9060160B2 (en) | 2008-09-24 | 2015-06-16 | Nikon Corporation | Image generation device, imaging device, image reproduction device, and image reproduction program |
CN110427836A (zh) * | 2019-07-11 | 2019-11-08 | 重庆市地理信息和遥感应用中心(重庆市测绘产品质量检验测试中心) | 一种基于多尺度优化的高分辨率遥感影像水体提取方法 |
-
2006
- 2006-05-09 JP JP2006129863A patent/JP2007304675A/ja not_active Withdrawn
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2063255A2 (en) | 2007-11-26 | 2009-05-27 | Denso Corporation | Fog detector and method of placing detector in vehicle |
US9060160B2 (en) | 2008-09-24 | 2015-06-16 | Nikon Corporation | Image generation device, imaging device, image reproduction device, and image reproduction program |
CN110427836A (zh) * | 2019-07-11 | 2019-11-08 | 重庆市地理信息和遥感应用中心(重庆市测绘产品质量检验测试中心) | 一种基于多尺度优化的高分辨率遥感影像水体提取方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11527055B2 (en) | Feature density object classification, systems and methods | |
KR101490016B1 (ko) | 인물 화상 처리 장치 및 인물 화상 처리 방법 | |
US7783084B2 (en) | Face decision device | |
JP6655878B2 (ja) | 画像認識方法及び装置、プログラム | |
US8081844B2 (en) | Detecting orientation of digital images using face detection information | |
US8929595B2 (en) | Dictionary creation using image similarity | |
JP2007265367A (ja) | 視線検出方法および装置ならびにプログラム | |
US7995807B2 (en) | Automatic trimming method, apparatus and program | |
US8577099B2 (en) | Method, apparatus, and program for detecting facial characteristic points | |
US20130169821A1 (en) | Detecting Orientation of Digital Images Using Face Detection Information | |
JP2000105829A (ja) | 顔パーツ検出方法及びその装置 | |
JP2007305030A (ja) | 赤目処理方法および装置ならびにプログラム | |
JP2009211311A (ja) | 画像処理装置及び方法 | |
JP2012530994A (ja) | 半顔面検出のための方法および装置 | |
JP2006146626A (ja) | パターン認識方法および装置 | |
JP2006330800A (ja) | 画像合成システム、画像合成方法、この方法のプログラム | |
WO2012046426A1 (ja) | 物体検出装置、物体検出方法および物体検出プログラム | |
JP2007025900A (ja) | 画像処理装置、画像処理方法 | |
JP2007304675A (ja) | 画像合成方法および装置ならびにプログラム | |
JP2006293720A (ja) | 顔検出装置、顔検出方法、及び顔検出プログラム | |
JPH11306348A (ja) | 対象物検出装置及び対象物検出方法 | |
Li et al. | Detecting and tracking human faces in videos | |
JP5283267B2 (ja) | コンテンツ識別方法及び装置 | |
JP2007323104A (ja) | 目の状態判別方法および装置ならびにプログラム | |
JP3811474B2 (ja) | 顔部品位置検出方法及び顔部品位置検出装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20090804 |