JP7266490B2 - 画像処理装置、その制御方法及びプログラム - Google Patents

画像処理装置、その制御方法及びプログラム Download PDF

Info

Publication number
JP7266490B2
JP7266490B2 JP2019144702A JP2019144702A JP7266490B2 JP 7266490 B2 JP7266490 B2 JP 7266490B2 JP 2019144702 A JP2019144702 A JP 2019144702A JP 2019144702 A JP2019144702 A JP 2019144702A JP 7266490 B2 JP7266490 B2 JP 7266490B2
Authority
JP
Japan
Prior art keywords
image
background
subject
images
main subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019144702A
Other languages
English (en)
Other versions
JP2021027486A (ja
Inventor
省豪 上野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019144702A priority Critical patent/JP7266490B2/ja
Publication of JP2021027486A publication Critical patent/JP2021027486A/ja
Application granted granted Critical
Publication of JP7266490B2 publication Critical patent/JP7266490B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、複数の画像を合成する画像処理装置、その制御方法及びプログラムに関する。
近年、動画から取得された複数の画像や連写によって取得された複数の画像に基づいて被写体の動きを1枚の画像に合成する技術が知られている。例えば、背景が一様である撮像環境で動きのある被写体を連続撮影して複数の画像を得、その後、これらの画像を合成した場合、動きのある被写体のみが複数表示された合成画像が得られる。この合成画像では、1つの画像で被写体の動きを時系列的に確認できるため、静止画像でありながら被写体の動きを動画のように表現できる。通常、このような合成画像は、PC等において描画ツールを用いて作業者が手作業で作成するために非常に手間を要する。そこで、このような合成画像を自動で生成する技術が幾つか提案されている。
ところで、このような合成画像を得るために複数の画像を取得する際、背景が一様ではなく被写体とは別の動きのある物体が存在すると、合成画像に別の物体が重畳されてノイズのように表示される。例えば、図7に示すように、連続撮影によって得られた複数の画像群101の各画像に被写体である人物102とは別の物体である鳥103が含まれると、合成画像104において各画像の鳥103が移動しながら重畳されたノイズ105が表示される。
これに対して、ノイズの要因となる動きのある物体を削除する技術も提案されている。例えば、特許文献1の技術では、連続撮影によって得られた複数の画像において、少なくとも2つの画像の同じ位置に存在する物体以外の物体を削除することにより、動きのある物体を削除する。また、動画から動いている物体をすべて削除するアプリケーションも知られている(例えば、株式会社ViRD製、「VANISH360」、http://vird.co.jp/product/vanish360/ 参照)。
また、主被写体とは別の動きのある被写体(以下「動体」と称する。)を削除した合成画像を生成する構成として、例えば、図8に示す構成が知られている。
図8において、当該構成では、記録メディア201に静止画像データ又は動画データが記録され、ドライブユニット202は、記録メディア201から静止画像データ又は動画データを取得する。復号化ユニット203は取得されたデータを復号し、復号化された静止画像データ又は動画データをメモリ204へ出力する。合成画像を生成する際、ユーザーはシステムコントローラー205に対して合成される複数の画像を読み込むための指示を出す。該指示に応じてフレーム読み出し部206はメモリ204から静止画像データ又は動画データ内の指示に対応する複数のフレーム(時系列的に連続する複数の画像)を読み出す。その後、主被写体群検出部207は各フレームから主被写体を検出し、動体削除部208は主被写体外の動体を各フレームから削除する。その後、映像合成処理部209は動体が削除された各フレームを合成し、画像処理部210は合成された各フレームの画角調整や色変換を行って合成画像を生成し、表示装置211は合成画像を表示する。
特開2000-13681号公報
しかしながら、図8の構成では、動体が削除された各フレームを合成するため、各フレームが互いに差分の大きい領域を含んでいると、当該領域が重ね合わされる。その結果、合成画像の画質が劣化するという問題がある。また、例え、図8の構成において、動体を削除すること無く各フレームを合成する場合でもあっても、やはり、互いに差分の大きい領域は重ね合わされるため、同様の問題が生じる。
本発明の目的は、複数の画像を合成する際に合成画像の画質の劣化を抑制することができる画像処理装置、その制御方法及びプログラムを提供することにある。
上記目的を達成するために、本発明の画像処理装置は、時系列的に連続する複数の画像を取得する画像取得手段と、前記取得された複数の画像の各々から被写体を分離して背景を取得し、前記複数の画像から取得された複数の前記被写体と複数の前記背景を保存する画像保存手段と、前記保存された複数の背景を互いに比較し、他の背景との差分が最も少ない一の背景を抽出する背景抽出手段と、前記抽出された一の背景に、前記複数の被写体を合成して合成画像を生成する合成画像生成手段と、を備えることを特徴とする。
本発明によれば、複数の画像を合成する際に合成画像の画質の劣化を抑制することができる。
第1の実施の形態に係る画像処理装置の構成を概略的に示すブロック図である。 第1の実施の形態における画像合成処理を示すフローチャートである。 第1の実施の形態における画像合成処理を説明するための工程図である。 主被写体と関連性が高い動体が合成画像に含まれなくなる場合を説明するための図である。 第2の実施の形態における画像合成処理を示すフローチャートである。 第2の実施の形態における画像合成処理を説明するための図である。 従来の画像合成処理においてノイズが生じる過程を説明するための図である。 従来の画像合成処理を実行する構成を概略的に示すブロック図である。
以下、本発明の実施の形態について図面を参照しながら詳細に説明する。しかしながら、以下の実施の形態に記載される構成はあくまで例示に過ぎず、本発明の範囲は実施の形態に記載される構成によって限定されることはない。
まず、第1の実施の形態について説明する。図1は、本実施の形態に係る画像処理装置の構成を概略的に示すブロック図である。図1において、例えば、カメラ等の撮像装置である画像処理装置300は、記録メディア301が接続又は装着されるドライブユニット302と、復号化ユニット303と、メモリ304と、システムコントローラー305とを備える。また、画像処理装置300は、フレーム読み出し部306(画像取得手段,静止画像取得手段,フレーム取得手段)と、主被写体群検出部307(被写体検出手段,主被写体検出手段)と、背景分離部308(画像保存手段、被写体範囲特定手段)とを備える。さらに、画像処理装置300は、分離背景保存部309(背景保存手段)と、分離被写体保存部310(被写体保存手段)と、背景比較抽出部311(背景抽出手段)と、分離背景読み出し部312とを備える。また、当該画像処理装置300は、映像合成処理部313(合成画像生成手段)と、分離被写体読み出し部314と、画像処理部315と、表示装置316とを備える。
画像処理装置300において、記録メディア301は静止画像データ又は動画データを記録し、ドライブユニット302は、記録メディア301から静止画像データ又は動画データを取得する。復号化ユニット303は取得されたデータを復号し、復号化された静止画像データ又は動画データをメモリ304へ出力する。システムコントローラー305は、画像処理装置300の各構成要素の動作を制御する。フレーム読み出し部306はメモリ304から静止画像データ又は動画データ内の複数のフレーム(時系列的に連続する複数の画像)を読み出す。主被写体群検出部307は各フレームから主被写体を検出し、背景分離部308は各フレームから検出された主被写体を含む範囲の画像を主被写体画像として切り出し、各フレームから主被写体画像を分離して残りの画像を背景画像として切り出す。分離背景保存部309は各フレームから切り出された背景画像をメモリ304に保存し、分離被写体保存部310は各フレームから切り出された主被写体画像をメモリ304に保存する。
また、分離背景読み出し部312はメモリ304に保存された各背景画像をメモリ304から読み出す。背景比較抽出部311は、各背景画像から合成対象となる背景画像候補(一の背景)を抽出する。分離被写体読み出し部314はメモリ304から各主被写体画像を読み出し、映像合成処理部313は、背景比較抽出部311が抽出した背景画像候補と、読み出した各主被写体画像とを合成する。画像処理部315は合成された各主被写体画像と背景画像候補の画角調整や色変換を行って合成画像を生成し、表示装置316は合成画像を表示する。
次に、本実施の形態に係る画像処理装置の制御方法としての画像合成処理について説明する。図2は、本実施の形態における画像合成処理を示すフローチャートであり、図3は、本実施の形態における画像合成処理を説明するための工程図である。
まず、システムコントローラー305がユーザーによる主被写体と合成対象となる時系列的に連続する複数の画像との選択に関する指示を受け付ける(ステップS501)。なお、本実施の形態では、以下、合成対象となる画像を対象画像と称する。本実施の形態では、各対象画像として、自転車に乗った人物と、背景として映り込んだ家や林とを含む対象画像(フレーム)401~404が選択される。また、自転車に乗った人物405が主被写体として選択される。
次いで、フレーム読み出し部306がメモリ304から対象画像401~404を順に読み出す(ステップS502)。その後、主被写体群検出部307は読み出された各対象画像401~404から人物405を検出し、各対象画像401~404において人物405を含む矩形領域を主被写体画像として検出する。具体的には、各対象画像401~404において人物405を含む主被写体画像406~409を規定し、各主被写体画像406~409の領域情報をメモリ304に格納する(図3(A))。例えば、対象画像401における主被写体画像406の領域情報(x1、y1、Lx1、Ly1)がメモリ304に格納される。ここで、(x1、y1)は主被写体画像406の図中左上の座標を示し、(Lx1)は主被写体画像406の図中の横長さを示し、(Ly1)は主被写体画像406の図中の縦長さを示す。次いで、背景分離部308は各対象画像401~404から主被写体画像406~409を切り出すとともに、各対象画像401~404から主被写体画像406~409を分離して残りの画像を背景画像として切り出す(ステップS503)。切り出された背景画像410~413は分離背景保存部309によってメモリ304に保存され、切り出された主被写体画像406~409は分離被写体保存部310によってメモリ304に保存される。このとき、各対象画像の各々は、当該対象画像から切り出された主被写体画像、該主被写体画像の領域情報及び当該対象画像から切り出された背景画像と関連づけられる。なお、本実施の形態では、対象画像401から主被写体画像406が切り出されて背景画像410が生成され、対象画像402から主被写体画像407が切り出されて背景画像411が生成される。また、対象画像403から主被写体画像408が切り出されて背景画像412が生成され、対象画像404から主被写体画像409が切り出されて背景画像413が生成される(図3(B))。
次いで、システムコントローラー305は全ての対象画像がメモリ304から読み出されたか否かを判定する(ステップS504)。ここで、全ての対象画像が読み出されていない場合にはステップS502に戻り、全ての対象画像が読み出されている場合にはステップS505に進む。
ステップS505では、分離背景読み出し部312がメモリ304に保存された各背景画像410~413を読み出し、背景比較抽出部311は各背景画像410~413から背景画像候補を抽出する。このとき、背景比較抽出部311は、各背景画像の一つと、当該一つの背景画像と時系列的に前後に位置する(時系列的に隣接する)各背景画像とを比較して一致度合いを示す比較結果値を算出する。さらに、背景比較抽出部311は、各背景画像の比較結果値を比較し、比較結果値が最も高い一の背景画像を背景画像候補として抽出する。
ステップS505における比較結果値の算出では、一般に利用される画像マッチング技術により、一致度合いが高い(差分が小さい)程、高い比較結果値が算出される。なお、ステップS505では、背景画像間の一致度合いを何らかの指標で取得できればよいので、一般に知られる他の技術を利用してもよい。ここで、一つの背景画像に時系列的に前後に位置する各背景画像(それぞれ「前背景画像」及び「後背景画像」と称する。)が存在する場合、一つの背景画像と前背景画像との比較結果値を得、さらに、一つの背景画像と後背景画像との比較結果値を得る。そして、2つの比較結果値の平均を評価値として一つの背景画像に関連づける。一つの背景画像に後背景画像のみが存在する場合、一つの背景画像と後背景画像との比較結果値を得、この比較結果値を評価値として一つの背景画像に関連づける。また、一つの背景画像に前背景画像のみが存在する場合、一つの背景画像と前背景画像との比較結果値を得、この比較結果値を評価値として一つの背景画像に関連づける。
例えば、本実施の形態では、図3(C)に示すように、背景画像410と背景画像411の一致度合いとして比較結果値C1が算出され、背景画像411と背景画像412の一致度合いとして比較結果値C2が算出される。また、背景画像412と背景画像413の一致度合いとして比較結果値C3が算出される。そして、背景画像411には、比較結果値C1と比較結果値C2の平均が評価値T2として関連づけられ、背景画像412には、比較結果値C2と比較結果値C3の平均が評価値T3として関連づけられる。また、背景画像410には比較結果値C1が評価値T1として関連づけられ、背景画像413には比較結果値C3が評価値T4として関連づけられる。ステップS505では、例えば、評価値T1が最も高い場合、背景比較抽出部311は、背景画像410を背景画像候補として抽出し、メモリ304に保存する。
次いで、分離被写体読み出し部314はメモリ304から主被写体画像406~409を読み出し、映像合成処理部313は、背景比較抽出部311が抽出した背景画像候補(背景画像410)と、主被写体画像406~409を合成する。背景画像410と主被写体画像406~409の合成は、各画像の平均値や重み付けに基づいて行わず、単純に背景画像410の上に主被写体画像406~409を上書きして行う。その後、画像処理部315は合成された主被写体画像406~409と背景画像410の画角調整や色変換を行って合成画像414(図3(D)参照)を生成し(ステップS506)、本処理を終了する。
ところで、本実施の形態では、図3(A)に示すように、対象画像401~404に、人物405とは別の動体として鳥415が含まれる。ここで、従来の合成画像の生成処理のように、単純に対象画像401~404を合成すると、各対象画像401~404において移動する鳥415が重畳表示されて所定の範囲にまたがるノイズ(例えば、図7のノイズ105)のように表示されるおそれがある。これに対し、図2の処理によれば、対象画像401~404から背景画像410~413を生成し、そのうちの1つの背景画像410のみに主被写体画像406~409を上書きするので、鳥415が重畳表示されない。その結果、合成画像414では、1羽の静止状態の鳥415が含まれるのみとなり(図3(D)参照)、鳥415がノイズのように表示されることがない。また、対象画像401~404が互いに差分の大きい領域を含んでいたとしても、対象画像401~404は合成されないため、互いに差分の大きい領域が重ね合わされることがない。これにより、複数の対象画像401~404を合成する際に合成画像414の画質の劣化を抑制することができる。
なお、図2の処理のステップS506では、背景画像候補としての背景画像410の上に主被写体画像406~409を上書きした。しかしながら、まず、背景分離部308が背景画像410から主被写体画像406~409に対応する領域の画像の全てを特定した上で除去することによって背景画像候補416(図3(D)参照)(他の背景)を生成してもよい。この場合、背景画像候補416(他の背景)は分離背景保存部309によって一旦、メモリ304に保存され、その後、メモリ304から読み出された背景画像候補416に主被写体画像406~409が上書きされる。
次に、本発明の第2の実施の形態について説明する。第2の実施の形態は、その構成、作用が上述した第1の実施の形態と基本的に同じであるので、重複した構成、作用については説明を省略し、以下に異なる構成、作用についての説明を行う。
第1の実施の形態では、各対象画像から主被写体を含む矩形領域を主被写体画像として切り出したが、この場合、主被写体と関連性が高い動体が合成画像に含まれなくなることがある。例えば、図4(A)に示すように、各対象画像として、ボール601を投げる人物602を含む対象画像(フレーム)603~605が選択された場合であって、人物602が主被写体として選択される場合について説明する。
このとき、ボール601は人物602と関連性が高い動体に該当する。また、対象画像603~605から主被写体画像606~608が切り出されるが、対象画像605では人物602からボール601が離れているため、対象画像605から切り出される主被写体画像608にはボール601が含まれない。ここで、例えば、主被写体画像606が切り出された対象画像603が背景画像候補として抽出されると、対象画像603には人物602から離れたボール601は含まれない。一方、主被写体画像608にも人物602から離れたボール601が含まれないため、背景画像候補と主被写体画像606~608を合成して合成画像609を生成した場合、領域610に存在すべきボール601が合成画像609に含まれない。
第2の実施の形態では、これに対応して、画像処理装置300が主被写体関連判定部320(関連被写体検出手段,動体検知手段,関連性判定手段)を備える。主被写体関連判定部320は、メモリ304から複数の対象画像を読み出し、各対象画像から動体を検出する。さらに、主被写体関連判定部320は、各対象画像において、検出された動体が主被写体画像に含まれず、且つ主被写体画像と検出された動体含む矩形領域(動体画像)との距離が所定の距離よりも短い場合、当該動体を主被写体に関連する被写体と判定する。本実施の形態では、以降、主被写体に関連する被写体と判定された動体を関連被写体と称する。また、主被写体群検出部307は、各対象画像から検出した主被写体と、各対象画像において関連被写体と判定された各動体とをまとめて主被写体群を生成する。その後、背景分離部308は各対象画像から検出された主被写体群に対応する画像を主被写体群画像として切り出し、各対象画像から主被写体群画像以外の画像を背景画像として切り出す。このとき、分離被写体保存部310は各対象画像から切り出された主被写体群画像をメモリ304に保存する。すなわち、第1の実施の形態では、各対象画像から主被写体のみが切り出されるが、第2の実施の形態では、各対象画像から主被写体だけでなく関連被写体も切り出される。
次に、本実施の形態に係る画像処理装置の制御方法としての画像合成処理について説明する。図5は、本実施の形態における画像合成処理を示すフローチャートであり、図6は、本実施の形態における画像合成処理を説明するため図である。
まず、システムコントローラー305がユーザーによる主被写体と各対象画像の選択に関する指示を受け付ける(ステップS701)。本実施の形態では、図4(A)に示すような対象画像603~605が選択される。また、ボール601を投げる人物602が主被写体として選択される。
次いで、主被写体関連判定部320がメモリ304から対象画像603~605を読み出し、各対象画像603~605から動体を検出する(ステップS702)。動体の検出方法としては、一般に知られる動体検出技術(例えば、画像間における物体の動きベクトルによって動体を検出する方法)を用いる。その後、主被写体関連判定部320は、各対象画像603~605において、検出された動体が主被写体画像に含まれず、且つ主被写体画像と検出された動体を含む矩形領域(動体画像)との距離が所定の距離よりも短い場合、当該動体を関連被写体と判定する。例えば、図6に示すように、対象画像603では、ボール601を含む矩形領域が動体画像611として検出され、人物602を含む主被写体画像612と動体画像611の距離が所定の距離よりも短い場合、ボール601が関連被写体と判定される。対象画像604では、ボール601を含む矩形領域が動体画像613として検出され、人物602を含む主被写体画像614と動体画像613の距離が所定の距離よりも短い場合、ボール601が関連被写体と判定される。対象画像605では、ボール601を含む矩形領域が動体画像615として検出され、人物602を含む主被写体画像616と動体画像615の距離が所定の距離よりも短い場合、ボール601が関連被写体と判定される。
なお、ボール601が関連被写体か否かの判定は、対象画像603~605毎に独立して行われるが、一連の対象画像603~605における動体の合計数や動体の連続性に基づいて、ボール601が関連被写体か否かを判定してもよい。この場合、主被写体関連判定部320(動体数量判定手段,動体連続判定手段)は、各対象画像603~605に亘り、主被写体画像と動体画像の距離が所定の距離よりも短いと判定された動体(ボール601)の数が、所定の閾値以上であるか否かを判定する。また、主被写体関連判定部320は、各対象画像603~605に亘り、主被写体画像と動体画像の距離が所定の距離よりも短いと判定された各動体(ボール601)が互いに時系列的に連続するか否かを判定する。その後、主被写体関連判定部320は、これらの判定結果に基づいて、各対象画像603~605から検出された各ボール601が関連被写体か否かを判定する。
次いで、主被写体群検出部307は、各対象画像603~605から検出した主被写体と、各対象画像において関連被写体と判定された各動体とをまとめて主被写体群を生成する(ステップS703)。その後、フレーム読み出し部306がメモリ304から対象画像603~605を順に読み出す(ステップS704)。
次いで、ステップS705において、システムコントローラー305は、対象画像603~605の各々から検出された動体が関連被写体と判定されたか否かを判定する。動体が関連被写体と判定された場合(ステップS705でYES)、背景分離部308は当該対象画像から主被写体画像と動体画像をまとめて主被写体群画像として切り出す(ステップS706)。また、背景分離部308は当該対象画像から主被写体画像と動体画像を分離して残りの画像を背景画像として切り出す。一方、動体が関連被写体と判定されなかった場合(ステップS705でNO)、背景分離部308は当該対象画像から主被写体画像のみを切り出すとともに、当該対象画像から主被写体画像を分離して残りの画像を背景画像として切り出す(ステップS707)。切り出された背景画像は分離背景保存部309によってメモリ304に保存され、切り出された主被写体群画像や主被写体画像は分離被写体保存部310によってメモリ304に保存される。
このとき、各対象画像の各々は、当該対象画像から切り出された主被写体画像又は主被写体群画像、主被写体画像又は主被写体群画像の領域情報及び当該対象画像から切り出された背景画像と関連づけられる。なお、本実施の形態では、例えば、対象画像604から検出された動体が関連被写体と判定されると、対象画像604から主被写体画像614と動体画像613がまとめて主被写体群画像として切り出される。また、例えば、対象画像605から検出された動体が関連被写体と判定されないと、対象画像605から主被写体画像616のみが主被写体画像として切り出される。
次いで、システムコントローラー305は全ての対象画像603~605がメモリ304から読み出されたか否かを判定し(ステップS708)、全ての対象画像603~605が読み出されていない場合にはステップS704に戻る。また、全ての対象画像が読み出されている場合にはステップS709に進む。
ステップS709では、分離背景読み出し部312がメモリ304に保存された各背景画像を読み出し、背景比較抽出部311は各背景画像から図2の処理におけるステップS505と同様の方法によって背景画像候補を抽出する。その後、分離被写体読み出し部314はメモリ304から各主被写体群画像又は各主被写体画像を読み出し、映像合成処理部313は、背景比較抽出部311が抽出した背景画像候補と、各主被写体群画像又は各主被写体画像とを合成する。ここでも、背景画像と各主被写体群画像又は各主被写体画像との合成は、各画像の平均値や重み付けに基づいて行わず、単純に背景画像の上に各主被写体群画像又は各主被写体画像を上書きして行う。その後、画像処理部315は合成された各主被写体群画像又は各主被写体画像と背景画像の画角調整や色変換を行って合成画像617を生成し(ステップS706)、本処理を終了する。
図5の処理によれば、対象画像から動体が検出され、対象画像の主被写体画像と検出された動体を含む動体画像との距離が所定の距離よりも短い場合、対象画像から主被写体画像と動体画像がまとめて主被写体群画像として切り出される。さらに、切り出された主被写体群画像が背景画像候補と合成されて合成画像が生成される。これにより、主被写体画像との距離が所定の距離よりも短い動体画像であれば、当該動体画像は合成画像に含まれる。具体的には、図6の合成画像617において、人物602からやや離れた領域618にボール601が存在する。ここで、主被写体画像との距離が所定の距離よりも短い動体画像は主被写体と関連性が高い動体の画像と考えられる。すなわち、図5の処理により、主被写体と関連性が高い動体が合成画像に含まれなくなるのを防止することができる。
以上、本発明の好ましい各実施の形態について説明したが、本発明は上述した各実施の形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。
本発明は、上述した各実施の形態の1以上の機能を実現するプログラムを、ネットワークや記憶媒体を介してシステムや装置に供給し、そのシステム又は装置のコンピュータの1つ以上のプロセッサーがプログラムを読み出して実行する処理でも実現可能である。また、本発明は、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
また、上述した各実施の形態では、本発明をカメラ等の撮像装置に適用した場合について説明したが、本発明は、動きのある被写体を含む時系列的に連続する複数の画像を処理する機器であれば、適用することできる。例えば、本発明は、PC、モバイル機器(タブレットやスマートフォン等)にも適用することができる。
300 画像処理装置
304 メモリ
305 システムコントローラー
306 フレーム読み出し部
307 主被写体群検出部
308 背景分離部
309 分離背景保存部
310 分離被写体保存部
311 背景比較抽出部
313 映像合成処理部
320 主被写体関連判定部

Claims (11)

  1. 時系列的に連続する複数の画像を取得する画像取得手段と、
    前記取得された複数の画像の各々から被写体を分離して背景を取得し、前記複数の画像から取得された複数の前記被写体と複数の前記背景を保存する画像保存手段と、
    前記保存された複数の背景を互いに比較し、他の背景との差分が最も少ない一の背景を抽出する背景抽出手段と、
    前記抽出された一の背景に、前記複数の被写体を合成して合成画像を生成する合成画像生成手段と、を備えることを特徴とする画像処理装置。
  2. 前記背景抽出手段は、時系列的に隣接する2つの前記背景を互いに比較することを特徴とする請求項1記載の画像処理装置。
  3. 前記画像取得手段は、
    複数の静止画像から時系列的に連続する複数の静止画像を取得する静止画像取得手段と、
    動画から時系列的に連続する複数のフレームを取得するフレーム取得手段と、を有することを特徴とする請求項1記載の画像処理装置。
  4. 前記画像保存手段は、
    前記取得された複数の画像の各々において前記被写体を検出する被写体検出手段と、
    各前記画像において前記検出された被写体を含む範囲を特定する被写体範囲特定手段と、
    各前記画像から前記特定された範囲を切り出し、前記被写体として保存する被写体保存手段と、
    各前記画像から前記特定された範囲とは別の領域を切り出し、前記背景として保存する背景保存手段と、を有することを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
  5. 前記被写体検出手段は、
    前記取得された複数の画像の各々において主被写体を検出する主被写体検出手段と、
    前記取得された複数の画像の各々において前記主被写体と関連する関連被写体を検出する関連被写体検出手段と、を有し、
    同じ前記画像から検出された前記主被写体と前記関連被写体を被写体群として検出することを特徴とする請求項4記載の画像処理装置。
  6. 前記関連被写体検出手段は、
    前記複数の画像において前記主被写体とは別の動きのある被写体である動体を検知する動体検知手段と、
    前記検出された動体と前記主被写体の距離が、所定の距離よりも短いか否かを判定する関連性判定手段と、を有し、
    前記関連被写体検出手段は、前記主被写体との距離が前記所定の距離よりも短いと判定された動体を前記関連被写体として検出することを特徴とする請求項5記載の画像処理装置。
  7. 前記関連性判定手段は、
    前記主被写体との距離が前記所定の距離よりも短いと判定された動体の数が、所定の閾値以上であるか否かを判定する動体数量判定手段と、
    各前記主被写体との距離が前記所定の距離よりも短いと判定された動体が、互いに時系列的に連続するか否かを判定する動体連続判定手段と、を有し、
    前記関連被写体検出手段は、前記動体数量判定手段の判定結果及び前記動体連続判定手段の判定結果に基づいて、前記関連被写体を検出することを特徴とする請求項6記載の画像処理装置。
  8. 前記被写体範囲特定手段は、各前記画像において前記検出された被写体を含む範囲の全てを特定することを特徴とする請求項4記載の画像処理装置。
  9. 前記背景保存手段は、各前記保存された背景から前記特定された範囲の全てを除去し、前記特定された範囲の全てが除去された背景を他の背景として保存することを特徴とする請求項8記載の画像処理装置。
  10. 時系列的に連続する複数の画像を取得する画像取得工程と、
    前記取得された複数の画像の各々から被写体を分離して背景を取得し、前記複数の画像から取得された複数の前記被写体と複数の前記背景を保存する画像保存工程と、
    前記保存された複数の背景を互いに比較し、他の背景との差分が最も少ない一の背景を抽出する背景抽出工程と、
    前記抽出された一の背景に、前記複数の被写体を合成して合成画像を生成する合成画像生成工程と、を有することを特徴とする画像処理装置の制御方法。
  11. 画像処理装置の制御方法をコンピュータに実行させるプログラムであって、
    前記制御方法は、
    時系列的に連続する複数の画像を取得する画像取得工程と、
    前記取得された複数の画像の各々から被写体を分離して背景を取得し、前記複数の画像から取得された複数の前記被写体と複数の前記背景を保存する画像保存工程と、
    前記保存された複数の背景を互いに比較し、他の背景との差分が最も少ない一の背景を抽出する背景抽出工程と、
    前記抽出された一の背景に、前記複数の被写体を合成して合成画像を生成する合成画像生成工程と、を有することを特徴とするプログラム。


JP2019144702A 2019-08-06 2019-08-06 画像処理装置、その制御方法及びプログラム Active JP7266490B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019144702A JP7266490B2 (ja) 2019-08-06 2019-08-06 画像処理装置、その制御方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019144702A JP7266490B2 (ja) 2019-08-06 2019-08-06 画像処理装置、その制御方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2021027486A JP2021027486A (ja) 2021-02-22
JP7266490B2 true JP7266490B2 (ja) 2023-04-28

Family

ID=74664150

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019144702A Active JP7266490B2 (ja) 2019-08-06 2019-08-06 画像処理装置、その制御方法及びプログラム

Country Status (1)

Country Link
JP (1) JP7266490B2 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006005452A (ja) 2004-06-15 2006-01-05 Nippon Hoso Kyokai <Nhk> 画像合成装置及び画像合成システム
JP2006203444A (ja) 2005-01-19 2006-08-03 Inc Corp 背景画像生成装置及び背景画像生成プログラム
JP2011172103A (ja) 2010-02-19 2011-09-01 Olympus Imaging Corp 画像生成装置
WO2018107197A1 (en) 2016-12-13 2018-06-21 Canon Kabushiki Kaisha Method, system and apparatus for configuring a virtual camera
JP2019101996A (ja) 2017-12-07 2019-06-24 キヤノン株式会社 複数の撮像画像を合成することによりノイズを低減する画像処理装置及び画像処理方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006005452A (ja) 2004-06-15 2006-01-05 Nippon Hoso Kyokai <Nhk> 画像合成装置及び画像合成システム
JP2006203444A (ja) 2005-01-19 2006-08-03 Inc Corp 背景画像生成装置及び背景画像生成プログラム
JP2011172103A (ja) 2010-02-19 2011-09-01 Olympus Imaging Corp 画像生成装置
WO2018107197A1 (en) 2016-12-13 2018-06-21 Canon Kabushiki Kaisha Method, system and apparatus for configuring a virtual camera
JP2019101996A (ja) 2017-12-07 2019-06-24 キヤノン株式会社 複数の撮像画像を合成することによりノイズを低減する画像処理装置及び画像処理方法

Also Published As

Publication number Publication date
JP2021027486A (ja) 2021-02-22

Similar Documents

Publication Publication Date Title
US10366504B2 (en) Image processing apparatus and image processing method for performing three-dimensional reconstruction of plurality of images
EP3457683B1 (en) Dynamic generation of image of a scene based on removal of undesired object present in the scene
JP4973188B2 (ja) 映像分類装置、映像分類プログラム、映像検索装置、および映像検索プログラム
US11887318B2 (en) Object tracking
US8379931B2 (en) Image processing apparatus for retrieving object from moving image and method thereof
KR102356448B1 (ko) 이미지 합성 방법 및 그 전자 장치
US11184558B1 (en) System for automatic video reframing
JP6362085B2 (ja) 画像認識システム、画像認識方法およびプログラム
JP2010239605A (ja) 映像編集装置
JP5519085B1 (ja) 動画像生成装置および動画像生成方法
JP4496992B2 (ja) 動物体アップフレーム検出方法及びプログラム及びプログラムを格納した記憶媒体及び動物体アップショット検出方法及び動物体アップフレームあるいはショット検出方法及びプログラム及びプログラムを格納した記憶媒体
JP7085812B2 (ja) 画像処理装置およびその制御方法
JP2019186689A (ja) 情報処理装置、システム、分析方法、コンピュータプログラム、及び記憶媒体
JP2006276948A (ja) 画像処理装置、画像処理方法、画像処理プログラムおよび画像処理プログラムを記憶した記録媒体
KR20100138168A (ko) 영상감시 시스템 및 그 시스템의 영상감시방법
JP2005159781A (ja) 画像選択処理装置、画像選択方法およびそのプログラム、記録媒体
JP6948787B2 (ja) 情報処理装置、方法およびプログラム
JP2014110020A (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP2013200867A (ja) アニメーション作成装置、カメラ
JP7266490B2 (ja) 画像処理装置、その制御方法及びプログラム
JP5111269B2 (ja) 画像処理装置、画像処理方法
JP2007028251A (ja) 画像処理装置、画像処理方法、プログラムおよび記録媒体
KR20180094532A (ko) 연속된 깊이 영상들을 합성하여 사용자 동작을 학습하고 분석하는 방법 및 그 시스템
JP2009296344A (ja) 映像処理装置及び方法及びプログラム及びコンピュータ読取可能な記録媒体
JP2020129763A (ja) 動画再生装置、動画再生方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220719

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230310

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230320

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230418

R151 Written notification of patent or utility model registration

Ref document number: 7266490

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151