JP2014207662A - 映像処理装置、映像処理装置の制御方法およびプログラム - Google Patents
映像処理装置、映像処理装置の制御方法およびプログラム Download PDFInfo
- Publication number
- JP2014207662A JP2014207662A JP2014031132A JP2014031132A JP2014207662A JP 2014207662 A JP2014207662 A JP 2014207662A JP 2014031132 A JP2014031132 A JP 2014031132A JP 2014031132 A JP2014031132 A JP 2014031132A JP 2014207662 A JP2014207662 A JP 2014207662A
- Authority
- JP
- Japan
- Prior art keywords
- cutout
- video
- area
- region
- processing apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Abstract
【課題】 処理対象の映像から部分映像を切り出して、順番にオブジェクトをつなぐカメラワーク効果を付与する技術であって、各オブジェクトを確実に登場させたいタイミングで登場させることができるようにするための技術を提供する。
【解決手段】 映像処理装置であって、映像に含まれる複数のオブジェクトに対応するオブジェクト領域を取得するオブジェクト領域取得部230と、前記複数のオブジェクトの順番を取得する順番取得部250と、前記オブジェクトの順番と、前記オブジェクト領域の位置とに基づいて、前記オブジェクト領域をつなぐ方法を決定するつなぎ方法決定部260と、複数のオブジェクト領域が前記順番で、かつ前記つなぎ方法により登場する映像を作成する切り出し映像作成部270と、を備える。
【選択図】 図2
【解決手段】 映像処理装置であって、映像に含まれる複数のオブジェクトに対応するオブジェクト領域を取得するオブジェクト領域取得部230と、前記複数のオブジェクトの順番を取得する順番取得部250と、前記オブジェクトの順番と、前記オブジェクト領域の位置とに基づいて、前記オブジェクト領域をつなぐ方法を決定するつなぎ方法決定部260と、複数のオブジェクト領域が前記順番で、かつ前記つなぎ方法により登場する映像を作成する切り出し映像作成部270と、を備える。
【選択図】 図2
Description
本発明は、映像処理装置、映像処理装置の制御方法およびプログラムに関する。
近年、デジタルスティルカメラやデジタルビデオカムコーダの普及により、静止画や動画などの「映像」の撮影が頻繁に行われている。家庭用デジタルビデオカメラの所有者の多くは、日々の出来事の記録として映像を撮影する。撮影された映像には動きが無い部分が多く、そのまま鑑賞するには退屈である場合が多い。
そこで、撮影した映像を素材映像として映像編集を行い、鑑賞に適した編集後映像を作る必要がある。映像編集では、まず、素材映像から好みの時間領域を切り出したり、素材映像を加工したりして、カット映像を作成する。続いて、タイムライン上にカット映像を配置し、音楽を付与して、編集後映像とするのが一般的である。
そこで、撮影した映像を素材映像として映像編集を行い、鑑賞に適した編集後映像を作る必要がある。映像編集では、まず、素材映像から好みの時間領域を切り出したり、素材映像を加工したりして、カット映像を作成する。続いて、タイムライン上にカット映像を配置し、音楽を付与して、編集後映像とするのが一般的である。
このとき、素材映像の加工方法の一つとして、疑似カメラワークがある。これは、静止画中の複数の空間領域を切り出し、それらをつなぐような処理を施すことで、あたかも静止画中をカメラワークで移動しているような効果を出すものである。なお、上記では静止画を例として出したが、動画にも同様の処理を行うことができる。
切り出した領域をつなぐ際の処理は、一般的には領域間を連続的につなぐパンの処理が選択される。領域間を連続的につなぐことで、それぞれの領域がひとつの映像中に存在することが分かりやすくなり、領域間のつながりを表現することができる。
切り出した領域をつなぐ際の処理は、一般的には領域間を連続的につなぐパンの処理が選択される。領域間を連続的につなぐことで、それぞれの領域がひとつの映像中に存在することが分かりやすくなり、領域間のつながりを表現することができる。
映像に疑似カメラワークを付与する方法として、例えば特許文献1による方法がある。これは、映像中の一直線に対するオブジェクトの分散を解析し、分散の大小に応じてパンでつなぐかカットでつなぐかを選択するものである。これにより、オブジェクトをつなぐ際にカメラが蛇行して動くことを防止し、自然な映像を作成することができるようになる。
しかし、特許文献1の方法では、オブジェクトをつなぐ順番が考慮されていない。そのため、各オブジェクトが登場するタイミングを制御することができない。
疑似カメラワークを付与する際には、切り出した領域をつなぐ順番も重要となる。視聴者は既に見た領域に含まれるオブジェクトから、その先に登場するオブジェクトを推測する。これを利用して、最後に意外なオブジェクトを登場させるように切り出す順番を決め、視聴者に驚きを与えるような映像をつくる編集の方法が存在する。
疑似カメラワークを付与する際には、切り出した領域をつなぐ順番も重要となる。視聴者は既に見た領域に含まれるオブジェクトから、その先に登場するオブジェクトを推測する。これを利用して、最後に意外なオブジェクトを登場させるように切り出す順番を決め、視聴者に驚きを与えるような映像をつくる編集の方法が存在する。
この効果を出すためには、各オブジェクトが登場させたいタイミングで確実に登場しなければならない。タイミングより前に登場することがあっては、映像の効果がなくなってしまう。
本発明では、映像に対して、順番にオブジェクトをつなぐカメラワーク効果を付与する際、各オブジェクトを確実に登場させたいタイミングで登場させることができるようにすることを目的としている。
つまり、第1のオブジェクト、第2のオブジェクト、第3のオブジェクトをこの順番で登場させたい場合に、第1のオブジェクトと第2のオブジェクトをつなぐカメラワーク効果を付与する際に、第3のオブジェクトが登場しないようにすることを目的としている。
本発明では、映像に対して、順番にオブジェクトをつなぐカメラワーク効果を付与する際、各オブジェクトを確実に登場させたいタイミングで登場させることができるようにすることを目的としている。
つまり、第1のオブジェクト、第2のオブジェクト、第3のオブジェクトをこの順番で登場させたい場合に、第1のオブジェクトと第2のオブジェクトをつなぐカメラワーク効果を付与する際に、第3のオブジェクトが登場しないようにすることを目的としている。
上記目的を達成するための一手段として、本発明の映像処理装置は以下の構成を備える。すなわち、
映像処理装置であって、
映像に含まれる複数のオブジェクトに対応するオブジェクト領域を取得する第一の取得手段と、
前記複数のオブジェクトの順番を取得する第2の取得手段と、
前記オブジェクトの順番と、前記オブジェクト領域の位置とに基づいて、前記オブジェクト領域をつなぐ方法を決定する決定手段と、
複数のオブジェクト領域が前記順番で、かつ前記つなぎ方法により登場する映像を作成する作成手段と、を備える。
映像処理装置であって、
映像に含まれる複数のオブジェクトに対応するオブジェクト領域を取得する第一の取得手段と、
前記複数のオブジェクトの順番を取得する第2の取得手段と、
前記オブジェクトの順番と、前記オブジェクト領域の位置とに基づいて、前記オブジェクト領域をつなぐ方法を決定する決定手段と、
複数のオブジェクト領域が前記順番で、かつ前記つなぎ方法により登場する映像を作成する作成手段と、を備える。
本発明によれば、処理対象の映像から部分映像を切り出して、順番にオブジェクトをつなぐカメラワーク効果を付与する技術であって、各オブジェクトを確実に登場させたいタイミングで登場させることができるようにするための技術を提供することができる。
以下、添付の図面を参照して、本発明をその好適な実施形態に基づいて詳細に説明する。なお、以下の実施形態において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。
<第1の実施形態>
図1は、本実施形態を実現するシステムの概略を示した図である。CPU101は、システム全体の動作をコントロールし、一次記憶装置102に格納されたプログラムの実行などを行う。
一次記憶102は、主にRAM等のメモリであり、二次記憶装置103に記憶されたプログラムなどを読み込んで格納する。
図1は、本実施形態を実現するシステムの概略を示した図である。CPU101は、システム全体の動作をコントロールし、一次記憶装置102に格納されたプログラムの実行などを行う。
一次記憶102は、主にRAM等のメモリであり、二次記憶装置103に記憶されたプログラムなどを読み込んで格納する。
二次記憶装置103は、例えばハードディスクやフラッシュメモリなどの記録媒体がこれに該当する。一般に一次記憶装置の容量は二次記憶装置の容量より小さく、一次記憶装置に格納しきれないプログラムやデータなどは二次記憶装置に格納される。また、長時間記憶しなくてはならないデータなども二次記憶装置に格納される。本実施形態では、実施形態の処理手順を実現するようなプログラムは二次記憶装置103に格納し、プログラム実行時に一次記憶装置102に読み込んで、CPU101が実行処理を行う。
入力デバイス104は、例えばマウスなどのポインティングデバイスやタッチパネルやキーボードなどがこれに該当する。
出力デバイス105は、例えばLCDなどのモニタやプリンタがこれに該当する。
読込デバイス106は、公知のCCD素子などで構成されているデジタルスティルカメラやデジタルビデオカメラなどの撮像装置で撮像された映像を直接又は間接的に一次記憶装置や二次記憶装置へ読み込む。
システムバス107は、データの流れを司る。
出力デバイス105は、例えばLCDなどのモニタやプリンタがこれに該当する。
読込デバイス106は、公知のCCD素子などで構成されているデジタルスティルカメラやデジタルビデオカメラなどの撮像装置で撮像された映像を直接又は間接的に一次記憶装置や二次記憶装置へ読み込む。
システムバス107は、データの流れを司る。
・映像処理装置の機能構成例
図2は本実施形態に係る映像処理装置の機能構成例を示す図である。映像処理装置は、映像から複数の部分映像を切り出して出力するものである。
記憶部210は処理対象の映像を記憶する。本実施形態では記憶部210を映像処理装置の機能構成とし、この記憶部210から画像データを読み出す読出処理を行うが、ファイルサーバ等の他の装置内に記憶された画像データを、通信回線を介して取得するとしてもよい。
映像読出部220は処理対象の映像を記憶部210から読み出す。
オブジェクト領域取得部230は、第1の取得手段に対応し、処理対象の映像に含まれる複数のオブジェクトの領域を取得する。
切り出し領域取得部240は、第3の取得手段に対応し、オブジェクト領域取得部230で取得したオブジェクトの領域を含む切り出し領域(以下、「トリミング領域」とも記載する)を取得する。
図2は本実施形態に係る映像処理装置の機能構成例を示す図である。映像処理装置は、映像から複数の部分映像を切り出して出力するものである。
記憶部210は処理対象の映像を記憶する。本実施形態では記憶部210を映像処理装置の機能構成とし、この記憶部210から画像データを読み出す読出処理を行うが、ファイルサーバ等の他の装置内に記憶された画像データを、通信回線を介して取得するとしてもよい。
映像読出部220は処理対象の映像を記憶部210から読み出す。
オブジェクト領域取得部230は、第1の取得手段に対応し、処理対象の映像に含まれる複数のオブジェクトの領域を取得する。
切り出し領域取得部240は、第3の取得手段に対応し、オブジェクト領域取得部230で取得したオブジェクトの領域を含む切り出し領域(以下、「トリミング領域」とも記載する)を取得する。
順番取得部250は、第2の取得手段に対応し、オブジェクト領域取得部で取得したオブジェクトの順番を取得する。
つなぎ方法決定部260は、決定手段に対応し、順番取得部250で取得した順番と、オブジェクト領域取得部230で取得した領域の位置とから、切り出し領域取得部240で取得した複数の切り出し領域をつなぐ方法を決定する(決定工程に対応)。
切り出し映像作成部270は、作成手段に対応し、つなぎ方法決定部260が決定した方法でつながれた複数の切り出し領域が順番に登場する映像であって、前記切り出し領域内に含まれる前記オブジェクトが登場する順番が、順番取得部250が取得した順番と同じである映像を作成する(作成工程に対応)。
直線的軌跡領域取得部261は、第4の取得手段に対応し、切り出し領域取得部240で取得した複数の切り出し領域を直線的につなぐ場合に描く軌跡の領域を取得する。
軌跡領域重なり判定部262は、第1の判定手段に対応し、直線的軌跡領域取得部261で取得した軌跡領域と、オブジェクト領域取得部230で取得したオブジェクト領域が重なるか否かを判定する。
つなぎ方法決定部260は、決定手段に対応し、順番取得部250で取得した順番と、オブジェクト領域取得部230で取得した領域の位置とから、切り出し領域取得部240で取得した複数の切り出し領域をつなぐ方法を決定する(決定工程に対応)。
切り出し映像作成部270は、作成手段に対応し、つなぎ方法決定部260が決定した方法でつながれた複数の切り出し領域が順番に登場する映像であって、前記切り出し領域内に含まれる前記オブジェクトが登場する順番が、順番取得部250が取得した順番と同じである映像を作成する(作成工程に対応)。
直線的軌跡領域取得部261は、第4の取得手段に対応し、切り出し領域取得部240で取得した複数の切り出し領域を直線的につなぐ場合に描く軌跡の領域を取得する。
軌跡領域重なり判定部262は、第1の判定手段に対応し、直線的軌跡領域取得部261で取得した軌跡領域と、オブジェクト領域取得部230で取得したオブジェクト領域が重なるか否かを判定する。
図3は、本実施形態における映像処理装置のGUIの概要を示す図である。
音楽選択画面201には、映像編集で利用可能な音楽の一覧を表示する。
素材映像選択画面202には、映像編集で利用可能な素材映像の一覧を表示する。
カット映像選択画面203には、映像編集で利用可能なカット映像の一覧を表示する。ここで、カット映像とは、素材映像を加工して作成される動画であるとする。加工とは、例えば映像中の任意の時間範囲の切り出しや、カメラワーク効果の付与などである。
音楽選択画面201には、映像編集で利用可能な音楽の一覧を表示する。
素材映像選択画面202には、映像編集で利用可能な素材映像の一覧を表示する。
カット映像選択画面203には、映像編集で利用可能なカット映像の一覧を表示する。ここで、カット映像とは、素材映像を加工して作成される動画であるとする。加工とは、例えば映像中の任意の時間範囲の切り出しや、カメラワーク効果の付与などである。
タイムライン編集画面204には、編集後映像のタイムラインを表示する。タイムライン上に音楽やカット映像を配置し、それぞれの再生開始時間,再生時間を決定することで、映像編集を行う。タイムライン上への音楽の配置は、音楽選択画面201上のアイコンを、タイムライン上の任意の位置へドラッグアンドドロップすることで行う。タイムライン上へのカット映像の配置は、カット映像選択画面203上のアイコンを、タイムライン上の任意の位置へドラッグアンドドロップすることで行う。
プレビュー画面205には、編集後映像のプレビューを表示する。プレビュー画面205をクリックすることで、タイムライン編集画面204のタイムライン上に配置された音楽,カット映像を再生する。
レンダリングボタン206を押下すると、編集後映像を作成する。編集後映像は、タイムライン編集画面204のタイムライン上に配置された音楽やカット映像を一連の映像としてまとめたものとなる。編集後映像は、AVIやMPEGなど、公知の動画フォーマットのファイルで保存する。
レンダリングボタン206を押下すると、編集後映像を作成する。編集後映像は、タイムライン編集画面204のタイムライン上に配置された音楽やカット映像を一連の映像としてまとめたものとなる。編集後映像は、AVIやMPEGなど、公知の動画フォーマットのファイルで保存する。
カット映像作成ボタン207は、素材映像を選択した状態でのみ有効となる。素材映像の選択は、素材映像選択画面202上のアイコンを指定することで行う。
カット映像作成ボタン207を押下すると、選択された素材映像を元に、映像中のオブジェクトをつなぐカメラワーク効果が付与されたカット映像を作成する。作成したカット映像は、カット映像選択画面203に追加される。カット映像の作成方法については、図4を用いて後述する。
カット映像作成ボタン207を押下すると、選択された素材映像を元に、映像中のオブジェクトをつなぐカメラワーク効果が付与されたカット映像を作成する。作成したカット映像は、カット映像選択画面203に追加される。カット映像の作成方法については、図4を用いて後述する。
図4は、カット映像作成ボタン207を押下した際の、映像中のオブジェクトをつなぐカメラワーク効果が付与されたカット映像を作成する処理の流れを示すフローチャートである。
本実施形態における映像処理装置では、以下の制御方法に従って、ユーザにより映像中の複数のオブジェクトが指定され、指定された順番にオブジェクトが登場するようにカメラワーク効果を付与する。
本実施形態における映像処理装置では、以下の制御方法に従って、ユーザにより映像中の複数のオブジェクトが指定され、指定された順番にオブジェクトが登場するようにカメラワーク効果を付与する。
・オブジェクト領域の指定
ステップS301では、ユーザによる映像中のオブジェクトの指定が行われる。オブジェクト領域取得部230は、指定されたオブジェクト領域の座標値(例えば、左上点の座標値と右下点の座標値)を取得する(第1の取得工程に対応)。
オブジェクトの指定は、図5に示すようなGUIを用いて行われる。素材映像表示部401には、選択された素材映像をプレビュー表示する。ユーザは、素材映像表示部401上の任意のオブジェクトの領域511〜513を、入力デバイス104を介して指定する。ここで指定された領域を、以降では「オブジェクト領域」と呼ぶ。
ステップS301では、ユーザによる映像中のオブジェクトの指定が行われる。オブジェクト領域取得部230は、指定されたオブジェクト領域の座標値(例えば、左上点の座標値と右下点の座標値)を取得する(第1の取得工程に対応)。
オブジェクトの指定は、図5に示すようなGUIを用いて行われる。素材映像表示部401には、選択された素材映像をプレビュー表示する。ユーザは、素材映像表示部401上の任意のオブジェクトの領域511〜513を、入力デバイス104を介して指定する。ここで指定された領域を、以降では「オブジェクト領域」と呼ぶ。
・トリミング領域の決定
ステップS302で、切り出し領域取得部240は、ステップS301で指定されたオブジェクト領域を含むトリミング領域を決定する。
本実施形態において、トリミング領域の位置は、トリミング領域の中心がオブジェクト領域の中心と同じになるように決めるものとする。また、トリミング領域の大きさは、素材映像(処理対象の映像)401のアスペクト比を保ちながら、高さがオブジェクト領域の高さの2倍となるように決めるものとする。オブジェクト領域601とトリミング領域602の例を図6に示す。なお、トリミング領域の位置と大きさは、上記以外の方法で決定しても良い。
ステップS302で、切り出し領域取得部240は、ステップS301で指定されたオブジェクト領域を含むトリミング領域を決定する。
本実施形態において、トリミング領域の位置は、トリミング領域の中心がオブジェクト領域の中心と同じになるように決めるものとする。また、トリミング領域の大きさは、素材映像(処理対象の映像)401のアスペクト比を保ちながら、高さがオブジェクト領域の高さの2倍となるように決めるものとする。オブジェクト領域601とトリミング領域602の例を図6に示す。なお、トリミング領域の位置と大きさは、上記以外の方法で決定しても良い。
ステップS303では、ユーザによるオブジェクトの指定が終了したか否かを判断する。ユーザにより図5のOKボタン402が押下されていれば、オブジェクトの指定が終了したと判断する。それ以外の場合はステップS301へ戻る。
なお、本実施形態において、ステップS301からS303で指定されたオブジェクトは、指定された順番に番号が付与され、オブジェクト領域及びトリミング領域と関連付けて図7に示すように保存される。順番取得部250は、オブジェクト領域及びトリミング領域に付与された番号を取得する(第2の取得工程に対応)。なお、オブジェクトの順番はオブジェクトの指定の順番以外の手法であっても良い。オブジェクトの指定の後に、所定の順番決定方法(画角中の人物の関連性や重要度、年齢順等)に基づいてオブジェクトの順番を決定してもよい。
なお、本実施形態において、ステップS301からS303で指定されたオブジェクトは、指定された順番に番号が付与され、オブジェクト領域及びトリミング領域と関連付けて図7に示すように保存される。順番取得部250は、オブジェクト領域及びトリミング領域に付与された番号を取得する(第2の取得工程に対応)。なお、オブジェクトの順番はオブジェクトの指定の順番以外の手法であっても良い。オブジェクトの指定の後に、所定の順番決定方法(画角中の人物の関連性や重要度、年齢順等)に基づいてオブジェクトの順番を決定してもよい。
・オブジェクト間のつなぎ方を決定
ステップS304で、つなぎ方法決定部260は、カメラワーク効果を付与する際の、各オブジェクト間のつなぎ方を決定する。オブジェクト間のつなぎ方の決定方法については、図10を用いて後述する。本実施形態において、オブジェクト間のつなぎ方は、「パン」による連続したつなぎ方か、「カット」による断続的なつなぎ方か、どちらかより選択されるものとする。つなぎ方は、連続する2つのオブジェクトの番号と関連付けて図8に示すように保存される。
ステップS304で、つなぎ方法決定部260は、カメラワーク効果を付与する際の、各オブジェクト間のつなぎ方を決定する。オブジェクト間のつなぎ方の決定方法については、図10を用いて後述する。本実施形態において、オブジェクト間のつなぎ方は、「パン」による連続したつなぎ方か、「カット」による断続的なつなぎ方か、どちらかより選択されるものとする。つなぎ方は、連続する2つのオブジェクトの番号と関連付けて図8に示すように保存される。
・素材映像にカメラワーク効果を付与
ステップS305で、切り出し映像作成は、ステップS304で決定したオブジェクト間のつなぎ方を参照し、素材映像にカメラワーク効果を付与する。素材映像に2つのオブジェクトA,Bが存在する場合、AからBに「パン」でつなぐ場合と「カット」でつなぐ場合の例を、それぞれ図9(a),(b)に示す。
パンでつなぐ場合は、図9(a)に示すように、オブジェクトAのトリミング領域901からオブジェクトBのトリミング領域902へ連続的に変化させる。
カットでつなぐ場合は、図9(b)に示すように、オブジェクトAのトリミング領域901からオブジェクトBのトリミング領域902へ断続的に変化させる。
ステップS305で、切り出し映像作成は、ステップS304で決定したオブジェクト間のつなぎ方を参照し、素材映像にカメラワーク効果を付与する。素材映像に2つのオブジェクトA,Bが存在する場合、AからBに「パン」でつなぐ場合と「カット」でつなぐ場合の例を、それぞれ図9(a),(b)に示す。
パンでつなぐ場合は、図9(a)に示すように、オブジェクトAのトリミング領域901からオブジェクトBのトリミング領域902へ連続的に変化させる。
カットでつなぐ場合は、図9(b)に示すように、オブジェクトAのトリミング領域901からオブジェクトBのトリミング領域902へ断続的に変化させる。
図10は、図4のステップS304における、オブジェクト間のつなぎ方を決定する処理の流れを示すフローチャートである。
ステップS901では、変数iに1を代入する。
ステップS902では、直線的軌跡領域取得部261は、i番目のオブジェクトのトリミング領域と、i+1番目のオブジェクトのトリミング領域を線形に結ぶ軌跡領域を決定する。軌跡領域の例を図11に示す。図11は、第1のトリミング領域1101と第2のトリミング領域1102を線形に結ぶ軌跡領域1103を示す。
ステップS901では、変数iに1を代入する。
ステップS902では、直線的軌跡領域取得部261は、i番目のオブジェクトのトリミング領域と、i+1番目のオブジェクトのトリミング領域を線形に結ぶ軌跡領域を決定する。軌跡領域の例を図11に示す。図11は、第1のトリミング領域1101と第2のトリミング領域1102を線形に結ぶ軌跡領域1103を示す。
ステップS903では、変数jにi+1を代入する。
ステップS904では、変数jに1を加算する。
ステップS905では、オブジェクトの数Nobjと変数jの値を比較する。Nobj<jであれば、ステップS906へ進む。それ以外であれば、ステップS907へ進む。ステップS906で、つなぎ方法決定部260は、i番目のオブジェクトとi+1番目のオブジェクトのつなぎ方として「パン」を設定する。
ステップS904では、変数jに1を加算する。
ステップS905では、オブジェクトの数Nobjと変数jの値を比較する。Nobj<jであれば、ステップS906へ進む。それ以外であれば、ステップS907へ進む。ステップS906で、つなぎ方法決定部260は、i番目のオブジェクトとi+1番目のオブジェクトのつなぎ方として「パン」を設定する。
ステップS907では、軌跡領域重なり判定部262は、j番目のオブジェクトのオブジェクト領域が、ステップS902で決定した軌跡領域に重なるか否かを判定する。オブジェクト領域が軌跡領域に重なる例、及び重ならない例について、それぞれ図12(a),(b)に示す。
図12(a)は第1のオブジェクトのトリミング領域1201と第2のオブジェクトのトリミング領域1202とをつなぐ軌跡領域1203が、第3のオブジェクトのオブジェクト領域1204に重なる例を示す。
図12(b)は第1のオブジェクトのトリミング領域1201と第2のオブジェクトのトリミング領域1202とをつなぐ軌跡領域1203が、第3のオブジェクトのオブジェクト領域1204に重ならない例を示す。
j番目のオブジェクトのオブジェクト領域が軌跡領域に重なる場合は、ステップS908へ進む。それ以外であれば、ステップS904へ戻る。
図12(a)は第1のオブジェクトのトリミング領域1201と第2のオブジェクトのトリミング領域1202とをつなぐ軌跡領域1203が、第3のオブジェクトのオブジェクト領域1204に重なる例を示す。
図12(b)は第1のオブジェクトのトリミング領域1201と第2のオブジェクトのトリミング領域1202とをつなぐ軌跡領域1203が、第3のオブジェクトのオブジェクト領域1204に重ならない例を示す。
j番目のオブジェクトのオブジェクト領域が軌跡領域に重なる場合は、ステップS908へ進む。それ以外であれば、ステップS904へ戻る。
ステップS908で、つなぎ方法決定部260は、i番目のオブジェクトとi+1番目のオブジェクトのつなぎ方として「カット」を設定する。
ステップS909では、変数iに1を加算する。
ステップS910では、オブジェクトの数Nobjと変数iの値を比較する。Nobj<iであれば、処理を終了する。それ以外であれば、ステップS902へ戻る。
ステップS909では、変数iに1を加算する。
ステップS910では、オブジェクトの数Nobjと変数iの値を比較する。Nobj<iであれば、処理を終了する。それ以外であれば、ステップS902へ戻る。
以上のように、本実施形態では、素材映像に対して順番にオブジェクトをつなぐカメラワークを付与する際、連続するオブジェクトをつなぐ軌跡領域と後続のオブジェクトとの位置関係に応じて、つなぎ方をパンかカットのどちらかに切り替える。これにより、なるべくパンを用いてオブジェクト間の関係を表現しつつ、オブジェクトを確実に登場させたいタイミングで登場させることができるようになる。
なお、本実施形態では、オブジェクト領域をユーザに指定させたが、他の方法でオブジェクト領域を決定しても良い。例えば、ユーザは映像中の一点を指定するのみとし、その周辺に存在する顔領域を自動的に検出してオブジェクト領域としても良い。
また、本実施形態では、オブジェクトをつなぐ順番をユーザに指定させたが、他の方法でオブジェクトをつなぐ順番を決定しても良い。例えば、予めオブジェクトの特徴量と重要度を対応づけて保存しておき、映像中のオブジェクトの重要度の低い順に順番を設定しても良い。
また、本実施形態では、オブジェクトをつなぐ順番をユーザに指定させたが、他の方法でオブジェクトをつなぐ順番を決定しても良い。例えば、予めオブジェクトの特徴量と重要度を対応づけて保存しておき、映像中のオブジェクトの重要度の低い順に順番を設定しても良い。
また、本実施形態では、オブジェクト間のつなぎ方を決定する際、オブジェクトをつなぐ軌跡領域と他のオブジェクトとの重なりを判定したが、判定対象のオブジェクトを限定しても良い。例えば、最後に登場するオブジェクトのみを判定対象としても良い。同様に、ユーザが特別に重要であると指定したオブジェクトのみを判定対象としても良い。また、予めオブジェクト毎に重要度を設定しておき、一定以上の重要度のオブジェクトのみを判定対象としても良い。
<第2の実施形態>
第1の実施形態では、図4のステップS304において、オブジェクト間のつなぎ方が「パン」による連続したつなぎ方に設定された場合、図13(a)に示すように、オブジェクト間を直線的につなぐことを想定していた。図13(a)は、第1のオブジェクトのトリミング領域1301と第2のオブジェクトのトリミング領域1302との間を直線的につなぐ例を示す。
しかし、必ずしも直線的につなぐ必要はない。図13(b)は、第1のオブジェクトのトリミング領域1301と第2のオブジェクトのトリミング領域1302との間を曲線的につなぐ例を示す。図13(b)に示すようにオブジェクト間を曲線的につなぎ、軌跡領域1303〜1306に他のオブジェクトが登場してしまうことを回避しても良い。これにより、第1の実施形態の方法よりも、オブジェクト間を連続的につなぐ方法が多く選択されるようになり、オブジェクト間の関係が表現されやすくなる。
つまり、つなぐ方法として、第1の実施形態では連続的(直線的)につなぐ方法が選択されなかった場合であっても、第2の実施形態では連続的(曲線的)につなぐ方法が選択される場合がある。このため、第1の実施形態よりも第2の実施形態の方が、オブジェクト間を連続的につなぐ方法が多く選択され得る。
第2の実施形態では、オブジェクト間のつなぎ方を「直線パン」,「曲線パン」,「カット」の3種類から自動的に選択する機能を持つ映像処理装置の実現方法について述べる。
第1の実施形態では、図4のステップS304において、オブジェクト間のつなぎ方が「パン」による連続したつなぎ方に設定された場合、図13(a)に示すように、オブジェクト間を直線的につなぐことを想定していた。図13(a)は、第1のオブジェクトのトリミング領域1301と第2のオブジェクトのトリミング領域1302との間を直線的につなぐ例を示す。
しかし、必ずしも直線的につなぐ必要はない。図13(b)は、第1のオブジェクトのトリミング領域1301と第2のオブジェクトのトリミング領域1302との間を曲線的につなぐ例を示す。図13(b)に示すようにオブジェクト間を曲線的につなぎ、軌跡領域1303〜1306に他のオブジェクトが登場してしまうことを回避しても良い。これにより、第1の実施形態の方法よりも、オブジェクト間を連続的につなぐ方法が多く選択されるようになり、オブジェクト間の関係が表現されやすくなる。
つまり、つなぐ方法として、第1の実施形態では連続的(直線的)につなぐ方法が選択されなかった場合であっても、第2の実施形態では連続的(曲線的)につなぐ方法が選択される場合がある。このため、第1の実施形態よりも第2の実施形態の方が、オブジェクト間を連続的につなぐ方法が多く選択され得る。
第2の実施形態では、オブジェクト間のつなぎ方を「直線パン」,「曲線パン」,「カット」の3種類から自動的に選択する機能を持つ映像処理装置の実現方法について述べる。
図14は本実施形態に係る映像処理装置の機能構成例を示す図である。なお、第1の実施形態で説明した機能要素と同じ番号を付与した機能要素は、第1の実施形態と同様の機能を有するものであるため、共通する機能については説明を省略し、相違する機能についてのみ説明する。
軌跡領域重なり割合判定部1401は、第2の判定手段に対応し、2つのトリミング領域(例えば、図12の領域1201と1202)を直線的につなぐ軌跡領域(例えば、領域1203)がオブジェクト領域(例えば、領域1204)と重なる面積の割合を算出する。
曲線的軌跡領域取得部1402は、第5の取得手段に対応し、2つのトリミング領域(例えば、図13の領域1301と1302)を曲線的につなぐ軌跡領域(例えば、領域1303〜1306)を取得する。
軌跡領域重なり割合判定部1401は、第2の判定手段に対応し、2つのトリミング領域(例えば、図12の領域1201と1202)を直線的につなぐ軌跡領域(例えば、領域1203)がオブジェクト領域(例えば、領域1204)と重なる面積の割合を算出する。
曲線的軌跡領域取得部1402は、第5の取得手段に対応し、2つのトリミング領域(例えば、図13の領域1301と1302)を曲線的につなぐ軌跡領域(例えば、領域1303〜1306)を取得する。
図15は、第2の実施形態において、図4のステップS304でオブジェクト間のつなぎ方を決定する処理の流れを示すフローチャートである。なお、図10と重複する番号を持つステップでは、図10と同様の処理を行うものとする。
・軌跡領域重なり割合判定
ステップS1308で、軌跡領域重なり割合判定部1401は、j番目のオブジェクトのオブジェクト領域が、ステップS902で決定した軌跡領域と重なる面積の割合Rを算出する。Rは、j番目のオブジェクト領域の面積をAobj,オブジェクト領域と軌跡領域が重なる部分の面積をAoverとすると、次のように求める。
R = Aover / Aobj
ステップS1308で、軌跡領域重なり割合判定部1401は、j番目のオブジェクトのオブジェクト領域が、ステップS902で決定した軌跡領域と重なる面積の割合Rを算出する。Rは、j番目のオブジェクト領域の面積をAobj,オブジェクト領域と軌跡領域が重なる部分の面積をAoverとすると、次のように求める。
R = Aover / Aobj
ステップS1309で、つなぎ方法決定部260は、ステップS1308で求めたRを、予め定められた閾値と比較する。Rの値が閾値を超える場合は、ステップS1310へ進む。それ以外であれば(Rの値が閾値以下の場合は)、ステップS1311へ進む。なお、本実施形態では閾値は予め定めるものとしたが、オブジェクト領域の面積などにより、動的に求めても良い。
ステップS1310で、つなぎ方法決定部260は、i番目のオブジェクトとi+1番目のオブジェクトのつなぎ方として「カット」を設定する。
ステップS1310で、つなぎ方法決定部260は、i番目のオブジェクトとi+1番目のオブジェクトのつなぎ方として「カット」を設定する。
・曲線的軌跡領域取得
ステップS1311で、曲線的軌跡領域取得部1402は、i番目のオブジェクトのトリミング領域と、i+1番目のオブジェクトのトリミング領域を曲線で結ぶ軌跡領域を決定する。ここで、軌跡領域は、j番目のオブジェクトと重ならないように決める。例えば、2つのトリミング領域の対応する頂点が、j番目のオブジェクト領域の中心点を中心として描かれる円弧で結ばれるように、軌跡領域を決定する。
軌跡領域の例を図16に示す。図16では、第1のオブジェクトのトリミング領域の左上頂点1601と第2のオブジェクトのトリミング領域の右上頂点1602が、第3のオブジェクトのオブジェクト領域の中心点1603を中心として描かれる円弧で結ばれるように、軌跡領域1604を決定する。
ステップS1311で、曲線的軌跡領域取得部1402は、i番目のオブジェクトのトリミング領域と、i+1番目のオブジェクトのトリミング領域を曲線で結ぶ軌跡領域を決定する。ここで、軌跡領域は、j番目のオブジェクトと重ならないように決める。例えば、2つのトリミング領域の対応する頂点が、j番目のオブジェクト領域の中心点を中心として描かれる円弧で結ばれるように、軌跡領域を決定する。
軌跡領域の例を図16に示す。図16では、第1のオブジェクトのトリミング領域の左上頂点1601と第2のオブジェクトのトリミング領域の右上頂点1602が、第3のオブジェクトのオブジェクト領域の中心点1603を中心として描かれる円弧で結ばれるように、軌跡領域1604を決定する。
ステップS1312では、i+1番目より後に登場するオブジェクトのオブジェクト領域のいずれかが、ステップS1311で決定した軌跡領域と重なるか否かを判定する。軌跡領域と重なるオブジェクト領域がある場合には、ステップS1310へ進む。それ以外の場合は、ステップS1313へ進む。
ステップS1313で、つなぎ方法決定部260は、i番目のオブジェクトとi+1番目のオブジェクトのつなぎ方として「曲線パン」を設定する。
ステップS1313で、つなぎ方法決定部260は、i番目のオブジェクトとi+1番目のオブジェクトのつなぎ方として「曲線パン」を設定する。
ステップS1314では、変数iに1を加算する。
ステップS1315では、オブジェクトの数Nobjと変数iの値を比較する。Nobj<iであれば、処理を終了する。それ以外であれば、ステップS1302へ戻る。
なお、上記で選択されたつなぎ方は、第1の実施形態と同様に、連続する2つのオブジェクトの番号と関連付けて図8に示すように保存される。
ステップS1315では、オブジェクトの数Nobjと変数iの値を比較する。Nobj<iであれば、処理を終了する。それ以外であれば、ステップS1302へ戻る。
なお、上記で選択されたつなぎ方は、第1の実施形態と同様に、連続する2つのオブジェクトの番号と関連付けて図8に示すように保存される。
<第3の実施形態>
第1の実施形態及び第2の実施形態では、図4のステップS302において、オブジェクト毎にトリミング領域を決める際、着目しているオブジェクトの領域のみを参照して決めていた。しかし、この時点で他のオブジェクトがトリミング領域に入り込むことも考えられる。
第3の実施形態では、オブジェクトのトリミング領域を決める際、他のオブジェクト領域が含まれないようにトリミング領域を調整する機能を持つ映像処理装置の実現方法について説明する。
第1の実施形態及び第2の実施形態では、図4のステップS302において、オブジェクト毎にトリミング領域を決める際、着目しているオブジェクトの領域のみを参照して決めていた。しかし、この時点で他のオブジェクトがトリミング領域に入り込むことも考えられる。
第3の実施形態では、オブジェクトのトリミング領域を決める際、他のオブジェクト領域が含まれないようにトリミング領域を調整する機能を持つ映像処理装置の実現方法について説明する。
図17は本実施形態に係る映像処理装置の機能構成例を示す図である。なお、第1の実施形態で説明した機能要素と同じ番号を付与した機能要素は、第1の実施形態と同様の機能を有するものであるため、共通する機能については説明を省略し、相違する機能についてのみ説明する。
切り出し領域重なり判定部1701は、第3の判定手段に対応し、切り出し領域取得部240で取得した切り出し領域(トリミング領域)と、オブジェクト領域取得部230で取得したオブジェクト領域が重なるか否かを判定する。
切り出し領域調整部1702は、切り出し領域重なり判定部1701により切り出し領域(トリミング領域)とオブジェクト領域が重なっていると判定された場合に、オブジェクト領域に重ならないように切り出し領域(トリミング領域)の位置及び大きさの少なくとも一方を変える。
切り出し領域重なり判定部1701は、第3の判定手段に対応し、切り出し領域取得部240で取得した切り出し領域(トリミング領域)と、オブジェクト領域取得部230で取得したオブジェクト領域が重なるか否かを判定する。
切り出し領域調整部1702は、切り出し領域重なり判定部1701により切り出し領域(トリミング領域)とオブジェクト領域が重なっていると判定された場合に、オブジェクト領域に重ならないように切り出し領域(トリミング領域)の位置及び大きさの少なくとも一方を変える。
図18は、第3の実施形態において、図3のカット映像作成ボタン207を押下した際の、映像中のオブジェクトをつなぐカメラワーク効果が付与されたカット映像を作成する処理の流れを示すフローチャートである。なお、図4と重複する番号を持つステップでは、図4と同様の処理を行うものとする。
・トリミング領域重なり判定(切り出し領域重なり判定)
ステップS1503で、切り出し領域重なり判定部1701は、ステップS302で決定されたトリミング領域(切り出し領域)に、他のオブジェクトのオブジェクト領域が重なるか否かを判定する。トリミング領域とオブジェクト領域が重なる場合は、ステップS1504へ進む。それ以外であれば、ステップS1505へ進む。
ステップS1503で、切り出し領域重なり判定部1701は、ステップS302で決定されたトリミング領域(切り出し領域)に、他のオブジェクトのオブジェクト領域が重なるか否かを判定する。トリミング領域とオブジェクト領域が重なる場合は、ステップS1504へ進む。それ以外であれば、ステップS1505へ進む。
・トリミング領域調整(切り出し領域調整)
ステップS1504で、切り出し領域調整部1702は、ステップS302で決定されたトリミング領域の位置と大きさを調整する。本実施形態においてトリミング領域の調整は、他のオブジェクトのオブジェクト領域が重ならないように、素材映像のアスペクト比を保ったまま縮小するものとする。トリミング領域が他のオブジェクトのオブジェクト領域と重なる場合の例を図19(a)に示す。また、そのトリミング領域を調整した例を図19(b)に示す。
ステップS1504で、切り出し領域調整部1702は、ステップS302で決定されたトリミング領域の位置と大きさを調整する。本実施形態においてトリミング領域の調整は、他のオブジェクトのオブジェクト領域が重ならないように、素材映像のアスペクト比を保ったまま縮小するものとする。トリミング領域が他のオブジェクトのオブジェクト領域と重なる場合の例を図19(a)に示す。また、そのトリミング領域を調整した例を図19(b)に示す。
図19(a)において、1901は第1のオブジェクト領域、1902は第2のオブジェクト領域、1903は第1のトリミング領域をそれぞれ示し、第1のトリミング領域1903は第1のオブジェクト領域1901を含む。そして、第1のトリミング領域1903と第2のオブジェクト領域1902とが一部重なっている。
このような場合、ステップS1503で、切り出し領域重なり判定部1701は、第1のトリミング領域1903と第2のオブジェクト領域1902とが重なると判定し、ステップ1504に進む。
ステップS1504で、切り出し領域調整部1702は、ステップS302で決定された第1のトリミング領域1903の大きさを、アスペクト比を保ったまま縮小する。
図19(b)において、1904は、第2のオブジェクト領域1902に重ならないように調整された後の第1のトリミング領域を示す。
このような場合、ステップS1503で、切り出し領域重なり判定部1701は、第1のトリミング領域1903と第2のオブジェクト領域1902とが重なると判定し、ステップ1504に進む。
ステップS1504で、切り出し領域調整部1702は、ステップS302で決定された第1のトリミング領域1903の大きさを、アスペクト比を保ったまま縮小する。
図19(b)において、1904は、第2のオブジェクト領域1902に重ならないように調整された後の第1のトリミング領域を示す。
なお、調整の結果、トリミング領域(例えば、領域1904)中のオブジェクト領域(例えば、領域1901)の占める割合が70%を超えるような場合には、トリミング領域の調整を行わず、調整できない旨の警告を出すだけでも良い。トリミング領域を調整しても他のオブジェクト領域との重なりがなくならないような場合にも、同様である。
<第4の実施形態>
第1の実施形態、第2の実施形態及び第3の実施形態では、図4のS301からS303に示すように、オブジェクトをつなぐ順番を手動で決定する。
しかし、オブジェクトをつなぐ順番を自動的に決定しても良い。第4の実施形態では、例としてオブジェクトの視線方向を考慮してつなぐ順番を自動的に決定する機能を持つ映像処理装置の実現方法について説明する。
第1の実施形態、第2の実施形態及び第3の実施形態では、図4のS301からS303に示すように、オブジェクトをつなぐ順番を手動で決定する。
しかし、オブジェクトをつなぐ順番を自動的に決定しても良い。第4の実施形態では、例としてオブジェクトの視線方向を考慮してつなぐ順番を自動的に決定する機能を持つ映像処理装置の実現方法について説明する。
本実施形態に係る映像処理装置の構成は、映像読出手段と、オブジェクト検出手段と、切り出し領域取得手段と、ベクトル情報検出手段と、ベクトル関係性分析手段と、切り出し順番決定手段と、切り出し映像作成手段と、を備える。
映像読出手段は、処理対象の映像を記憶手段から読み出す。
オブジェクト検出手段は、前記処理対象の映像に含まれる複数のオブジェクトを検出する。
切り出し領域取得手段は、前記オブジェクト検出手段で検出したオブジェクトを含む切り出し領域を取得する。
ベクトル情報検出手段は、前記処理対象の映像に含まれるベクトル情報を検出する。
ベクトル関係性分析手段は、前記ベクトル情報とオブジェクトの関係性を分析する。
切り出し順番決定手段は、前記ベクトル関係性分析手段による分析結果に基づき、切り出し領域を切り出す順番を決定する。
切り出し映像作成手段は、前記切り出し領域取得手段によって取得された複数の切り出し領域が、前記切り出し順番決定手段によって決定された順番に登場する映像を作成する。
映像読出手段は、処理対象の映像を記憶手段から読み出す。
オブジェクト検出手段は、前記処理対象の映像に含まれる複数のオブジェクトを検出する。
切り出し領域取得手段は、前記オブジェクト検出手段で検出したオブジェクトを含む切り出し領域を取得する。
ベクトル情報検出手段は、前記処理対象の映像に含まれるベクトル情報を検出する。
ベクトル関係性分析手段は、前記ベクトル情報とオブジェクトの関係性を分析する。
切り出し順番決定手段は、前記ベクトル関係性分析手段による分析結果に基づき、切り出し領域を切り出す順番を決定する。
切り出し映像作成手段は、前記切り出し領域取得手段によって取得された複数の切り出し領域が、前記切り出し順番決定手段によって決定された順番に登場する映像を作成する。
図20は、第4の実施形態において、図3のカット映像作成ボタン207を押下した際の、映像中のオブジェクトをつなぐカメラワーク効果が付与されたカット映像を作成する処理の流れを示すフローチャートである。なお、図4と重複する番号を持つステップでは、図4と同様の処理を行うものとする。
この処理は、図21に示すGUIを介して行われる。素材映像表示部2101には、選択された素材映像をプレビュー表示する。
この処理は、図21に示すGUIを介して行われる。素材映像表示部2101には、選択された素材映像をプレビュー表示する。
ステップS2001では、映像中のオブジェクトの検出を行う。オブジェクトの検出は、顔検出などの公知の方法により行う。検出したオブジェクトにはIDを付与し、オブジェクトの領域の情報と合わせて、図22に示す表に保存する。また、オブジェクトの領域を、素材映像表示部2101に表示する。
なお、上記では映像中のオブジェクトを自動的に検出したが、ユーザに指定させるようにしても良い。その場合、ユーザは、素材映像表示部2101上の任意のオブジェクトの位置または領域を、入力デバイス104を介して指定する。
なお、上記では映像中のオブジェクトを自動的に検出したが、ユーザに指定させるようにしても良い。その場合、ユーザは、素材映像表示部2101上の任意のオブジェクトの位置または領域を、入力デバイス104を介して指定する。
ステップS2002では、映像中のオブジェクトが登場する順番を決定する。決定した順番は、オブジェクトと対応づけて、図22に示す表に保存する。また、順番の情報を素材映像表示部2101に表示する。なお、オブジェクトの登場順の決定方法については、図24を用いて後述する。
ステップS2003では、ユーザにより、オブジェクトが登場する順番が変更される。この操作は、順番変更ボタン2102が押下された場合に実行可能となる。順番の変更は、素材映像表示部2101に表示されたオブジェクト領域をクリックすることで行われる。クリックされた順番にオブジェクトが登場するように順番を再設定し、オブジェクトと対応づけて、図22に示す表に保存する。
ステップS2003では、ユーザにより、オブジェクトが登場する順番が変更される。この操作は、順番変更ボタン2102が押下された場合に実行可能となる。順番の変更は、素材映像表示部2101に表示されたオブジェクト領域をクリックすることで行われる。クリックされた順番にオブジェクトが登場するように順番を再設定し、オブジェクトと対応づけて、図22に示す表に保存する。
ステップS2004では、OKボタン2103が押下されたかどうかを判定する。ボタンが押下されていれば、ステップS2005へ進む。それ以外の場合は、ステップS2003へ戻る。
ステップS2005では、カメラワークを付与する際のトリミング領域を決定する。トリミング領域は、カメラワークの端点となる領域であるとする。カメラワークは、二つのトリミング領域の間を結ぶように付与する。トリミング領域にはIDを付与し、領域の情報及び領域の登場する順番の情報と合わせて、図23に示す表に保存する。なお、トリミング領域の決定方法については、図27を用いて後述する。
ステップS2005では、カメラワークを付与する際のトリミング領域を決定する。トリミング領域は、カメラワークの端点となる領域であるとする。カメラワークは、二つのトリミング領域の間を結ぶように付与する。トリミング領域にはIDを付与し、領域の情報及び領域の登場する順番の情報と合わせて、図23に示す表に保存する。なお、トリミング領域の決定方法については、図27を用いて後述する。
・オブジェクトが登場する順番を決定する処理
図24は、図20のステップS2002における、オブジェクトが登場する順番を決定する処理の流れを示すフローチャートである。オブジェクトの登場順を表す番号は、図22に示す表の“登場番号”の項目に、オブジェクトと対応づけて保存する。なお、図24の説明では、ステップS2411で登場番号の更新を行うまで、登場番号が降順に付与されていることに注意すること。
図24は、図20のステップS2002における、オブジェクトが登場する順番を決定する処理の流れを示すフローチャートである。オブジェクトの登場順を表す番号は、図22に示す表の“登場番号”の項目に、オブジェクトと対応づけて保存する。なお、図24の説明では、ステップS2411で登場番号の更新を行うまで、登場番号が降順に付与されていることに注意すること。
ステップS2401では、素材映像中の視線ベクトルを検出する。視線ベクトルは、顔の向きや目の位置などから推測する公知の方法を用いて検出する。検出した視線ベクトルにはIDを付与し、図25に示す表に保存する。
ステップS2402では、ステップS2401で検出した視線ベクトルの始点,終点に位置するオブジェクトを取得する。始点のオブジェクトのID,終点のオブジェクトのIDは、視線ベクトルと対応づけて、図25に示す表に保存する。
ステップS2402では、ステップS2401で検出した視線ベクトルの始点,終点に位置するオブジェクトを取得する。始点のオブジェクトのID,終点のオブジェクトのIDは、視線ベクトルと対応づけて、図25に示す表に保存する。
なお、図26(a)に示すように、ベクトルの終点のオブジェクトに複数の候補がある場合は、ベクトルの始点に位置するオブジェクトとの論理的な関係から、終点のオブジェクトを判断しても良い。例えば、ベクトルの始点に位置するオブジェクトと、親子関係にあるオブジェクトを終点のオブジェクトとして選択しても良い。
また、図26(b)に示すように、オブジェクトが検出されていない場所に複数の視線ベクトルの終点が集中している場合には、終点の位置の領域を新たなオブジェクトとして追加しても良い。
また、図26(b)に示すように、オブジェクトが検出されていない場所に複数の視線ベクトルの終点が集中している場合には、終点の位置の領域を新たなオブジェクトとして追加しても良い。
ステップS2403では、変数numに1を代入する。
ステップS2404では、最後に登場するオブジェクトを決定する。本実施形態では、図25に示す表において視線ベクトルの終点に登録されている数が最も多いオブジェクトを、最後に登場するオブジェクトとする。図25の例では、視線ベクトルID1〜3に関しては、終点オブジェクトIDは「A」が1つで、「C」が2つであるから、オブジェクトIDが「C」であるオブジェクトを最後に登場するオブジェクトとする。
図26(c)は、図25の視線ベクトル1〜3を図示したものである。
なお、最後に登場するオブジェクトは複数であっても良いが、ひとつに絞っても良い。例えば、予め登録された主人公の情報と特徴が一致するオブジェクトを、唯一の最後に登場するオブジェクトとしても良い。
ステップS2404では、最後に登場するオブジェクトを決定する。本実施形態では、図25に示す表において視線ベクトルの終点に登録されている数が最も多いオブジェクトを、最後に登場するオブジェクトとする。図25の例では、視線ベクトルID1〜3に関しては、終点オブジェクトIDは「A」が1つで、「C」が2つであるから、オブジェクトIDが「C」であるオブジェクトを最後に登場するオブジェクトとする。
図26(c)は、図25の視線ベクトル1〜3を図示したものである。
なお、最後に登場するオブジェクトは複数であっても良いが、ひとつに絞っても良い。例えば、予め登録された主人公の情報と特徴が一致するオブジェクトを、唯一の最後に登場するオブジェクトとしても良い。
ステップS2405では、ステップS2404,又は後述するステップS2407で取得したオブジェクトの登場番号として、numの値を設定する。
仮に、最後に登場するオブジェクトのIDが「C」であると決定され、「num」の値が「1」に設定されている場合、図22(a)に示すように、オブジェクトIDが「C」であるオブジェクトの登場番号として「1」を設定する。
仮に、最後に登場するオブジェクトのIDが「C」であると決定され、「num」の値が「1」に設定されている場合、図22(a)に示すように、オブジェクトIDが「C」であるオブジェクトの登場番号として「1」を設定する。
ステップS2406では、図22に示す表から、登場番号がnumに設定されている値に等しいオブジェクトを取得する。
仮に、「num」に設定されている値が「1」で、登場番号が「1」に等しいオブジェクトのIDが「C」である場合、IDが「C」であるオブジェクトを取得する。
ステップS2407では、図25に示す表から、終点にステップS2406で取得したオブジェクトが登録されている視線ベクトルを取得する。ステップS2406で取得したオブジェクトが複数である場合には、それぞれについて処理を行う。
ステップS2406で取得したオブジェクトのIDが「C」の場合、図25に示す表から、終点オブジェクトIDが「C」である視線ベクトルとして、IDが「2」である視線ベクトルを取得する。
仮に、「num」に設定されている値が「1」で、登場番号が「1」に等しいオブジェクトのIDが「C」である場合、IDが「C」であるオブジェクトを取得する。
ステップS2407では、図25に示す表から、終点にステップS2406で取得したオブジェクトが登録されている視線ベクトルを取得する。ステップS2406で取得したオブジェクトが複数である場合には、それぞれについて処理を行う。
ステップS2406で取得したオブジェクトのIDが「C」の場合、図25に示す表から、終点オブジェクトIDが「C」である視線ベクトルとして、IDが「2」である視線ベクトルを取得する。
ステップS2408では、ステップS2407で検索した視線ベクトルの始点に登録されているオブジェクトを取得する。ステップS2407で検索した視線ベクトルが複数である場合には、それぞれについて処理を行う。
ステップS2407で検索した視線ベクトルのIDが「2」の場合、図25に示す表から、その視線ベクトルの始点に登録されているオブジェクトとして、IDが「A」であるオブジェクトを取得する。
ステップS2407で検索した視線ベクトルのIDが「2」の場合、図25に示す表から、その視線ベクトルの始点に登録されているオブジェクトとして、IDが「A」であるオブジェクトを取得する。
ステップS2409では、numに1を加算する。
ステップS2410では、ステップS2408で取得したオブジェクトの数が0であるかを判定する。0であれば、ステップS2411へ進む。1以上であれば、ステップS2405へ戻る。
ステップS2410では、ステップS2408で取得したオブジェクトの数が0であるかを判定する。0であれば、ステップS2411へ進む。1以上であれば、ステップS2405へ戻る。
ステップS2411では、オブジェクトの登場順に番号が大きくなるように、図22に示す表の“登場番号”の項目を更新する。
例えば、更新前は、図22(b)に示すように、最初に登場するオブジェクトID=Bの登場番号が「3」、2番目に登場するオブジェクトID=Aの登場番号が「2」、最後に登場するオブジェクトID=Cの登場番号が「1」であるとする。
更新後は、最初に登場するオブジェクトID=Bの登場番号が「1」、2番目に登場するオブジェクトID=Aの登場番号が「2」、最後に登場するオブジェクトID=Cの登場番号が「3」となる。
図24を用いて説明した処理により、視線ベクトルをつなぐように、オブジェクトに登場番号を付与することができる。視線ベクトルとオブジェクトの登場番号の例を図26(c)に示す。
例えば、更新前は、図22(b)に示すように、最初に登場するオブジェクトID=Bの登場番号が「3」、2番目に登場するオブジェクトID=Aの登場番号が「2」、最後に登場するオブジェクトID=Cの登場番号が「1」であるとする。
更新後は、最初に登場するオブジェクトID=Bの登場番号が「1」、2番目に登場するオブジェクトID=Aの登場番号が「2」、最後に登場するオブジェクトID=Cの登場番号が「3」となる。
図24を用いて説明した処理により、視線ベクトルをつなぐように、オブジェクトに登場番号を付与することができる。視線ベクトルとオブジェクトの登場番号の例を図26(c)に示す。
・トリミング領域が登場する順番を決定する処理
図27は、図20のステップS2005における、トリミング領域を決定する処理の流れを示すフローチャートである。
ステップS2701では、オブジェクトの登場番号の最大値numMAXを取得する。
ステップS2702では、変数numkeyに1を代入する。
ステップS2703では、変数numobjにnumMAXを代入する。
ステップS2704では、図22(c)に示す表から、登場番号がnumobjであるオブジェクトの情報を取得する。
例えば、登場番号が「3」であるなら、オブジェクトIDが「C」であるオブジェクトの情報を取得する。
図27は、図20のステップS2005における、トリミング領域を決定する処理の流れを示すフローチャートである。
ステップS2701では、オブジェクトの登場番号の最大値numMAXを取得する。
ステップS2702では、変数numkeyに1を代入する。
ステップS2703では、変数numobjにnumMAXを代入する。
ステップS2704では、図22(c)に示す表から、登場番号がnumobjであるオブジェクトの情報を取得する。
例えば、登場番号が「3」であるなら、オブジェクトIDが「C」であるオブジェクトの情報を取得する。
ステップS2705では、ステップS2704で取得したオブジェクトのうち、“トリミング領域”の項目に値が入っていないオブジェクトを取得する。
ステップS2704で取得したオブジェクトIDが「C」であるオブジェクトは、図22(c)に示す段階では、トリミング領域の項目に値が入っていないため、取得される。
ステップS2706では、ステップS2705で取得したオブジェクトの数が1以上であるかを判定する。1以上であれば、ステップS2707へ進む。0であれば、ステップS2711へ進む。
ステップS2704で取得したオブジェクトIDが「C」であるオブジェクトは、図22(c)に示す段階では、トリミング領域の項目に値が入っていないため、取得される。
ステップS2706では、ステップS2705で取得したオブジェクトの数が1以上であるかを判定する。1以上であれば、ステップS2707へ進む。0であれば、ステップS2711へ進む。
ステップS2707では、ステップS2704で取得したオブジェクトをすべて含む領域を作成する。ここで作成する領域をトリミング領域とする。作成したトリミング領域は、IDを付与して図23に示す表に保存する。
ステップS2708では、ステップS2707で作成したトリミング領域に対応する登場番号として、numkeyの値を保存する。なお、トリミング領域の登場番号は、図24で説明したオブジェクトの登場番号と同様、ステップS2713で値を更新するまで降順に付与されている。
ステップS2709では、ステップS2707で作成したトリミング領域と、図22に示す表に保存されている各オブジェクトの領域を比較し、トリミング領域に含まれるオブジェクトを取得する。取得したオブジェクトのIDは、図23に示す表の“オブジェクトID”の項目に、トリミング領域と対応づけて保存する。
ステップS2708では、ステップS2707で作成したトリミング領域に対応する登場番号として、numkeyの値を保存する。なお、トリミング領域の登場番号は、図24で説明したオブジェクトの登場番号と同様、ステップS2713で値を更新するまで降順に付与されている。
ステップS2709では、ステップS2707で作成したトリミング領域と、図22に示す表に保存されている各オブジェクトの領域を比較し、トリミング領域に含まれるオブジェクトを取得する。取得したオブジェクトのIDは、図23に示す表の“オブジェクトID”の項目に、トリミング領域と対応づけて保存する。
また、ステップS2707で作成したトリミング領域のIDを、取得したオブジェクトの各々に対応づけて、図22に示す表の“トリミング領域ID”の項目に保存する。
ステップS2710では、numkeyに1を加算する。
ステップS2711では、numobjから1を減算する。
ステップS2712では、numobjと0を比較する。numobj≦0であれば、ステップS2713へ進む。それ以外であれば、ステップS2704へ戻る。
ステップS2713では、トリミング領域の登場順に番号が大きくなるように、図23に示す表の“登場番号”の項目を更新する。
ステップS2710では、numkeyに1を加算する。
ステップS2711では、numobjから1を減算する。
ステップS2712では、numobjと0を比較する。numobj≦0であれば、ステップS2713へ進む。それ以外であれば、ステップS2704へ戻る。
ステップS2713では、トリミング領域の登場順に番号が大きくなるように、図23に示す表の“登場番号”の項目を更新する。
以上のように、本実施形態では、素材映像中のオブジェクトをつなぐようなカメラワークを付与する際、映像中の視線ベクトルの方向につながるように、オブジェクトの登場する順番を自動的に決定する。これを元にトリミング領域を作成し、更にトリミング領域をつなげる順番を決めることで、違和感のない映像を容易に作成することができるようになる。なお、オブジェクトの登場順について、違和感のある場合と違和感のない場合の例を、それぞれ図28(a),(b)に示す。
図28(a)は視線ベクトルの向きに逆らってオブジェクトが登場するため違和感がある。一方、図28(b)は視線ベクトルの向きに沿ってオブジェクトが登場するため違和感がない。
なお、本実施形態では、オブジェクトの登場する順番を決定するにあたって、素材映像中の視線ベクトルの情報を用いたが、他のベクトル情報を用いても良い。例えば、被写体の動きベクトルを検出し、動きベクトルの方向につながるように、オブジェクトの登場する順番を決定しても良い。
図28(a)は視線ベクトルの向きに逆らってオブジェクトが登場するため違和感がある。一方、図28(b)は視線ベクトルの向きに沿ってオブジェクトが登場するため違和感がない。
なお、本実施形態では、オブジェクトの登場する順番を決定するにあたって、素材映像中の視線ベクトルの情報を用いたが、他のベクトル情報を用いても良い。例えば、被写体の動きベクトルを検出し、動きベクトルの方向につながるように、オブジェクトの登場する順番を決定しても良い。
また、本実施形態では、トリミング領域を決定する際、同じ登場番号のオブジェクトが含まれる領域を作成するのみであったが、他の方法で決めても良い。例えば、予めオブジェクトに重要度を設定しておき、同じ登場番号の中で重要度の高いオブジェクトのみが含まれる領域を作成するようにしても良い。その際、近くにある重要度の低いオブジェクトを同じトリミング領域に含めるなどしても良い。
以上で説明したように、第4の実施形態に係る映像処理装置により、映像中のベクトル情報の関係性を考慮し、被写体を登場させる順番を自動的に決定する。これにより、ユーザの手間をかけることなく、違和感のない映像を作成可能にすることができる。
以上で説明したように、第4の実施形態に係る映像処理装置により、映像中のベクトル情報の関係性を考慮し、被写体を登場させる順番を自動的に決定する。これにより、ユーザの手間をかけることなく、違和感のない映像を作成可能にすることができる。
<その他の実施形態>
以上、実施形態例を詳述したが、本発明は例えば、システム、装置、方法、プログラム若しくは記録媒体(記憶媒体)等としての実施態様をとることが可能である。具体的には、複数の機器(例えば、ホストコンピュータ、インタフェース機器、撮像装置、webアプリケーション等)から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。
以上、実施形態例を詳述したが、本発明は例えば、システム、装置、方法、プログラム若しくは記録媒体(記憶媒体)等としての実施態様をとることが可能である。具体的には、複数の機器(例えば、ホストコンピュータ、インタフェース機器、撮像装置、webアプリケーション等)から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。
また、本発明の目的は、以下のようにすることによって達成されることはいうまでもない。即ち、前述した実施形態の機能を実現するソフトウェアのプログラムコード(コンピュータプログラム)を記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給する。係る記憶媒体は言うまでもなく、コンピュータ読み取り可能な記憶媒体である。そして、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行する。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。
210 記憶部
220 映像読出部
230 オブジェクト領域取得部
240 切り出し領域取得部(トリミング領域取得部)
250 順番取得部
260 つなぎ方法決定部
270 切り出し映像作成部
220 映像読出部
230 オブジェクト領域取得部
240 切り出し領域取得部(トリミング領域取得部)
250 順番取得部
260 つなぎ方法決定部
270 切り出し映像作成部
Claims (26)
- 映像処理装置であって、
映像に含まれる複数のオブジェクトに対応するオブジェクト領域を取得する第1の取得手段と、
前記複数のオブジェクトの順番を取得する第2の取得手段と、
前記オブジェクトの順番と、前記オブジェクト領域の位置とに基づいて、前記オブジェクト領域をつなぐ方法を決定する決定手段と、
複数のオブジェクト領域が前記順番で、かつ前記つなぎ方法により登場する映像を作成する作成手段と、
を備えることを特徴とする映像処理装置。 - 前記オブジェクト領域を含む切り出し領域を取得する第3の取得手段と、
前記順番で、複数の前記切り出し領域を連続的につなぐ場合に描く軌跡の領域を取得する第4の取得手段と、
前記第4の取得手段が取得した軌跡領域と、前記第1の取得手段が取得したオブジェクト領域が重なるか否かを判定する第1の判定手段とをさらに備え、
前記決定手段は
前記軌跡領域と前記オブジェクト領域が重なると判定された場合には、複数の切り出し領域を断続的につなげる方法を選択し、
前記軌跡領域と前記オブジェクト領域が重なると判定されなかった場合には、複数の切り出し領域を連続的につなげる方法を選択することを特徴とする請求項1に記載の映像処理装置。 - 前記決定手段が、前記複数の切り出し領域を連続的につなげる方法として、複数の切り出し領域を直線的に連続してつなげる方法を選択することを特徴とする請求項2に記載の映像処理装置。
- 前記決定手段が、前記複数の切り出し領域を連続的につなげる方法として、複数の切り出し領域を曲線的に連続してつなげる方法を選択することを特徴とする請求項2に記載の映像処理装置。
- 前記軌跡領域と前記オブジェクト領域が重なると判定された場合に、前記軌跡領域と前記オブジェクト領域が重なる面積の割合Rを算出する第2の判定手段をさらに備え、
前記重なる面積の割合Rが閾値を超える場合に、前記決定手段が、前記複数の切り出し領域を断続的につなげる方法を選択することを特徴とする請求項3に記載の映像処理装置。 - 前記第2の判定手段は下記式を用いて前記重なる面積の割合Rを算出することを特徴とする請求項5に記載の映像処理装置。
R = Aover / Aobj
Aobjはオブジェクト領域の面積を示し、Aoverはオブジェクト領域と軌跡領域が重なる部分の面積を示す。 - 前記軌跡領域と前記オブジェクト領域が重なると判定された場合に、前記軌跡領域と前記オブジェクト領域が重なる面積の割合を算出する第2の判定手段をさらに備え、
前記重なる面積の割合が閾値以下の場合に、前記決定手段が、前記複数の切り出し領域を連続的につなげる方法として、複数の切り出し領域を曲線的に連続してつなげる方法を選択することを特徴とする請求項4に記載の映像処理装置。 - 前記複数の切り出し領域を連続してつなぐ曲線的な軌跡の領域を取得する第5の取得手段をさらに備え、
前記第1の判定手段により前記曲線的な軌跡領域と前記オブジェクト領域とが重なるか否かを判定し、
前記曲線的な軌跡領域と前記オブジェクト領域とが重なると判定された場合に、前記決定手段が、前記複数の切り出し領域を断続的につなげる方法を選択することを特徴とする請求項7に記載の映像処理装置。 - 前記第1の取得手段は、第1のオブジェクト領域および第2のオブジェクト領域を取得し、
前記第3の取得手段は、前記第1のオブジェクト領域を含む第1の切り出し領域を取得し、
前記第1の切り出し領域と前記第2のオブジェクト領域とが重なるか否かを判定する第3の判定手段をさらに備え、
前記第3の取得手段は、前記第3の判定手段により前記第1の切り出し領域と前記第2のオブジェクト領域とが重なっていると判定された場合に、前記第2のオブジェクト領域に重ならないように、前記第1の切り出し領域の位置及び大きさの少なくとも一方を変えることを特徴とする請求項2乃至8のいずれか一項に記載の映像処理装置。 - 前記第1の取得手段は、前記処理対象の映像中の一点が指定されると、その周辺に存在する顔領域を自動的に検出してオブジェクト領域として取得することを特徴とする請求項1乃至9のいずれか一項に記載の映像処理装置。
- 前記第3の取得手段は、
前記切り出し領域の中心と、前記オブジェクト領域の中心とが同じ位置になり、かつ
前記切り出し領域のアスペクト比と、前記処理対象の映像のアスペクト比とが同じになり、かつ
前記切り出し領域の高さが前記オブジェクト領域の高さの2倍となるように、前記切り出し領域の位置と大きさを決めることを特徴とする請求項2乃至10のいずれか一項に記載の映像処理装置。 - 前記第1の判定手段は、予め指定されたオブジェクトのオブジェクト領域のみを重なり判定の対象とすることを特徴とする請求項2乃至11のいずれか一項に記載の映像処理装置。
- 映像処理装置の制御方法であって、
第1の取得手段が、映像に含まれる複数のオブジェクトに対応するオブジェクト領域を取得する第1の取得工程と、
第2の取得手段が、前記複数のオブジェクトの順番を取得する第2の取得工程と、
決定手段が、前記オブジェクトの順番と、前記オブジェクト領域の位置とに基づいて、前記オブジェクト領域をつなぐ方法を決定する決定工程と、
作成手段が、複数のオブジェクト領域が前記順番で、かつ前記つなぎ方法により登場する映像を作成する作成工程と、
を有することを特徴とする映像処理装置の制御方法。 - 映像から複数の部分映像を切り出して出力する映像処理装置であって、
処理対象の映像を記憶手段から読み出す、映像読出手段と、
前記処理対象の映像に含まれる複数のオブジェクトを検出する、オブジェクト検出手段と、
前記オブジェクト検出手段で検出したオブジェクトを含む切り出し領域を取得する、切り出し領域取得手段と、
前記処理対象の映像に含まれるベクトル情報を検出する、ベクトル情報検出手段と、
前記ベクトル情報とオブジェクトの関係性を分析する、ベクトル関係性分析手段と、
前記ベクトル関係性分析手段による分析結果に基づき、切り出し領域を切り出す順番を決定する、切り出し順番決定手段と、
前記切り出し領域取得手段で取得した複数の切り出し領域が、前記切り出し順番決定手段によって決定された順番に登場する映像を作成する切り出し映像作成手段と、
を備えることを特徴とする映像処理装置。 - 請求項14に記載の映像処理装置であって、
前記ベクトル関係性分析手段は、ベクトルの終点に位置するオブジェクトを終点のオブジェクトとして取得し、
前記切り出し順番決定手段は、前記終点のオブジェクトを含む切り出し領域を最後に登場させるよう順番を決定する
ことを特徴とする映像処理装置。 - 請求項14乃至15の何れか一項に記載の映像処理装置であって、
前記ベクトル関係性分析手段は、
ベクトルの始点に位置するオブジェクトを始点のオブジェクトとして、
ベクトルの終点に位置するオブジェクトを終点のオブジェクトとして、
それぞれ取得し、
前記切り出し順番決定手段は、前記始点のオブジェクトの後に前記終点のオブジェクトが登場するよう順番を決定する
ことを特徴とする映像処理装置。 - 請求項14乃至16の何れか一項に記載の映像処理装置であって、
前記ベクトル情報検出手段は、ベクトル情報として、オブジェクトの視線の方向を検出することを特徴とする映像処理装置。 - 請求項14乃至16の何れか一項に記載の映像処理装置であって、
前記ベクトル情報検出手段は、ベクトル情報として、オブジェクトの顔又は体の向きの方向を検出することを特徴とする映像処理装置。 - 請求項14乃至16の何れか一項に記載の映像処理装置であって、
前記ベクトル情報検出手段は、ベクトル情報として、オブジェクトの進んでいる方向を検出することを特徴とする映像処理装置。 - 映像から複数の部分映像を切り出して出力する映像処理装置であって、
処理対象の映像を記憶手段から読み出す、映像読出手段と、
前記処理対象の映像に含まれる複数のオブジェクトを検出する、オブジェクト検出手段と、
前記オブジェクト検出手段で検出したオブジェクトを含む切り出し領域を取得する、切り出し領域取得手段と、
前記処理対象の映像に含まれるベクトル情報を検出する、ベクトル情報検出手段と、
前記ベクトル情報とオブジェクトの関係性を分析する、ベクトル関係性分析手段と、
前記ベクトル関係性分析手段による分析結果に基づき、切り出し領域を切り出す順番を決定する、切り出し順番決定手段と、
前記切り出し順番決定手段で決定した順番と、前記オブジェクト検出手段で検出したオブジェクトの位置及び大きさとから、前記切り出し領域取得手段で取得した複数の切り出し領域をつなぐ方法を決定する、つなぎ方法決定手段と、
前記切り出し領域取得手段で取得した複数の切り出し領域が順番に登場する映像を作成する切り出し映像作成手段と、
を備えることを特徴とする映像処理装置。 - 請求項20に記載の映像処理装置であって、
前記つなぎ方法決定手段は、
前記切り出し順番決定手段で決定した順番で、前記切り出し領域取得手段で取得した複数の切り出し領域を連続的につなぐ場合に描く軌跡の領域を取得する、軌跡領域取得手段と、
前記軌跡領域取得手段で取得した軌跡領域と、前記オブジェクト検出手段で検出したオブジェクトの領域が重なるかどうかを判定する、重なり判定手段と
を備え、
前記重なり判定手段により領域が重なると判定された場合には、複数の切り出し領域を断続的につなげる方法を選択し、それ以外の場合には、複数の切り出し領域を連続的につなげる方法を選択する
ことを特徴とする映像処理装置。 - 請求項21に記載の映像処理装置であって、
前記複数の切り出し領域を連続的につなげる方法は、複数の切り出し領域を直線的に連続してつなげる方法であることを特徴とする映像処理装置。 - 請求項21に記載の映像処理装置であって、
前記複数の切り出し領域を連続的につなげる方法は、複数の切り出し領域を曲線的に連続してつなげる方法であることを特徴とする映像処理装置。 - 請求項20乃至23の何れか一項に記載の映像処理装置であって、
前記切り出し領域取得手段で取得した切り出し領域と、前記オブジェクト検出手段で検出したオブジェクトの領域とが重なるかどうかを判定する、切り出し領域重なり判定手段をさらに備え、
前記切り出し領域取得手段は、前記切り出し領域重なり判定手段により領域が重なっていると判定された場合に、オブジェクトの領域が重ならないよう切り出し領域の位置と大きさを変えることを特徴とする映像処理装置。 - 映像から複数の部分映像を切り出して出力する映像処理装置の制御方法であって、
映像読出手段が、処理対象の映像を記憶手段から読み出す読み出し工程と、
オブジェクト検出手段が、前記処理対象の映像に含まれる複数のオブジェクトを検出する検出工程と、
切り出し領域取得手段が、前記オブジェクト検出手段によって検出されたオブジェクトを含む切り出し領域を取得する領域取得工程と、
ベクトル情報検出手段が、前記処理対象の映像に含まれるベクトル情報を検出するベクトル情報検出工程と、
ベクトル関係性分析手段が、前記ベクトル情報とオブジェクトとの関係性を分析する関係性分析工程と、
切り出し順番決定手段が、前記ベクトル関係性分析手段による分析結果に基づき、切り出し領域を切り出す順番を決定する順番決定工程と、
映像作成手段が、前記切り出し領域取得手段によって取得された複数の切り出し領域が、前記切り出し順番決定手段によって決定された順番に登場する映像を作成する映像作成工程と、
を有することを特徴とする映像処理装置の制御方法。
- コンピュータを請求項1乃至12、14乃至24の何れか一項に記載の映像処理装置が備える各手段として機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014031132A JP2014207662A (ja) | 2013-03-19 | 2014-02-20 | 映像処理装置、映像処理装置の制御方法およびプログラム |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013057242 | 2013-03-19 | ||
JP2013057242 | 2013-03-19 | ||
JP2014031132A JP2014207662A (ja) | 2013-03-19 | 2014-02-20 | 映像処理装置、映像処理装置の制御方法およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014207662A true JP2014207662A (ja) | 2014-10-30 |
Family
ID=52120869
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014031132A Pending JP2014207662A (ja) | 2013-03-19 | 2014-02-20 | 映像処理装置、映像処理装置の制御方法およびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014207662A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018174952A (ja) * | 2017-04-03 | 2018-11-15 | 株式会社ユニバーサルエンターテインメント | 発光態様設定装置、及び遊技機 |
JP2018174953A (ja) * | 2017-04-03 | 2018-11-15 | 株式会社ユニバーサルエンターテインメント | 発光態様設定装置、及び遊技機 |
JPWO2021152961A1 (ja) * | 2020-01-30 | 2021-08-05 |
-
2014
- 2014-02-20 JP JP2014031132A patent/JP2014207662A/ja active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018174952A (ja) * | 2017-04-03 | 2018-11-15 | 株式会社ユニバーサルエンターテインメント | 発光態様設定装置、及び遊技機 |
JP2018174953A (ja) * | 2017-04-03 | 2018-11-15 | 株式会社ユニバーサルエンターテインメント | 発光態様設定装置、及び遊技機 |
JPWO2021152961A1 (ja) * | 2020-01-30 | 2021-08-05 | ||
WO2021152961A1 (ja) * | 2020-01-30 | 2021-08-05 | 富士フイルム株式会社 | 表示方法 |
JP7394151B2 (ja) | 2020-01-30 | 2023-12-07 | 富士フイルム株式会社 | 表示方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6525617B2 (ja) | 画像処理装置およびその制御方法 | |
JP7017175B2 (ja) | 情報処理装置、情報処理方法、プログラム | |
US9852768B1 (en) | Video editing using mobile terminal and remote computer | |
KR102000536B1 (ko) | 합성 이미지를 촬영하는 촬영 장치 및 그 방법 | |
JP5791256B2 (ja) | 表示制御装置、表示制御方法 | |
JP6525611B2 (ja) | 画像処理装置およびその制御方法 | |
JP6206857B1 (ja) | 追跡支援装置、追跡支援システムおよび追跡支援方法 | |
US20080304706A1 (en) | Information processing apparatus and information processing method | |
JP6622650B2 (ja) | 情報処理装置及びその制御方法、撮影システム | |
US20160321833A1 (en) | Method and apparatus for generating moving photograph based on moving effect | |
US11070724B2 (en) | Image processing apparatus and method | |
JP2019016044A (ja) | 表示制御プログラム、表示制御方法及び表示制御装置 | |
JP6203188B2 (ja) | 類似画像検索装置 | |
US9773524B1 (en) | Video editing using mobile terminal and remote computer | |
TW201610916A (zh) | 根據依時一致性超像素為圖框序列產生分段遮罩之方法和裝置,以及電腦可讀式儲存媒體 | |
JP2014207662A (ja) | 映像処理装置、映像処理装置の制御方法およびプログラム | |
JP7102173B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
CN113596574A (zh) | 视频处理方法、视频处理装置、电子设备和可读存储介质 | |
JP2009246917A (ja) | 映像表示装置及び映像処理装置 | |
JP5850188B2 (ja) | 画像表示システム | |
JP2018148369A (ja) | 画像処理装置およびその制御方法 | |
JP2004336466A (ja) | メタデータ登録方法 | |
JP2019022186A (ja) | 画像処理装置、撮像装置、画像処理方法およびプログラム | |
US11308670B2 (en) | Image processing apparatus and method | |
JP2016021206A (ja) | 表示装置、表示システム、表示方法及び表示プログラム |