JP5287756B2 - 画像処理装置、画像処理方法およびプログラム - Google Patents

画像処理装置、画像処理方法およびプログラム Download PDF

Info

Publication number
JP5287756B2
JP5287756B2 JP2010025728A JP2010025728A JP5287756B2 JP 5287756 B2 JP5287756 B2 JP 5287756B2 JP 2010025728 A JP2010025728 A JP 2010025728A JP 2010025728 A JP2010025728 A JP 2010025728A JP 5287756 B2 JP5287756 B2 JP 5287756B2
Authority
JP
Japan
Prior art keywords
information
area
shooting
lattice
section
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010025728A
Other languages
English (en)
Other versions
JP2011164857A (ja
Inventor
栄介 藤本
雅幸 一原
昌良 大野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2010025728A priority Critical patent/JP5287756B2/ja
Application filed by Sony Corp filed Critical Sony Corp
Priority to EP11739627A priority patent/EP2536129A1/en
Priority to BR112012019293-0A priority patent/BR112012019293A2/ja
Priority to US13/522,652 priority patent/US9552844B2/en
Priority to KR1020127019648A priority patent/KR20120127714A/ko
Priority to PCT/JP2011/050924 priority patent/WO2011096278A1/ja
Priority to CN2011800082364A priority patent/CN102742264A/zh
Publication of JP2011164857A publication Critical patent/JP2011164857A/ja
Application granted granted Critical
Publication of JP5287756B2 publication Critical patent/JP5287756B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/30Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording
    • G11B27/3027Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording used signal is digitally coded

Description

本発明は、画像処理装置に関し、特に、動画コンテンツを扱う画像処理装置および画像処理方法ならびに当該方法をコンピュータに実行させるプログラムに関する。
近年、人物や風景等の被写体を撮像して画像データを生成し、この生成された画像データを動画ファイル等のコンテンツとして記録するデジタルビデオカメラ(例えば、カメラ一体型レコーダ)等の撮像装置が普及している。
また、このように記録されたコンテンツを再生する際にその開始位置を指定する指定方法が多数提案されている。例えば、コンテンツを構成する各画像のうち、時間軸における一定間隔毎の画像(代表画像)をフィルムのように時系列で並べて表示させ、これらの代表画像を指定することによりコンテンツの再生開始位置を指定する指定方法が提案されている。この指定方法では、時間軸における一定間隔毎の代表画像が並べて表示されるため、代表画像の内容および時間軸における位置を考慮してコンテンツの開始位置を指定することができる。
ここで、例えば、旅行に行った際に生成されたコンテンツについて、その旅行地における所定領域(例えば、テーマパークの1つのアトラクション)で生成された動画範囲の先頭からの再生開始を所望することも想定される。しかしながら、上述した編集方法では、代表画像の内容および時間軸における位置を考慮することができるが、その内容から地理的な位置を考慮することが困難であることが想定される。そこで、例えば、地理的な位置を考慮して、動画コンテンツの再生開始位置を指定する指定方法が提案されている。
例えば、動画コンテンツに関連付けられている位置情報に基づいて、その動画コンテンツの撮影時における位置の履歴を示す実線を地図上に表示する電子機器が提案されている(例えば、特許文献1参照。)。この電子機器は、その履歴を示す実線における所望部分について所定操作(例えば、クリック操作)を行うと、その部分(地図上の位置)に対応する時間軸の位置から動画コンテンツの再生を開始する。
特開2006−254414号公報(図7)
上述の従来技術によれば、動画コンテンツの撮影時における位置の履歴を示す実線を地図上に表示することにより、地理的な位置を考慮した所望部分から動画コンテンツの再生を開始することができる。
ここで、例えば、1または複数の動画コンテンツのうちの所望の動画部分を見るため、動画コンテンツを編集して所望の動画部分を再生するためのプレイリスト情報を生成しておくことが考えられる。このように、動画コンテンツを編集する場合についても、地理的な位置を考慮して編集を行うことができれば、ユーザ好みの動画コンテンツの編集を容易に行うことができると考えられる。
本発明はこのような状況に鑑みてなされたものであり、地理的な位置を考慮したユーザ好みの動画コンテンツの編集を容易に行うことを目的とする。
本発明は、上記課題を解決するためになされたものであり、その第1の側面は、動画コンテンツの撮像時における撮像位置に関する位置情報に基づいて特定される上記動画コンテンツの撮像時における軌跡と、地上に存在する地物に対応する領域である特定対象領域との比較結果に基づいて上記動画コンテンツの時間軸における区間を設定する設定部と、上記設定された区間と上記比較に用いられた上記特定対象領域に関する特定対象物情報とを関連付けた情報であって上記動画コンテンツの再生に関するプレイリスト情報を生成するプレイリスト情報生成部とを具備する画像処理装置およびその画像処理方法ならびに当該方法をコンピュータに実行させるプログラムである。これにより、動画コンテンツの撮像時における軌跡と特定対象領域との比較結果に基づいて動画コンテンツの時間軸における区間を設定し、この設定された区間とその比較に用いられた特定対象領域に関する特定対象物情報とを関連付けたプレイリスト情報を生成するという作用をもたらす。
また、本発明の第2の側面は、動画コンテンツの撮像時における撮像位置に関する位置情報に基づいて特定される上記動画コンテンツの撮像時の軌跡における上記撮像位置を基準とする範囲であって当該撮像位置を基準とする方位に関する方位情報に基づいて特定される撮像範囲と、地上に存在する地物に対応する領域である特定対象領域との比較結果に基づいて上記動画コンテンツの時間軸における区間を設定する設定部と、上記設定された区間と上記比較に用いられた上記特定対象領域に関する特定対象物情報とを関連付けた情報であって上記動画コンテンツの再生に関するプレイリスト情報を生成するプレイリスト情報生成部とを具備する画像処理装置およびその画像処理方法ならびに当該方法をコンピュータに実行させるプログラムである。これにより、動画コンテンツの撮像時の軌跡における撮像範囲と特定対象領域との比較結果に基づいて動画コンテンツの時間軸における区間を設定し、この設定された区間とその比較に用いられた特定対象領域に関する特定対象物情報とを関連付けたプレイリスト情報を生成するという作用をもたらす。
また、この第1または第2の側面において、上記位置情報に基づいて上記軌跡に関する情報であって上記軌跡を特定するための軌跡情報を生成する軌跡情報生成部をさらに具備するようにしてもよい。これにより、位置情報に基づいて軌跡情報を生成するという作用をもたらす。
また、この第の側面において、上記設定部は、上記軌跡において、少なくとも一部が上記特定対象領域と重複する撮像範囲に対応する上記撮像位置を抽出して上記抽出された撮像位置により構成される当該軌跡における区間に基づいて上記動画コンテンツの時間軸における区間を設定するようにしてもよい。これにより、動画コンテンツの撮像時における軌跡において、少なくとも一部が特定対象領域と重複する撮像範囲に対応する撮像位置を抽出し、この抽出された撮像位置により構成されるその軌跡における区間に基づいて、動画コンテンツの時間軸における区間を設定するという作用をもたらす。
また、この第1または第2の側面において、地図上における複数種類の特定対象領域のうちから所望の特定対象領域を指定する指定操作を受け付ける操作受付部をさらに具備するようにしてもよい。これにより、地図上における複数種類の特定対象領域のうちから所望の特定対象領域を指定する指定操作を受け付けるという作用をもたらす。
また、この第1または第2の側面において、上記プレイリスト情報生成部は、上記軌跡を含む地図に関する地図情報を上記プレイリスト情報に含めて上記プレイリスト情報を生成するようにしてもよい。これにより、動画コンテンツの撮像時における軌跡を含む地図に関する地図情報を、プレイリスト情報に含めてプレイリスト情報を生成するという作用をもたらす。
また、この第1の側面において、上記設定部は、上記軌跡のうち上記特定対象領域に含まれる軌跡を抽出して当該抽出された軌跡に基づいて上記動画コンテンツの時間軸における区間を設定するようにしてもよい。これにより、動画コンテンツの撮像時における軌跡のうちから、特定対象領域に含まれる軌跡を抽出し、この抽出された軌跡に基づいて、動画コンテンツの時間軸における区間を設定するという作用をもたらす。
また、この第1または第2の側面において、上記軌跡を表示部に表示させる表示制御部をさらに具備するようにしてもよい。これにより、動画コンテンツの撮像時における軌跡を表示部に表示させるという作用をもたらす。
また、この第1または第2の側面において、上記表示制御部は、上記表示部に表示される軌跡において上記設定された区間に対応する軌跡部分と他の部分とを異なる表示態様とするようにしてもよい。これにより、表示部に表示される軌跡において、設定された区間に対応する軌跡部分と他の部分とを異なる表示態様とするという作用をもたらす。
また、この第1または第2の側面において、上記表示制御部は、上記軌跡を含む地図に当該軌跡を重ねて表示させるようにしてもよい。これにより、動画コンテンツの撮像時における軌跡を含む地図に、その軌跡を重ねて表示させるという作用をもたらす。

本発明によれば、地理的な位置を考慮したユーザ好みの動画コンテンツの編集を容易に行うことができるという優れた効果を奏し得る。
本発明の第1の実施の形態における画像処理装置100の内部構成例を示すブロック図である。 本発明の第1の実施の形態における記録媒体160に記憶されるファイルのファイル構成の一例を示す図である。 本発明の第1の実施の形態における画像処理装置100の機能構成例を示すブロック図である。 本発明の第1の実施の形態におけるプレイリスト情報記憶部290の記憶内容を模式的に示す図である。 本発明の第1の実施の形態における表示部180に表示される表示画面の一例と編集対象となる動画とを示す図である。 本発明の第1の実施の形態における編集点設定部260による編集対象範囲の決定方法を模式的に示す図である。 本発明の第1の実施の形態における編集点設定部260による編集対象範囲の決定方法を模式的に示す図である。 本発明の第1の実施の形態における編集点設定部260による編集対象範囲の決定方法を模式的に示す図である。 本発明の第1の実施の形態における編集点設定部260による編集対象範囲の決定方法を模式的に示す図である。 本発明の第1の実施の形態における画像処理装置100によるプレイリスト生成処理の処理手順の一例を示すフローチャートである。 本発明の第2の実施の形態における画像処理装置100によるプレイリスト生成処理の対象となる平面座標系を定義するための図である。 本発明の第2の実施の形態における画像処理装置100によるプレイリスト生成処理に用いられる各データを管理するための格子領域を定義するための図である。 本発明の第2の実施の形態における画像処理装置100によるプレイリスト生成処理に用いられる各データを管理するための格子領域を定義するための図である。 本発明の第2の実施の形態における画像処理装置100によるプレイリスト生成処理に用いられる階層的格子領域データを定義するための図である。 本発明の第2の実施の形態における画像処理装置100による軌跡情報生成処理に用いられる階層的格子領域データを定義するための図である。 本発明の第2の実施の形態における画像処理装置100による撮影軌跡データの作成の流れを模式的に示す図である。 本発明の第2の実施の形態における画像処理装置100による撮影軌跡データ生成処理の処理手順の一例を示すフローチャートである。 本発明の第2の実施の形態における画像処理装置100による線分のレベル0格子番号リストの作成処理の入出力例を示す図である。 本発明の第2の実施の形態における画像処理装置100による撮影軌跡データ生成処理の処理手順のうちのリスト生成処理の一例を示すフローチャートである。 本発明の第2の実施の形態における画像処理装置100による線分のレベル0格子番号のリスト生成処理の処理手順の一例を示すフローチャートである。 本発明の第2の実施の形態における画像処理装置100による傾きが右上がりである線分のレベル0格子番号リストの作成処理の入出力例を示す図である。 本発明の第2の実施の形態における画像処理装置100による線分のレベル0格子番号のリスト生成処理の処理手順の一例を示すフローチャートである。 本発明の第2の実施の形態における画像処理装置100による傾きが垂直である線分のレベル0格子番号リストの作成処理の入出力例を示す図である。 本発明の第2の実施の形態における画像処理装置100によるマージ処理の作成の流れを模式的に示す図である。 本発明の第2の実施の形態における画像処理装置100によるマージ処理の作成の流れを模式的に示す図である。 本発明の第2の実施の形態における画像処理装置100による撮影軌跡データ生成処理の処理手順のうちのマージ処理の一例を示すフローチャートである。 本発明の第2の実施の形態における画像処理装置100による撮影区間検出処理の処理手順の一例を示すフローチャートである。 本発明の第2の実施の形態における画像処理装置100による衝突検出処理の流れを模式的に示す図である。 本発明の第2の実施の形態における画像処理装置100による撮影区間検出処理の処理手順のうちの衝突検出処理の一例を示すフローチャートである。 本発明の第2の実施の形態における画像処理装置100による撮影区間検出処理の処理手順のうちの再帰的衝突検出処理の一例を示すフローチャートである。 本発明の第2の実施の形態における画像処理装置100による格子領域の衝突判定処理および要素レベルダウン判定処理を模式的に示す図である。 本発明の第2の実施の形態における画像処理装置100による撮影区間検出処理の処理手順のうちの撮影区間検出処理の一例を示すフローチャートである。 本発明の第2の実施の形態における画像処理装置100による線分と格子領域の衝突判定処理を模式的に示す図である。 本発明の第2の実施の形態における画像処理装置100による撮影区間検出処理の処理手順のうちの区間番号追加処理の一例を示すフローチャートである。 本発明の第2の実施の形態における画像処理装置100による撮影領域データ作成処理の入出力例を示す図である。 本発明の第2の実施の形態における画像処理装置100による撮影領域データ生成処理の処理手順の一例を示すフローチャートである。 本発明の第2の実施の形態における画像処理装置100による撮影区間内の撮影領域が含まれるレベル0格子番号リスト作成処理の入出力例を示す図である。 本発明の第2の実施の形態における画像処理装置100により生成される区間内撮影情報および区間内領域情報の一例を示す図である。 本発明の第2の実施の形態における画像処理装置100により生成される区間内撮影情報および区間内領域情報の一例を示す図である。 本発明の第2の実施の形態における画像処理装置100による区間内撮影領域情報変換処理の処理手順の一例を示すフローチャートである。 本発明の第2の実施の形態における画像処理装置100による境界線方向ベクトル角の計算処理の流れを模式的に示す図である。 本発明の第2の実施の形態における画像処理装置100による区間内撮影領域情報変換処理の処理手順のうちの計算処理の一例を示すフローチャートである。 本発明の第2の実施の形態における画像処理装置100による直線と点の位置判定処理を模式的に示す図である。 本発明の第2の実施の形態における画像処理装置100による区間内撮影領域情報変換処理の処理手順のうちの位置判定処理の一例を示すフローチャートである。 本発明の第2の実施の形態における画像処理装置100による判定値算出処理を模式的に示す図である。 本発明の第2の実施の形態における画像処理装置100による区間内撮影領域タイプ判定処理を模式的に示す図である。 本発明の第2の実施の形態における画像処理装置100による区間内撮影領域情報変換処理の処理手順のうちの区間内撮影領域タイプ判定処理の一例を示すフローチャートである。 本発明の第2の実施の形態における画像処理装置100による区間内撮影領域タイプAB判定処理を模式的に示す図である。 本発明の第2の実施の形態における画像処理装置100による区間内撮影領域情報変換処理の処理手順のうちの区間内撮影領域タイプAB判定処理の一例を示すフローチャートである。 本発明の第2の実施の形態における画像処理装置100による区間内撮影領域タイプCD判定処理を模式的に示す図である。 本発明の第2の実施の形態における画像処理装置100による区間内撮影領域情報変換処理の処理手順のうちの区間内撮影領域タイプCD判定処理の一例を示すフローチャートである。 本発明の第2の実施の形態における画像処理装置100によるターゲット領域撮影区間検出処理の処理手順の一例を示すフローチャートである。 本発明の第2の実施の形態における画像処理装置100によるターゲット領域撮影区間検出処理の処理手順のうちの検出処理の一例を示すフローチャートである。 本発明の第2の実施の形態における画像処理装置100による区間内撮影領域と格子領域の衝突判定処理および区間内撮影領域と点の衝突判定処理を模式的に示す図である。 本発明の第2の実施の形態における画像処理装置100による区間内撮影領域と格子領域の衝突判定処理および区間内撮影領域と点の衝突判定処理を模式的に示す図である。 本発明の第2の実施の形態における画像処理装置100による区間内撮影領域と格子領域の衝突判定処理および区間内撮影領域と点の衝突判定処理を模式的に示す図である。 本発明の第2の実施の形態における画像処理装置100によるユーザ指定点検出処理の流れを模式的に示す図である。 本発明の第2の実施の形態における画像処理装置100によるユーザ指定点検出処理の処理手順の一例を示すフローチャートである。 本発明の第2の実施の形態における画像処理装置100によるユーザ指定レベル0格子領域の検出処理の流れを模式的に示す図である。 本発明の第2の実施の形態における画像処理装置100によるユーザ指定点検出処理の処理手順のうちの検出処理の一例を示すフローチャートである。 本発明の第2の実施の形態における画像処理装置100によるユーザ指定点検出処理の処理手順のうちの再帰的検出処理の一例を示すフローチャートである。 本発明の第2の実施の形態における画像処理装置100による点と格子領域の衝突判定処理を模式的に示す図である。 本発明の第2の実施の形態における画像処理装置100による撮影区間リストからのユーザ指定撮影点検出処理の流れを模式的に示す図である。 本発明の第2の実施の形態における画像処理装置100によるユーザ指定点検出処理の処理手順のうちのユーザ指定撮影点検出処理の一例を示すフローチャートである。 本発明の第2の実施の形態における表示部180に表示される表示画面の遷移例を示す図である。 本発明の第2の実施の形態における表示部180に表示される表示画面の遷移例を示す図である。 本発明の第2の実施の形態における表示部180に表示される表示画面の遷移例を示す図である。 本発明の第2の実施の形態における表示部180に表示される表示画面の遷移例を示す図である。 本発明の第2の実施の形態における表示部180に表示される表示画面の遷移例を示す図である。 本発明の第2の実施の形態における画像処理装置100による地図領域決定処理の対象となる選択クリップ群に対応する階層的格子領域を模式的に示す図である。 本発明の第2の実施の形態における画像処理装置100による地図領域決定処理の処理手順の一例を示すフローチャートである。 本発明の第2の実施の形態における表示部180に表示される表示画面の遷移例を示す図である。 本発明の第2の実施の形態における表示部180に表示される表示画面の遷移例を示す図である。 本発明の第2の実施の形態における表示部180に表示される表示画面の遷移例を示す図である。 本発明の第2の実施の形態における表示部180に表示される表示画面の遷移例を示す図である。 本発明の第2の実施の形態における表示部180に表示される表示画面の遷移例を示す図である。 本発明の第2の実施の形態における表示部180に表示される表示画面の遷移例を示す図である。 本発明の第2の実施の形態における表示部180に表示される表示画面の遷移例を示す図である。 本発明の第2の実施の形態における表示部180に表示される表示画面の遷移例を示す図である。 本発明の第2の実施の形態における画像処理装置100による動画コンテンツ検出処理の対象となる格子サイズを模式的に示す図である。 本発明の第2の実施の形態における画像処理装置100による動画コンテンツ検出処理の処理手順の一例を示すフローチャートである。 本発明の第2の実施の形態における表示部180に表示される表示画面の遷移例を示す図である。 本発明の第2の実施の形態における表示部180に表示される表示画面の遷移例を示す図である。 本発明の第2の実施の形態における表示部180に表示される表示画面の遷移例を示す図である。 本発明の第2の実施の形態における表示部180に表示される表示画面の遷移例を示す図である。 本発明の第2の実施の形態における表示部180に表示される表示画面の遷移例を示す図である。 本発明の第2の実施の形態における表示部180に表示される表示画面の遷移例を示す図である。 本発明の第2の実施の形態における表示部180に表示される表示画面の遷移例を示す図である。 本発明の第2の実施の形態における表示部180に表示される表示画面の遷移例を示す図である。 本発明の第2の実施の形態における表示部180に表示される表示画面の遷移例を示す図である。 本発明の第2の実施の形態における表示部180に表示される表示画面の遷移例を示す図である。 本発明の第2の実施の形態における表示部180に表示される表示画面の遷移例を示す図である。 本発明の第2の実施の形態における表示部180に表示される表示画面の遷移例を示す図である。 本発明の第2の実施の形態における表示部180に表示される表示画面の遷移例を示す図である。 本発明の第2の実施の形態における表示部180に表示される表示画面の一例を示す図である。
以下、本発明を実施するための形態(以下、実施の形態と称する)について説明する。説明は以下の順序により行う。
1.第1の実施の形態(プレイリスト生成制御:軌跡情報を用いて動画コンテンツに関するプレイリストを生成する例)
2.第2の実施の形態(プレイリスト生成制御:階層的格子領域データを用いてプレイリストを生成する例)
<1.第1の実施の形態>
[画像処理装置の構成例]
図1は、本発明の第1の実施の形態における画像処理装置100の内部構成例を示すブロック図である。画像処理装置100は、撮像部111と、画像信号処理部112と、方位情報取得部114と、位置情報取得部113と、操作部121と、操作受付部122とを備える。また、画像処理装置100は、CPU(Central Processing Unit)130と、ROM(Read Only Memory)141と、RAM(Random Access Memory)142とを備える。また、画像処理装置100は、記録制御部150と、記録媒体160と、表示制御部170と、表示部180と、バス101とを備える。画像処理装置100は、例えば、位置情報等の属性情報を画像データに関連付けて記録することが可能なデジタルビデオカメラ(例えば、カメラ一体型レコーダ)によって実現することができる。
撮像部111は、被写体からの光を集光する複数のレンズ(ズームレンズ、フォーカスレンズ等)および撮像素子から構成され、入射された被写体からの光がこれらのレンズおよびアイリスを介して撮像素子に供給される。そして、CPU130の制御に基づいて、撮像素子が、レンズおよびアイリスを介して入射された被写体からの光信号をアナログの画像信号に光電変換し、この光電変換されたアナログの画像信号を画像信号処理部112に供給する。この撮像素子として、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子を用いることができる。
画像信号処理部112は、CPU130の制御に基づいて、各種画像信号処理を行うものである。具体的には、画像信号処理部112は、撮像部111から供給されたアナログの画像信号についてノイズ除去等のアナログ信号処理を施して、このアナログ信号処理が施された画像信号をA/D変換する。また、画像信号処理部112は、そのA/D変換により得られるデジタル信号である画像データについて輪郭強調、ガンマ補正、フリッカ除去等のデジタル信号処理を施す。そして、画像信号処理部112は、そのデジタル信号処理が施された画像データ(撮像画像)を各部に供給する。
位置情報取得部113は、画像処理装置100の位置を特定するための位置情報を取得するものであり、取得された位置情報をCPU130に出力する。この位置情報取得部113として、例えば、GPS信号受信アンテナ(図示せず)により受信されたGPS信号に基づいて位置情報を算出するGPS(Global Positioning System)装置を用いることができる。また、算出された位置情報には、緯度、経度、高度等の位置に関する各データが含まれる。なお、位置情報取得部113として、例えば、周囲に存在する無線LAN(Local Area Network)によるアクセスポイント情報を用いて位置情報を取得する位置情報取得装置を用いるようにしてもよい。
方位情報取得部114は、地磁気を利用して地球上における方位を計測するセンサであり、計測された方位をCPU130に出力する。例えば、方位情報取得部114は、互いに直交する2軸(例えば、x軸およびy軸)のコイルと、その中心部に配置されたMR素子(磁気抵抗素子)とにより構成される磁界センサである。このMR素子は、地磁気を感知し、その磁気の強さによって抵抗値が変化する素子であり、MR素子の抵抗変化が、2軸のコイルによって2方向の成分(例えば、x軸およびy軸の成分)に分けられ、その2方向の成分の地磁気の比に基づいて方位が算出される。ここで、本発明の第1の実施の形態では、方位情報取得部114は、画像処理装置100の撮像方向の方位を計測する。この撮像方向は、撮像位置(例えば、画像処理装置100が存在する位置)から、画像信号処理部112により生成された撮像画像に含まれる被写体が存在する位置までの方向であり、例えば、被写体側の光軸方向とすることができる。また、例えば、撮像方向は、撮像位置を基準として、撮像画像における中心位置に存在する被写体の方向を撮像方向とすることができる。なお、本発明の第1の実施の形態では、方位情報取得部114を用いて撮像方向を取得する例を示すが、他の方位取得方法により取得された方位を用いるようにしてもよい。
操作部121は、ユーザ操作を行う操作ボタン等の操作部材により構成される操作部であり、各操作部材による操作内容が操作受付部122に出力される。
操作受付部122は、ユーザによって操作された操作内容を受け付ける操作受付部であり、受け付けられた操作内容に応じた信号をCPU130に出力する。
CPU130は、ROM141に記憶されている各種制御プログラムに基づいて、画像処理装置100の各部を制御するものである。また、CPU130は、操作受付部122により受け付けられた操作入力等に基づいて画像処理装置100の各部を制御する。なお、CPU130により行われる制御については、図3を参照して詳細に説明する。
ROM141は、読み出し専用のメモリであり、各種制御プログラム等を記憶するものである。RAM142は、CPU130のメインメモリ(主記憶装置)に用いられるメモリであり、CPU130において実行されるプログラムの作業領域等を備える。
記録制御部150は、CPU130の制御に基づいて、画像信号処理部112により生成された画像データ(撮像画像)を画像ファイル(静止画ファイルまたは動画ファイル)として記録媒体160に記録させるものである。この記録時に、記録制御部150は、方位情報取得部114により取得された方位と、位置情報取得部113により取得された位置情報と、その記録時における日時情報とを画像ファイルに記録する。すなわち、撮像画像の撮像時における撮像方向を示す方位、その撮像時における位置およびその撮像時における日時が画像コンテンツに関連付けて記録される。また、記録制御部150は、その記録された画像ファイルに関する画像管理情報をコンテンツ管理ファイル190(図2に示す)に記録させる。
記録媒体160は、記録制御部150の制御に基づいて、画像ファイル等の各データを記憶するものであり、記憶されている各データを各部に供給する。なお、記録媒体160には、例えば、動画ファイル、画像管理情報等の各種データが記録される。また、記録媒体160として、例えば、メモリカード、光ディスク、磁気ディスク、磁気テープ等の記録媒体を用いることができる。また、記録媒体160を、画像処理装置100に内蔵するようにしてもよく、画像処理装置100から着脱可能とするようにしてもよい。
表示制御部170は、CPU130の制御に基づいて、各種情報を表示部180に表示させるものである。例えば、表示制御部170は、画像信号処理部112により生成された画像データ(撮像画像)を表示部180に順次表示させる。また、例えば、表示制御部170は、記録媒体160に記憶されている動画コンテンツを表示部180に表示させる。これらの表示例については、図5乃至図9等に示す。
表示部180は、表示制御部170の制御に基づいて各種情報を表示する表示部である。表示部180として、例えば、LCD(Liquid Crystal Display)、有機EL(Electro Luminescence)パネル等を用いることができる。なお、操作部121および表示部180については、表示画面における指等の接触または近接により各種の操作入力を行うことが可能なタッチパネルにより一体で構成するようにしてもよい。
[記録媒体の記憶例]
図2は、本発明の第1の実施の形態における記録媒体160に記憶されるファイルのファイル構成の一例を示す図である。図2(a)には、ファイルのディレクトリ構造を示す。
記録媒体160のルートディレクトリ161の下には、コンテンツ管理ファイル190と、1または複数の画像ファイル(動画データ161、162等)と、地図データ163とが配置される。
コンテンツ管理ファイル190は、記録媒体160に記憶されている各コンテンツ(例えば、動画ファイル、静止画ファイル)を管理するためのファイルである。なお、コンテンツ管理ファイル190の構成例については、図2(b)を参照して詳細に説明する。
動画データ161および162は、撮像部111および画像信号処理部112により生成された画像データにより構成される動画ファイルである。また、各動画ファイルの拡張子としては「.MPG」が用いられる。
地図データ163は、プレイリスト情報を生成する際に用いられる地図データと、表示部180に地図を表示する際に用いられる地図データと、プレイリスト情報に地名(タイトル)を付す際に用いられる地図データとを含む情報である。例えば、地図データ163は、緯度および経度により特定されるデータであり、一定の緯度幅および経度幅を単位として、複数の領域に区切られている。
図2(b)には、コンテンツ管理ファイル190の基本構造の一例を模式的に示す。コンテンツ管理ファイル190は、ヘッダ部191および画像データ管理部192の基本構造を有するファイルであり、各コンテンツに関連付けられている。
ヘッダ部191には、画像データ管理部192を管理する各種情報が記録されている。
画像データ管理部192には、各コンテンツを管理するためのデータが格納されている。例えば、画像データ管理部192には、コンテンツ識別情報193と、ファイル名194と、サムネイル画像195と、フレーム識別情報196と、位置情報197と、方位情報198と、日時情報199とが関連付けて格納されている。
コンテンツ識別情報193には、各コンテンツを識別するための識別情報(コンテンツID)が格納される。
ファイル名194には、各コンテンツに付与されたファイル名が格納される。このファイル名は、例えば、ユーザの手動操作により付与することができる。また、コンテンツの内容に基づいて、ファイル名を自動で付与するようにしてもよい。例えば、コンテンツに関連付けられている位置情報を用いてファイル名を決定して、そのファイル名をコンテンツに付与することができる。
サムネイル画像195には、各コンテンツの代表画像がサムネイル画像として格納される。例えば、動画コンテンツの場合には、先頭フレームの画像がサムネイル画像として格納される。
フレーム識別情報196には、各動画コンテンツを構成するフレームを識別するための識別情報が格納される。例えば、各動画コンテンツを構成する先頭フレームからの順番に従って識別番号が付される。なお、動画コンテンツの場合には、一定間隔(例えば、10フレーム間隔)毎のフレームに関する識別情報のみを格納するようにしてもよい。
位置情報197には、位置情報取得部113により取得された位置情報が格納される。例えば、位置情報として、緯度および経度が格納される。
方位情報198には、方位情報取得部114により取得された方位情報が格納される。例えば、基準方位(例えば、北)を0度とした場合における角度(例えば、東は90度、南は180度、西は270度)が格納される。
日時情報199には、対応するフレームが記録された際における日時情報が格納される。例えば、年月日時分が格納される。
このように、コンテンツに関連付けて、位置情報取得部113により取得された位置情報と、方位情報取得部114により取得された方位情報と、日時とがコンテンツ管理ファイルに格納される。また、動画コンテンツの場合には、各フレームまたは一定間隔毎のフレームに関連付けて、位置情報、方位情報および日時がコンテンツ管理ファイルに格納される。
[画像処理装置の機能構成例]
図3は、本発明の第1の実施の形態における画像処理装置100の機能構成例を示すブロック図である。画像処理装置100は、コンテンツ記憶部200と、地図情報記憶部210と、取得部220と、軌跡情報生成部230と、表示制御部240と、表示部250とを備える。また、画像処理装置100は、編集点設定部260と、プレイリスト情報生成部270と、操作受付部280と、プレイリスト情報記憶部290とを備える。
コンテンツ記憶部200は、編集対象となる動画コンテンツおよびコンテンツ管理ファイルを記憶するものであり、記憶されている動画コンテンツを取得部220に供給する。
地図情報記憶部210は、表示部250に表示される地図に関する地図データを記憶するものであり、記憶されている地図データを取得部220に供給する。例えば、地図情報記憶部210に記憶されている地図データは、緯度および経度により特定されるデータであり、一定の緯度幅および経度幅を単位として、複数の領域に区切られている。また、区切られている各領域には、例えば、各領域に対応する地名や特定対象領域情報(例えば、ランドマークに関する情報)が関連付けて記録されている。この地名を用いて、例えば、プレイリスト情報に地名を付すことができる。なお、コンテンツ記憶部200および地図情報記憶部210は、図1に示す記録媒体160に対応する。
取得部220は、操作受付部280により受け付けられた操作入力に応じて、ユーザにより編集対象として選択された動画コンテンツおよびこれに関する属性情報をコンテンツ記憶部200から取得するものである。また、取得部220は、ユーザにより編集対象として選択された動画コンテンツに関する地図情報を地図情報記憶部210から取得する。そして、取得部220は、取得された属性情報を軌跡情報生成部230に出力し、取得された属性情報および地図情報を編集点設定部260に出力する。また、取得部220は、取得された動画コンテンツおよび地図情報を表示制御部240に出力し、取得された動画コンテンツ、属性情報および地図情報をプレイリスト情報生成部270に出力する。なお、取得部220は、図1に示すCPU130および記録制御部150に対応する。
軌跡情報生成部230は、取得部220から出力された属性情報に基づいて、ユーザにより編集対象として選択された動画コンテンツの軌跡情報を生成するものである。具体的には、軌跡情報生成部230は、その選択された動画コンテンツの位置情報(緯度および経度)に基づいて、動画コンテンツの撮影が行われた軌跡に関する軌跡情報を生成する。そして、軌跡情報生成部230は、生成された軌跡情報を表示制御部240および編集点設定部260に出力する。なお、軌跡情報生成部230は、図1に示すCPU130に対応する。
表示制御部240は、操作受付部280により受け付けられた操作入力に応じて、動画コンテンツおよびその編集に用いられる各情報を表示部250に表示させるものである。例えば、表示制御部240は、軌跡情報生成部230から出力された軌跡情報により特定される軌跡を含む地図(取得部220から出力された地図情報)にその軌跡を重ねて表示させる。また、表示制御部240は、編集点設定部260から出力された編集点を軌跡情報に重ねて表示させる。なお、表示制御部240は、図1に示す表示制御部170に対応する。
表示部250は、表示制御部240の制御に基づいて各種情報を表示する表示部である。なお、表示部250は、図1に示す表示部180に対応する。
編集点設定部260は、操作受付部280により受け付けられた操作入力に応じて、軌跡情報生成部230から出力された軌跡情報に基づいて、動画コンテンツの時間軸における区間(編集点)を設定するものである。例えば、編集点設定部260は、操作受付部280により受け付けられた操作入力に基づいて特定される編集点(軌跡情報により特定される軌跡における2つの編集点)に基づいて、動画コンテンツの時間軸における区間を設定する。また、編集点設定部260は、その軌跡と、ランドマーク等の特定対象領域との比較結果に基づいて、動画コンテンツの時間軸における区間を設定する。例えば、その軌跡のうち、特定対象領域に含まれる軌跡を抽出し、この抽出された軌跡に基づいて、動画コンテンツの時間軸における区間を設定する。そして、編集点設定部260は、設定された区間に関する区間情報をプレイリスト情報生成部270に出力する。また、編集点設定部260は、操作受付部280により受け付けられた操作入力に応じて、軌跡情報における編集点を指定する際における各内容を表示制御部240に出力する。なお、編集点設定部260は、図1に示すCPU130に対応する。また、編集点設定部260は、特許請求の範囲に記載の設定部の一例である。
プレイリスト情報生成部270は、ユーザにより編集対象として選択された動画コンテンツの再生に関するプレイリスト情報を生成するものである。具体的には、プレイリスト情報生成部270は、編集点設定部260から出力された区間情報に基づいて、動画コンテンツのプレイリスト情報を生成する。また、例えば、プレイリスト情報生成部270は、動画コンテンツの再生に用いられる各種情報をプレイリスト情報に含める。例えば、プレイリストの生成に用いられた特定対象領域に関する特定対象物情報をプレイリスト情報を含めることができる。また、軌跡情報生成部230により生成された軌跡情報により特定される軌跡を含む地図に関する地図情報をプレイリスト情報に含めることができる。そして、プレイリスト情報生成部270は、生成されたプレイリスト情報をプレイリスト情報記憶部290に記憶させる。なお、プレイリスト情報生成部270は、図1に示すCPU130に対応する。
操作受付部280は、ユーザによって操作された操作内容を受け付ける操作受付部であり、受け付けられた操作内容を取得部220および編集点設定部260に出力する。
プレイリスト情報記憶部290は、プレイリスト情報生成部270により生成されたプレイリスト情報を記憶するものである。なお、プレイリスト情報記憶部290の記憶内容については、図4を参照して詳細に説明する。また、プレイリスト情報記憶部290は、図1に示す記録媒体160に対応する。
[プレイリスト情報記憶部の記憶内容]
図4は、本発明の第1の実施の形態におけるプレイリスト情報記憶部290の記憶内容を模式的に示す図である。プレイリスト情報記憶部290には、プレイリスト識別情報291と、コンテンツ識別情報292と、区間情報293と、プレイリスト名294と、プレイリスト作成日時情報295と、ランドマーク情報296と、地図表示領域情報297とが記憶されている。
プレイリスト識別情報291には、各プレイリスト情報を識別するための識別情報が格納される。
コンテンツ識別情報292には、各コンテンツを識別するための識別情報(コンテンツID)が格納される。ここで、動画コンテンツは、通常、1回の撮影開始から撮影停止動作によって記録される1連の撮影軌跡をもつ動画データである。なお、本発明の第2の実施の形態では、各動画コンテンツが撮影軌跡階層的格子領域データを備える例を示す。この撮影軌跡階層的格子領域データは、動画コンテンツの撮影時に作成するようにしてもよく、必要なときに随時作成するようにしてもよい。
区間情報293には、プレイリストを構成する動画コンテンツのクリップに関する情報が格納される。ここで、プレイリスト(PL)は、複数のPLクリップから構成される再生単位であり、PLクリップの順序付きリストとして定義される。なお、PLクリップは、プレイリストを構成するクリップである。このクリップは、動画コンテンツの一部分(1つの連続する撮影区間)であり、コンテンツ識別情報(コンテンツID)、撮影区間情報(先頭区間番号、区関数)により定義される。
プレイリスト名294には、各プレイリストに付与されたプレイリスト名が格納される。このプレイリスト名は、例えば、ユーザの手動操作により付与することができる。また、プレイリストの内容に基づいて、プレイリスト名を自動で付与するようにしてもよい。このプレイリスト名は、例えば、プレイリストの再生時やプレイリスト一覧表示時に表示することができる。また、プレイリスト一覧表示時におけるプレイリスト名でのソート時に使用することができる。さらに、キーワード(文字列)によるプレイリスト検索時に使用することができる。例えば、指定キーワードを含むプレイリスト名が関連付けされているプレイリストを検索する際に使用することができる。
プレイリスト作成日時情報295には、プレイリストの新規登録処理が開始された日時情報やプレイリストの作成を完了した日時情報等の日時情報が格納される。このプレイリスト作成日時情報は、例えば、プレイリストの再生時や一覧表示時に表示することができる。また、プレイリスト一覧表示時における作成日時でのソート時に使用することができる。さらに、作成日時によるプレイリスト検索時に使用することができる。例えば、指定日時(付近)の撮影日時が関連付けされているプレイリストを検索する際に使用することができる。
ランドマーク情報296には、ユーザにより指定された特定対象領域(例えば、ランドマーク)の情報が格納される。ここで、特定対象領域は、地図に対応する地上に存在する地物に対応する領域であって、例えば、ランドマーク等の目印となる領域を意味する。この地物は、地上に存在する天然物または人工物を示す名称であり、道路、建築物、川、野原等である。ランドマーク情報296には、例えば、ランドマークの名称をテキストデータとして格納することができる。また、地図データベース上のランドマーク情報へのリンク情報(例えば、地図データベース上での各ランドマーク情報に設定されているID等)を格納することができる。また、PLクリップの抽出元として別のプレイリストを指定した場合には、抽出元のプレイリストのランドマーク情報を引き継いで、新規(抽出後)のプレイリストの付加情報としてランドマーク情報を格納するようにしてもよい。このランドマーク情報は、例えば、プレイリストの再生時や一覧表示時に表示することができる。また、ランドマーク指定によるプレイリスト検索時に使用することができる。例えば、指定ランドマーク情報が関連付けされているプレイリストを検索する際に使用することができる。また、キーワード(文字列)によるプレイリスト検索時に使用することができる。例えば、関連付けされているランドマーク情報の名称に指定キーワードを含むプレイリストを検索する際に使用することができる。
地図表示領域情報297には、プレイリストを地図上に表示する場合や、プレイリストが作成された場合等に計算された地図表示領域に関する各情報が格納される。この地図表示領域情報は、例えば、プレイリストの地図表示時に使用することができる。
[軌跡情報の表示例]
図5には、本発明の第1の実施の形態における表示部180に表示される表示画面の一例と編集対象となる動画とを示す図である。図5(a)に示す表示画面300には、コンテンツ一覧表示領域301と、軌跡情報表示領域302と、コンテンツプレビュー表示領域303と、フィルムロール表示領域304と、決定ボタン305と、戻るボタン306とが設けられている。
コンテンツ一覧表示領域301は、コンテンツ記憶部200に記憶されている動画コンテンツを表す代表画像(例えば、図2(b)に示すサムネイル画像195)を一覧表示する領域である。この例では、各動画コンテンツを表す代表画像#1乃至#6を白塗りの矩形で簡略化して示す。
軌跡情報表示領域302は、コンテンツ一覧表示領域301に表示されている代表画像のうち、ユーザ操作により選択された1または複数の代表画像に対応するコンテンツに関する軌跡を表示する領域である。また、軌跡情報表示領域302には、ユーザ操作に応じて、図5(a)に示すように、軌跡を表す実線を地図上に重ねて表示させる。この地図は、例えば、軌跡情報生成部230により生成された軌跡情報により特定される軌跡を含む地図である。
コンテンツプレビュー表示領域303は、ユーザによる指定操作により生成されたプレイリストに関する動画をプレビュー表示する領域である。
フィルムロール表示領域304は、ユーザ操作により選択された1または複数の代表画像に対応するコンテンツを構成する各フレーム(画像)のうち、所定数のフレームを時系列で表示する領域である。フィルムロール表示領域304には、例えば、ユーザ操作により選択された1または複数の代表画像に対応するコンテンツを構成する各画像のうち、一定間隔毎の画像が時系列で表示される。また、表示対象となる画像が多い場合には、カーソル307を用いて左右矢印ボタン308または309の押下操作を行うことにより、フィルムロール表示領域304に表示されている画像をスクロール表示させるようにしてもよい。
決定ボタン305は、ユーザ操作による編集内容を決定してプレイリスト情報を生成する際に押下されるボタンである。この決定ボタン305の押下操作により、ユーザ操作による編集内容が決定され、決定時の編集内容(プレイリスト情報)がプレイリスト情報記憶部290に記憶される。
戻るボタン306は、例えば、直前に表示されていた表示画面に戻る場合に押下されるボタンである。
ここで、コンテンツ一覧表示領域301に表示されている代表画像に対応するコンテンツについて編集を行うため、編集対象となるコンテンツの軌跡と、この軌跡を含む地図とをコンテンツ一覧表示領域301に表示させる場合について説明する。
例えば、ユーザが、操作受付部280による所定操作(例えば、マウス操作)により、表示画面300に表示されているカーソル307を用いて、コンテンツ一覧表示領域301に表示されている代表画像のうちから所望の代表画像(例えば、#1)を選択する。この選択操作により、取得部220が、代表画像#1に対応する動画コンテンツに関連付けられている位置情報を取得する。そして、軌跡情報生成部230が、その取得された位置情報に基づいて軌跡情報を生成する。また、取得部220が、その取得された位置情報に基づいて、その位置情報により特定される位置を含む地図データを取得する。そして、表示制御部240が、取得された地図データに対応する地図上に、生成された軌跡情報により特定される実線を重ねて表示する。例えば、街中およびビル313内で撮影が行われたコンテンツ#1に対応する軌跡310が、地図に重ねて表示される。なお、点311は、軌跡310における始点を示し、点312は、軌跡310における終点を示す。すなわち、点311は、コンテンツ#1に対応する軌跡のうち、時間軸における最前の位置を示し、点312は、コンテンツ#1に対応する軌跡のうち、時間軸における最後の位置を示す。なお、この例では、カーソル307を用いて各操作を行う例を示すが、タッチパネルを用いた押下操作としてもよい。
図5(b)には、コンテンツ記憶部200に記憶されている動画コンテンツ320を矩形により模式的に示す。なお、図5(b)において横軸は時間軸を示す。また、動画コンテンツ320は、図5(a)に示す軌跡310に沿って撮影が行われた動画であるものとする。すなわち、図5(a)に示す軌跡310における始点311は、図5(b)に示す始点321に対応する。また、図5(a)に示す軌跡310における終点312は、図5(b)に示す終点322に対応する。
[編集対象範囲の指定例]
図6乃至図9は、本発明の第1の実施の形態における編集点設定部260による編集対象範囲の決定方法を模式的に示す図である。
図6には、操作受付部280による編集点の指定方法の一例を示す。図6(a)には、編集点を指定するための表示画面300を示す。この表示画面300は、軌跡情報表示領域302において、ユーザ操作により指定された編集点に対応する位置に白塗り丸が付された以外の点は、図5(a)に示す表示画面300と同一である。このため、図5(a)に示す表示画面300と共通する部分については、同一の符号を付して、これらの説明を省略する。
例えば、ユーザが、操作受付部280による所定操作(例えば、マウスによるクリック操作)により、軌跡情報表示領域302に表示されている軌跡310のうちから、カーソル307を用いて、2つの編集点を指定する。この2つの編集点は、例えば、プレイリスト情報として再生すべき範囲の両端(開始点および終了点)である。例えば、図6(a)に示すように、軌跡310における点314および315を指定する。この指定操作により指定された2点のうち、動画コンテンツの時間軸における前の位置に対応する点を開始点とし、後の位置に対応する点を終了点とする区間を編集点設定部260が設定する。そして、操作受付部280による決定ボタン305の押下操作により、その特定された区間(時間軸における区間)が決定され、決定された区間に基づいてプレイリスト情報が生成される。この指定操作により決定された区間(時間軸における区間)の一例を図6(b)に示す。
図6(b)には、コンテンツ記憶部200に記憶されている動画コンテンツ320を矩形により模式的に示す。なお、図6(b)に示す動画コンテンツ320、始点321、終点322は、図5(b)に示すものと同一である。このため、図5(a)に示すものと共通する部分については、同一の符号を付して、これらの説明を省略する。
ここで、図6(a)に示すユーザ操作により指定された2つの編集点(点314および315)は、図6(b)に示す2つの編集点(指定操作位置332および333)に対応するものとする。
例えば、図6(a)に示す表示画面300において、ユーザ操作により指定された2つの編集点(点314および315)により、各編集点に対応する緯度および経度(位置情報)が特定される。このように特定された2つの緯度および経度に関連付けられている時刻(日時情報)が特定され、この特定された時刻に対応する動画コンテンツ320の時間軸における位置が、2つの編集点(点314および315)として特定される。そして、区間331(長さL1)が特定される。また、フィルムロール表示領域304に表示されている画像のうち、区間331に含まれる画像については、フィルムロール表示領域304に表示されている他の画像と異なる表示態様とする。例えば、図6(a)に示すように、フィルムロール表示領域304に表示されている画像のうち、区間331に含まれる画像(点線の矩形330に含まれる画像)については、網掛け表示される。これにより、ユーザが指定した区間を地理的に把握するとともに、時系列で把握することができる。また、軌跡情報表示領域302に表示されている軌跡310において、区間331に対応する軌跡部分と他の部分とを異なる表示態様とすることができる。なお、この例では、1つの区間を指定する場合を例にして説明したが、複数の区間を指定する場合についても同様に指定することができる。
また、図7には、カーソル307を用いた丸316をなぞる操作入力により、2つの編集点を指定する例を示す。この場合には、軌跡情報表示領域302に表示されている軌跡310のうち、丸316内に含まれる軌跡の最先の点(時間軸における最も前の点)が開始点とされ、丸316内に含まれる軌跡の最後の点(時間軸における最も後の点)が終了点とされる。
また、図8には、ランドマーク317(ビル313に対応する)を指定する操作入力により、2つの編集点を指定する例を示す。この場合には、軌跡情報表示領域302に表示されている軌跡310のうち、ランドマーク317内に含まれる軌跡の最先の点(時間軸における最も前の点)が開始点とされる。また、ランドマーク317内に含まれる軌跡の最後の点(時間軸における最も後の点)が終了点とされる。
[方位情報を用いた編集対象範囲の指定例]
以上では、地図上に重ねられている軌跡情報における2つの位置を指定することによりプレイリスト情報を生成する例を示した。ここで、動画コンテンツの属性情報には、方位情報が含まれている。そこで、以下では、方位情報を用いてプレイリスト情報を生成する例を示す。
図9には、撮影対象となるランドマークを指定することにより編集点を指定する指定方法の一例を示す。例えば、ランドマークとして富士山360を指定する場合を例にして説明する。この指定については、各ランドマークを選択可能に地図上に表示して所望のランドマークの選択操作により指定する方法や、地図上における所望の領域を指定する(例えば、丸で囲む)ことによりランドマークを指定する指定方法等を用いることができる。
例えば、軌跡情報表示領域302の範囲内で、軌跡上における各撮影点と、この撮影点に関連付けて記録されている方位とを用いてランドマークとの衝突判定が行われる。例えば、撮影点を基準にして、これに関連付けられている方位により特定される直線を、指定されたランドマーク方向に伸ばす。そして、その方位により特定される直線が、指定されたランドマークの領域に含まれるか否かに基づいて衝突判定を行うことができる。そして、各軌跡において、方位により特定される直線が、指定されたランドマークの領域に含まれる撮影点を抽出して、これらの撮影点により特定される区間(軌跡上の区間)を特定する。そして、その特定された区間(軌跡上の区間)に基づいて、動画コンテンツの時間軸における区間を設定することができる。例えば、軌跡340における区間として2つの編集点(点343および344)が特定される。また、例えば、軌跡350における区間として2つの編集点(点353および354)が特定される。これらの区間内において撮影された動画には、富士山が含まれているものと推定される。
なお、この例では、撮影点を基準にして、これに関連付けられている方位により特定される直線を用いる例を示したが、例えば、撮像範囲を示す角度(画角)を考慮して、その範囲内における衝突判定を行うようにしてもよい。すなわち、編集点設定部260は、撮影軌跡における撮像位置を基準とする範囲(その撮像位置を基準とした場合における方位情報により特定される撮像範囲)と、特定対象領域との比較結果に基づいて、時間軸における区間を設定することができる。例えば、撮影軌跡において、少なくとも一部が特定対象領域と重複する撮像範囲に対応する撮像位置を抽出し、この抽出された撮像位置により構成される区間(その軌跡における区間)に基づいて、動画コンテンツの時間軸における区間を設定する。
また、設定された区間に含まれる動画コンテンツについて物体認識処理により、富士山が含まれるか否かを判定して、実際に富士山が含まれる区間のみを抽出してプレイリストを生成するようにしてもよい。この物体認識処理として、例えば、物体の輝度分布情報が記録されているテンプレートとコンテンツ画像とのマッチングによる物体検出方法(例えば、特開2004−133637参照。)を用いることができる。また、例えば、画像における2点間の輝度の差分値を用いた弱判別器により各物体の属性を検出する検出方法を用いることができる(例えば、特開2009−118009号参照。)。
なお、これらの衝突判定については、本発明の第2の実施の形態で詳細に示す。また、以上では、生成された軌跡情報を地図とともに表示する例を示したが、例えば、生成された軌跡情報のみを表示して、プレイリストを生成するようにしてもよい。
[画像処理装置の動作例]
図10は、本発明の第1の実施の形態における画像処理装置100によるプレイリスト生成処理の処理手順の一例を示すフローチャートである。この例では、軌跡情報の表示指示がない場合には、ランドマーク情報を表示させて、このランドマーク情報に基づいてプレイリストを生成する例を示す。
最初に、動画コンテンツの選択操作が行われたか否かが判断され(ステップS901)、動画コンテンツの選択操作が行われていない場合には、監視を継続する。また、動画コンテンツの選択操作が行われた場合には(ステップS901)、軌跡情報生成部230が、選択された動画コンテンツの位置情報(緯度および経度)に基づいて、選択された動画コンテンツの軌跡情報を生成する(ステップS902)。なお、ステップS902は、特許請求の範囲に記載の軌跡情報生成手順の一例である。
続いて、軌跡情報の表示指示がされているか否かが判断され(ステップS903)、軌跡情報の表示指示がされている場合には、地図の表示指示がされているか否かが判断される(ステップS904)。地図の表示指示がされている場合には(ステップS904)、表示制御部240が、生成された軌跡情報を地図に重ねて表示部250に表示させる(ステップS905)。一方、地図の表示指示がされていない場合には(ステップS904)、表示制御部240が、生成された軌跡情報のみを表示部250に表示させる(ステップS906)。
続いて、軌跡情報の範囲を指定する指定操作が行われたか否かが判断され(ステップS907)、軌跡情報の範囲を指定する指定操作が行われていない場合には、監視を継続する。一方、軌跡情報の範囲を指定する指定操作が行われた場合には(ステップS907)、編集点設定部260が、その指定操作に応じて、軌跡情報における編集点を特定して、動画コンテンツの時間軸における区間を設定する(ステップS908)。なお、ステップS908は、特許請求の範囲に記載の設定手順の一例である。そして、プレイリスト情報生成部270が、設定された区間に基づいて、動画コンテンツのプレイリスト情報を生成し(ステップS912)、生成されたプレイリスト情報をプレイリスト情報記憶部290に記録させる(ステップS913)。なお、ステップS912は、特許請求の範囲に記載のプレイリスト情報生成手順の一例である。
また、軌跡情報の表示指示がされていない場合には(ステップS903)、表示制御部240が、生成された軌跡情報に基づいてランドマーク情報を表示部250に表示させる(ステップS909)。続いて、ランドマークを指定する指定操作が行われたか否かが判断され(ステップS910)、ランドマークを指定する指定操作が行われていない場合には、監視を継続する。一方、ランドマークを指定する指定操作が行われた場合には(ステップS910)、指定されたランドマークに含まれる軌跡に基づいて、軌跡情報における編集点が特定され、動画コンテンツの時間軸における区間が設定される(ステップS911)。そして、ステップS912に進む。なお、ステップS911は、特許請求の範囲に記載の設定手順の一例である。
このように、本発明の第1の実施の形態によれば、位置情報および方位情報を用いてユーザ好みのプレイリストを容易に生成することができる。すなわち、地理的な位置を考慮したユーザ好みの動画コンテンツの編集を容易に行うことができる。
<2.第2の実施の形態>
本発明の第1の実施の形態では、軌跡情報や方位情報を用いて動画コンテンツのプレイリストを生成する例について説明した。このように軌跡情報や方位情報を用いて動画コンテンツのプレイリストを生成する場合には、演算量が非常に多くなるおそれがある。このため、多数の動画コンテンツに関するプレイリストを生成する場合には、プレイリストの生成に係る演算量を削減させることが重要である。そこで、本発明の第2の実施の形態では、プレイリストを生成する場合における各データを、階層構造により構成される格子領域により管理して演算量を削減する例を示す。
なお、本発明の第2の実施の形態における画像処理装置の内部構成については、本発明の第1の実施の形態と略同一であるため、図示およびその説明を省略する。また、以下では、本発明の第1の実施の形態と異なる部分を中心に説明し、共通する部分についての説明の一部を省略する。
最初に、本発明の第2の実施の形態における撮影軌跡(軌跡情報)、特定撮影対象領域等の空間(平面)的情報を処理する共通な2次元座標系、データ構造等の基本となる概念および用語を定義する。
[座標系の定義]
図11は、本発明の第2の実施の形態における画像処理装置100によるプレイリスト生成処理の対象となる平面座標系を定義するための図である。ここで、撮影軌跡等の位置情報は、通常、緯度および経度という形式で記録される。また、地図データ等は、地図データ毎に位置情報に関するフォーマットが異なることが多い。そこで、本発明の第2の実施の形態では、これらの位置情報に対する幾何学的処理を行うための共通の2次元平面座標系(UV座標系)を定義する。
図11(a)には、UV座標系において、動画コンテンツに関連付けられている位置情報(緯度および経度)に基づいて動画コンテンツが記録された位置に撮影点(黒丸で示す)を配置する例を示す。また、動画コンテンツの撮像時における画像処理装置100は、矢印400に沿って移動しているものとする。また、各撮影点からの撮影方向は、黒丸から伸びる矢印により模式的に示す。ここで、時系列撮影情報は、撮影情報(撮影位置情報、撮影方向情報)が時系列に並んだリスト情報である。また、動画コンテンツが記録された点に撮影点番号(0始まり)を割り当て、撮影点番号i(iは0以上の整数)の撮影情報を撮影情報[i]のように表すものとする。また、撮影点間の区間に区間番号(0始まり)を割り当てる。
図11(b)には、図11(a)に示すUV座標系において配置された撮影点および撮影区間を定義するための図を示す。例えば、撮影情報[i]の撮影点位置は、点p[i](=(u[i],v[i])で表す。また、撮影点p[i]、点p[i+1]をそれぞれ始点、終点とする撮影区間線分を線分l[i]で表す。
図11(c)には、図11(a)に示すUV座標系において配置された撮影点における撮影方向を定義するための図を示す。例えば、撮影情報[i]の撮影方向は、θ[i]で表す。ここで、本発明の第2の実施の形態では、θはU軸を軸とした時計周りの回転角とする定義する。
[格子領域の定義]
次に、各データを管理するための格子領域について説明する。
図12および図13は、本発明の第2の実施の形態における画像処理装置100によるプレイリスト生成処理に用いられる各データを管理するための格子領域を定義するための図である。本発明の第2の実施の形態では、複数の動画コンテンツの撮影軌跡や撮影対象領域の重なりの検出を効率よく行うために、撮影軌跡や撮影対象領域を表現するデータを、格子領域の階層的なデータとして管理する。
図12(a)には、UV座標系における格子領域の一例を示す。図12(a)に示すように、格子領域は、正方格子(格子サイズS)であり、各辺は、U軸、V軸に水平であるものとする。
図12(b)には、UV座標系における格子領域の順序関係の一例を示す。図12(b)に示すように、UV座標系における格子領域には、格子番号NL(M,N)(M,Nは、0以上の整数)を付与する。また、格子番号NL(M,N)の格子領域の4つの頂点の座標は、左上の座標が(M×S,N×S)となり、右上の座標が((M+1)×S,N×S)となり、右下の座標が((M+1)S,(N+1)×S)となり、左下の座標が(M×S,(N+1)×S)となる。
また、格子領域の順序関係を以下の(1)および(2)により定義する。
(1)Nが大きい方が大きい。
(2)Nが等しい場合には、Mが大きい方が大きい。
すなわち、図12(b)に示す例では、矢印401乃至404に示す順序で格子領域の順序関係が定義される。
図13には、複数の格子サイズからなる格子領域群の階層構造(ツリー構造)の一例を示す。本発明の第2の実施の形態では、図13に示すように、撮影軌跡データ等を格子領域の階層的なデータとして管理するため、複数の格子サイズからなる格子領域群の階層構造(ツリー構造)により管理する。この場合に、格子サイズの小さい方から順に、レベル(階層)付け(S0が最小サイズ)をし、上位レベルの格子サイズは、下位レベルの格子サイズの整数倍となるようにする。
図13(a)には、格子サイズS0の格子領域の一例を示し、図13(b)には、格子サイズS1の格子領域の一例を示し、図13(c)には、格子サイズS2の格子領域の一例を示す。なお、格子サイズS1は、格子サイズS0の4倍であり、格子サイズS2は、格子サイズS1の4倍である。
[階層的格子領域データの定義]
図14は、本発明の第2の実施の形態における画像処理装置100によるプレイリスト生成処理に用いられる階層的格子領域データを定義するための図である。上述したように、階層的格子領域データは、格子要素(格子番号を格納)を要素とするツリー構造であり、以下の(3)乃至(5)を満たす。
(3)レベル(格子サイズ)毎に階層化され、格子サイズが大きいレベル(上位レベル)が上位階層となる。
(4)子格子要素の格子領域は、親格子要素の格子領域に含まれる。
(5)同じ親を持つ格子要素群は、格子番号昇順でソートされる。
図14(a)には、格子サイズS0乃至S2の格子領域の一例を示す。なお、格子番号NL2(M,N)は、格子サイズS2の格子領域の格子番号を示し、格子番号NL1(M,N)は、格子サイズS1の格子領域の格子番号を示し、格子番号NL0(M,N)は、格子サイズS0の格子領域の格子番号を示す。図14(a)に示す例では、格子サイズS2およびS1の格子領域の矩形内には、対応する格子番号を付して示す。また、格子サイズS0の格子領域は、格子領域群405として太線の矩形で示す。
図14(b)には、階層的格子領域データの一例を示す。図14(b)に示す階層的格子領域データは、図14(a)に対応する階層的格子領域データである。図14(b)に示す例では、親子の関係がある格子領域については、親格子領域から子格子領域を指し示すように矢印で結んで示す。また、格子領域を示す矩形内には、格子領域の格子番号を付して示す。なお、図14(b)では、格子領域の格子番号のうちNLi(i=0乃至2)を省略して示す。
本発明の第2の実施の形態では、上述のように定義された格子領域および階層的格子領域データを用いて、プレイリストを生成する例を示す。
[ターゲット領域データのデータ構造例]
上述のように定義された格子領域および階層的格子領域データについては、動画コンテンツに関連付けられている位置情報に基づいて生成される軌跡情報の生成時に用いられる。この生成については、図15乃至図26を参照して詳細に説明する。また、プレイリストを生成する際におけるターゲット領域データについても適用される。ここでは、ターゲット領域データについて、特定撮影対象領域を表すデータ構造の定義と、そのデータの作成方法について説明する。
最初に、ターゲット領域データのデータ構造について説明する。ターゲット領域データのデータ構造についても、図14(a)および(b)に示すデータ構造と同様に定義することができる。すなわち、撮影対象領域(ターゲット領域)を格子領域の階層的データとして管理することができる。このターゲット領域データは、最下位レベル(レベル0)の格子領域群の集合領域に、撮影対象領域を含む階層的格子領域データである。
ここで、ターゲット領域データの作成方法について説明する。ターゲット領域データは、例えば、以下の(1)または(2)の何れかの方法で作成または取得するものとする。
(1)ユーザの手動操作による生成。このように生成する場合には、例えば、ユーザが表示画面上の地図上をなぞった軌跡を含む階層的格子領域データを生成する。
(2)地図データから取得または変換して生成。このように生成する場合には、例えば、地図データに格納されているターゲット領域の領域データを階層的格子領域データに変換する。
なお、レベル0の格子サイズS0は、対象となるターゲット領域に応じて変更して設定することができる。この場合に、対象となるターゲット領域に対して、大きくすぎもなく小さすぎもしない値に設定されることが好ましい。また、ターゲット領域が数個から数十個、または、数百個のレベル0格子領域に跨るような値に設定されることが好ましい。
[軌跡情報のデータ構造および作成例]
次に、動画コンテンツの撮影軌跡を表す軌跡情報のデータ構造の定義およびそのデータの作成方法について説明する。
図15は、本発明の第2の実施の形態における画像処理装置100による軌跡情報生成処理に用いられる階層的格子領域データを定義するための図である。
図15(a)には、格子サイズS0乃至S2の格子領域の一例を示す。図15(a)に示す例では、撮影軌跡(点p[0]乃至p[3])を含む格子サイズS0乃至S2の格子領域を示す。なお、撮影軌跡を含む点以外については、図14(a)に示す例と同様であるため、ここでは共通する部分についての説明を省略し、異なる点を中心にして説明する。
図11(b)に示すように、撮影軌跡については、撮影点p[i]および撮影区間線分l[i]により表すことができる。図15(a)に示す例では、撮影点p[0]乃至p[3]および撮影区間線分l[0]乃至l[2]の場合を例にして説明する。
撮影軌跡を格子領域の階層的データとして管理する場合には、撮影軌跡を含む最下位レベル(レベル0)の格子領域を用いて管理する。具体的には、撮影軌跡を含む最下位レベル(レベル0)の格子領域(太線の矩形で示す格子領域群410)が特定される。続いて、特定された格子領域を通過する撮影区間線分が格子領域毎に特定される。
図15(b)には、格子サイズS0の格子領域の一例を示す。例えば、撮影点p[3]を含む格子サイズS0の格子領域(NL0(27,53))を例にして説明する。図15(b)に示すように、格子領域(NL0(27,53)を通過する撮影区間線分は、撮影区間線分l[1]およびl[2]である。このため、格子サイズS0の格子領域(NL0(27,53)の格子要素に、その格子領域を通過する撮影区間線分群の区間番号リスト(l[1]およびl[2])がリンクされる。この場合に、例えば、区間番号の番号昇順でソートされる。このように、撮影軌跡データは、最下位レベル(レベル0)の格子領域群の集合領域に、撮影軌跡を含む階層的格子領域データである。
図15(c)には、階層的格子領域データの一例を示す。図15(c)に示す階層的格子領域データは、図15(a)に対応する階層的格子領域データである。なお、レベル0格子内の区間番号リスト411が追加された点以外については、図14(b)に示す例と同様であるため、ここでは共通する部分についての説明を省略し、異なる点を中心にして説明する。
図15(c)に示す例では、リンクされている区間番号については、レベル0格子内の区間番号リスト411内に示す。また、リンクされている格子領域から区間番号を指し示すように矢印で結んで示す。また、レベル0格子内の区間番号リスト示す矩形内には、撮影区間線分の区間番号を付して示す。なお、図15(c)では、撮影区間線分の区間番号のうちl[ ]を省略して示す。
例えば、図15(b)に示す格子領域(NL0(27,53))の区間番号リストについては、矩形412で囲んで示す。
これらの撮影軌跡データについては、各撮影区間線分が通過するレベル0の格子領域群を求め、これらを階層的格子領域データとしてマージしていくことにより作成することができる。なお、これらの作成方法については、図16乃至図26を参照して詳細に説明する。
[撮影軌跡データの作成例]
図16は、本発明の第2の実施の形態における画像処理装置100による撮影軌跡データの作成の流れを模式的に示す図である。
図16(a)には、撮影軌跡データを作成する際における入力データである撮影軌跡(撮影点pのリスト)を示す。なお、図16(a)に示す撮影軌跡は、図15(a)に示す撮影軌跡に対応する。
図16(b)には、撮影軌跡データを作成する際における出力データである撮影軌跡階層的格子領域データを示す。なお、図16(b)に示す撮影軌跡階層的格子領域データは、図15(a)および(c)に示す撮影軌跡階層的格子領域データに対応する。
図17は、本発明の第2の実施の形態における画像処理装置100による撮影軌跡データ生成処理の処理手順の一例を示すフローチャートである。
最初に、撮影軌跡階層的格子領域データが初期化される(ステップS1001)。すなわち、ルート要素(例えば、図15(c)に示すルート要素)のみのデータに初期化される。
続いて、各撮影区間線分について、以下の処理が繰り返し行われる(ループL1002)。ここで、Nは、0以上の整数であり、撮影点の総数を示す。具体的には、撮影区間線分のレベル0格子番号リスト作成処理が行われる(ステップS1010)。このリスト作成処理については、図18乃至図23を参照して詳細に説明する。
続いて、レベル0格子番号リストと階層的格子領域データのマージ処理が行われる(ステップS1050)。このマージ処理については、図24乃至図26を参照して詳細に説明する。
図18は、本発明の第2の実施の形態における画像処理装置100による線分のレベル0格子番号リストの作成処理の入出力例を示す図である。図18(a)には、入力データである線分(撮影点pa(ua,va)およびpb(ub,vb)を結ぶ線分)を示す。図18(b)には、出力データである線分のレベル0格子番号リストをレベル0の格子領域群420により模式的に示す。このリストは、例えば、格子番号の昇順でソートされる。例えば、線分のレベル0格子番号リストを、((m[0],n[0]),(m[1],n[1]),…,(m[T],n[T]))として表すことができる。
図19は、本発明の第2の実施の形態における画像処理装置100による撮影軌跡データ生成処理の処理手順のうちのリスト生成処理(図17に示すステップS1010の処理手順)の一例を示すフローチャートである。
最初に、入力データである線分を構成する2つの撮影点が含まれるレベル0の格子番号が特定される(ステップS1011)。ここで、(Ma,Na)、(Mb,Nb)は撮影点pa,点pbが含まれるレベル0の格子番号を意味するものとする。また、floor(x)は、床関数を示し、実数xの範囲内における最大の整数を意味する。
続いて、特定されたレベル0の格子番号(Ma,Na)および(Mb,Nb)について、U軸およびV軸における最大値および最小値が特定される(ステップS1012)。例えば、U軸の最大値をMmaxとし、U軸の最小値をMminとする。また、V軸の最大値をNmaxとし、V軸の最小値をNminとする。
続いて、入力データである線分の傾きに応じて、線分のレベル0格子番号のリストが生成される(ステップS1013)。このリストの生成については、図20乃至図23を参照して詳細に説明する。
最初に、入力データである線分の傾きが、右下がりである場合(例えば、図18に示す場合)における線分のレベル0格子番号のリストの生成方法について説明する。
図20は、本発明の第2の実施の形態における画像処理装置100による線分のレベル0格子番号のリスト生成処理の処理手順の一例(入力データである線分の傾きが、右下がりである場合)を示すフローチャートである。
ここで、入力データは、上述したMmin、Mmax、Nmin、Nmax、レベル0の格子サイズS0、直線パラメータAおよびBである。ここで、直線パラメータAおよびBは、入力データである線分を含む直線式のパラメータ(v=Au+B)であり、A=(va−vb)/(ua−ub)、B=va−Auaとする。
最初に、線分のレベル0格子番号のリストが初期化され(ステップS1021)、変数Nprev=Nminとする(ステップS1022)。
続いて、入力データである線分を含む各格子領域について、U軸の最小値(Mmin)からU軸の最大値(Mmax)まで、以下の処理が繰り返し行われる(ループL1023)。最初に、変数Ntemp=floor(((A(M+1)S0)+B)/S0)とする(ステップS1024)。ここで、変数Ntempは、一時的に保持される変数である。また、S0は、レベル0の格子サイズである。続いて、変数Ntemp=min(Nmax,Ntemp)とする(ステップS1025)。
続いて、入力データである線分を含む各格子領域について、V軸の値(Nprev)からV軸の値(Ntemp)まで、以下の処理が繰り返し行われる(ループL1026)。すなわち、(M,N)がレベル0の格子番号リストに順次追加される(ステップS1027)。
V軸の値(Nprev)からV軸の値(Ntemp)までの処理が終了した後に(ループL1026)、変数Nprev=Ntempとされ(ステップS1028)、ループL1023の処理が行われる。
これにより、傾きが右下がりである線分のレベル0格子番号リスト(例えば、(m[0],n[0]),(m[1],n[1]),…,(m[T],n[T]))が生成される。
次に、入力データである線分の傾きが、右上がりである場合における線分のレベル0格子番号のリストの生成方法について説明する。
図21は、本発明の第2の実施の形態における画像処理装置100による傾きが右上がりである線分のレベル0格子番号リストの作成処理の入出力例を示す図である。図21(a)には、入力データである線分(撮影点pa(ua,va)およびpb(ub,vb)を結ぶ線分)を示す。図21(b)には、出力データである線分のレベル0格子番号リストをレベル0の格子領域群421により模式的に示す。
図22は、本発明の第2の実施の形態における画像処理装置100による線分のレベル0格子番号のリスト生成処理の処理手順の一例(入力データである線分の傾きが、右上がりである場合)を示すフローチャートである。なお、入力データは、図20と同様である。また、この処理手順は、図20に示す処理手順の一部を変形してものである。すなわち、ステップS1032、S1035において設定される変数が異なり、ループL1036において、Nが1ループ毎にデクリメントされる点が異なる。これらの以外の点については、図20に示す処理手順と同様であるため、ここでの説明を省略する。
次に、入力データである線分の傾きが垂直である場合における線分のレベル0格子番号のリストの生成方法について説明する。
図23は、本発明の第2の実施の形態における画像処理装置100による傾きが垂直である線分のレベル0格子番号リストの作成処理の入出力例を示す図である。図23(a)には、入力データである線分(撮影点pa(ua,va)およびpb(ub,vb)を結ぶ線分)を示す。図23(b)には、出力データである線分のレベル0格子番号リストをレベル0の格子領域群422により模式的に示す。
図23(b)に示すように、傾きが垂直である線分の場合には、U軸の最大値(Mmax)および最小値(Mmin)が同一である。このため、V軸の最大値(Nmax)および最小値(Nmin)により特定される格子領域(V軸に平行となる格子領域群)のリストが、傾きが垂直である線分のレベル0格子番号リストとして、生成される。
続いて、レベル0格子番号リストと階層的格子領域データのマージ処理について説明する。
図24および図25は、本発明の第2の実施の形態における画像処理装置100によるマージ処理(レベル0格子番号リストと階層的格子領域データのマージ処理)の作成の流れを模式的に示す図である。
図24(a)には、既に生成された階層的格子領域データ(格子領域群423により特定されるデータ)と、新たに生成されたレベル0格子番号リスト(格子領域群424により特定されるリスト)とを模式的に示す。
図24(b)には、図24(a)に示すマージ処理により生成された階層的格子領域データ(格子領域群425により特定されるデータ)を模式的に示す。
図25(a)には、図24(a)に示す階層的格子領域データと、レベル0格子番号リストとに関するデータ構成例を模式的に示す。すなわち、既に生成された階層的格子領域データに、新たに生成されたレベル0格子番号リスト(矩形413)をマージする例を模式的に示す。
図25(b)には、図25(a)に示すマージ処理により生成された階層的格子領域データを模式的に示す。なお、図25(b)に示す階層的格子領域データは、図15(c)に示す階層的格子領域データに対応する。
図26は、本発明の第2の実施の形態における画像処理装置100による撮影軌跡データ生成処理の処理手順のうちのマージ処理(図17に示すステップS1050の処理手順)の一例を示すフローチャートである。
最初に、入力データであるレベル0格子番号リストについて、リストの順序に従って、以下の処理が繰り返し行われる(ループL1051)。なお、Tは、入力データであるレベル0格子番号リストのリスト長を示す値である。
続いて、格子番号(m[j],n[j])のレベル0格子領域が含まれるレベル0から最大レベル(レベルLmax)までの格子領域番号群(M[0],N[0]),…,(M[Lmax],N[Lmax])を求める処理が行われる。この処理(ステップS1052、ループL1053)により求められた格子領域番号群が、階層的格子領域データへの追加候補となる。なお、Lmaxは、入出力の階層的格子領域データの最大レベル数を意味する。
具体的には、M[0]=m[j]、N[0]=n[j]とする(ステップS1052)。続いて、各格子サイズの格子領域について、レベル1から最大レベル(レベルLmax)まで、以下の処理が繰り返し行われる(ループL1053)。すなわち、K=S[l]/S[l−1]が算出され、M[l]=floor(M[l−1]/K)、N[l]=floor(N[l−1]/K)とする(ステップS1054)。なお、Kは、レベルlおよびレベル(l−1)の格子サイズの比の値を意味する。
続いて、階層的格子領域データへの追加候補である(M[0],N[0]),…,(M[Lmax],N[Lmax])をマージする処理が行われる(ステップS1055、ループL1056)。この処理では、最上位レベルから順番に、未追加のものを追加処理していく。
具体的には、カレント要素E=ルート要素とする(ステップS1055)。続いて、最上位レベルから順番に、以下の処理が繰り返し行われる(ループL1056)。すなわち、カレント要素Eの下位要素リストに(M[l],N[l])要素が存在するか否かが判断される(ステップS1057)。カレント要素Eの下位要素リストに(M[l],N[l])要素が存在しない場合には(ステップS1057)、カレント要素Eの下位要素リストに(M[l],N[l])要素が挿入される(ステップS1058)。一方、カレント要素Eの下位要素リストに(M[l],N[l])要素が存在する場合には(ステップS1057)、ステップS1059に進む。続いて、カレント要素E=(M[l],N[l])要素とする(ステップS1059)。
続いて、ループL1056の処理が終了した場合には、カレント要素E(=(M[0],N[0])の下位要素リスト(区間番号リスト)に区間番号i要素が追加される(ステップS1060)。
このように、マージ処理を行うことにより、図15(c)、図25(b)に示すように、階層的格子領域データが生成される。
なお、レベル0の格子サイズS0は、撮影軌跡に対し、大きすぎもなく小さすぎもしない値に設定されることが好ましい。例えば、撮影軌跡が数個から数十個のレベル0格子領域にまたがるような値に設定されることが好ましい。
[動画コンテンツにおける区間内の撮影軌跡情報例]
動画コンテンツにおける区間内の撮影軌跡情報については、その区間の開始点の撮影点と、その区間の終了点の撮影点とにより構成される。例えば、動画コンテンツにおける区間の開始点の撮影点をpa1とし、その区間の終了点の撮影点をpb1とする場合には、撮影軌跡情報は、撮影点pa1および撮影点pb1により特定される。
[ターゲット領域通過の撮影区間の検出例]
次に、ターゲット領域データおよび撮影軌跡データに基づいてターゲット領域(特定対象領域)を通過している撮影区間(撮影軌跡における区間)を抽出する例を示す。これにより、例えば、テーマパーク内において撮影された動画コンテンツのうち、特定のアトラクション内において撮影された動画区間を抽出することができる。
図27は、本発明の第2の実施の形態における画像処理装置100による撮影区間検出処理の処理手順の一例を示すフローチャートである。
最初に、撮影軌跡とターゲット領域の階層的格子領域の衝突検出処理が行われる(ステップS1100)。この衝突検出処理では、大領域から小領域に階層的な衝突検出を行う。これにより、最初から小領域同士の大量の衝突判定を行う場合と比較して、全体的に衝突判定処理の回数を抑えることができ、プレイリスト生成に係る処理を削減することができる。この衝突検出処理については、図28乃至図31を参照して詳細に説明する。
続いて、ターゲット領域通過撮影区間検出処理が行われる(ステップS1150)。この撮影区間検出処理については、図32乃至図34を参照して詳細に説明する。
図28は、本発明の第2の実施の形態における画像処理装置100による衝突検出処理(撮影軌跡とターゲット領域の階層的格子領域の衝突検出処理)の流れを模式的に示す図である。
図28(a)には、撮影軌跡の階層的格子領域データ(格子領域群430により特定されるデータ)と、ターゲット領域の階層的格子領域データ(格子領域群431により特定されるデータ)とを模式的に示す。衝突検出処理では、これらの各データが入力データとされる。
図28(b)には、図28(a)に示す衝突検出処理により検出されたレベル0格子要素対リスト(太線の矩形で示す格子領域群432により特定されるデータ)を模式的に示す。このように、衝突検出処理では、撮影軌跡の階層的格子領域データと、ターゲット領域の階層的格子領域データとについて、衝突する格子領域(レベル0)を特定する。
図29は、本発明の第2の実施の形態における画像処理装置100による撮影区間検出処理の処理手順のうちの衝突検出処理(図27に示すステップS1100の処理手順)の一例を示すフローチャートである。
最初に、衝突レベル0格子要素対リストが初期化される(ステップS1101)。続いて、撮影軌跡の階層的格子領域データ(図28(a)に示す入力1)について、最上位レベルの格子領域について、以下の処理が繰り返し行われる(ループL1102)。ここで、Aは、撮影軌跡の階層的格子領域データの最上位レベルの格子要素数(格子領域数)を示す値である。
続いて、ターゲット領域の階層的格子領域データ(図28(a)に示す入力2)について、最上位レベルの格子領域について、以下の処理が繰り返し行われる(ループL1103)。ここで、Bは、ターゲット領域の階層的格子領域データの最上位レベルの格子要素数(格子領域数)を示す値である。
続いて、階層的格子領域の再帰的衝突検出処理が行われる(ステップS1110)。この再帰的衝突検出処理については、図30を参照して詳細に説明する。
図30は、本発明の第2の実施の形態における画像処理装置100による撮影区間検出処理の処理手順のうちの再帰的衝突検出処理(図29に示すステップS1110の処理手順)の一例を示すフローチャートである。ここで、入力データは、衝突レベル0格子要素対リストと、階層的格子領域データ1の最上位レベルのa番目の格子要素Eaおよび格子サイズSaと、階層的格子領域データ2の最上位レベルのb番目の格子要素Ebおよび格子サイズSbとである。また、出力データは、衝突レベル0格子要素対リストである。
図31は、本発明の第2の実施の形態における画像処理装置100による格子領域の衝突判定処理および要素レベルダウン判定処理を模式的に示す図である。これらの各処理については、図30を参照して詳細に説明する。
最初に、格子領域の衝突判定処理が行われる(ステップS1111)。例えば、図31(a)に示す格子領域A(格子要素Eaおよび格子サイズSaの格子領域)441と、格子領域B(格子要素Ebおよび格子サイズSbの格子領域)442とを例にして説明する。このように、格子要素の格子番号および格子サイズにより、比較対象となる2つの格子領域の位置およびサイズを特定することができる。そして、比較対象となる2つの格子領域が重なっているか否かが判断される。例えば、図31(a)に示す例では、格子領域A(441)および格子領域B(442)の一部が重なっている。このため、衝突ありと判定される。一方、比較対象となる2つの格子領域が重なっていない場合には、衝突なしと判定される。
続いて、衝突ありか否かが判断される(ステップS1112)。衝突なしと判定された場合には、再帰的衝突検出処理の動作を終了する。一方、衝突ありと判定された場合には(ステップS1112)、格子要素Eaがレベル0であるか否かが判断される(ステップS1113)。
格子要素Eaがレベル0でない場合には(ステップS1113)、Ta=「格子要素Eaの子要素の格子サイズ」とし(ステップS1114)、格子要素Ebがレベル0であるか否かが判断される(ステップS1115)。
格子要素Ebがレベル0でない場合には(ステップS1115)、Tb=「格子要素Ebの子要素の格子サイズ」とし(ステップS1116)、要素レベルダウン判定処理が行われる(ステップS1117)。例えば、図31(b)に示す格子要素Eaの格子領域A(格子サイズSaの格子領域(子要素の格子サイズTa))443と、格子要素Ebの格子領域B(格子サイズSbの格子領域(子要素の格子サイズTb))444とを例にして説明する。例えば、比較対象となる2つの格子領域(その一部が重なっている)について、格子サイズを比較(第1比較)して、格子サイズが大きい格子領域を特定する。そして、格子サイズが小さい格子領域と、格子サイズが大きい格子領域の子要素の格子サイズとをさらに比較(第2比較)する。この比較(第2比較)の結果、最初の比較(第1比較)で格子サイズが小さかった格子領域が小さい場合には、最初の比較で格子サイズが大きかった格子領域をレベルダウンすると判定する。一方、その比較(第2比較)の結果、最初の比較(第1比較)で格子サイズが小さかった格子領域が大きい場合には、最初の比較対象となった各格子領域の子要素の格子サイズを比較(第3比較)する。この比較(第3比較)の結果、子要素の格子サイズが大きい格子領域をレベルダウンすると判定する。
具体的には、格子領域A(443)の格子サイズSaと、格子領域B(444)の格子サイズSbとを比較すると、格子サイズSbが大きい。このため、格子領域A(443)の格子サイズSaと、格子領域B(444)の子要素の格子サイズTbとを比較する。この比較の結果、格子領域A(443)の格子サイズSaが大きい。このため、格子領域A(443)の子要素の格子サイズTaと、格子領域B(444)の子要素の格子サイズTbとを比較する。この比較の結果、格子領域B(444)の子要素の格子サイズTbが大きいため、格子領域B(444)をレベルダウンすると判定される。この場合には、格子要素Ebレベルダウンが出力される。
続いて、格子要素Eaレベルダウンが出力されたか否かが判断され(ステップS1118)、格子要素Eaレベルダウンが出力された場合には、格子要素Eaの子要素について、再帰的衝突判定処理が行われる(ループL1119、ステップS1120)。一方、格子要素Ebレベルダウンが出力された場合には(ステップS1118)、格子要素Ebの子要素について、再帰的衝突判定処理が行われる(ループL1121、ステップS1122)。これらの再帰的衝突判定処理については、ステップS1110の処理と同様であるため、ここでの説明を省略する。
また、格子要素Eaがレベル0である場合には(ステップS1113)、格子要素Ebがレベル0であるか否かが判断される(ステップS1123)。格子要素Ebがレベル0でない場合には(ステップS1123)、Tb=「格子要素Ebの子要素の格子サイズ」とし(ステップS1124)、ループL1121に進む。一方、格子要素Ebがレベル0である場合には(ステップS1123)、レベル0格子要素対(Ea,Eb)が衝突レベル0格子要素対リストに追加され(ステップS1125)、再帰的衝突検出処理の動作を終了する。
図32は、本発明の第2の実施の形態における画像処理装置100による撮影区間検出処理の処理手順のうちの撮影区間検出処理(図27に示すステップS1150の処理手順)の一例を示すフローチャートである。ここで、入力データは、衝突レベル0格子要素対リスト(例えば、((Ea[0],Eb[0]),(Ea[1],Eb[1]),…,(Ea[N−1],Eb[N−1])))である。ここで、(Ea[i],Eb[i])は、レベル0格子要素対である。また、Nは、衝突レベル0格子要素対の数である。また、出力データは、ターゲット領域通過撮影区間情報リストである。
図33は、本発明の第2の実施の形態における画像処理装置100による線分と格子領域の衝突判定処理を模式的に示す図である。これらの各処理については、図32を参照して詳細に説明する。
最初に、ターゲット領域通過撮影区間情報リストが初期化される(ステップS1151)。続いて、レベル0格子番要素対について、以下の処理が繰り返し行われる(ループL1152)。また、格子要素Ea[i]の線分について、以下の処理が繰り返し行われる(ループL1153)。すなわち、区間番号pn=「Ea[i]の区間番号リスト内のj番目の区間番号」とし、線分l=「区間番号pnの線分」とし、格子要素E=Eb[i]とする(ステップS1154)。
続いて、線分lおよび格子要素Eが未チェックであるか否かが判断され(ステップS1155)、線分lおよび格子要素Eがチェック済みである場合には、ステップS1157に進む。一方、線分lおよび格子要素Eが未チェックである場合には(ステップS1155)、線分と格子領域の衝突判定処理が行われる(ステップS1156)。
例えば、図33に示す線分l(撮影点paおよびpbを結ぶ線分)と、格子要素Eの格子領域450(格子番号(M,N)、格子サイズSの格子領域)とを例にして説明する。例えば、線分lが格子要素Eの格子領域に含まれるか否かにより衝突判定が行われる。例えば、図33に示す例では、線分lが格子要素Eの格子領域450に含まれるため、衝突ありと判定される。
続いて、衝突ありと判定されたか否かが判断され(ステップS1157)、衝突なしと判定された場合には、ループL1153の最初に戻る。一方、衝突ありと判定された場合には(ステップS1157)、撮影区間情報リストへの区間番号追加処理が行われる(ステップS1170)。この区間番号追加処理については、図34を参照して詳細に説明する。
図34は、本発明の第2の実施の形態における画像処理装置100による撮影区間検出処理の処理手順のうちの区間番号追加処理(図32に示すステップS1170の処理手順)の一例を示すフローチャートである。ここで、入力データは、撮影区間情報リスト(PRI[0],…,PRI[N−1])と、区間番号pnとである。また、出力データは、撮影区間情報リストである。ここで、Nは、撮影区間情報数を示す値であり、PRIは、撮影区間情報(=(先頭区間番号、区間数))である。
最初に、入力データである撮影区間情報リストについて、以下の処理が繰り返し行われる(ループL1171)。すなわち、区間番号pnおよびPRI[i]の先頭区間番号が比較され、区間番号pn<PRI[i]の先頭区間番号であるか否かが判断される(ステップS1172)。区間番号pn<PRI[i]の先頭区間番号である場合には(ステップS1172)、(pn,1)の撮影区間情報をPRI[i]の前に挿入して(ステップS1175)、区間番号追加処理の動作を終了する。
また、区間番号pn<PRI[i]の先頭区間番号でない場合には(ステップS1172)、区間番号(pn+1)およびPRI[i]の先頭区間番号が比較される。そして、区間番号(pn+1)=PRI[i]の先頭区間番号であるか否かが判断される(ステップS1173)。区間番号(pn+1)=PRI[i]の先頭区間番号である場合には(ステップS1173)、PRI[i]の先頭区間番号=pnとし、PRI[i]の区間数=「PRI[i]の区間数+1」とする(ステップS1176)。
また、区間番号(pn+1)=PRI[i]の先頭区間番号でない場合には(ステップS1173)、「pn+PRI[i]の区間数」およびPRI[i]の先頭区間番号が比較される。そして、pn+PRI[i]の区間数=PRI[i]の先頭区間番号であるか否かが判断される(ステップS1174)。pn+PRI[i]の区間数=PRI[i]の先頭区間番号でない場合には(ステップS1174)、ループL1171の最初に戻る。一方、pn+PRI[i]の区間数=PRI[i]の先頭区間番号である場合には(ステップS1174)、i=(N−1)であるか否かが判断される(ステップS1177)。
i=(N−1)である場合には(ステップS1177)、PRI[i]の区間数=「PRI[i]の区間数+1」とし(ステップS1181)、区間番号追加処理の動作を終了する。
一方、i=(N−1)でない場合には(ステップS1177)、(pn+1)=PRI[i+1]の先頭区間番号であるか否かが判断される(ステップS1178)。(pn+1)=PRI[i+1]の先頭区間番号でない場合には(ステップS1178)、ステップS1181に進む。一方、(pn+1)=PRI[i+1]の先頭区間番号である場合には(ステップS1178)、PRI[i]の区間数=「PRI[i]の区間数+PRI[i+1]の区間数+1」とする(ステップS1179)。そして、PRI[i+1]が削除される(ステップS1180)。
[撮影領域データの生成例]
次に、動画コンテンツの撮影領域データを生成する例を示す。この撮影領域データは、撮像時における撮影範囲(撮影距離に対応する領域)を特定するためのデータである。また、撮影領域データは、最下位レベル(レベル0)の格子領域群の集合領域に、撮影領域を含む階層的格子領域データである。そして、図15に示す例と同様に、レベル0の格子要素にその格子領域と接触する区間内撮影領域群の区間番号リスト(番号昇順でソート)がリンクされる。
図35は、本発明の第2の実施の形態における画像処理装置100による撮影領域データ作成処理の入出力例を示す図である。撮影領域データは、各撮影区間の撮影領域が含まれるレベル0格子領域群を求め、これらを階層的格子領域データとしてマージしていくことにより作成することができる。
図35(a)には、入力データである撮影軌跡(撮影点pのリスト)451を示す。図35(b)には、出力データである撮影領域階層的格子領域データ(レベル0の格子領域群452)を示す。また、撮影領域階層的格子領域データ(レベル0の格子領域群452)における太線の矩形は、撮影軌跡データに対応する格子領域である。
図36は、本発明の第2の実施の形態における画像処理装置100による撮影領域データ生成処理の処理手順の一例を示すフローチャートである。この処理手順は、図17に示す処理手順の変形例であるため、共通する部分については、同一の符号を付して、これらの説明を省略する。
ループL1002において、撮影区間線分のレベル0格子番号リスト作成処理が行われた後に(ステップS1010)、撮影区間内の撮影領域が含まれるレベル0格子領域群の格子番号リスト作成処理が行われる(ステップS1200)。
図37は、本発明の第2の実施の形態における画像処理装置100による撮影区間内の撮影領域が含まれるレベル0格子番号リスト作成処理の入出力例を示す図である。
図37(a)には、入力データである線分のレベル0格子番号リストをレベル0の格子領域群453により模式的に示す。このリストは、例えば、格子番号の昇順でソートされる。例えば、線分のレベル0格子番号リストを、((m[0],n[0]),(m[1],n[1]),…,(m[T],n[T]))として表すことができる。図37(b)には、出力データである区間内撮影領域のレベル0格子番号リストをレベル0の格子領域群454により模式的に示す。
例えば、撮影対象領域から撮影点までの距離の上限値をレベル0の格子サイズS0に設定することにより、撮影対象領域からS0以上の距離にある撮影点は、撮影区間としては検出されなくなる。なお、レベル0の格子サイズS0に設定する撮影距離は、ユーザに設定させてもよいし、撮影区間内のカメラ情報(被写体距離の平均値等の属性情報)から取得するようにしてもよい。
[区間内撮影情報および区間内撮影領域情報のデータ構造例]
次に、ターゲット領域の撮影区間の検出を行うための区間内撮影情報および区間内領域情報のデータ構造例およびその生成例について説明する。
図38および図39は、本発明の第2の実施の形態における画像処理装置100により生成される区間内撮影情報および区間内領域情報の一例を示す図である。
図38(a)には、区間内撮影情報の一例を示す。ここで、動画コンテンツにおける区間内の撮影領域に関する情報として、撮影時に記録される区間内撮影情報を定義する。区間の開始点の撮影点情報として、撮影点pa、撮影方向(471)θa、撮影画角φaを定義する。この場合における撮影範囲472を斜線で示す。また、区間の終了点の撮影点情報として、撮影点pb、撮影方向(473)θb、撮影画角φbを定義する。この場合における撮影範囲474を斜線で示す。
図38(b)には、区間内撮影情報に基づいて求められる区間内の撮影領域を表す情報(区間内撮影領域情報)の一例を示す。ここで、区間内撮影領域情報を定義する。区間端点をp1およびp2とし、境界線方向をl1およびl2とする。また、区間内撮影タイプとして、図39に示す4タイプ(タイプA乃至D)をその一例として示す。
区間内撮影方向θ1およびθ2は、撮影方向θaおよびθbに対応し、区間撮影画角φmaxは、撮影方向φaおよびφbにより特定される角度である。すなわち、区間撮影画角φmax=max(φa,φb)である。この場合における撮影領域480を斜線で示す。
図39には、4タイプ(タイプA乃至D)の区間内撮影タイプを示す。なお、タイプA乃至Dにおける撮影領域をグレーとして示す。
図40は、本発明の第2の実施の形態における画像処理装置100による区間内撮影領域情報変換処理の処理手順の一例を示すフローチャートである。この処理手順では、区間内撮影情報(図38(a)に示す)から区間内撮影領域情報(図38(b)に示す)に変換する処理について説明する。ここで、入力データは、区間内撮影情報(区間開始点の撮影点情報(撮影点pa、撮影方向θa、撮影画角φa)、区間終了点の撮影点情報(撮影点pb、撮影方向θb、撮影画角φb)である。また、出力データは、区間内撮影領域情報(区間内撮影領域タイプ(A乃至D)、区間端点p1、区間端点p2、境界線方向ベクトルl1およびl2)である。
最初に、境界線方向ベクトル角の計算処理が行われる(ステップS1310)。この境界線方向ベクトル角の計算処理については、図42を参照して詳細に説明する。
続いて、直線と点の位置判定処理が行われる(ステップS1320)。この位置判定処理については、図44を参照して詳細に説明する。
続いて、区間内撮影領域タイプ判定処理が行われる(ステップS1340)。この区間内撮影領域タイプ判定処理については、図47等を参照して詳細に説明する。
図41は、本発明の第2の実施の形態における画像処理装置100による境界線方向ベクトル角の計算処理の流れを模式的に示す図である。
図41(a)および(b)には、(撮影方向θa、撮影画角φa)および(撮影方向θb、撮影画角φb)を模式的に示す。この計算処理では、これらの各データが入力データとされる。図41(c)には、図41(a)および(b)に示す入力データにより計算された境界線方向ベクトル角Ψ1およびΨ2を模式的に示す。
図42は、本発明の第2の実施の形態における画像処理装置100による区間内撮影領域情報変換処理の処理手順のうちの計算処理(図40に示すステップS1310の処理手順)の一例を示すフローチャートである。
最初に、θab(=θb−θa)が算出される(ステップS1311)。続いて、sin(θab)≧0であるか否かが判断される(ステップS1312)。
例えば、図41(a)に示すように、sin(θab)≧0である場合には(ステップS1312)、Δθ=θabとし(ステップS1313)、θ1=θa、θ2=θbとし(ステップS1314)、ステップS1317に進む。
一方、図41(b)に示すように、sin(θab)≧0でない場合には(ステップS1312)、Δθ=−θabとし(ステップS1315)、θ1=θb、θ2=θaとし(ステップS1316)、ステップS1317に進む。
続いて、φmax=max(φa,φb)とし(ステップS1317)、ψ1=θ1−(φmax/2)、ψ2=θ2+(φmax/2)として(ステップS1318)、境界線方向ベクトル角の計算処理の動作を終了する。
図43は、本発明の第2の実施の形態における画像処理装置100による直線と点の位置判定処理を模式的に示す図である。図43には、区間の開始点paおよび終了点pbと、境界線方向ベクトル角Ψ1およびΨ2とを示す。この位置判定処理では、これらの各データが入力データとされる。また、この位置判定処理では、判定値RΨ1およびRΨ2が出力データとされる。
図44は、本発明の第2の実施の形態における画像処理装置100による区間内撮影領域情報変換処理の処理手順のうちの位置判定処理(図40に示すステップS1320の処理手順)の一例を示すフローチャートである。
最初に、直線abの直線パラメータが算出される(ステップS1321)。すなわち、点pa=(ua,va)とし、方向ベクトルlab=((ub−ua),(vb−va))が算出される。
続いて、点pψ1=(cos(ψ1),sin(ψ1))、点pψ2=(cos(ψ2),sin(ψ2))が算出される(ステップS1322)。
続いて、直線および点の位置を判定するための判定値算出処理が行われ(ステップS1323、S1324)、判定値RΨ1およびRΨ2が出力される。この判定値算出処理については、図45を参照して詳細に説明する。
図45は、本発明の第2の実施の形態における画像処理装置100による判定値算出処理を模式的に示す図である。図45(a)には、直線パラメータを、点q=(uq,vq)、方向ベクトルl=(ul,vl)とした場合における直線および点pの位置関係を示す。
図45(b)には、判定値算出処理の一例(フローチャート)を示す。すなわち、判定値は(up−uq)ul+(vp−vq)vlにより求めることができる(ステップS1330)。同様に、ステップS1323、S1324における判定値RΨ1およびRΨ2についても算出することができる。
図46は、本発明の第2の実施の形態における画像処理装置100による区間内撮影領域タイプ判定処理を模式的に示す図である。図46(a)および(b)には、区間内撮影領域タイプ判定処理の対象となる2つの例を示す。
図46(a)および(b)には、区間の開始点paおよび終了点pbと、境界線方向ベクトル角Ψ1およびΨ2と、判定値RΨ1およびRΨ2とを示す。これらの各データが入力データとされる。また、区間内撮影領域タイプ(タイプA乃至D)と、区間端点p1およびp2と、境界線方向ベクトルl1およびl2とが出力データとされる。
図47は、本発明の第2の実施の形態における画像処理装置100による区間内撮影領域情報変換処理の処理手順のうちの区間内撮影領域タイプ判定処理(図40に示すステップS1340の処理手順)の一例を示すフローチャートである。
最初に、Δψ(=ψ2−ψ1)が算出される(ステップS1341)。続いて、sin(Δψ)≧0であるか否かが判断される(ステップS1342)。sin(Δψ)≧0である場合には(ステップS1342)、区間内撮影領域タイプAB判定処理が行われる(ステップS1350)。この区間内撮影領域タイプAB判定処理については、図49を参照して詳細に説明する。一方、sin(Δψ)≧0でない場合には(ステップS1342)、区間内撮影領域タイプCD判定処理が行われる(ステップS1370)。この区間内撮影領域タイプCD判定処理については、図51を参照して詳細に説明する。
続いて、境界線方向ベクトルl1およびl2が算出される(ステップS1343)。すなわち、境界線方向ベクトルl1=(cos(ψ1),sin(ψ1))、境界線方向ベクトルl2=(cos(ψ2),sin(ψ2))が算出される。
図48は、本発明の第2の実施の形態における画像処理装置100による区間内撮影領域タイプAB判定処理を模式的に示す図である。図48(a)および(c)には、区間内撮影領域タイプAと判定される場合における一例を示し、図48(b)および(d)には、区間内撮影領域タイプBと判定される場合における一例を示す。
また、図48(a)乃至(d)には、区間の開始点paおよび終了点pbと、判定値RΨ1およびRΨ2とを示す。これらの各データが入力データとされる。また、区間内撮影領域タイプ(タイプAまたはB)と、区間端点p1およびp2とが出力データとされる。
図49は、本発明の第2の実施の形態における画像処理装置100による区間内撮影領域情報変換処理の処理手順のうちの区間内撮影領域タイプAB判定処理(図47に示すステップS1350の処理手順)の一例を示すフローチャートである。
最初に、判定値Rψ1≧0であるか否かが判断される(ステップS1351)。判定値Rψ1≧0である場合には(ステップS1351)、判定値Rψ2≧0であるか否かが判断される(ステップS1352)。判定値Rψ2≧0である場合には(ステップS1352)、区間内撮影領域タイプAであると判定される(ステップS1353)。この場合は、図48(a)に示す場合に対応する。続いて、区間端点p1=pa、区間端点p2=pbとし(ステップS1354)、区間内撮影領域タイプAB判定処理の動作を終了する。
また、判定値Rψ2≧0でない場合には(ステップS1352)、区間内撮影領域タイプBであると判定される(ステップS1355)。この場合は、図48(b)に示す場合に対応する。続いて、区間端点p1=pb、区間端点p2=paとし(ステップS1356)、区間内撮影領域タイプAB判定処理の動作を終了する。
また、判定値Rψ1≧0でない場合には(ステップS1351)、判定値Rψ2≧0であるか否かが判断される(ステップS1357)。判定値Rψ2≧0である場合には(ステップS1357)、区間内撮影領域タイプAであると判定される(ステップS1358)。この場合は、図48(c)に示す場合に対応する。続いて、区間端点p1=pa、区間端点p2=pbとし(ステップS1359)、区間内撮影領域タイプAB判定処理の動作を終了する。
また、判定値Rψ2≧0でない場合には(ステップS1357)、区間内撮影領域タイプBであると判定される(ステップS1360)。この場合は、図48(d)に示す場合に対応する。続いて、区間端点p1=pa、区間端点p2=pbとし(ステップS1361)、区間内撮影領域タイプAB判定処理の動作を終了する。
図50は、本発明の第2の実施の形態における画像処理装置100による区間内撮影領域タイプCD判定処理を模式的に示す図である。図50(a)および(d)には、区間内撮影領域タイプDと判定される場合における一例を示し、図50(b)および(c)には、区間内撮影領域タイプCと判定される場合における一例を示す。
また、図50(a)乃至(d)には、区間の開始点paおよび終了点pbと、判定値RΨ1およびRΨ2とを示す。これらの各データが入力データとされる。また、区間内撮影領域タイプ(タイプCまたはD)と、区間端点p1およびp2とが出力データとされる。
図51は、本発明の第2の実施の形態における画像処理装置100による区間内撮影領域情報変換処理の処理手順のうちの区間内撮影領域タイプCD判定処理(図47に示すステップS1370の処理手順)の一例を示すフローチャートである。
最初に、判定値Rψ1≧0であるか否かが判断される(ステップS1371)。判定値Rψ1≧0である場合には(ステップS1371)、判定値Rψ2≧0であるか否かが判断される(ステップS1372)。判定値Rψ2≧0である場合には(ステップS1372)、区間内撮影領域タイプDであると判定される(ステップS1373)。この場合は、図50(a)に示す場合に対応する。続いて、区間端点p1=pa、区間端点p2=pbとし(ステップS1374)、区間内撮影領域タイプCD判定処理の動作を終了する。
また、判定値Rψ2≧0でない場合には(ステップS1372)、区間内撮影領域タイプCであると判定される(ステップS1375)。この場合は、図50(b)に示す場合に対応する。続いて、区間端点p1=pb、区間端点p2=paとし(ステップS1376)、区間内撮影領域タイプCD判定処理の動作を終了する。
また、判定値Rψ1≧0でない場合には(ステップS1371)、判定値Rψ2≧0であるか否かが判断される(ステップS1377)。判定値Rψ2≧0である場合には(ステップS1377)、区間内撮影領域タイプCであると判定される(ステップS1378)。この場合は、図50(c)に示す場合に対応する。続いて、区間端点p1=pa、区間端点p2=pbとし(ステップS1379)、区間内撮影領域タイプCD判定処理の動作を終了する。
また、判定値Rψ2≧0でない場合には(ステップS1377)、区間内撮影領域タイプDであると判定される(ステップS1380)。この場合は、図50(d)に示す場合に対応する。続いて、区間端点p1=pb、区間端点p2=paとし(ステップS1381)、区間内撮影領域タイプCD判定処理の動作を終了する。
[ターゲット領域の撮影区間検出例]
次に、ターゲット領域データおよび撮影領域データに基づいて特定撮影対象の領域を撮影している撮影区間を抽出する例について説明する。
図52は、本発明の第2の実施の形態における画像処理装置100によるターゲット領域撮影区間検出処理の処理手順の一例を示すフローチャートである。この処理手順では、撮影領域階層的格子領域データおよびターゲット領域階層的格子領域データに基づいてターゲット領域を撮影領域として含む撮影区間を検出する処理について説明する。ここで、入力データは、撮影領域階層的格子領域データおよびターゲット領域階層的格子領域データである。また、出力データは、撮影領域撮影区間情報リストである。
最初に、撮影軌跡とターゲット領域の階層的格子領域の衝突検出処理が行われる(ステップS1100)。この衝突検出処理では、大領域から小領域に階層的な衝突検出を行う。これにより、最初から小領域同士の大量の衝突判定を行う場合と比較して、全体的に衝突判定処理の回数を抑えることができ、プレイリスト生成に係る処理を削減することができる。この衝突検出処理は、図27に示すステップS1100と同様であるため、同一の符号を付して、ここでの説明を省略する。
続いて、ターゲット領域撮影区間検出処理が行われる(ステップS1400)。このターゲット領域撮影区間検出処理については、図53を参照して詳細に説明する。
図53は、本発明の第2の実施の形態における画像処理装置100によるターゲット領域撮影区間検出処理の処理手順のうちの検出処理(図52に示すステップS1400の処理手順)の一例を示すフローチャートである。なお、この処理手順は、図32に示す処理手順の変形例である。このため、共通する部分には同一の符号を付して、これらの説明を省略する。
また、入力データは、図32に示す処理手順と同様に、衝突レベル0格子要素対リスト(例えば、((Ea[0],Eb[0]),(Ea[1],Eb[1]),…,(Ea[N−1],Eb[N−1])))である。ここで、(Ea[i],Eb[i])は、レベル0格子要素対である。また、Nは、衝突レベル0格子要素対の数である。また、出力データは、ターゲット領域撮影区間情報リストである。
図54乃至図56は、本発明の第2の実施の形態における画像処理装置100による区間内撮影領域と格子領域の衝突判定処理および区間内撮影領域と点の衝突判定処理を模式的に示す図である。これらの各処理については、図53を参照して詳細に説明する。
最初に、ターゲット領域撮影区間情報リストが初期化される(ステップS1401)。続いて、レベル0格子番要素対について、以下の処理が繰り返し行われる(ループL1152)。また、格子要素Ea[i]の線分について、以下の処理が繰り返し行われる(ループL1153)。すなわち、区間番号pn=「Ea[i]の区間番号リスト内のj番目の区間番号」とし、区間内撮影領域情報PRAI=「区間番号pnの区間内撮影領域情報」とし、格子要素E=Eb[i]とする(ステップS1404)。
続いて、区間内撮影領域情報PRAおよび格子要素Eが未チェックであるか否かが判断され(ステップS1405)、区間内撮影領域情報PRAおよび格子要素Eがチェック済みである場合には、ステップS1157に進む。一方、区間内撮影領域情報PRAおよび格子要素Eが未チェックである場合には(ステップS1405)、区間内撮影領域と格子領域の衝突判定処理が行われる(ステップS1406)。
例えば、図54(a)に示す撮影領域500と、格子要素Eの格子領域510(格子番号(M,N)、格子サイズSの格子領域)とを例にして説明する。この場合における入力データは、区間内撮影領域情報PRAIと、区間端点p1およびp2と、方向ベクトルl1およびl2と、格子要素Eの格子番号(M,N)および格子サイズSとである。また、出力データは、衝突あり、衝突なしである。例えば、撮影領域に格子要素Eの格子領域の少なくとも一部が含まれるか否かにより衝突判定が行われる。例えば、図54(a)に示す例では、撮影領域500に格子要素Eの格子領域510の一部が含まれるため、衝突ありと判定される。
また、図54(b)乃至図56には、区間内撮影領域と点の衝突判定処理を示す。この場合における入力データは、区間内撮影領域情報PRAIと、区間端点p1およびp2と、方向ベクトルl1およびl2と、点pとである。また、出力データは、衝突あり、衝突なしである。なお、図55(a)には、タイプAに関する区間内撮影領域と点の衝突判定処理を示し、図55(b)には、タイプBに関する区間内撮影領域と点の衝突判定処理を示す。また、図56(a)には、タイプCに関する区間内撮影領域と点の衝突判定処理を示し、図56(b)には、タイプDに関する区間内撮影領域と点の衝突判定処理を示す。
続いて、衝突ありと判定されたか否かが判断され(ステップS1157)、衝突なしと判定された場合には、ループL1153の最初に戻る。一方、衝突ありと判定された場合には(ステップS1157)、ターゲット領域撮影区間情報リストへの区間番号追加処理が行われる(ステップS1410)。この区間番号追加処理は、図34に示す処理手順と略同様であるため、ここでの説明を省略する。
[ユーザによる指定操作例]
次に、1または複数の動画コンテンツについて地図上に表示された撮影軌跡上の点を手動操作で指定することにより特定の撮影区間を指定する指定方法について説明する。
図57は、本発明の第2の実施の形態における画像処理装置100によるユーザ指定点検出処理の流れを模式的に示す図である。
図57(a)には、撮影軌跡の階層的格子領域データ(格子領域群520により特定されるデータ)と、ユーザ指定点pとを模式的に示す。ユーザ指定点検出処理では、これらの各データが入力データとされる。なお、図57(a)には、撮影軌跡の階層的格子領域データに対応する撮影点番号0乃至3を示す。
図57(b)には、図57(a)に示す状態で検出された撮影点番号521を模式的に示す。このように、ユーザ指定点検出処理では、撮影軌跡の階層的格子領域データと、ユーザ指定点とに基づいて、撮影点番号(レベル0)を検出する。
図58は、本発明の第2の実施の形態における画像処理装置100によるユーザ指定点検出処理の処理手順の一例を示すフローチャートである。この処理手順は、撮影軌跡階層的格子領域データと、ユーザが表示画面上で指定した指定点とに基づいて、その指定点に最も近い撮影点を検出する処理である。
最初に、ユーザ指定レベル0格子領域の検出処理が行われる(ステップS1500)。この検出処理は、ユーザ指定点が含まれるレベル0格子領域を検出する処理である。なお、この検出処理については、図60を参照して詳細に説明する。
続いて、撮影区間リストからのユーザ指定撮影点検出処理が行われる(ステップS1550)。この検出処理は、ステップS1500において検出された格子領域を通過する撮影区間の両端の撮影点群からユーザ指定点に最も近い撮影点を検出する処理である。なお、この検出処理については、図64を参照して詳細に説明する。
図59は、本発明の第2の実施の形態における画像処理装置100によるユーザ指定レベル0格子領域の検出処理の流れを模式的に示す図である。
図59(a)には、撮影軌跡の階層的格子領域データ(格子領域群520により特定されるデータ)と、ユーザ指定点pとを模式的に示す。この検出処理では、これらの各データが入力データとされる。
図59(b)には、図59(a)に示す状態で検出されたレベル0格子領域(ユーザ指定点が含まれる格子領域)522を模式的に示す。このように、ユーザ指定レベル0格子領域の検出処理では、撮影軌跡の階層的格子領域データと、ユーザ指定点とに基づいて、ユーザ指定点が含まれるレベル0格子領域を検出する。
図60は、本発明の第2の実施の形態における画像処理装置100によるユーザ指定点検出処理の処理手順のうちの検出処理(図58に示すステップS1500の処理手順)の一例を示すフローチャートである。ここで、入力データは、撮影軌跡の階層的格子領域データと、ユーザ指定点とである。また、出力データは、ユーザ指定レベル0格子領域(または検出なし)である。
最初に、入力データである撮影軌跡の階層的格子領域データについて、最上位レベルの格子領域について、以下の処理が繰り返し行われる(ループL1501)。ここで、Aは、階層的格子領域データの最上位レベルの格子要素数(格子領域数)を示す値である。
続いて、ユーザ指定レベル0格子領域の再帰的検出処理が行われる(ステップS1510)。この再帰的検出処理については、図61を参照して詳細に説明する。
続いて、再帰的検出処理により、レベル0格子要素が検出されたか否かが判断され(ステップS1502)、検出されない場合には、ループL1501の最初に戻る。一方、再帰的検出処理により、レベル0格子要素が検出された場合には(ステップS1502)、検出されたレベル0格子要素E0を出力する(ステップS1503)。
図61は、本発明の第2の実施の形態における画像処理装置100によるユーザ指定点検出処理の処理手順のうちの再帰的検出処理(図60に示すステップS1510の処理手順)の一例を示すフローチャートである。
図62は、本発明の第2の実施の形態における画像処理装置100による点と格子領域の衝突判定処理を模式的に示す図である。この衝突判定処理については、図61を参照して詳細に説明する。ここで、入力データは、格子要素Eおよび格子サイズSと、ユーザ指定点pとである。また、出力データは、ユーザ指定レベル0格子要素(または検出なし)である。
最初に、格子番号(M,N)=格子要素Eの格子番号とし(ステップS1511)、点p1=(MS,NS)、点p2=((M+1)S,(N+1)S)とする(ステップS1512)。
続いて、点と格子領域の衝突判定処理が行われる(ステップS1520)。例えば、図62に示すように、入力データである点pと、格子領域(点p1=(MS,NS)、点p2=((M+1)S,(N+1)S)により特定される)525とについて説明する。この場合には、点pが格子領域525に含まれるため、衝突ありと判定される。一方、点pが格子領域525に含まれない場合には、衝突なしと判定される。
続いて、衝突ありと判定されたか否かが判断され(ステップS1513)、衝突なしと判定された場合には、検出なしを出力する(ステップS1514)。一方、衝突ありと判定された場合には(ステップS1513)、格子要素Eがレベル0であるか否かが判断される(ステップS1515)。
格子要素Eがレベル0である場合には(ステップS1515)、格子要素Eを出力する(ステップS1516)。格子要素Eがレベル0でない場合には(ステップS1515)、格子要素Eの子要素について、再帰的検出処理を繰り返し行う(ループL1517、ステップS1530)。この再帰的検出処理については、ステップS1510と同様であるため、ここでの説明を省略する。そして、再帰的検出処理により、検出なしが出力されたか否かが判断され(ステップS1518)、検出なしが出力された場合には、再帰的検出処理を繰り返し行う(ループL1517、ステップS1530)。一方、検出なしが出力されない場合には(ステップS1518)、レベル0格子要素E0を出力する(ステップS1519)。
図63は、本発明の第2の実施の形態における画像処理装置100による撮影区間リストからのユーザ指定撮影点検出処理の流れを模式的に示す図である。
図63(a)には、ユーザ指定レベル0格子領域の検出処理により検出されたユーザ指定レベル0格子要素Eと、ユーザ指定点pとを模式的に示す。この検出処理では、これらの各データが入力データとされる。
図63(b)には、図63(a)に示す状態で検出された撮影点番号2(矩形の枠を付す)を模式的に示す。このように、撮影区間リストからのユーザ指定撮影点検出処理では、ユーザ指定レベル0格子要素と、ユーザ指定点とに基づいて、撮影点番号を検出する。
図64は、本発明の第2の実施の形態における画像処理装置100によるユーザ指定点検出処理の処理手順のうちのユーザ指定撮影点検出処理(図58に示すステップS1550の処理手順)の一例を示すフローチャートである。ここで、入力データは、ユーザ指定レベル0格子要素Eと、ユーザ指定点pとである。また、出力データは、撮影点番号(または検出なし)である。
最初に、Dmin=∞(無限大値)とし(ステップS1551)、入力データである格子要素Eについて、以下の処理を繰り返し行う(ループL1552)。すなわち、区間番号n=「格子要素Eの区間番号リスト内のi番目の区間番号」とし、撮影点pa(=(ua,va))=撮影点番号nの撮影点とし、撮影点pb(=(ub,vb))=撮影点番号(n+1)の撮影点とする(ステップS1553)。続いて、撮影点paが未チェックであるか否かが判断される(ステップS1554)。
撮影点paが未チェックである場合には(ステップS1554)、D=(ua−u)+(va−v)とし(ステップS1555)、Dmin>Dであるか否かが判断される(ステップS1556)。Dmin>Dである場合には(ステップS1556)、Dmin=Dとし、撮影点番号N=nとして(ステップS1557)、ステップS1558に進む。また、Dmin>Dでない場合には(ステップS1556)、ステップS1558に進む。
続いて、D=(ub−u)+(vb−v)とし(ステップS1558)、Dmin>Dであるか否かが判断される(ステップS1559)。Dmin>Dである場合には(ステップS1559)、Dmin=Dとし、撮影点番号N=n+1として(ステップS1560)、ループL1552の最初に戻る。また、Dmin>Dでない場合には(ステップS1559)、ループL1552の最初に戻る。
そして、ループL1552の処理が終了した場合には、撮影点番号Nを出力する(ステップS1561)。
[ユーザ指定点からの撮影区間情報の生成例]
上述したユーザ指定点検出処理により検出された2つのユーザ指定点を用いて、撮影点間の撮影区間情報(クリップ情報)を生成する。この場合における入力データは、ユーザ指定の撮影点番号N1およびN2である。また、出力データは、撮影区間情報(先頭区間番号N、区間数C)である。
例えば、ユーザ指定の撮影点番号N1およびN2を比較することにより、先頭区間番号Nを特定する。例えば、N1<N2の場合には、先頭区間番号N=N1となり、区間数C=N2−N1となる。一方、N1≧N2の場合には、先頭区間番号N=N2となり、区間数C=N1−N2となる。これにより、プレイリスト情報を生成することができる。
上述した各処理を行うことにより、特定撮影区間の絞込みを行うことができる。すなわち、大量の動画コンテンツ群から特定撮影区間群を自動的に抽出して、プレイリスト情報を容易に作成することができる。また、本発明の第2の実施の形態における画像処理装置100のアプリケーションは、例えば、次の(1)乃至(6)の機能を有する。
(1)表示画面上のユーザ操作による撮影軌跡上のポイント指定による撮影区間の手動抽出機能。
(2)表示画面上のユーザ操作による撮影対象領域の手動指定機能。
(3)地図データを利用した地名指定による撮影対象領域の自動指定機能。
(4)撮影対象領域内を通過する撮影区間の自動抽出機能。
(5)撮影対象領域を撮影する撮影区間の自動抽出機能。
(6)抽出された撮影区間(クリップ)からのプレイリスト作成機能。
これらの各機能により表示される表示画面の遷移例を以下で示す。
[指定された編集点に基づくプレイリストの生成例]
図65乃至図69、図72乃至図79、図82乃至図94は、本発明の第2の実施の形態における表示部180に表示される表示画面の遷移例を示す図である。
最初に、100個の動画コンテンツの中から手動操作により所望の動画コンテンツを選択してその撮影軌跡を表示部180に表示させ、表示部180に表示された撮影軌跡上を指定することによりプレイリスト情報を生成する例を示す。
図65には、動画コンテンツを表す画像を一覧表示するコンテンツ一覧画面を示す。このコンテンツ一覧画面は、プレイリストに関する再生、編集等を行う際における初期画面である。
図65に示すコンテンツ一覧画面には、コンテンツ一覧表示領域601と、表示対象数表示領域602と、「コンテンツ」タブ603と、「プレイリスト」タブ604と、「PLクリップ」タブ605とが設けられている。また、このコンテンツ一覧画面には、選択コンテンツ情報表示領域609と、「再生」ボタン611と、「編集」ボタン612と、「PL作成」ボタン613と、「設定」ボタン614とが設けられている。
コンテンツ一覧表示領域601には、記録媒体160に記憶されているコンテンツを表す画像(サムネイル画像)が一覧表示される。図65に示す例では、サムネイル画像を4×3のマトリクス状に表示する例を示し、各画像を白抜きの矩形で簡略化して示す。また、一覧表示されている各サムネイル画像の下部分には、対応するコンテンツに関する各情報(例えば、コンテンツの生成日時情報)が表示される。また、一覧表示されている各画像のうち、選択状態となっているサムネイル画像の周りには、太線の枠が表示される。図65に示す例では、左上隅のサムネイル画像615が選択状態となっている場合を示す。また、コンテンツ一覧表示領域601の表示対象となるコンテンツが多い場合(例えば、13以上)には、スクロールバー606、上下矢印ボタン607および608を用いて、コンテンツ一覧表示領域601の各画像をスクロール表示させることができる。
表示対象数表示領域602には、コンテンツ一覧表示領域601の表示対象となるコンテンツやプレイリスト等の数が表示される。図65に示す例では、100個のコンテンツが、コンテンツ一覧表示領域601の表示対象である場合を示す。
「コンテンツ」タブ603、「プレイリスト」タブ604および「PLクリップ」タブ605は、下部分に表示される領域に対応するタブである。
選択コンテンツ情報表示領域609には、コンテンツ一覧表示領域601に表示されている各サムネイル画像のうち、選択状態となっているサムネイル画像に対応するコンテンツに関する各情報が表示される。選択コンテンツ情報表示領域609には、例えば、選択状態となっているサムネイル画像に対応するコンテンツに関するタイトル、ファイル名、作成日時、再生時間が表示される。
「再生」ボタン611は、コンテンツ一覧表示領域601に表示されている各サムネイル画像に対応するコンテンツを再生させる場合に押下されるボタンである。
「編集」ボタン612は、コンテンツ一覧表示領域601に表示されている各サムネイル画像に対応するコンテンツについて編集を行う場合に押下されるボタンである。
「PL作成」ボタン613は、コンテンツ一覧表示領域601に表示されている各サムネイル画像に対応するコンテンツについて、プレイリスト情報を作成する場合に押下されるボタンである。
「設定」ボタン614は、コンテンツ一覧表示領域601に表示されている各サムネイル画像に対応するコンテンツについて各種の設定操作を行う場合に押下されるボタンである。なお、本発明の第2の実施の形態では、説明の容易のため、カーソル610を用いて各種操作を行う例を示すが、タッチパネルにおいてユーザの指等の接触または近接動作により各種操作を行うようにしてもよい。
図66には、プレイリスト情報を作成するためのPL(プレイリスト)作成画面を示す。このPL作成画面は、図65に示すコンテンツ一覧画面において、「PL作成」ボタン613が押下された後に表示される画面である。PLクリップ一覧表示領域619には、生成されたプレイリスト情報の一覧が表示される。なお、図66に示す状態では、プレイリスト情報を構成するPLクリップが1つも存在しないものとする。
ここで、手動操作により所望の動画コンテンツを選択する場合には、図66に示すPL作成画面において、「コンテンツ指定」ボタン621を押下する。この押下操作により、図67に示すPLクリップのコンテンツ指定画面が表示される。
図67に示すPLクリップのコンテンツ指定画面は、所望の動画コンテンツを選択するための画面である。このコンテンツ指定画面において、ユーザが所望の動画コンテンツ(サムネイル画像)を選択(例えば、クリック操作)して、「決定」ボタン632を押下する。なお、図67に示す例では、コンテンツ一覧表示領域629において、真ん中部分の2つのサムネイル画像が選択されている状態を示す(太線の枠が付されたサムネイル画像(K1、K2))。そして、「決定」ボタン632の押下操作により、図68に示すPLクリップのPL作成画面が表示される。なお、このPL作成画面は、図66に示すPL作成画面と同様であり、PLクリップ一覧表示領域619には、図67に示すPLクリップのコンテンツ指定画面において選択されたサムネイル画像(K1、K2)が表示される。すなわち、図68に示す状態では、2つの動画コンテンツの全区間がPLクリップとして選択されているものとする。
続いて、図68に示すPLクリップのPL作成画面において、ユーザが「撮影領域指定」ボタン624を押下すると、図69に示すPLクリップの撮影領域指定画面が表示される。この撮影領域指定画面では、PLクリップ一覧表示領域619と同一のサムネイル画像(K1、K2)が、PLクリップ一覧表示領域635に表示される。また、地図表示領域634には、PLクリップ一覧表示領域635に表示されている2つのサムネイル画像に対応する動画コンテンツの撮影軌跡642および643を示す実線が配置された地図が表示される。なお、地図表示領域634における点線641は、PLクリップ一覧表示領域635に表示されていない動画コンテンツの撮影軌跡を示すものである。また、縮尺バー636を用いることにより地図表示領域634に表示される地図の縮尺を変更することができる。さらに、地図表示領域634に対応する矩形の各辺に設けられている上下左右の矢印ボタンを押下することにより、地図表示領域634に表示される地図を所望の方向に移動することができる。以下では、地図表示領域634に表示される地図の領域決定方法について説明する。
[表示対象となる地図領域決定例]
図70は、本発明の第2の実施の形態における画像処理装置100による地図領域決定処理の対象となる選択クリップ群に対応する階層的格子領域を模式的に示す図である。地図表示領域800は、地図領域決定処理により決定される領域であり、左上座標801および右下座標802により特定される。
また、階層的格子領域811乃至813は、ユーザ操作により選択された動画コンテンツや生成されたクリップ情報等に基づいて生成された階層的格子領域であり、内部に色を付した矩形がレベル0の格子領域であるものとする。そして、地図表示領域は、選択クリップ群に対応する階層的格子領域データの最上位格子領域群を含む領域として決定することができる。
図71は、本発明の第2の実施の形態における画像処理装置100による地図領域決定処理の処理手順の一例を示すフローチャートである。ここで、入力データは、選択クリップ群に対応する撮影軌跡階層的格子領域データリストである。また、出力データは、左上座標および右下座標により特定される地図表示領域である。
最初に、Mmin=∞(無限大値)、Mmax=0、Nmin=∞(無限大値)、Nmax=0とし(ステップS1601)、入力データである選択クリップ群について、以下の処理を繰り返し行う(ループL1602)。ここで、Aは、選択クリップ数を示す値である。また、入力データである選択クリップ群の撮影軌跡階層的格子領域データについて、以下の処理を繰り返し行う(ループL1603)。ここで、Bは、i番目の階層的格子領域データの最上位レベルの格子要素数(格子領域数)を示す値である。
すなわち、ループL1603では、(M,N)=「i番目の階層的格子領域データの最上位レベルのj番目の格子要素の格子番号」とする(ステップS1604)。続いて、Mmin=min(Mmin,M)、Mmax=max(Mmax,M)、Nmin=min(Nmin,N)、Nmax=max(Nmax,N)とする(ステップS1605)。
そして、ループL1602およびL1603の処理が終了した場合には、ステップS1606に進む。すなわち、S=最上位レベルの格子サイズとし、左上座標(u1,v1)=(Mmin×S,Nmin×S)とし、右下座標(u2,v2)=(Mmax×S,Nmax×S)とする(ステップS1606)。これにより、地図表示領域(左上座標(u1,v1)、右下座標(u2,v2))が決定される。このように決定された地図が、図69に示すように表示部180に表示される。
[手動操作により指定された編集点に基づくプレイリストの生成例]
以下では、上述した表示画面の遷移例について説明する。すなわち、図69に示すPLクリップの撮影領域指定画面において、ユーザが「軌跡手動指定」ボタン633を押下すると、図72に示すPLクリップの軌跡手動指定画面が表示される。このPLクリップの軌跡手動指定画面において、ユーザが撮影軌跡上の任意の点を指定し、「ポイント設定」ボタン652を押下することにより、クリップの開始点および終了点を設定することができる。図72では、クリップの開始点および終了点として、点661および662、点663および664、点665および666が設定されている例を示す。このようにクリップの開始点および終了点として設定された撮影軌跡の区間については、他の区間と識別することができるように表示態様を変更するようにしてもよい。例えば、撮影軌跡におけるクリップの開始点および終了点間の色が、他の撮影軌跡の色と異なるように変更して表示させることができる。また、ユーザにより撮影軌跡上の任意の点が指定された場合には、その点に対応するフレームが指定点の画像表示領域651に表示される。
なお、ユーザが表示画面上でクリックした点からクリップの開始(または終了)ポイント(撮影点)を決定する処理は、図57乃至図64に示す。すなわち、ユーザが指定した点および各PLクリップが含まれる動画コンテンツの「撮影軌跡階層的格子領域データ」(図72に示す例では2つの動画コンテンツ)について、図57乃至図64に示す処理が実行される。
また、開始点および終了点の撮影点番号について、ユーザ指定撮影点からの撮影区間情報の生成処理が実行されることによりクリップの撮影区間情報が生成される。
ここで、図72に示す状態では、既存のPLクリップ(2つ)内の撮影区間内から新たに3つの撮影区間がPLクリップ候補として絞り込まれている。この状態で、図72に示すPLクリップの軌跡手動指定画面において、ユーザが「決定」ボタン654を押下すると、図73に示すPLクリップの撮影領域指定画面が表示される。このPLクリップの撮影領域指定画面は、3つの撮影区間671乃至673がPLクリップとして選択されている点以外は、図69に示す画面と略同一である。また、地図表示領域634に表示される撮影軌跡については、PLクリップとして選択されている区間以外の区間を点線で示す。
図73に示すPLクリップの撮影領域指定画面において、ユーザが「戻る」ボタン637を押下すると、図74に示すPL作成画面が表示される。このPL作成画面は、PLクリップ一覧表示領域619に表示されるサムネイル画像が異なる以外は、図66に示すPL作成画面と略同一である。図74に示すPLクリップ一覧表示領域619には、図72に示すPLクリップの軌跡手動指定画面において指定されたPLクリップに対応するサムネイル画像が表示される。
図74に示すPL作成画面において、ユーザが「PL新規登録」ボタン626を押下すると、図75に示すプレイリスト名入力画面が表示される。このプレイリスト名入力画面において、入力ボタン675を用いてプレイリスト名表示領域676に所望のプレイリスト名(デフォルト名は、例えば、「プレイリスト*」)を入力することができる。そして、図75に示すプレイリスト名入力画面において、所望のプレイリスト名を入力した後に、ユーザが「決定」ボタン677を押下すると、プレイリスト情報が新規に作成される。このように生成されたプレイリスト情報については、図76に示すプレイリスト一覧表示画面にそのサムネイル画像678が表示される。また、プレイリスト情報表示領域679には、選択状態となっているプレイリストに関する各情報が表示される。
[指定された対象領域の通過判定に基づくプレイリストの生成例]
次に、100個の動画コンテンツの中から、地名により撮影対象領域を選択してその領域を通過する撮影区間を抽出することによりプレイリスト情報を生成する例を示す。
上述したように、図65に示すコンテンツ一覧画面において、ユーザが「PL作成」ボタン613を押下すると、図66に示すPL作成画面が表示される。この状態では、プレイリストを構成するPLクリップが1つも存在しないものとする。
図66に示すPL作成画面において、ユーザが「撮影領域指定」ボタン624を押下すると、図77に示すPLクリップの撮影領域指定画面が表示される。このPLクリップの撮影領域指定画面では、例えば、「領域手動指定」ボタン682を押下することにより、地図表示領域680に表示される地図を用いて、ユーザが手動で対象領域を指定することができる。なお、この例では、対象領域の地名を入力することにより、対象領域を指定する例を示す。
具体的には、図77に示すPLクリップの撮影領域指定画面において、ユーザが「地名指定」ボタン681を押下すると、図78に示す対象領域の地名入力画面が表示される。この対象領域の地名入力画面は、図75に示すプレイリスト名入力画面と略同様であり、入力ボタン675を用いて地名表示領域686に所望の地名を入力することができる。そして、図78に示す対象領域の地名入力画面において、所望の地名(例えば、「○×どうぶつえん」)を入力した後に、ユーザが「決定」ボタン677を押下すると、図79に示す地名指定による対象領域設定画面が表示される。この地名指定による対象領域設定画面が表示される際に、地図データから、対象領域(ターゲット領域)の階層的格子領域データが生成される(または取得される)。図79に示す地名指定による対象領域設定画面の地図表示領域690には、指定された地図とともに、地図上に動画コンテンツの撮影軌跡(太線の実線で示す)が表示される。このように撮影軌跡が表示される動画コンテンツについては、以下に示す動画コンテンツ検出処理より検出することができる。
[表示対象地図領域に基づく動画コンテンツの検出例]
ここでは、表示される地図領域に基づいて、この地図上に撮影軌跡が含まれる動画コンテンツを検出する例を示す。すなわち、地図表示領域の階層的格子領域データを作成し、これとコンテンツ群の撮影軌跡階層的格子領域データ群との衝突検出を行なうことにより、撮影軌跡が地図表示領域内に含まれるコンテンツ群を検出することができる。
図80は、本発明の第2の実施の形態における画像処理装置100による動画コンテンツ検出処理の対象となる格子サイズを模式的に示す図である。図80(a)に示すように、例えば、地図表示領域の階層的格子領域データは、地図表示領域を含む階層数1の階層的格子領域データとする。また、図80(b)に示すように、格子サイズは、地図表示領域890の横幅Sと縦幅Tの大きい方(横幅S)と同一のサイズとする。
図81は、本発明の第2の実施の形態における画像処理装置100による動画コンテンツ検出処理の処理手順の一例を示すフローチャートである。ここで、入力データは、撮影軌跡階層的格子領域データと、ターゲット領域階層的格子領域データとである。また、出力データは、コンテンツ識別情報(コンテンツID)リストである。
最初に、コンテンツ識別情報リストが初期化される(ステップS1651)。続いて、各動画コンテンツについて、以下の処理を繰り返し行う(ループL1652)。ここで、Nは、全ての動画コンテンツ数を示す値である。
すなわち、ループL1652では、階層的格子領域の衝突検出処理が行われる(ステップS1660)。この衝突検出処理については、図27に示すステップS1100の処理手順と略同様であるため、ここでの説明を省略する。
続いて、衝突ありと判定されたか否かが判断され(ステップS1653)、衝突ありと判定された場合には、コンテンツ識別情報リストにi番目の動画コンテンツのコンテンツ識別情報を追加する(ステップS1654)。一方、衝突ありと判定されない場合には(ステップS1653)、ループL1652の最初に戻る。これにより、地図表示領域に撮影軌跡が含まれる動画コンテンツを検出することができる。なお、このように検出された動画コンテンツのサムネイル画像の一覧を表示させて、ユーザにその地域で撮影された動画コンテンツを把握させるようにしてもよい。
[指定された特定対象領域の通過判定に基づくプレイリストの生成例]
以下では、上述した表示画面の遷移例について説明する。図79に示す地名指定による対象領域設定画面の地図表示領域690には、図78に示す対象領域の地名入力画面において入力された地名(例えば、「○×どうぶつえん」)に対応する領域(対象領域)の輪郭691(点線で示す)が表示される。これにより、ユーザが指定した対象領域内において撮影された動画コンテンツの概要を容易に把握することができる。また、地名表示領域693には、図78に示す対象領域の地名入力画面において入力された地名が表示される。
図79に示す地名指定による対象領域設定画面において、ユーザが「決定」ボタン695を押下すると、図82に示す対象領域におけるクリップの抽出方法選択画面が表示される。この抽出方法選択画面の地図表示領域690には、例えば、図79に示す地名指定による対象領域設定画面の地図表示領域690と同一のものが表示される。
図82に示す対象領域におけるクリップの抽出方法選択画面において、ユーザが「対象領域通過」ボタン702を押下すると、対象領域(輪郭691内の領域)を撮影通過する撮影区間の抽出処理が実行される。すなわち、ターゲット領域の階層的格子領域データと、対象領域を含む地図表示領域内の動画コンテンツの撮影軌跡の階層的格子領域データ(この例では8個)について、撮影区間の抽出処理(図27乃至図34に示す処理)が実行される。この撮影区間の抽出処理により、撮影区間情報リストが生成され、複数クリップの撮影区間情報が生成される。
そして、図83に示す対象領域通過クリップの抽出結果画面が表示される。この対象領域通過クリップの抽出結果画面は、撮影区間の抽出処理の結果を表示する画面である。図83に示す対象領域通過クリップの抽出結果画面の地図表示領域690には、撮影軌跡のうち、対象領域(輪郭691内の領域)を撮影通過する撮影区間と、他の区間とが異なる表示態様とされて表示される。図83に示す例では、実線の太さを変更することにより異なる表示態様として示す。また、図83に示す例では、各クリップの開始点および終了点を黒塗りの丸で示す。すなわち、図83に示す状態では、7つの撮影区間711乃至717がPLクリップ候補として選択されている。
図83に示す対象領域通過クリップの抽出結果画面において、ユーザが「決定」ボタン706を押下すると、図84に示すPLクリップの撮影領域指定画面が表示される。この撮影領域指定画面は、図69および図73に示すPLクリップの撮影領域指定画面と略同一である。ここで、図84に示すPLクリップ一覧表示領域635には、地図表示領域634に表示されている7つの撮影区間711乃至717に対応するサムネイル画像PL11乃至PL17(図84ではPL11乃至PL14のみを示す)が表示される。なお、図84に示すPLクリップ一覧表示領域635に表示されるサムネイル画像と、地図表示領域634に表示される撮影区間との対応関係を容易に把握することができるように、これらを関連付けて表示するようにしてもよい。例えば、PLクリップ一覧表示領域635に表示されるサムネイル画像の枠と、地図表示領域634に表示される撮影区間の実線とを、組み合わせ毎に同一色とするようにしてもよい。
図84に示すPLクリップの撮影領域指定画面において、ユーザが「戻る」ボタン637を押下すると、図85に示すPL作成画面が表示される。このPL作成画面は、PLクリップ一覧表示領域619に表示されるサムネイル画像が異なる以外は、図66、図74に示すPL作成画面と略同一である。図85に示すPLクリップ一覧表示領域619には、図84に示す地図表示領域634に表示されている7つの撮影区間711乃至717に対応するサムネイル画像が表示される。
図85に示すPL作成画面において、ユーザが「PL新規登録」ボタン626を押下すると、図75に示すプレイリスト名入力画面が表示される。このプレイリスト名入力画面において、入力ボタン675を用いてプレイリスト名表示領域676に所望のプレイリスト名(例えば、「○×どうぶつえん」)を入力することができる。そして、図75に示すプレイリスト名入力画面において、所望のプレイリスト名を入力した後に、ユーザが「決定」ボタン677を押下すると、プレイリスト情報が新規に作成される。このように生成されたプレイリスト情報については、図86に示すプレイリスト一覧表示画面にそのサムネイル画像720が表示される。
[指定された対象領域に対する撮影判定に基づくプレイリストの生成例]
次に、既存のプレイリストの撮影区間から、撮影対象領域を手動で設定し、その領域を撮影する撮影区間を抽出することによりプレイリスト情報を生成する例を示す。
上述したように、図65に示すコンテンツ一覧画面において、ユーザが「PL作成」ボタン613を押下すると、図66に示すPL作成画面が表示される。この状態では、プレイリストを構成するPLクリップが1つも存在しないものとする。
図66に示すPL作成画面において、ユーザが「プレイリスト指定」ボタン622を押下すると、図87に示すPLクリップのプレイリスト指定画面が表示される。このプレイリスト指定画面において、ユーザが所望のプレイリスト(例えば、サムネイル画像710)を選択し、「決定」ボタン632を押下すると、PL作成画面が表示される。このPL作成画面は、図85に示すPL作成画面と同一の表示がされる。すなわち、図85に示す状態では、7つのPLクリップが表示されている。このPL作成画面(図85と同一)において、ユーザが「撮影領域指定」ボタン624を押下すると、PLクリップの撮影領域指定画面が表示される。このPLクリップの撮影領域指定画面は、図84に示すPLクリップの撮影領域指定画面と同一の表示がされる。このPLクリップの撮影領域指定画面(図84と同一)において、ユーザが「領域手動指定」ボタン632を押下すると、図88に示す領域手動指定による対象領域設定画面が表示される。
図88に示す領域手動指定による対象領域設定画面において、地図上の任意の領域を手動操作(例えば、カーソル610を用いて対象領域を囲む操作)で指定して対象領域(ターゲット領域)を設定することができる。例えば、図89および図90に示すように、縮尺変更バー755により地図表示領域750に表示される地図の縮尺を変更することができる。そして、例えば、図89および図90に示すように、対象領域(ターゲット領域)761および762を設定することができる。対象領域(ターゲット領域)761および762は、例えば、「○×動物園」のトラがいるスペースと、ライオンがいるスペースとに対応する領域とする。この対象領域761および762を示す実線については、撮影軌跡711乃至717を示す実線と識別することができるように、異なる表示態様とするようにしてもよい。このように対象領域(ターゲット領域)が設定された時点で、ターゲット領域の階層的格子領域データが生成される。
そして、対象領域761および762の設定が終了した後に、図88乃至図90に示す領域手動指定による対象領域設定画面において、ユーザが「決定」ボタン753を押下する。この押下操作により、図91に示す対象領域におけるクリップの抽出方法選択画面が表示される。この抽出方法選択画面は、図82に示す抽出方法選択画面と同様である。
図91に示す抽出方法選択画面において、撮影距離設定スライダ704を用いて撮影距離を設定する。この設定対象となる撮影距離は、例えば、撮像装置から被写体までの距離を表す距離であり、例えば、図35乃至図37に示す撮影領域データの生成処理により設定される。また、この撮影距離は、ユーザ指定ではなく、クリップ毎に付与されるカメラ情報(被写体距離の平均値等の属性情報)から取得するようにしてもよい。
撮影距離の設定後、図91に示す抽出方法選択画面において、ユーザが「対象領域撮影」ボタン705を押下すると、対象領域を撮影する撮影区間の抽出処理が実行される。すなわち、ターゲット領域の階層的格子領域データおよび各PLクリップの撮影軌跡の撮影領域階層的格子領域データ(この例では7つ)に基づいて、撮影区間の抽出処理(図52乃至図56に示す処理)が実行される。この撮影区間の抽出処理により、撮影区間情報リストが生成され、複数クリップの撮影区間情報が生成される。
そして、抽出処理の終了後に、図92に示す対象領域撮影クリップの抽出結果画面が表示される。この抽出結果画面は、抽出処理の結果を表示する画面である。図92に示す状態では、3つの撮影区間765乃至767がPLクリップ候補として選択されている。また、図92に示すように、撮影軌跡における撮影方向を示す矢印を各撮影点に付して表示するようにしてもよい。
図92に示す対象領域撮影クリップの抽出結果画面において、ユーザが「決定」ボタン706を押下すると、図93に示すPLクリップの撮影領域指定画面が表示される。図93に示す状態では、3つの撮影区間765乃至767がPLクリップとして選択されている。このPLクリップの撮影領域指定画面は、図84等に示すPLクリップの撮影領域指定画面と同様である。
図93に示すPLクリップの撮影領域指定画面において、ユーザが「戻る」ボタン637を押下すると、PL作成画面(図66等に示す)が表示される。また、このPL作成画面において、ユーザが「PL新規登録」ボタン626を押下すると、図75に示すプレイリスト名入力画面が表示される。このプレイリスト名入力画面において、入力ボタン675を用いてプレイリスト名表示領域676に所望のプレイリスト名(例えば、「トラとライオン」)を入力することができる。そして、図75に示すプレイリスト名入力画面において、所望のプレイリスト名を入力した後に、ユーザが「決定」ボタン677を押下すると、プレイリスト情報が新規に作成される。このように生成されたプレイリスト情報については、図94に示すプレイリスト一覧表示画面にそのサムネイル画像790が表示される。
なお、この例では、既に作成されているプレイリスト(PLクリップ数7)を利用して、撮影区間をさらに絞り込んだ新しいプレイリスト(PLクリップ数3)を作成する例を示した。ただし、例えば、図77乃至図84に示す各画面における操作を行った後に、図88に示す画面における処理以降の操作を行うようにしてもよい。
[指定された対象領域に基づくプレイリスト生成例]
ここで、プレイリスト生成の変形例について説明する。例えば、対象領域を撮影通過する撮影区間の抽出処理(図27乃至図34に示す処理)を適用して、記録媒体160に記憶されている動画コンテンツのうち、その対象領域を撮影通過する撮影区間を含む動画コンテンツを抽出するようにしてもよい。また、対象領域を撮影する撮影区間の抽出処理(図52乃至図56に示す処理)を適用して、記録媒体160に記憶されている動画コンテンツのうち、その対象領域を撮影する撮影区間を含む動画コンテンツを抽出するようにしてもよい。例えば、ユーザが対象領域を指定し、この指定された対象領域に基づいて動画コンテンツを抽出し、この抽出された動画コンテンツの一覧を表示させることができる。これにより、例えば、所望の対象領域(例えば、ランドマーク)を通過しながら撮影が行われた動画を含む動画コンテンツを容易に把握することができる。また、このように抽出された動画コンテンツから、さらに、所望の対象領域を通過しながら撮影が行われた動画部分のみを抽出して、プレイリストを自動的に生成するようにしてもよい。同様に、例えば、所望の対象領域(例えば、ランドマーク)を撮影している動画を含む動画コンテンツを容易に把握することができる。また、このように抽出された動画コンテンツから、さらに、所望の対象領域を撮影している動画部分のみを抽出して、プレイリストを自動的に生成するようにしてもよい。図95には、このように対象領域を指定してプレイリスト情報を生成する際における対象領域の指定画面の一例を示す。
図95は、本発明の第2の実施の形態における表示部180に表示される表示画面の一例を示す図である。図95(a)には、所望の対象領域を通過しながら撮影が行われた動画のみを抽出して、プレイリストを自動的に生成する場合における対象領域の指定画面の一例を示す。図95(b)には、所望の対象領域を撮影している動画のみを抽出して、プレイリストを自動的に生成する場合における対象領域の指定画面の一例を示す。このように表示される各対象領域は、例えば、記録媒体160に記憶されている動画コンテンツに基づいて自動的に抽出することができる。
このように、本発明の第2の実施の形態によれば、位置情報および方位情報を用いてユーザ好みのプレイリストを容易に生成することができる。すなわち、地理的な位置を考慮したユーザ好みの動画コンテンツの編集を容易に行うことができる。
なお、本発明の実施の形態では、水平方向に関する角度情報(方位情報)を用いる例を示したが、例えば、垂直方向における角度情報を用いて動画の時間軸における区間を設定するようにしてもよい。例えば、ジャイロセンサを用いて検出された垂直方向における角度情報により特定される角度が、一定の範囲内に存在する軌跡上の区間を抽出し、この通出された軌跡上の区間に基づいて、動画の時間軸における区間を設定することができる。
また、撮像機能付き携帯電話機等の携帯電話機、パーソナルコンピュータ、ナビゲーションシステム、携帯型メディアプレイヤー等の動画コンテンツを扱うことが可能な画像処理装置に本発明の実施の形態を適用することができる。
なお、本発明の実施の形態は本発明を具現化するための一例を示したものであり、本発明の実施の形態において明示したように、本発明の実施の形態における事項と、特許請求の範囲における発明特定事項とはそれぞれ対応関係を有する。同様に、特許請求の範囲における発明特定事項と、これと同一名称を付した本発明の実施の形態における事項とはそれぞれ対応関係を有する。ただし、本発明は実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において実施の形態に種々の変形を施すことにより具現化することができる。
また、本発明の実施の形態において説明した処理手順は、これら一連の手順を有する方法として捉えてもよく、また、これら一連の手順をコンピュータに実行させるためのプログラム乃至そのプログラムを記憶する記録媒体として捉えてもよい。この記録媒体として、例えば、CD(Compact Disc)、MD(MiniDisc)、DVD(Digital Versatile Disk)、メモリカード、ブルーレイディスク(Blu-ray Disc(登録商標))等を用いることができる。
100 画像処理装置
101 バス
111 撮像部
112 画像信号処理部
113 位置情報取得部
114 方位情報取得部
121 操作部
122 操作受付部
130 CPU
141 ROM
142 RAM
150 記録制御部
160 記録媒体
170 表示制御部
180 表示部
200 コンテンツ記憶部
210 地図情報記憶部
220 取得部
230 軌跡情報生成部
240 表示制御部
250 表示部
260 編集点設定部
270 プレイリスト情報生成部
280 操作受付部
290 プレイリスト情報記憶部

Claims (12)

  1. 動画コンテンツの撮像時における撮像位置に関する位置情報に基づいて特定される前記動画コンテンツの撮像時における軌跡と、地上に存在する地物に対応する領域である特定対象領域との比較結果に基づいて前記動画コンテンツの時間軸における区間を設定する設定部と、
    前記設定された区間と前記比較に用いられた前記特定対象領域に関する特定対象物情報とを関連付けた情報であって前記動画コンテンツの再生に関するプレイリスト情報を生成するプレイリスト情報生成部と
    を具備する画像処理装置。
  2. 動画コンテンツの撮像時における撮像位置に関する位置情報に基づいて特定される前記動画コンテンツの撮像時軌跡における前記撮像位置を基準とする範囲であって当該撮像位置を基準とする方位に関する方位情報に基づいて特定される撮像範囲と、地上に存在する地物に対応する領域である特定対象領域との比較結果に基づいて前記動画コンテンツの時間軸における区間を設定する設定部と、
    前記設定された区間と前記比較に用いられた前記特定対象領域に関する特定対象物情報とを関連付けた情報であって前記動画コンテンツの再生に関するプレイリスト情報を生成するプレイリスト情報生成部と
    を具備する画像処理装置。
  3. 前記位置情報に基づいて前記軌跡に関する情報であって前記軌跡を特定するための軌跡情報を生成する軌跡情報生成部をさらに具備する請求項1または2記載の画像処理装置。
  4. 前記設定部は、前記軌跡において、少なくとも一部が前記特定対象領域と重複する撮像範囲に対応する前記撮像位置を抽出して前記抽出された撮像位置により構成される当該軌跡における区間に基づいて前記動画コンテンツの時間軸における区間を設定する請求項2記載の画像処理装置。
  5. 地図上における複数種類の特定対象領域のうちから所望の特定対象領域を指定する指定操作を受け付ける操作受付部をさらに具備する請求項1または2記載の画像処理装置。
  6. 前記プレイリスト情報生成部は、前記軌跡を含む地図に関する地図情報を前記プレイリスト情報に含めて前記プレイリスト情報を生成する請求項1または2記載の画像処理装置。
  7. 前記設定部は、前記軌跡のうち前記特定対象領域に含まれる軌跡を抽出して当該抽出された軌跡に基づいて前記動画コンテンツの時間軸における区間を設定する請求項記載の画像処理装置。
  8. 前記軌跡を表示部に表示させる表示制御部をさらに具備する請求項1または2記載の画像処理装置。
  9. 前記表示制御部は、前記表示部に表示される軌跡において前記設定された区間に対応する軌跡部分と他の部分とを異なる表示態様とする請求項記載の画像処理装置。
  10. 前記表示制御部は、前記軌跡を含む地図に当該軌跡を重ねて表示させる請求項記載の画像処理装置。
  11. 動画コンテンツの撮像時における撮像位置に関する位置情報に基づいて特定される前記動画コンテンツの撮像時における軌跡と、地上に存在する地物に対応する領域である特定対象領域との比較結果に基づいて前記動画コンテンツの時間軸における区間を設定する設定手順と、
    前記設定された区間と前記比較に用いられた前記特定対象領域に関する特定対象物情報とを関連付けた情報であって前記動画コンテンツの再生に関するプレイリスト情報を生成するプレイリスト情報生成手順と
    を具備する画像処理方法。
  12. 動画コンテンツの撮像時における撮像位置に関する位置情報に基づいて特定される前記動画コンテンツの撮像時における軌跡と、地上に存在する地物に対応する領域である特定対象領域との比較結果に基づいて前記動画コンテンツの時間軸における区間を設定する設定手順と、
    前記設定された区間と前記比較に用いられた前記特定対象領域に関する特定対象物情報とを関連付けた情報であって前記動画コンテンツの再生に関するプレイリスト情報を生成するプレイリスト情報生成手順と
    をコンピュータに実行させるプログラム。
JP2010025728A 2010-02-08 2010-02-08 画像処理装置、画像処理方法およびプログラム Active JP5287756B2 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2010025728A JP5287756B2 (ja) 2010-02-08 2010-02-08 画像処理装置、画像処理方法およびプログラム
BR112012019293-0A BR112012019293A2 (ja) 2010-02-08 2011-01-20 An image processing device, an image processing method, and a program
US13/522,652 US9552844B2 (en) 2010-02-08 2011-01-20 Image processing apparatus, image processing method and program
KR1020127019648A KR20120127714A (ko) 2010-02-08 2011-01-20 화상 처리 장치, 화상 처리 방법 및 프로그램
EP11739627A EP2536129A1 (en) 2010-02-08 2011-01-20 Image processor, image processing method, and program
PCT/JP2011/050924 WO2011096278A1 (ja) 2010-02-08 2011-01-20 画像処理装置、画像処理方法およびプログラム
CN2011800082364A CN102742264A (zh) 2010-02-08 2011-01-20 图像处理装置、图像处理方法以及程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010025728A JP5287756B2 (ja) 2010-02-08 2010-02-08 画像処理装置、画像処理方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2011164857A JP2011164857A (ja) 2011-08-25
JP5287756B2 true JP5287756B2 (ja) 2013-09-11

Family

ID=44355280

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010025728A Active JP5287756B2 (ja) 2010-02-08 2010-02-08 画像処理装置、画像処理方法およびプログラム

Country Status (7)

Country Link
US (1) US9552844B2 (ja)
EP (1) EP2536129A1 (ja)
JP (1) JP5287756B2 (ja)
KR (1) KR20120127714A (ja)
CN (1) CN102742264A (ja)
BR (1) BR112012019293A2 (ja)
WO (1) WO2011096278A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103988123B (zh) * 2011-12-08 2016-09-28 佳能株式会社 摄像设备及其控制方法
US10231006B2 (en) * 2014-10-23 2019-03-12 Hoyt Mac Layson, JR. Law enforcement real time digital information chain of custody assurance system and method
CN104394343A (zh) * 2014-11-18 2015-03-04 国家电网公司 目标地图轨迹与历史视频同步回放的控制方法
CN106564427A (zh) * 2015-10-12 2017-04-19 鸿富锦精密工业(深圳)有限公司 行车监控系统
JP6758820B2 (ja) * 2015-11-18 2020-09-23 マクセル株式会社 情報処理装置、及びその画像データ制御方法
JP6898575B2 (ja) * 2017-01-20 2021-07-07 株式会社ミクシィ 情報処理装置,情報処理装置の制御方法及び制御プログラム
CN110574365B (zh) * 2017-03-31 2021-07-06 本田技研工业株式会社 图像生成装置以及图像生成方法
JP6651205B1 (ja) * 2019-03-07 2020-02-19 インフカム株式会社 管理システム、管理プログラム及び、管理方法
CN113419493B (zh) * 2021-06-24 2023-03-28 树根互联股份有限公司 工业设备的异常检测方法、装置、电子设备及存储介质
CN113992976B (zh) * 2021-10-19 2023-10-20 咪咕视讯科技有限公司 视频播放方法、装置、设备以及计算机存储介质
CN114077474B (zh) * 2021-10-20 2024-02-27 广州景骐科技有限公司 高精度地图数据包的处理方法、装置、设备及存储介质
CN114040167B (zh) * 2021-11-11 2023-11-03 浩云科技股份有限公司 一种人员轨迹生成方法及装置

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000050123A (ja) * 1998-07-27 2000-02-18 Sony Corp 撮像装置、ナビゲーション装置、icカード及び静止画像の表示方法
JP2002258740A (ja) * 2001-03-02 2002-09-11 Mixed Reality Systems Laboratory Inc 画像記録装置及び画像再生装置とそれらの方法
JP3452910B2 (ja) * 2001-04-27 2003-10-06 三菱電機株式会社 映像情報表示装置
GB2388242A (en) * 2002-04-30 2003-11-05 Hewlett Packard Co Associating audio data and image data
US7386049B2 (en) * 2002-05-29 2008-06-10 Innovation Management Sciences, Llc Predictive interpolation of a video signal
JP2004133637A (ja) 2002-10-09 2004-04-30 Sony Corp 顔検出装置、顔検出方法及びプログラム、並びにロボット装置
US7447418B2 (en) * 2003-01-17 2008-11-04 Matsushita Electric Industrial Co., Ltd. Image reproducing device and image recording/reproducing device
JP4168837B2 (ja) * 2003-06-03 2008-10-22 ソニー株式会社 情報生成装置、記録装置、再生装置、記録再生システムおよびその方法ならびにプログラム
EP1598638A2 (en) * 2004-05-20 2005-11-23 Noritsu Koki Co., Ltd. Image processing system and navigaton system for correlating position data with image data
US20060080286A1 (en) * 2004-08-31 2006-04-13 Flashpoint Technology, Inc. System and method for storing and accessing images based on position data associated therewith
JP2006148514A (ja) * 2004-11-19 2006-06-08 Canon Inc 画像再生装置及び画像再生装置の制御方法
JP4937592B2 (ja) 2006-01-30 2012-05-23 ソニー株式会社 電子機器
EP2088778B1 (en) * 2006-10-04 2013-12-18 Nikon Corporation Electronic apparatus and electronic camera
JP2009118009A (ja) 2007-11-02 2009-05-28 Sony Corp 撮像装置、その制御方法およびプログラム
US20090115862A1 (en) * 2007-11-05 2009-05-07 Sony Ericsson Mobile Communications Ab Geo-tagging of moving pictures
US9032320B2 (en) * 2008-09-08 2015-05-12 Disney Enterprises, Inc. Time and location based GUI for accessing media

Also Published As

Publication number Publication date
CN102742264A (zh) 2012-10-17
EP2536129A1 (en) 2012-12-19
US9552844B2 (en) 2017-01-24
WO2011096278A1 (ja) 2011-08-11
US20120287267A1 (en) 2012-11-15
JP2011164857A (ja) 2011-08-25
KR20120127714A (ko) 2012-11-23
BR112012019293A2 (ja) 2018-05-08

Similar Documents

Publication Publication Date Title
JP5287756B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP4412342B2 (ja) コンテンツ管理装置、画像表示装置、撮像装置、および、これらにおける処理方法ならびに当該方法をコンピュータに実行させるプログラム
JP5463739B2 (ja) 撮像装置、画像処理方法及びプログラム
JP4636141B2 (ja) 情報処理装置および方法、並びにプログラム
US8064633B2 (en) Information processing apparatus, image display apparatus, control methods therefor, and programs for causing computer to perform the methods
EP2192498B1 (en) Image processing apparatus, image displaying method, and image displaying program
US8078618B2 (en) Automatic multimode system for organizing and retrieving content data files
US9286360B2 (en) Information processing system, information processing device, information processing method, and computer readable recording medium
CN102129448B (zh) 图像管理设备及其控制方法
JP2011009846A (ja) 画像処理装置、画像処理方法及びプログラム
JP5517683B2 (ja) 画像処理装置及びその制御方法
CN101686367A (zh) 图像处理设备、图像拾取设备、图像处理方法和计算机程序
JP2012142825A (ja) 情報処理装置、情報表示方法及びコンピュータプログラム
CN103678469B (zh) 媒体文件管理方法
Zhang et al. Annotating and navigating tourist videos
JP2011128664A (ja) 情報処理装置、情報処理方法およびプログラム
JP5831567B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP5765444B2 (ja) 情報処理装置、画像処理方法、プログラム及び情報処理システム
JP4334898B2 (ja) データベース構築装置、データベース構築プログラム、画像検索装置、画像検索プログラム、及び画像記録再生装置
Jago Adobe Premiere Pro CC Classroom in a Book (2014 release)
JP2013182332A (ja) 画像表示プログラムおよび画像表示装置
JP4868110B2 (ja) 画像ファイル検索装置、プログラム、及び、画像ファイル検索方法
JP4559210B2 (ja) 電子アルバム作成装置および電子アルバム作成システム
JP4323172B2 (ja) 情報編集システム、情報編集装置、および情報編集プログラム
JP4218945B2 (ja) 動画像処理方法、動画像処理装置、コンピュータによる読み取りが可能な記録媒体、及び制御プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130212

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130415

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130507

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130520

R151 Written notification of patent or utility model registration

Ref document number: 5287756

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250