JP2005175533A - 映像処理装置および代表画像設定方法 - Google Patents

映像処理装置および代表画像設定方法 Download PDF

Info

Publication number
JP2005175533A
JP2005175533A JP2003408073A JP2003408073A JP2005175533A JP 2005175533 A JP2005175533 A JP 2005175533A JP 2003408073 A JP2003408073 A JP 2003408073A JP 2003408073 A JP2003408073 A JP 2003408073A JP 2005175533 A JP2005175533 A JP 2005175533A
Authority
JP
Japan
Prior art keywords
information
key frame
representative image
video
classification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2003408073A
Other languages
English (en)
Inventor
Mikiko Sugiyama
幹子 杉山
Kazuyo Ikeda
和世 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2003408073A priority Critical patent/JP2005175533A/ja
Publication of JP2005175533A publication Critical patent/JP2005175533A/ja
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Management Or Editing Of Information On Record Carriers (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

【課題】 操作者が代表画像の変更を行った映像区間と類似する類似映像区間の代表画像を容易に変更することができる映像処理装置を提供する。
【解決手段】 撮像装置では、映像データを複数の映像区間に分割し、分割された映像区間の中から、キーフレームを自動的に抽出した後、操作者によって抽出されたキーフレームが変更された場合、キーフレームが変更された映像区間におけるキーフレーム抽出方法を取得する。このキーフレームが変更された映像区間と類似する類似映像区間を抽出し、抽出された類似映像区間に対し、キーフレームが変更された映像区間におけるキーフレーム抽出方法を用いて、抽出された類似映像区間のキーフレームを変更する。
【選択図】 図3

Description

本発明は、映像データの中から、映像区間を識別するための代表画像を取得する映像処理装置および代表画像設定方法に関する。
従来、この種の映像処理装置として、記憶媒体に記録された映像データを自動的にあるまとまり(映像区間)毎に分割し、分割された各映像区間の中から少なくとも1つの静止画データを代表画像(「キーフレーム」と称する)として一覧表示するものが知られている。図59は映像区間毎に分割された中からキーフレームが抽出される様子を示す図である。キーフレームを一覧表示することにより、操作者は、記憶された映像データの内容を素早く確認できる。また、分割された映像区間単位の編集作業を容易に行うことができる。
従来、映像データを分割する方法として、例えば、映像が時間的に急激に変化する部分をシーンの切れ目として自動的に分割する方法が知られている。また、代表画像を抽出する方法として、分割されたシーンの先頭フレーム、末尾フレームあるいは中間フレームを代表画像として抽出する方法、カメラ動作により重要と思われる代表画像を推定して自動的に抽出する方法が知られている。
しかし、このように、映像データを自動的に分割し、分割された映像区間から自動的にキーフレームを抽出する方法では、必ずしも操作者にとって最適なキーフレームになるとは限らなかった。このため、自動的に分割された映像区間毎のキーフレームを変更する操作が必要となる。例えば、キーフレームを変更する方法として、操作者が変更したいキーフレームを選択し、そのキーフレームが属するシーンのシーンチェンジの前後の映像を再生し、再生された映像の各フレーム画像の一覧表示の中からキーフレームを設定するように変更する方法が知られている(例えば、特許文献1参照)。
また従来、指紋認識技術として、指紋認識装置が知られている(例えば、特許文献2参照)。この指紋認識装置は、センサ部に押し当てられた指によって生じた影をセンサ部で指紋であると検出し、この指紋を、予め記憶されたユーザ認識データリストの指紋データと照合する。
また従来技術として、被写体の顔を認識するカメラが知られている(例えば、特許文献3参照)。このカメラでは、被写体の顔を認識するだけでなく、顔の方向(目線がカメラの方向を向いている/向いていない)、被写体の目の状態(目を閉じている/閉じていない)、顔の表情(喜びの顔、悲しみの顔、怒りの顔、驚きの顔など)、被写体の姿勢(認識された人が特定のポーズとなっているかを認識)などが認識可能である。
また同様に、被写体を認識する人物検出機能搭載装置が知られている(例えば、特許文献4参照)。この人物検出機能搭載装置では、被写体の認識および音声情報から、話者を識別することが可能である。
特開平09−093527号公報 特開2002−123821号公報 特開2001−51338号公報 特開2001−67098号公報
しかしながら、上記従来の映像処理装置では、以下に掲げる問題があり、その改善が要望された。即ち、キーフレームを変更する際、1度のキーフレーム変更操作は、一映像区間だけが対象となっている。したがって、自動的に設定されたフレームでは、キーフレームとして満足できない場合、操作者は、満足できない全ての映像区間のキーフレームに対し、それぞれ変更操作を行わなければならなかった。変更操作を行う映像区間の数が多いと、変更回数も多くなり、操作者にとって変更操作は面倒であった。特に、類似する映像区間が多くても、操作者は同様の変更操作を繰り返し行わなければならなかった。
そこで、本発明は、操作者が代表画像の変更を行った映像区間と類似する類似映像区間の代表画像を容易に変更することができる映像処理装置および代表画像設定方法を提供することを目的とする。
上記目的を達成するために、本発明の映像処理装置は、映像データから抽出された代表画像を変更する代表画像変更手段と、前記代表画像が変更された映像区間における代表画像抽出方法を取得する代表画像抽出方法取得手段と、前記代表画像が変更された映像区間と類似する映像区間である類似映像区間を抽出する類似映像区間抽出手段と、前記代表画像抽出方法取得手段によって取得され、前記代表画像が変更された映像区間における代表画像抽出方法を用いて、前記抽出された類似映像区間の代表画像を変更する類似映像区間代表画像変更手段とを備える。
本発明の代表画像設定方法は、映像データから抽出された代表画像を変更する代表画像変更ステップと、前記代表画像が変更された映像区間における代表画像抽出方法を取得する代表画像抽出方法取得ステップと、前記代表画像が変更された映像区間と類似する映像区間である類似映像区間を抽出する類似映像区間抽出ステップと、前記代表画像抽出方法取得ステップで取得され、前記代表画像が変更された映像区間における代表画像抽出方法を用いて、前記抽出された類似映像区間の代表画像を変更する類似映像区間代表画像変更ステップとを有する。
本発明によれば、操作者が代表画像の変更を行った映像区間と類似する類似映像区間の代表画像を容易に変更することができる。
本発明の映像処理装置および代表画像設定方法の実施の形態について、図面を参照しながら説明する。本実施形態の映像処理装置は撮像装置に適用された場合を示す。この撮像装置では、撮影された映像データは録画操作の開始・終了を基準に分割される。この分割された映像区間を「ショット」と称する。さらに、ショット内の映像データは、操作情報(ズームなどの操作情報)、撮影環境情報(パンやチルトなどの情報)などの付属情報を基に分割される。この分割された各映像区間を「サブショット」と称する。そして、サブショット毎に分割された映像区間に対し、前述した操作情報、撮影環境情報などの付属情報を基に、キーフレーム(代表画像)が自動的に抽出される。
[第1の実施形態]
図1は第1の実施形態における撮像装置の構成を示すブロック図である。この撮像装置は、被写体を結像させるズームレンズ11、光量を調節する絞り12、入力した光を電気信号に変換するCCDからなる撮像素子13、サンプルホールドおよびゲイン調整を行うサンプルホールド・AGC回路14、アナログデジタル変換(A/D変換)を行うA/D変換部15、およびA/D変換された信号を処理して映像信号を生成する映像信号処理部16を有する。
また、この撮像装置は、映像データを分割し、分割された映像区間における付属情報やキーフレームなどの情報を管理する映像管理部17、撮影内容や各映像区間におけるキーフレームなどを表示する表示部18、レンズの位置を検出するレンズ位置検出部19、レンズを駆動するレンズ駆動部20、撮像装置の水平方向の回転を検出するX方向回転検出部21、撮像装置の垂直方向の回転を検出するY方向回転検出部22、および撮像装置全体を制御するシステム制御部23を有する。ここで、X方向回転検出部21は、ジャイロセンサや加速度センサにより検出された信号に対し、バンドパスフィルタなどで信号処理を行った後、A/D変換を行って出力信号とする。Y方向回転検出部22は、X方向回転検出部21と同様の構成を有する。尚、映像の防振を目的として、回転検出部が搭載されている場合、それを兼用させてもよい。
また、この撮像装置は、ズームや録画の開始終了を操作するキー、キーフレームの変更操作を行うキーなどが配置された操作入力部24、映像データをMPEG形式に符号化するMPEG_CODEC28、記録媒体を駆動して情報を記録するドライブなどから構成される記録部29、光ディスク、磁気ディスク、光磁気ディスク、磁気テープ、ハードディスク、不揮発性メモリ、不揮発性メモリカードなどからなる記録媒体30、および指紋を検出する指紋センサからなる指紋検出部31を有する。
操作入力部24には、ズームをワイド(広角、つまり画像縮小)方向に動作させるワイド・キー25、テレ(望遠、つまり画像拡大)方向に移動させるテレ・キー26、録画の開始・終了を指示するRECキー27、キーフレームの変更やキーフレームの一覧表示を指示するメニューキー32、キーフレームの一覧からキーフレームを変更する映像区間の選択などに使用されるカーソルキー33などが設けられている。ここで、ワイド・キー25およびテレ・キー26は、例えばシーソー型の連動したキーであり、どちらのキーがどの程度の押圧力により押されているかを示す出力信号をシステム制御部23に出力する。また、RECキー27は、トグル型のキーであり、録画中に押下すると、録画終了を指示し、非録画中に押下すると、録画開始を指示する。
図2はシステム制御部23の構成を示す図である。システム制御部23は、周知のCPU41、ROM42、RAM43、I/Oインターフェース44、バス45および割込み信号線46を有する。ROM42には、CPU41によって実行される、後述するプログラム、テーブル値などが格納されている。
図3は映像管理部17の構成を示すブロック図である。この映像管理部17は、撮影された映像データを分割する映像分割部56、分割された映像区間においてその映像区間を象徴するキーフレームを抽出するキーフレーム抽出部57、キーフレームの変更を行った映像区間と類似する映像区間を抽出する類似映像区間抽出部58、およびこの撮像装置で使用される付属情報を取得・記憶する付属情報管理部59を有する。これらの各部は、映像管理部17内の周知のCPU(図示せず)がROM(図示せず)に記憶されたプログラムを実行することによって実現される。尚、操作入力部24、表示部18、指紋検出部31、映像信号処理部16、各検出部19、21、22の各部と、映像管理部17との間でやり取りされる信号は、システム制御部23を介して行われるが、図3では、分かり易くするため、システム制御部23が省略されている。
上記構成を有する撮像装置の各部の動作を示す。ズームレンズ11を介して受光した被写体からの光は、絞り12によりその光量が調整され、撮像素子13の面上に結像する。撮像素子13によって電気信号に変換されると、その電気信号は、サンプルホールド・AGC部14およびA/D変換部15によりA/D変換された後、映像信号処理部16に入力する。この入力信号に対し、映像信号処理部16は、輝度および色成分毎にアパーチャ補正、ガンマ補正、ホワイトバランス補正、電子ズームなどの処理を施し、映像信号が生成されると、その映像信号はシステム制御部23を介して映像管理部17に出力される。
一方、X方向回転検出部21およびY方向回転検出部22から得られる撮像装置の回転信号を基に、システム制御部23は、パン(カメラの水平方向の回転操作)やチルト(カメラの垂直方向の回転操作)を検出する。パンやチルト等の撮影環境情報、および操作入力部24からの操作情報は、システム制御部23を介して映像管理部17に出力される。また、映像管理部17は、入力された各種情報を付属情報管理部59に記憶・保持し、映像分割部56により、録画の開始操作から終了操作までの映像区間(ショット)を1つまたは複数の映像区間(サブショット)に分割する。また、付属情報管理部59により、入力された情報にサブショットの区間情報を付加し、キーフレーム抽出部57によりキーフレーム抽出処理を行う。
このキーフレーム抽出処理では、入力された各種情報に基づき、サブショットの各区間に対し、各区間を代表するにふさわしいフレーム画像(キーフレーム)が決定される。決定されたキーフレームの情報は、付属情報管理部59に付加される。そして、これらの付属情報は、MPEG_CODEC28に出力される。MPEG_CODEC28では、入力された映像信号の符号化が行われる。このとき、MPEG_CODEC28は、映像管理部17から出力される撮影環境情報、操作情報、サブショット情報などの付属情報を、符号化された映像信号と共に格納し、MPEG_CODEC28に接続された記録部29に出力する。尚、撮影環境情報、操作情報、サブショット情報などの付属情報の格納方法については後述する。
記録部29は、1ショット毎に記録メディア30に1つのファイルを作成する。尚、1ショットを複数のファイルで保存しても、複数のショットを1つのファイルで保存してもよい。また、記録したデジタル情報が読み出せる限り、ファイルシステムによらない方法で記憶してもよい。
システム制御部23は、RECキー27の操作に応じて録画を開始・終了する。また、システム制御部23は、ワイド・キー25およびテレ・キー26の操作に応じて、レンズ駆動部20を制御し、また映像信号処理部16に対して電子ズームの制御を行う。このとき、押圧力が大きいほど、ズーム倍率を高速に変化させることができる。尚、レンズ光学系によって撮像される画像を拡大する機能を光学ズームといい、レンズ光学系によらず、電気的な信号処理によって画像を垂直・水平方向に拡大する機能を電子ズームという。
また、システム制御部23は、レンズ位置検出部19からのレンズ位置検出信号を基に、光学ズーム時におけるズーム倍率を判断する。また、システム制御部23は、映像管理部17における処理を制御する。また、システム制御部23は、X方向回転検出部21およびY方向回転検出部22から出力される回転情報を基に、手ぶれ等に起因する信号成分を除去し、ユーザ操作によるパンまたはチルト情報を検出し、映像管理部17に出力する。この他、システム制御部23は必要に応じて撮像装置各部を制御する。
指紋検出部31は、そのセンサ部に押し当てられた指によってできた影をセンサ部で指紋であると検出し、予め記憶された指紋データリスト(ユーザIDと指紋データが対になって登録されているユーザ認識データリスト)に登録された指紋データと照合する。指紋データが一致した場合、操作者を識別するユーザIDが取得される。一方、指紋データが一致しなかった場合、新規ユーザであるとして、指紋データとユーザIDがユーザ認識データリストに登録される。
つぎに、動画像とともに操作情報や撮影環境情報などの付属情報を記録する方法を示す。この記録方法として、フレーム単位の画像データ管理情報中の未使用領域などに、付属情報を格納する方法が知られている。具体的に、例えば、映像データがMPEG−2ストリームである場合、ピクチャヘッダのユーザ領域に格納する方法がある。また、撮影終了後に演算の結果として生成された情報を、動画ファイルの末尾にフッタとして追加する方法がある。例えば、MPEG−2トランスポートストリームである場合、プライベートエリアに付属情報を格納したTSパケットをファイルの末尾に追記してもよい。また、動画と付属情報を別のファイルにする方法もある。この場合、動画と付属情報を対応付けるために、動画ファイル名と付属情報ファイル名との間で、相互にファイル名が一意に求まるように、ファイル名生成規則を設けるなど、参照情報を格納し、その参照情報へのハイパーリンクを貼るようにしてもよい。
本実施形態では、パンを検出した結果を記録しているが、この検出結果を記録する代わりに、パン検出前の加速度センサの出力信号等の生情報を量子化した情報や、パン検出までの各段で行われる信号処理の結果を量子化した情報を格納してもよい。これらの量子化した情報は、撮像装置(カムコーダ)本体の処理負荷という面で、リアルタイム処理が難しい場合、カムコーダ本体による後処理あるいは外部デバイスによる処理の際、操作情報および撮影環境情報として、パンやズーム単位の情報を生成・記録するために使用される。また、これらの量子化した情報を用いることで、将来、より精度が向上したパン検出手段によってパンの検出が可能となる場合、その拡張性が図られる。
つぎに、付属情報の詳細を示す。後述する図4〜図8、図15〜図17、図19、図21に示すデータ構造は、それぞれ1つのデータ要素を表している。複数のデータ要素がある場合、付属情報は、各データ要素にアクセス可能なリストとして構成される。また、本実施形態では、データ構造はビット列で表現されているが、システム制御部23が解釈可能である限り、テキスト形式や独自のDTD(Document Type Definition)を定義し、XML(Extensible Markup Language)形式等で表現するようにしてもよい。また、MPEG7に適した形式で格納する場合、データ構造を記述するツールであるSegment DSに格納すればよい。
図4は撮影環境情報データの構造を示す図である。図5は撮影環境情報データリストの構造を示す図である。撮影環境情報データには、レンズ位置検出部19、X方向回転検出部21、Y方向回転検出部22などから取得されたパンやチルトなどの撮影環境情報が含まれている。図5に示すように、撮影環境情報が取得される毎に撮影環境情報データが作成され、撮影環境情報を取得したフレーム番号が変わる毎に、撮影環境情報データの先頭アドレス(ポインタ)が撮影環境情報データリストに格納される。例えば、フレーム番号1の撮影環境情報データを参照する場合、撮影環境情報データリストから1番目に格納されているフレーム1ポインタを取得し、撮影環境情報データ1を参照する。
図4には、撮影環境情報データの各要素データが示されている。要素データTimeには、撮影環境が変化した時の動画ファイルの再生時間開始(先頭)を基準とするフレーム番号が記述される。要素データDataTypeには、撮影環境情報のイベント種別を表すデータが記述される。撮影環境情報のイベント種別には、パンの開始、パンの継続、パンの終了、チルトの開始、チルトの継続、チルトの終了が設定される。パン、チルトの継続は、スピードや方向が変化した場合に使用される。ここでは、要素データDataTypeが「0」でパンの開始、「1」でパンの継続、「2」でパンの終了、「4」でチルトの開始、「5」でチルトの継続、「6」でチルトの終了を表す。要素データSpeedは、要素データDataTypeがパンの開始、パンの継続、チルトの開始、チルトの継続である場合に存在し、パンやチルトの回転スピードを表す。本実施形態では、最低スピードの「1」から最高スピードの「7」までの7段階で、回転スピードが記述される。要素データDirectionは、要素データDataTypeがパンの開始、パンの継続、チルトの開始、チルトの継続の場合に存在し、パンやチルトの方向を表す。本実施形態では、パンの場合、「1」で右、「0」で左を表す。チルトの場合、「1」で上、「0」で下を表す。
図6は操作情報データの構造を示す図である。図7は操作情報データリストの構造を示す図である。操作情報データには、操作入力部24、レンズ位置検出部19、レンズ駆動部20などから取得したズームなどの操作情報が含まれている。図7に示すように、操作情報が取得される毎に操作情報データが作成され、操作情報を取得したフレーム番号が変わる毎に、操作情報データの先頭アドレス(ポインタ)が操作情報データリストに格納される。例えば、フレーム番号1の操作情報データを参照する場合、操作情報データリストから1番目に格納されているフレーム1ポインタを取得し、操作情報データ1を参照する。
図6には、操作情報データの各要素データが示されている。要素データTimeには、操作が発生した時の動画ファイルの再生時間開始(先頭)を基準とするフレーム番号が記述される。要素データDataTypeには、操作情報のイベント種別を表すデータが記述される。操作情報のイベント種別には、ズームの開始、ズームの継続、ズームの終了、録画の開始、録画の終了等が設定される。ズームの継続は、スピードが変化した場合に使用される。ここでは、要素データDataTypeが「0」でズームの開始、「1」でズームの継続、「2」でズームの終了、「3」で録画開始、「4」で録画終了を表す。要素データSpeedは、要素データDataTypeがズームの開始、ズームの継続の場合に存在し、ズーム変化のスピードを表す。本実施形態では、最低スピードの「1」から最高スピードの「7」までの7段階で、スピードが記述される。要素データDirectionは、要素データDataTypeがズームの開始、ズームの継続の場合に存在し、ズームの方向を表す。要素データDirectionが「0」でテレ側、「1」でワイド側を表す。要素データMagnificationは、要素データDataTypeがズームの開始、ズームの継続の場合に存在してズーム倍率を表し、最もテレ側を「0」、最もワイド側を「31」の32段階で記述される。
図8はサブショット情報データの構造を示す図である。図9はサブショット情報データリストの構造を示す図である。サブショット情報データは、映像分割部56で分割された映像区間に関する情報である。図9(a)に示すように、映像がサブショット1、サブショット2、…、サブショットMと分割される毎に、サブショット情報データは、同図(b)に示すように、サブショット情報1、サブショット情報2、…、サブショット情報Mまで作成される。例えば、サブショット情報1は、フレーム番号1からフレーム番号6で構成される。また、サブショット情報2は、フレーム番号7からフレーム番号11で構成される。それ以降のサブショット情報も同様である。
作成されたサブショット情報データの先頭アドレス(ポインタ)は、同図(b)に示すサブショット情報データリストに格納される。サブショット情報データ1を参照する場合、サブショット情報データリストからサブショット情報データ1に格納されているポインタを取得し、サブショット情報データ1を参照する。
図8には、サブショット情報データの各要素データが示されている。要素データStartTimeは、サブショットの開始時刻を表し、動画ファイルの再生時間開始(先頭)を基準とするフレーム番号で記述される。要素データEndTimeは、サブショットの終了時刻を表し、動画ファイルの再生時間開始を基準とするフレーム番号で記述される。要素データContentsDataTypeには、サブショット情報の映像区間における付属情報を基に分類された分類情報が記述される。この分類情報の詳細については後述する。
要素データNumberOfKeyFrameには、要素データStartTimeおよび要素データEndTimeで示される映像区間に設定されているキーフレームの数が記述される。要素データKeyFrameには、キーフレームとなるフレームの動画ファイルの再生時間開始を基準とするフレーム番号が格納される。この要素データKeyFrameは、要素データNumberOfKeyFrameで示される数だけ記述される。
図9(c)には、キーフレームが1つ設定された場合のサブショット情報が示されている。このサブショット情報で示されるサブショット区間は、図9(a)のサブショット1に相当する。フレーム番号1からフレーム番号6までをサブショット1とする場合、要素データStartTimeには、「1」、要素データEndTimeには、「6」が格納される。また、分類情報には、「3」が格納されているので、このサブショットの映像区間の分類タイプは「3」となる。また、要素データNumberOfKeyframeには、「1」が格納されている。これにより、このサブショットの映像区間では、キーフレームが1つ設定されていることがわかる。要素データKeyFrameには、「6」が格納されているので、フレーム番号6がキーフレームとして設定されている。
図9(d)には、キーフレームが2つ設定された場合のサブショット情報が示されている。このサブショット情報で示されるサブショット区間は、図9(a)のサブショット2に相当する。フレーム番号7からフレーム番号11までをサブショット2とする場合、要素データStartTimeには、「7」、要素データEndTimeには、「11」が格納される。また、分類情報には、「7」が格納されているので、このサブショットの映像区間の分類タイプは「7」となる。また、要素データNumberOfKeyframeには、「2」が格納される。これにより、このサブショットの映像区間では、キーフレームが2つ設定されていることがわかる。要素データKeyframe1には、「8」が格納されているので、キーフレームとしてフレーム番号8が設定されている。また、要素データKeyframe2には、「11」が格納されているので、フレーム番号11がキーフレームとして設定されている。
図10は映像区間分類情報の構造を示す図である。映像区間分類情報は、映像区間における付属情報の分類に関するデータであり、分類されるタイプの数だけ存在する。この映像区間情報には、分類された映像区間におけるキーフレーム抽出方法が格納されており、キーフレーム抽出処理で参照される。
図11は映像区間分類情報リストを示す図である。この映像区間分類情報リストには、映像区間分類情報の先頭ポインタが映像区間の分類数分(L個)格納される。したがって、映像区間の分類情報として映像区間分類情報1を参照する場合、映像区間分類情報リストの映像区間分類情報1を示すポインタを取得し、そのポインタ先を参照することで、映像区間分類情報1を取得することができる。
映像区間分類情報の要素データである分類情報は、映像区間に関する付属情報を基に分類された映像の分類タイプを表している。また、要素データである分類条件情報には、付属情報の少なくともいずれか1つもしくは組合せを基に、分類情報に格納された分類タイプであるか否かを判断するための条件情報が記述されている。
図12は分類条件情報の構造を示す図である。分類条件情報の要素データである分類判断処理タイプ情報格納数は、分類判断処理タイプ情報の格納数を表す。分類判断処理タイプ情報は、分類情報に記述された映像区間に分類されるか否かを判断する際、取得された付属情報と比較値に記述された値とを比較する処理の識別情報(タイプ)である。
要素データである比較値は、分類判断処理タイプ情報で取得された付属情報と比較される値を示す。判定タイプ情報には、付属情報と比較値とを比較する際の判定方法のタイプが格納される。例えば、値1は「=」を示し、分類判断処理で取得した値と比較値とが「=」であるか、つまり等しいかを比較することを示す。値2は、「!=」を示し、分類判断処理で取得した値と比較値とが「!=」であるか、つまり等しくないかを比較することを示す。値3は、「>」を示し、分類判断処理で取得した値と比較値とが「>」であるか、つまり取得した値が比較値より大きいかを比較することを示す。値4は、「<」を示し、分類判断処理で取得した値と比較値とが「<」であるか、つまり取得した値が比較値より小さいかを比較することを示す。値5は、「≦」を示し、分類判断処理で取得した値と比較値とが「≦」であるか、つまり取得した値が比較値以下であるかを比較することを示す。値6は、「≧」を示し、分類判断処理で取得した値と比較値とが「≧」であるか、つまり取得した値が比較値以上であるかを比較することを示す。
また、図10に示すキーフレーム抽出タイプ情報格納数には、分類情報で分類された映像区間におけるキーフレーム抽出方法の数が記述される。キーフレーム抽出タイプ情報には、分類情報で分類される映像区間におけるキーフレームの抽出方法が記述される。具体的に、「0」は予め操作者によって指定された、あるいは本撮像装置によって予め設定されたデフォルトのキーフレームの抽出方法で行うことを示す。「1」はサブショットの先頭フレームでキーフレームを抽出することを示す。「2」はサブショットの終了フレームでキーフレームを抽出することを示す。「3」はサブショットの中間フレームでキーフレームを抽出することを示す。「4」はサブショットのズーム開始(縮小→拡大)フレームでキーフレームを抽出することを示す。「5」はサブショットのズーム終了(縮小→拡大)フレームでキーフレームを抽出することを示す。「6」はサブショットのズーム中間(縮小→拡大)フレームでキーフレームを抽出することを示す。「7」はサブショットのズーム開始(拡大→縮小)フレームでキーフレームを抽出することを示す。「8」はサブショットのズーム終了(拡大→縮小)フレームでキーフレームを抽出することを示す。「9」はサブショットのズーム中間(拡大→縮小)フレームでキーフレームを抽出することを示す。「10」はサブショットのチルト開始フレームでキーフレームを抽出することを示す。「11」はサブショットのチルト終了フレームでキーフレームを抽出することを示す。「12」はサブショットのチルト中間フレームでキーフレームを抽出することを示す。「13」はサブショットのパン開始フレームでキーフレームを抽出することを示す。「14」はサブショットのパン終了フレームでキーフレームを抽出することを示す。「15」はサブショットのパン中間フレームでキーフレームを抽出することを示す。尚、キーフレーム抽出タイプ情報は、キーフレーム抽出タイプ情報格納数で指定された数だけ格納される。
図13は映像区間分類情報を示す図である。映像区間分類情報「0」は、予め操作者によって指定された、あるいは本撮像装置によって予め設定されたデフォルトのキーフレーム抽出方法を示す。映像区間分類情報リストに存在する映像区間分類情報(デフォルトの映像区間分類情報を除く)のいずれにも該当しなかった場合、このデフォルトの映像区間分類情報に記述されたキーフレーム抽出方法が使用される。ここでは、キーフレーム抽出タイプ情報に「1」が設定されており、映像区間の開始フレームがキーフレームとなる。
映像区間分類情報「1」には、パン操作における付属情報を用いた分類条件情報が格納されている。具体的に、撮影環境情報および操作情報を参照し、開始フレームがパンの開始であるか、ズーム中であるか、ショット中のパンの回数は1度であるか、ショット中のパンの長さは「大」であるか等が判断される。
図14は映像区間分類情報「1」における分類条件情報を示す図である。映像区間分類情報「1」の分類判断処理タイプ情報は5つあるので、分類判断処理タイプ情報格納数には、「5」が格納される。5つの各分類判断処理タイプ情報には、分類判断処理タイプ、比較値および判定タイプ情報がそれぞれ設定されている。先頭の分類判断処理タイプ情報には、開始フレームの撮影環境情報のイベント種別を取得し、比較値(パン開始)と比較される分類判断処理タイプ1が格納されている。
2番目および3番目の分類判断処理タイプ情報には、開始フレームの操作情報のイベント種別を取得して比較を行う分類判断処理タイプ2が格納されている。4番目の分類判断処理タイプ情報には、ショット中のパン回数を取得して比較を行う分類判断処理タイプ3が格納されている。5番目の分類判断処理タイプ情報には、ショット中のパンの長さを取得して比較を行う分類判断処理タイプ4が格納されている。
これらの分類判断処理の結果、比較値に示す値と全て一致した場合、分類情報は「1」となる。そして、キーフレームは、キーフレーム抽出タイプ情報に格納されているキーフレーム抽出方法の「3」に該当する、パン中央フレームに設定される。この分類情報1の映像区間に分類される映像データは、パンによって撮影者がどのような空間にいるのかを意図して撮影したものと推測される。例えば、風景や会場内全体を撮影する場合、このような撮影方法が行われる。したがって、この分類情報1に分類される映像区間では、パンの最後よりパン中の映像に意味がある場合が多いと考えられるので、パン操作区間の中央フレームがキーフレームに設定される。
つぎに、分類情報が「2」である場合の映像区間分類情報を示す。分類情報2には、ズーム操作における付属情報を用いた映像区間分類条件情報が設定されている。図13に示したように、撮影環境情報および操作情報を参照し、開始フレームがズームの開始であるか、そのズームの方向はテレ側であるか、パン中であるか、ショット中のズームが1回であるかによって判断される。
これらの判断処理の結果、比較値に示す値と全て一致した場合、分類情報は「2」となる。キーフレームは、キーフレーム抽出タイプ情報に格納されているキーフレーム抽出方法「2」である、終了フレームに設定される。この分類情報2の映像区間に分類される映像データは、ズームが縮小から拡大され、被写体全体が表示された画面から、注目して欲しい被写体の場所を表示することを意図して撮影されたものと推測される。したがって、ズームの開始に比べてズームの終了の方が重要であると考えられ、ズーム操作(縮小→拡大)の映像区間のズーム終了フレームがキーフレームに設定される。このように、付属情報の状態を取得して判断することにより、映像区間の分類が行われる。
図15はユーザキーフレーム抽出履歴情報を示す図である。図16はユーザキーフレーム抽出履歴リストの構造を示す図である。ユーザキーフレーム抽出履歴情報は、撮像装置に予め設定されているキーフレーム抽出方法によるキーフレームに対し、操作者がキーフレームの設定・変更を行ったときに作成され、操作者によるキーフレーム抽出方法が登録される情報である。キーフレームを抽出する映像区間の分類情報とキーフレームの変更が行われた映像区間の分類情報とが一致した場合、キーフレーム抽出履歴情報からキーフレーム抽出タイプ情報が取得され、キーフレーム抽出タイプ情報に対応するキーフレーム抽出方法でキーフレームが抽出される。
図16に示すように、ユーザキーフレーム抽出履歴情報リストは、ユーザキーフレーム抽出履歴情報を取得するためのリストであり、ユーザキーフレーム抽出履歴情報リストには、ユーザ毎のキーフレーム抽出履歴情報の先頭ポインタが格納されている。つまり、ユーザ2のキーフレーム抽出履歴情報を取得する場合、ユーザ2キーフレーム抽出履歴情報ポインタをユーザキーフレーム抽出履歴情報リストから取得することにより、参照することが可能である。
図15のユーザキーフレーム抽出履歴情報の各要素データを示す。要素データ「ユーザID」は、キーフレーム抽出履歴情報を保持するユーザを識別するものである。この要素データ「ユーザID」には、指紋検出部31により取得されたユーザIDが使用される。要素データ「キーフレーム抽出履歴情報格納数」は、ユーザが保持しているキーフレーム抽出履歴情報の数を示す。要素データ「キーフレーム抽出履歴情報のリンク情報」には、キーフレーム抽出履歴情報への先頭アドレスが記述される。
図16のユーザ1キーフレーム抽出履歴情報では、ユーザIDに、ユーザ1の識別情報が格納されている。ユーザ1に対するキーフレーム抽出履歴情報は、N個存在し、N個のキーフレーム抽出履歴情報の先頭ポインタは、各キーフレーム抽出履歴情報の格納場所を示している。
図17はキーフレーム抽出履歴情報の構造を示す図である。図18はキーフレーム抽出履歴情報リストの構造を示す図である。キーフレーム抽出履歴情報は、撮像装置に予め設定されている映像区間分類情報のキーフレーム抽出方法で抽出されたキーフレームに対し、操作者がキーフレームの変更を行ったときに作成され、キーフレームの変更が行われた映像区間のキーフレーム抽出方法が登録される情報である。
図16に示すように、キーフレーム抽出履歴情報は、ユーザキーフレーム抽出履歴情報にリンクされており、ユーザキーフレーム抽出履歴情報に格納されているポインタを参照することにより取得される。取得したキーフレーム抽出履歴情報は、図18に示すように、必要に応じてキーフレーム抽出詳細情報にリンクされる。
キーフレーム抽出履歴情報データの各要素データを示す。要素データ「分類情報」には、操作者がキーフレームを変更した映像区間におけるサブショット情報から取得された映像区間の分類タイプ(分類情報)が記述される。要素データ「キーフレーム抽出タイプ情報格納数」には、分類情報に分類される映像区間におけるキーフレーム抽出方法の数が記述される。要素データ「キーフレーム抽出タイプ情報」には、操作者がキーフレームを設定・変更して取得された新規のキーフレームの抽出方法が記述される。具体的に、マイナスの連番が格納されている場合、キーフレーム抽出詳細情報へのリンクを行うことを意味し、キーフレーム抽出詳細情報に格納された値を使用し、キーフレーム抽出が行われる。このキーフレーム抽出タイプ情報は、映像区間分類情報のキーフレーム抽出タイプ情報と同じであり、キーフレーム抽出タイプ情報格納数で指定された数だけ存在する。
図19はキーフレーム抽出詳細情報の構造を示す図である。図20はキーフレーム抽出詳細情報リストの構造を示す図である。キーフレーム抽出詳細情報は、キーフレーム抽出履歴情報の分類情報で分類される映像区間のキーフレーム抽出方法を示し、キーフレームを抽出するために使用される値を格納する。このキーフレーム抽出詳細情報は、分類情報におけるキーフレーム抽出方法(キーフレーム抽出詳細情報を参照する抽出方法を除く)と異なる値を必要とする抽出方法において、操作者によりキーフレームの変更が行われた場合に作成される。
図20に示すように、キーフレーム抽出詳細情報リストには、キーフレーム抽出詳細情報の先頭ポインタが格納されている。このキーフレーム抽出詳細情報は、図18に示すように、キーフレーム抽出履歴情報(キーフレーム抽出タイプ情報)から参照される。例えば、キーフレーム抽出履歴情報(キーフレーム抽出タイプ情報)に「−2」が指定されていた場合、キーフレーム抽出詳細情報タイプ情報2のキーフレーム抽出詳細情報が設定されていることを表す。
キーフレーム抽出詳細情報データの各要素データを示す。要素データ「キーフレーム抽出詳細情報タイプ情報」には、キーフレーム抽出方法(キーフレーム抽出詳細情報に格納されている値を利用して抽出する方法)の種別が記述される。キーフレーム抽出詳細情報タイプ情報には、連番が格納される。この連番は、キーフレーム抽出タイプ情報に、「−1」をかけた値である。また、要素データ「キーフレーム抽出関連値格納数」は、キーフレームの抽出を行うために使用される値の格納数を示す。要素データ「キーフレーム抽出関連値」は、キーフレームの抽出を行うために使用する値である。
図21はキーフレーム抽出方法決定情報の構造を示す図である。図22はキーフレーム抽出方法決定情報インデックスリストの構造を示す図である。キーフレーム抽出方法決定情報は、操作者が設定されたキーフレームを変更した場合、新規に設定されたキーフレームの抽出方法を特定するための情報である。このキーフレーム抽出方法決定情報は、新規キーフレームとして設定されたフレームの付属情報、および新規キーフレームのフレーム位置情報の少なくとも1つあるいはその組合せにより、キーフレーム抽出方法を特定するためのキーフレーム抽出方法条件情報、および全てのキーフレーム抽出条件情報と一致した映像区間におけるキーフレームを設定するためのキーフレーム抽出タイプ情報を保持する。
図22で示すように、キーフレーム抽出方法決定情報は、分類情報毎に存在する。分類情報におけるインデックス情報は、キーフレーム抽出方法決定情報インデックスリストに格納される。このインデックス情報の要素データには、分類情報(映像区間の分類情報)、インデックス格納数(分類情報に分類される映像区間のキーフレーム抽出方法決定情報の先頭ポインタ格納数)、およびインデックス(キーフレーム抽出方法決定情報の先頭ポインタ)がある。
例えば、分類情報からキーフレーム抽出方法決定情報1を取得する場合、キーフレーム抽出方法決定情報インデックスリストのインデックス情報1を参照し、分類情報のインデックス情報1を取得する。このインデックス情報1から、キーフレーム抽出方法決定情報の先頭ポインタをインデックス格納数分(Q個)取得し、キーフレーム抽出方法決定情報を取得する。つまり、操作者がキーフレームの変更操作を行った場合、キーフレームが変更になった映像区間の分類情報をサブショット情報から取得し、キーフレーム抽出方法決定情報インデックスリストから取得した分類情報を持つインデックス情報を求め、キーフレーム抽出方法決定情報を取得する。取得したキーフレーム抽出方法決定情報を基に、新規に設定されたキーフレームの抽出方法を特定する。また、キーフレーム抽出方法決定情報には、必ずキーフレームが抽出されるように、デフォルトのキーフレーム抽出方法決定情報が存在しており、例えば、映像区間中のキーフレーム位置の割合を求めて特定する方法などが記述されている。
キーフレーム抽出方法決定情報の各要素データを示す。要素データ「キーフレーム抽出方法条件情報」には、キーフレーム変更操作において、新規にキーフレームとなったフレームの位置を特定するためのキーフレーム抽出方法条件情報が記述される。
図23はキーフレーム抽出方法条件情報の構造を示す図である。要素データ「キーフレーム抽出方法判断処理タイプ情報格納数」には、キーフレーム抽出方法判断処理タイプ情報で示される判断処理数が格納される。要素データ「キーフレーム抽出方法判断処理タイプ情報」は、新規に設定されたキーフレームのフレーム番号と、キーフレーム抽出方法判断処理で取得されたフレーム番号とを比較する際の処理タイプを示す。
例えば、キーフレーム抽出方法判断処理タイプ情報が「1」である場合、「サブショットの開始フレーム番号とキーフレーム番号を比較する処理である」ことを示す。「2」である場合、「サブショットの終了フレーム番号とキーフレーム番号を比較する処理である」ことを示す。「3」である場合、「ズーム(縮小→拡大)開始フレーム番号とキーフレーム番号を比較する処理である」ことを示す。「4」である場合、「ズーム(縮小→拡大)終了フレーム番号とキーフレーム番号を比較する処理である」ことを示す。「5」である場合、「ズーム(縮小→拡大)中間フレーム番号とキーフレーム番号を比較する処理である」ことを示す。この中間フレーム番号として、中間値の割合が取得される。
また、「6」である場合、「ズーム(拡大→縮小)開始フレーム番号とキーフレーム番号を比較する処理である」ことを示す。「7」である場合、「ズーム(拡大→縮小)終了フレーム番号とキーフレーム番号を比較する処理である」ことを示す。「8」である場合、「ズーム(拡大→縮小)中間フレーム番号とキーフレーム番号を比較する処理である」ことを示す。この中間フレーム番号として、中間値の割合が取得される。
また、「9」である場合、「チルト開始フレーム番号とキーフレーム番号を比較する処理である」ことを示す。「10」である場合、「チルト終了フレーム番号とキーフレーム番号を比較する処理である」ことを示す。「11」である場合、「チルト中間フレーム番号とキーフレーム番号を比較する処理である」ことを示す。この中間フレーム番号として、中間値の割合が取得される。
また、「12」である場合、「パン開始フレーム番号とキーフレーム番号を比較する処理である」ことを示す。「13」である場合、「パン終了フレーム番号とキーフレーム番号を比較する処理である」ことを示す。「14」である場合、「パン中間フレーム番号とキーフレーム番号を比較する処理である」ことを示す。この中間フレーム番号として、中間値の割合が取得される。
また、要素データ「キーフレーム抽出タイプ情報」には、キーフレーム抽出方法条件情報に一致した映像区間におけるキーフレームの抽出方法が記述される。このキーフレーム抽出タイプ情報は、キーフレーム抽出履歴情報のキーフレーム抽出タイプ情報と同じ値を有するので、その説明を省略する。
また、要素データ「判定タイプ情報」には、新規キーフレーム番号とフレーム番号を判定する方法が格納される。例えば、判定タイプ情報が「1」である場合、「=」、つまり分類判断処理で取得された値と比較値とが等しいか否かを比較することを示す。「2」である場合、「!=」、つまり分類判断処理で取得された値と比較値とが等しくないか否かを比較することを示す。「3」である場合、「>」、つまり分類判断処理で取得された値が比較値より大きいか否かを比較することを示す。「4」である場合、「<」、つまり分類判断処理で取得された値が比較値より小さいか否かを比較することを示す。「5」である場合、「≦」、つまり分類判断処理で取得された値が比較値以下であるか否かを比較することを示す。「6」である場合、「≧」、つまり分類判断処理で取得された値が比較値以上であるか否かを比較することを示す。
図24はキーフレーム抽出方法決定情報の具体例を示す図である。図13に示す映像区間分類情報を想定した場合の、キーフレーム抽出方法決定情報を示す。図24には、図13の映像区間分類情報(映像区間分類情報=1)のキーフレーム抽出方法決定情報が示されている。
分類情報1のキーフレーム抽出方法決定情報では、インデックス情報がS個存在し、キーフレーム抽出方法決定情報の先頭ポインタがS個格納されている。キーフレーム抽出方法決定情報のポインタを取得した順番に、キーフレーム抽出方法決定情報を参照し、キーフレーム抽出方法決定情報のキーフレーム抽出条件情報に記述されている判断処理タイプ情報から、付属情報に関するフレーム番号を取得する。そして、新規に設定されたキーフレームのフレーム番号に対し、判定タイプ情報で指定された判定タイプの比較を行う。
キーフレーム抽出条件情報に格納されている判断処理が全て一致した場合、キーフレーム抽出方法決定情報に記述されているキーフレーム抽出タイプ情報を取得する。例えば、図24に示す動画区間の分類情報1は、パンが1回行われ、パン区間が長い動画区間であることを示し、その分類情報1に関連する付属情報を用いたキーフレーム抽出条件情報が格納されたキーフレーム抽出方法決定情報が記述されている。
例えば、インデックス(ポインタ)1は、新規のキーフレームがパンの開始フレームであるか否かの判断処理タイプ情報を示しており、キーフレームとして設定されたフレーム番号を取得し、そのフレーム番号によって示される撮影環境情報のイベント種別がパン開始であるか否かを比較する。イベント種別がパン開始と一致した場合、キーフレームがパン開始位置に設定されたとみなされ、キーフレーム抽出方法決定情報に記述されているキーフレーム抽出方法として、キーフレーム抽出タイプ情報の「13」のパン開始フレームを決定する。
また例えば、インデックス(ポインタ)3には、新規キーフレームがパンの中間フレームであるか否かを判断するための判断処理タイプ情報が記述されている。キーフレームとして設定されたフレーム番号の撮影環境情報のイベント種別を参照し、イベント種別が比較値(パン継続)と等しいか否かを比較する。パン継続であった場合、そのパン中のどのフレームがキーフレームとなったのか、その位置情報を数式(1)にしたがって算出する。
位置情報=(キーフレームとなるフレームの番号―パン開始フレーム番号)/(パン終了フレーム番号―パン開始フレーム番号) …… (1)
この算出された値は、キーフレーム抽出詳細情報(図19参照)に格納される。パンフレームの中間にキーフレームを設定するキーフレーム抽出方法が格納されたキーフレーム抽出詳細情報のタイプ情報を、キーフレーム抽出タイプ情報から取得する。図24では、キーフレーム抽出詳細情報のタイプ情報は、「3」=(−3)×(−1)である。キーフレーム抽出詳細情報のタイプ情報が「3」であるキーフレーム抽出詳細情報に、数式(1)により算出された値を格納する。例えば、取得(算出)した値が「0.1」であった場合、図20に示すように、キーフレーム抽出詳細情報のタイプ情報3の関連値1に「0.1」が格納される。
上記構成を有する撮像装置のキーフレーム設定処理動作を示す。図25および図26は撮像装置におけるキーフレーム設定処理手順を示すフローチャートである。この処理プログラムは、撮像装置内の記憶媒体に格納されており、撮像装置内のCPU(具体的には、システム制御部23内のCPUおよび映像管理部17内のCPU)によって、電源ON後に実行される。
まず、初期化処理を行い(ステップS1)、操作入力部24から入力を待つ(ステップS2)。操作入力部24から何らかの入力があった場合、入力操作の内容を判別する。即ち、入力操作がRECボタン27の押下による撮影開始であるか否かを判別する(ステップS3)。入力操作がRECボタン27の押下であった場合、撮影処理を行う(ステップS6)。このとき、前述した操作情報および撮影環境情報を記録部29に出力するとともに、RAM43内の撮影環境情報リストに時系列順で一時記憶する。
撮影が終了したか否かを判別し(ステップS7)、終了していない場合、撮影が終了するまで、ステップS6の処理を繰り返す。ここで、撮影の終了は、RECボタン27が再び押下された場合、記録メディア30の記録容量が一杯になった場合、電源を供給できなくなりそうな場合など、いずれかの条件が満たされた時に行われる。
ステップS7で撮影が終了した場合、撮影された映像データをサブショット映像区間毎に分割する映像分割処理を行う(ステップS8)。分割された映像区間を代表するフレーム画像を設定するキーフレーム設定処理を行う(ステップS9)。このキーフレーム設定処理の詳細については後述する。この後、ステップS2の処理に戻り、次の入力操作を待つ。
一方、ステップS3で入力操作がRECボタン27の押下でなかった場合、キーフレーム一覧表示の指示が行われたか否かを判別する(ステップS4)。このキーフレーム一覧表示の指示は、予めキーフレーム一覧表示の機能が設定された操作入力部(操作パネル)24のボタン等が押された場合、メニューボタン32からキーフレーム一覧表示が指定された場合などで、実行可能である。キーフレーム一覧表示の指示が行われた場合、キーフレームの一覧表示処理を行う(ステップS10)。この後、ステップS2の処理に戻り、次の入力操作を待つ。このキーフレーム一覧表示処理では、サブショット情報リスト(図9参照)に登録されている全てのポインタからサブショット情報を取得し、そのサブショット情報(図8参照)の要素データKeyFrameからキーフレームとなるフレーム番号を取得し、その対応する画像データを取得して表示部18に表示する。
図49は動画区間毎のキーフレームを一覧表示する操作画面を示す図である。この操作画面では、撮影された映像を分割した動画(映像)区間毎のキーフレームが一覧表示されている。サブショット情報も、動画区間AからPに対して作成される。後述するように、動画区間Bにおけるキーフレームの変更操作が行われた場合、動画区間Bにおけるキーフレームの変更処理が開始する。
一方、ステップS4でキーフレーム一覧表示指示が行われていない場合、キーフレームの変更指示が行われたか否かを判別する(ステップS5)。このキーフレームの変更指示の有無は、予めキーフレーム変更の機能が設定された操作入力部(操作パネル)24のメニューボタン32によってキーフレーム変更が選択されること等で判別可能である。キーフレームの変更指示が行われた場合、キーフレームの変更処理を行う(ステップS11)。このキーフレームの変更処理の詳細については後述する。この後、ステップS2の処理に戻り、次の入力操作を待つ。
一方、ステップS5でキーフレーム変更指示が行われていない場合、ユーザ認識指示が行われたか否かを判別する(ステップS12)。このユーザ認識指示の有無は、指紋検出部31のセンサ部に指が押し当てられたことにより判別可能である。ユーザ認識指示が行われた場合、ユーザ識別処理を行う(ステップS13)。この後、ステップS2の処理に戻り、次の入力操作を待つ。このユーザ識別処理では、特許文献2に示される指紋認識技術が用いられ、指紋検出部31に押し当てられた指によって生じた影をセンサ部で指紋であると検出し、この指紋を、予め記憶されたユーザ認識データリスト(ユーザIDと指紋データが対であるリスト)からの指紋データと照合する。指紋データが一致した場合、操作者を識別するユーザIDが取得される。一方、指紋データが一致しなかった場合、新規ユーザとして、指紋データとユーザIDがユーザ認識データリストに登録される。そして、現在使用されている操作者のユーザIDは、RAM43に保持される。
一方、ステップS12でユーザ認識指示がなかった場合、その他の処理を行い(ステップS14)、ステップS2の処理に戻る。また、割込み信号46による割り込みが発生した場合、本処理を中断して必要な割り込み処理が行われる。
図27はステップS8における映像分割処理手順を示すフローチャートである。本実施形態では、撮像装置で撮影された映像データは、ショット単位(録画操作の開始・終了を基準に分割された単位)に分割される。さらに、ショット内の映像データは、操作情報(ズームなどの操作情報)、撮影環境情報(パンやチルトなどの情報)などの情報を基に、サブショット単位に分割される。
まず、記憶されている撮影環境情報リストの先頭にポインタを設定する(ステップS21)。ポインタで示された撮影環境情報のイベント種別情報がパンの開始であるか否かを判別する(ステップS22)。パン開始であった場合、ズーム区間中であるか否かを判別する(ステップS23)。この判別は、パン中にズームを開始するなど、複数の操作が同一時間内で行われた場合、最初に発生した操作に着目し、サブショットに分割するために行われる。また、撮影環境情報リスト内の現在処理されているポインタから、撮影環境情報データリストの前後の要素データを参照することで行われる。
ステップS23でズーム中でなかった場合、画面上の移動量を換算する(ステップS24)。同じ回転角度であっても、撮像装置がズーミングを行っている場合、画面上の移動は激しいものとなる。そこで、回転角度に、ズーム位置毎に予め決められた係数を掛けることによって換算を行う。そして、撮影環境情報リスト内の現在処理中のポインタからパン終了時までのパン全体における総移動量を算出する。
画面上の移動量が閾値を越えているか否かを判別する(ステップS25)。閾値を越えている場合、前回のパン操作終了との時間差が閾値を越えているか否かを判別する(ステップS26)。これは、高頻度に行われた操作を、サブショットの対象外とするためである。前回のパン操作終了との時間差が閾値を越えている場合、パン開始点を分割点とする(ステップS27)。
映像の分割点が決定された場合、分割点の前に位置する映像のサブショット情報における終了点、キーフレーム数およびサブショット情報を新規に作成し、サブショット情報に追加する。一方、新規サブショット情報には、開始点が格納される。これらのサブショット情報は、操作情報および撮影環境情報と同様、記録部29に出力される他、RAM43内のサブショット情報リストに時系列順で一時記憶される。
この後、ステップS32の処理に移行する。また、ステップS23でズーム区間中であった場合、ステップS25で画面上の移動量が閾値を越えていない場合、またはステップS26で前回のパン操作終了との時間差が閾値を越えていない場合、分割点を決定することなく、ステップS32の処理に移行する。
一方、ステップS22の判別の結果、撮影環境情報のイベント種別情報がパン開始でなかった場合、撮影環境情報のイベント種別情報がズーム開始であるか否かを判別する(ステップS28)。ズーム開始であった場合、パン区間中であるか否かを判別する(ステップS29)。このズーム中におけるパン区間中であるか否かの判別は、パン中におけるズーム区間中であるか否かの判別と同様の理由で行われる。
ステップS29でパン区間中でなかった場合、ズーム開始は撮影者の意図したものであるか否かを判別する(ステップS30)。この処理では、複数のズーム操作が行われた場合でも、撮影者は1回のズーム操作を意図していたものと推測する。例えば、初心者に特徴的な操作であって、ワイドボタン25あるいはテレボタン26の操作を意図したズーム倍率で止めることができず、それを補正するために逆方向に戻す操作を行ったと推測される。このことは、ズーム操作を終了してから戻し操作を始めるまでの時間が所定の範囲内であること、ズームスピードが高速であること、ズームの方向が逆になること等から、推測可能である。また、初心者の操作には、ズームを滑らかに行わず、断続的に行うという特徴がある。このような断続的な操作は、時間差とズームの方向から推測可能であり、連続したズーム区間で行われたとみなす。
ステップS30の判別の結果、ズーム開始が撮影者の意図したものであると推測された場合、ズーム開始点を分割点とする(ステップS31)。前述したように、映像の分割点が決定された場合、分割点の前に位置する映像のサブショット情報における終了点、キーフレーム数およびサブショット情報を新規に作成し、サブショット情報リストに追加する。また、新規のサブショット情報には、開始点が登録される。これらのサブショット情報は、操作情報および撮影環境情報と同様、記録部29に出力される他、RAM43内のサブショット情報リストに時系列順で一時記憶される。撮影環境情報リストの現在のポインタにおける処理が終了すると、ステップS32の処理に進む。また、ステップS28でズーム開始でない場合、ステップS29でパン区間中である場合、あるいはステップS30でズーム開始が撮影者の意図したものでない場合、分割点を決定することなく、ステップS32の処理に進む。そして、次の入力操作情報があるか否かを判別する(ステップS32)。次の入力操作情報がある場合、ステップS22の処理に戻り、一方、次の入力操作情報がない場合、本処理を終了する。
図28はステップS9におけるキーフレーム設定処理手順を示すフローチャートである。まず、キーフレームの設定を行う操作者のユーザIDをRAM43から取得する(ステップS41)。ユーザIDが設定されていなかった場合、本撮像装置に予め指定されている共通ユーザのユーザIDが取得される。
キーフレーム設定処理を行うための初期化処理を行う(ステップS42)。例えば、キーフレームを抽出するサブショット情報リストの先頭にポインタを移動する。そして、サブショット情報リストに示される映像区間毎のキーフレームの設定が終了であるか否かを判別し(ステップS43)、キーフレーム設定終了である場合、本処理を終了する。一方、キーフレーム設定終了でない場合、ステップS44の処理に移行する。
サブショット情報リストおよびサブショット情報を参照し、キーフレームを設定する映像区間の分類情報を取得する(ステップS44)。この分類情報の取得処理は、サブショットの映像区間に関する付属情報(撮像環境情報および操作情報など)を参照し、映像区間分類情報に格納されている分類条件情報を基に判定して行われる。この分類情報の取得処理の詳細については後述する。ステップS41で取得したユーザIDから操作者のキーフレーム抽出履歴情報を取得し、その中からステップS44で取得した分類情報のキーフレーム抽出履歴情報を取得する(ステップS45)。ステップS44で取得した分類情報を基に、キーフレーム抽出タイプ情報を検索して取得する(ステップS46)。ステップS46で取得したキーフレーム抽出タイプ情報を用いて、キーフレームの抽出を行う(ステップS47)。ステップS47で抽出されたキーフレームのフレーム番号をサブショット情報の要素データKeyframeに格納する(ステップS48)。このとき、要素データNumberOfKeyframeの情報は、抽出されたキーフレームに応じて加算される。映像区間分類情報にキーフレーム抽出タイプ情報が2つある場合、キーフレームを2つ取得し、取得したキーフレーム番号が同一でなかった場合、サブショット情報の要素データNumberOfKeyframeの情報は、「+2」加算される。取得した2つのフレーム番号は要素データKeyframeに登録される。
図29および図30はステップS44における分類情報の取得処理手順を示すフローチャートである。まず、映像区間分類情報リストの先頭にポインタIを設定する(ステップS51)。例えば、図11に示す映像区間分類情報リストの映像区間分類情報1先頭ポインタにポインタIを移動させる。そして、ポインタIが映像区間分類情報リストの末尾に移動したか否かを判別する(ステップS52)。つまり、全ての映像区間分類情報を参照したか否かを判断する。ステップS52で、全ての映像区間分類情報を参照した場合、当てはまる分類情報が存在しなかったことを意味するので、デフォルトの分類情報を設定し(ステップS67)、本処理を終了する。
一方、ステップS52で全ての映像区間分類情報が参照されていない場合、ポインタIで示される映像区間分類情報を取得する(ステップS53)。図11に示す映像区間分類情報1先頭ポインタを取得し、映像区間分類情報1を取得する。映像区間分類情報の分類条件情報に格納されている分類判断処理タイプ情報格納数を取得する(ステップS54)。分類情報1(図13参照)における分類条件情報(図14参照)では、分類判断処理タイプ情報格納数に「5」が格納されているので、分類判断処理タイプ情報格納数として、「5」が取得される。
この後、ステップS55〜S57の処理で、分類条件情報に格納されている分類判断処理を行い、全ての分類判断処理で一致するか否かを判断する。全ての分類判断処理で一致した場合、この分類条件情報を有する分類情報に分類される。まず、分類条件情報に格納されている分類判断処理タイプ情報の分類判断処理を全て終了したか否かを判別する(ステップS55)。分類判断処理を全て終了した場合、ステップS65の処理に移行する。一方、ステップS55で、分類判断処理を全て終了していない場合、次の分類判断処理タイプ情報の分類判断処理を行う。
分類判断処理タイプ情報の値が「1」〜「L」(Lは分類判断処理タイプ情報の定義数であり、分類情報1では値5)までであるか否かを判別する(ステップS56)。「1」〜「L」まででない場合、映像区間分類情報リストのポインタIを加算し(ステップS56A)、ステップS52の処理に戻り、次の映像区間分類情報の判定に移行する。
一方、ステップS56で分類判断処理タイプ情報の値が「1」〜「L」までであった場合、ステップS59〜S64で分類判断処理タイプ情報毎の分類判断処理を行う。すなわち、分類判断処理タイプ情報が「1」であるか否かを判別する(ステップS59)。分類判断処理タイプ情報が「1」である場合、分類判断処理タイプ情報1の判断処理を行い(ステップS60)、ステップS57の処理に移行する。一方、分類判断処理タイプ情報が「1」でない場合、分類判断処理タイプ情報が「2」であるか否かを判別する(ステップS61)。分類判断処理タイプ情報が「2」である場合、分類判断処理タイプ情報2の判断処理を行い(ステップS62)、ステップS57の処理に移行する。一方、分類判断処理タイプ情報が「2」でない場合、分類判断処理タイプ情報1、2と同様の処理を、分類判断処理タイプ情報が「L−1」まで行う。そして、分類判断処理タイプ情報が「L−1」でない場合、分類判断処理タイプ情報が「L」であるか否かを判別する(ステップS63)。分類判断処理タイプ情報が「L」である場合、分類判断処理タイプ情報Lの判断処理を行い(ステップS64)、ステップS57の処理に移行する。尚、この分類判断処理の詳細については後述する。
このように、ステップS59〜ステップS64で分類判断処理タイプ情報毎の分類判断処理を行った後、各分類判断処理の結果が真である(一致するとみなされる)か否かを判別する(ステップS57)。各分類判断処理の戻り値が真でなかった場合、ポインタIを加算し(ステップS58)、ステップS52に戻り、次の映像区間分類情報に移行する。一方、ステップS57で一致するとみなされた場合、ステップS55に戻って次の分類判断処理タイプ情報に移行する。
ステップS55で分類判断処理タイプ情報の分類判断処理を全て終了した場合、分類判断処理タイプ情報の全ての分類判断処理が一致して真となったか否かを判別する(ステップS65)。分類条件情報の分類判断処理の結果が全て真となった映像区間分類情報が存在する場合、分類情報を取得し(ステップS66)、本処理を終了する。一方、分類条件情報の分類判断処理が全て真とはならなかった場合、ステップS52の処理に戻る。そして、ステップS52で全ての映像区間分類情報を参照し終えた場合、前述したように、ステップS67でデフォルトの分類情報を設定し、本処理を終了する。
例えば、図14に示す最初の分類判断処理では、分類判断処理タイプ情報1を設定し、開始フレームの撮影環境情報のイベント種別情報を取得することが示されている。そして、取得したイベント種別情報と比較値(0:パン開始)との比較を、判定方法タイプ1(=)で行うことが示されている。つまり、等しいか否かの比較が行われる。
図31はステップS60における分類判断処理タイプ情報1の判断処理手順を示すフローチャートである。まず、比較値(0:パン開始)および判定方法タイプ情報(1:=)を取得する(ステップS71)。サブショット情報の要素データStartTimeから開始フレーム番号を取得し、そのフレーム番号と一致する撮影環境情報を検索し、そのイベント種別情報を求める(ステップS72)。
ステップS71で取得した判定方法タイプを判別する(ステップS73)。つまり、判定タイプが「1:=」である場合、等しいか否かの比較を行い(ステップS75)、ステップS74の処理に移行する。判定タイプが「2:!=」である場合、等しくないか否かの比較を行い(ステップS76)、ステップS74の処理に移行する。判定タイプが「3:>」である場合、イベント種別情報が比較値より大きいか否かの比較を行い(ステップS77)、ステップS74の処理に移行する。判定タイプが「4:<」である場合、イベント種別情報が比較値より小さいか否かの比較を行い(ステップS78)、ステップS74の処理に移行する。このような処理を判定タイプが「T−1」まで行った後(ここで、「T」は値5以上の数)、判定タイプが「T」である場合、「T」に対応する判定タイプでイベント種別情報と比較値の比較を行い(ステップS78)、ステップS74の処理に移行する。一方、ステップS73で判定タイプが上記いずれの値でもなく、その他(etc)である場合、ステップS82の処理に移行する。
ここでは、判定方法タイプが「1」、つまり「=」であるので、ステップS75において、ステップS72で取得したイベント種別情報とステップS71で取得した比較値(0:パン開始)とを比較する。この比較が成立して真であるか否かを判別する(ステップS74)。比較の結果、成立している場合、戻り値として「1」を設定し(ステップS81)、本処理を終了する。一方、比較の結果、不成立である場合、戻り値として「0」を設定し(ステップS82)、本処理を終了する。
つづいて、図14の2番目の分類判断処理を示す。図32はステップS60における分類判断処理タイプ情報2の判断処理手順を示すフローチャートである。図31と同一のステップ処理については同一のステップ番号を付すことにする。まず、分類判断処理タイプ情報2を設定し、開始フレームの操作情報のイベント種別情報を取得する。そして、取得したイベント種別情報と比較値(1:ズーム継続)との比較を、判定方法タイプ2、つまり「!=」で行う。
具体的に、前述したステップS71で、比較値(1:ズーム継続)および判定方法タイプ情報(2:!=)を取得する。サブショット情報の要素データStartTimeから開始フレーム番号を取得し、そのフレーム番号と一致する操作情報を検索し、そのイベント種別情報を求める(ステップS72A)。ステップS71で取得した判定方法タイプが「2」、つまり「!=」であるので、ステップS73でステップS76の処理に分岐する。ステップS76では、ステップS72で取得したイベント種別情報とステップS71で取得した比較値(1:ズーム継続)とが等しくない(「!=」である)か否かを比較する。そして、ステップS74、S81、S82で比較した結果の値を戻り値として設定し、本分類判断処理タイプ2の判断処理を終了する。同様に、図14の3番目の分類判断処理を示す。この分類判断処理手順は、比較値が異なるだけで2番目の分類判断処理と同様であるので、その説明を省略する。
図14の4番目の分類判断処理では、分類判断処理タイプ情報3を設定し、サブショット中のパンの回数を取得することが示されている。この分類判断処理では、取得したイベント種別と比較値(1:パン継続)との比較を、判定方法タイプ1、つまり「=」で行う。図33はステップS60における分類判断処理タイプ情報3の判断処理手順を示すフローチャートである。図31と同一のステップ処理については同一のステップ番号を付すことにする。ステップS71で、比較値(1:パン継続)および判定方法タイプ情報(1:=)を取得する。そして、サブショット情報の要素データStartTimeから開始フレーム番号を取得し、要素データEndTimeから終了フレーム番号を取得し、そのフレーム番号内のフレーム番号と一致する撮影環境情報を取得し、そのイベント種別が「パン開始」の数を求める(ステップS72B)。ステップS73では、ステップS71で取得した判定方法タイプが「1」、つまり「=」であるので、ステップS75で、ステップS72Bで取得したパン開始の数とステップS71で取得した比較値(1:パン継続)とが等しい(「=」である)かを比較する。ステップS74、S81、S82で比較した結果の値を戻り値として設定し、本分類判断処理タイプ4の判断処理を終了する。
図14の5番目の分類判断処理では、分類判断処理タイプ情報4を設定し、パンの長さを取得することが示されている。この分類判断処理では、取得したイベント種別と比較値(予め設定されたパンの長さが大きいことを示す閾値)との比較を、判定方法タイプ3、つまり「>」で行う。図34はステップS60における分類判断処理タイプ情報4の判断処理手順を示すフローチャートである。図31と同一のステップ処理については同一のステップ番号を付すことにする。ステップS71で、比較値(閾値)および判定方法タイプ情報(3:>)を取得する。サブショット情報の要素データStartTimeから開始フレーム番号を取得し、要素データEndTimeから終了フレーム番号を取得し、パン開始からパン終了までの時間を取得する(ステップS72C)。
ステップS73において、ステップS71で取得した判定方法タイプが「3」、つまり「>」であるので、ステップS77に分岐し、ステップS77では、ステップS72Cで取得したパン開始からパン終了までの時間がステップS71で取得した比較値(閾値)より長い(「>」である)かを比較する。そして、ステップS74、S81、S82で比較した結果の値を戻り値として設定し、本分類判断処理タイプ4の判断処理を終了する。
図35はステップS47におけるキーフレーム抽出処理手順を示すフローチャートである。まず、キーフレーム抽出タイプ情報がマイナス値であるか否かを判別する(ステップS91)。マイナス値であった場合、キーフレーム抽出詳細情報によるキーフレーム抽出を行い(ステップS92)、本処理を終了する。このキーフレーム抽出詳細情報によるキーフレーム抽出処理の詳細については後述する。
一方、ステップS91でキーフレーム抽出タイプ情報がマイナス値でなかった場合、ステップS93からステップS98までの処理によって、キーフレーム抽出タイプ情報に応じたキーフレーム抽出処理が行われる。具体的に、キーフレーム抽出タイプ情報が「1」であるか否かを判別する(ステップS93)。キーフレーム抽出タイプ情報が「1」である場合、キーフレーム抽出タイプ1でサブショット映像区間の先頭フレームを取得する(ステップS94)。この後、本処理を終了する。
一方、ステップS93でキーフレーム抽出タイプ情報が「1」でない場合、キーフレーム抽出タイプ情報が「2」であるか否かを判別する(ステップS95)。キーフレーム抽出タイプ情報が「2」である場合、キーフレーム抽出タイプ2でサブショット映像区間の終了フレームを取得する(ステップS96)。この後、本処理を終了する。同様に、ステップS95でキーフレーム抽出タイプ情報が「2」でない場合、キーフレーム抽出タイプ情報が「V−1」まで同様の処理を行い(「V」はキーフレーム抽出タイプ情報における値3以上の数)、キーフレーム抽出タイプ情報が「V−1」でない場合、キーフレーム抽出タイプ情報が「V」であるか否かを判別する(ステップS97)。キーフレーム抽出タイプ情報が「V」である場合、キーフレーム抽出タイプ情報が「V」に対応するキーフレーム抽出処理を行う(ステップS98)。この後、本処理を終了する。一方、キーフレーム抽出タイプ情報が「V」でない場合、そのまま本処理を終了する。
つぎに、キーフレーム抽出タイプ情報毎のキーフレーム抽出処理を示す。図36は開始フレームをキーフレームとして設定するキーフレーム抽出タイプ情報1のキーフレーム抽出処理手順を示すフローチャートである。まず、サブショット情報の要素データStartTimeから開始フレーム番号を取得する(ステップS101)。サブショット情報の要素データNumberOfKeyframeを値1加算する(ステップS102)。サブショット情報の要素データKeyframeに、ステップS101で取得したフレーム番号を格納する(ステップS103)。この後、本処理を終了する。これにより、開始フレームがキーフレームとして設定される。
図37は終了フレームをキーフレームとして設定するキーフレーム抽出タイプ情報2のキーフレーム抽出処理手順を示すフローチャートである。まず、サブショット情報の要素データEndTimeから終了フレーム番号を取得する(ステップS111)。サブショット情報の要素データNumberOfKeyframeを値1加算する(ステップS112)。サブショット情報の要素データKeyframeに、ステップS111で取得したフレーム番号を格納する(ステップS113)。この後、本処理を終了する。これにより、終了フレームがキーフレームとして設定される。
図38はパン中の中間フレームをキーフレームとして設定するキーフレーム抽出タイプ情報3のキーフレーム抽出処理手順を示すフローチャートである。まず、サブショット情報の要素データStartTimeから開始フレーム番号を取得する(ステップS121)。サブショット情報の要素データEndTimeから終了フレーム番号を取得する(ステップS122)。ステップS121およびステップS122で取得したフレーム番号の範囲内における撮影環境情報を参照し、パン開始フレーム番号およびパン終了フレーム番号を取得し、数式(2)にしたがって、パン中間フレーム番号を求める(ステップS123)。
(パン終了フレーム番号−パン開始フレーム番号)/2+パン開始フレーム番号 ……(2)
サブショット情報の要素データNumberOfKeyframeを値1加算する(ステップS124)。サブショット情報の要素データKeyframeに、ステップS123で取得したフレーム番号を格納する(ステップS125)。この後、本処理を終了する。これにより、パン中の中間フレームはキーフレームとして設定される。
図39はステップS92におけるキーフレーム抽出詳細情報を用いたキーフレーム抽出処理手順を示すフローチャートである。まず、ステップS46で取得されたキーフレーム抽出タイプ情報を用いてキーフレーム抽出詳細情報を検索する(ステップS131)。キーフレーム抽出詳細情報タイプ情報を参照する場合(図18参照)、キーフレーム抽出情報タイプ情報には、「−1」が掛けられているので、キーフレーム抽出タイプ情報の値に「ー1」を掛けて、キーフレーム抽出詳細情報タイプ情報が取得される。この取得したキーフレーム抽出詳細情報タイプ情報を用いて検索することで、キーフレーム抽出詳細情報は取得される。取得したキーフレーム抽出詳細情報に格納されているキーフレーム抽出関連値を全て順に取得する(ステップS132)。
そして、ステップS133からステップS138までの処理によって、キーフレーム抽出詳細情報タイプ情報毎に取得した関連値を使用し、キーフレーム抽出処理を行う。具体的に、キーフレーム抽出詳細情報タイプ情報が「1」であるか否かを判別する(ステップS133)。「1」である場合、キーフレーム抽出詳細情報タイプ情報1のキーフレーム抽出処理を行い(ステップS134)、本処理を終了する。一方、「1」でない場合、キーフレーム抽出詳細情報タイプ情報が「2」であるか否かを判別する(ステップS135)。「2」である場合、キーフレーム抽出詳細情報タイプ情報2のキーフレーム抽出処理を行い(ステップS136)、本処理を終了する。一方、「2」でない場合、キーフレーム抽出詳細情報タイプ情報が「N−1」となるまで同様の処理を行い(ここで、Nはキーフレーム抽出詳細情報タイプ情報のうち、「3」以上の数)、キーフレーム抽出詳細情報タイプ情報が「N−1」でない場合、キーフレーム抽出詳細情報タイプ情報が「N」であるか否かを判別する(ステップS137)。「N」である場合、キーフレーム抽出詳細情報タイプ情報Nのキーフレーム抽出処理を行い(ステップS138)、本処理を終了する。一方、「N」でない場合、そのまま本処理を終了する。
例えば、キーフレーム抽出詳細情報タイプ情報が「3」である場合、つまり、キーフレームがパン中に存在する場合、キーフレーム設定処理として、ステップS132で取得したパン中のキーフレーム抽出関連値の位置にキーフレームを設定する処理を行う。
図40はキーフレーム抽出詳細情報タイプ情報3のキーフレーム抽出処理手順を示すフローチャートである。このキーフレーム抽出詳細情報タイプ情報3のキーフレーム抽出処理では、キーフレームは、キーフレーム抽出詳細情報3のキーフレーム抽出関連値(サブショット情報のパン開始フレーム中の割合を示す値)に従って抽出される。
まず、サブショット情報の開始フレーム番号および終了フレーム番号を取得し、その範囲内のフレーム番号の中から、撮影環境情報を参照し、イベント種別がパン開始であるものを検索し、パン開始フレーム番号を取得する(ステップS141)。同様に、サブショット情報の開始フレーム番号および終了フレーム番号の範囲内のフレーム番号の中から、撮影環境情報を参照し、イベント種別がパン終了であるものを検索し、パン終了フレーム番号を取得する(ステップS142)。この後、ステップS132で取得したキーフレーム抽出関連値(0.1)を基に、数式(3)にしたがって、キーフレーム番号を計算して取得する(ステップS143)。
(パン終了フレーム番号―パン開始フレーム番号)×0.1+パン開始フレーム番号 …… (3)
サブショット情報の要素データNumberOfKeyframeを値1加算し(ステップS144)、ステップS143で取得したキーフレーム番号をサブショット情報の要素データKeyframeに設定する(ステップS145)。この後、本処理を終了する。
図41はステップS11におけるキーフレーム変更処理手順を示すフローチャートである。まず、キーフレームを変更する動画(映像)区間を取得する(ステップS151)。この動画区間は、例えば、キーフレーム一覧表示処理(ステップS10参照)によって表示部18に表示されたキーフレームの一覧から、操作者がキーフレームを選択することで、変更される。
図50は動画区間におけるキーフレームの変更処理を行う際の操作画面を示す図である。この操作画面の上位部分では、現在変更中のキーフレームのポイント表示が行われる。ここでは、動画区間Bのサムネイル画像を太枠で表示することにより、ポイント表示が行われる。一方、この操作画面の下位部分では、動画区間Bのフレーム画像が表示される。さらに、現在キーフレームとなっているフレーム画像および選択中のフレーム画像がポイント表示される。ここでは、フレーム画像B1が現在キーフレームとなっているフレーム画像であり、点線枠で表示される。また、フレーム画像B3は現在選択中のフレーム画像である。この操作画面で設定を行うと、キーフレームはフレーム画像B3に設定される。
このようにして新規に設定されるキーフレームの選択処理を行う(ステップS152)。尚、このキーフレームの選択処理は、特に限定されない。例えば、ステップS151で取得したサブショット情報の要素データStartTimeおよび要素データEndTimeを用いて動画を再生し、キーフレームとして使用したい画像が表示された時点で、操作者が操作入力部24のStopボタンを押下することで、キーフレームの選択が行われるようにしてもよい。また、要素データStartTimeおよび要素データEndTime間のフレーム全てを、同時にもしくは階層的に表示し、そのフレームの一覧から、操作者がキーフレームを選択するようにしてもよい。選択されたキーフレームとなるフレーム番号をサブショット情報の要素データKeyFrameに格納する(ステップS153)。
キーフレーム抽出履歴情報にキーフレームの抽出方法を登録するか否かを判別する(ステップS154)。この判別処理では、予めキーフレームの変更時、キーフレーム抽出履歴情報を作成するか否かの情報を環境ファイル等に記述しておき、その情報を取得して判別してもよいし、あるいはキーフレームの変更時、操作者がキーフレーム抽出履歴情報を作成するか否かを確認することによって判別してもよく、特に限定されない。
ステップS154で、キーフレーム抽出履歴情報に登録する場合、キーフレーム抽出履歴情報の登録処理を行い(ステップS155)、ステップS156の処理に移行する。一方、ステップS154で、キーフレーム抽出履歴情報に登録しない場合、そのままステップS156の処理に移行する。類似動画区間におけるキーフレームの変更処理を行うか否かを判別する(ステップS156)。この判別処理では、ステップS154と同様、予めキーフレーム変更時、類似動画区間におけるキーフレームの変更処理を行うか否かの情報を、保持する環境ファイル等から取得して判別してもよいし、あるいはキーフレーム変更時、操作者が変更するか否かを確認することによって判別してもよく、特に限定されない。
ステップS156で、類似動画区間のキーフレーム変更を行う場合、類似動画区間のキーフレーム変更処理を行い(ステップS157)、本キーフレーム変更処理を終了する。一方、ステップS156で、類似動画区間のキーフレーム変更を行わない場合、そのまま本キーフレーム変更処理を終了する。
図42はステップS155におけるキーフレーム抽出履歴情報登録処理手順を示すフローチャートである。まず、キーフレームの変更を行った映像区間における分類情報を取得する(ステップS161)。この分類情報の取得処理では、キーフレームの変更を行ったサブショット情報の分類情報、あるいはRAM43に格納されているキーフレームの変更を行った分類情報が取得される。新規に設定されたキーフレームのキーフレーム抽出方法を取得する(ステップS162)。この新規に設定されたキーフレームの抽出方法を取得する際、キーフレーム抽出詳細情報に抽出方法の関連値が格納されている場合、その関連値も取得される。ステップS162で関連値を取得した場合、キーフレーム抽出詳細情報に関連値を格納する(ステップS163)。
キーフレーム抽出履歴情報の設定を行う操作者のユーザIDをRAM43から取得する(ステップS164)。ユーザキーフレーム抽出履歴情報リストから、ユーザIDによって示されるユーザキーフレーム抽出履歴情報の先頭ポインタを取得し、このユーザキーフレーム抽出履歴情報の中からキーフレーム抽出履歴情報リンク情報が示すキーフレーム抽出履歴情報から、ステップS161で取得した分類情報のキーフレーム抽出履歴情報を検索する(ステップS165)。
分類情報が一致するキーフレーム抽出履歴情報があったか否かを判別する(ステップS166)。分類情報が一致するキーフレーム抽出履歴情報があった場合、ステップS165で取得したキーフレーム抽出履歴情報のキーフレーム抽出タイプ情報を、ステップS162で取得したキーフレーム抽出タイプ情報に変更する(ステップS167)。この後、本処理を終了する。一方、ステップS166で、分類情報が一致するキーフレーム抽出履歴情報が存在しなかった場合、ステップS161で取得した分類情報を新規キーフレーム抽出履歴情報の分類情報に登録し、ステップS162で取得したキーフレーム抽出タイプ情報をキーフレーム抽出タイプ情報に登録し、キーフレーム抽出タイプ情報格納数に「1」を追加してキーフレーム抽出履歴情報を作成する(ステップS168)。このとき、作成された先頭アドレスを、ステップS164で取得されたユーザのキーフレーム抽出履歴情報リストに登録する。この後、本処理を終了する。
図43はステップS162における新規設定キーフレーム抽出タイプ情報取得処理手順を示すフローチャートである。まず、新規キーフレームとして設定されたフレーム番号を取得する(ステップS171)。このフレーム番号の取得処理では、ステップS152の新規設定キーフレーム取得処理で取得された値が取得される。キーフレームの変更が行われた映像区間の分類情報を取得する(ステップS172)。ステップS171で取得した分類情報のキーフレーム抽出方法決定情報を検索する(ステップS173)。具体的に、キーフレーム抽出方法決定情報インデックスリストから、ステップS171で取得した分類情報とインデックス情報の分類情報とが一致するインデックス情報を取得する。取得したインデックス情報に格納されているキーフレーム抽出方法決定情報のポインタを取得する。
ステップS171で取得した分類情報が一致するキーフレーム抽出方法決定情報があったか否かを判別する(ステップS174)。分類情報が一致するキーフレーム抽出方法決定情報がなかった場合、デフォルトのキーフレーム抽出方法決定情報を取得し(ステップS175)、ステップS179の処理に移行する。
一方、ステップS174で分類情報が一致するキーフレーム抽出方法決定情報があった場合、インデックス情報に格納されている順にキーフレーム抽出方法決定情報のポインタを取得し、取得したポインタからキーフレーム抽出方法決定情報を取得する(ステップS176)。キーフレーム抽出方法決定情報に格納されているキーフレーム抽出方法条件情報に格納されている判断処理を基に、新規キーフレームがキーフレーム抽出方法決定情報に記述されているキーフレーム抽出方法により抽出されたものであるか否かの条件判定処理を行う(ステップS177)。この判定処理では、キーフレーム抽出方法条件情報に記述されている付属情報を取得し、キーフレームに設定されたフレーム番号等と比較することにより、キーフレーム抽出方法決定情報に格納されているキーフレーム抽出タイプ情報で抽出されるか否かが判定される。また、キーフレーム抽出方法判断処理タイプ情報により、抽出時に使用する値(関連値)を取得する。
キーフレーム抽出方法条件情報に存在する条件判定処理で全ての条件に一致するか否かを判別する(ステップS178)。全ての条件に一致していない場合、ステップS176の処理に戻り、ステップS173で取得されたインデックス情報に格納されている次のキーフレーム抽出方法決定情報を取得し、同様の処理を繰り返す。一方、ステップS178で全ての条件に一致した場合、キーフレーム抽出タイプ情報を取得する(ステップS179)。
取得したキーフレーム抽出方法決定情報のキーフレーム抽出タイプ情報がキーフレーム抽出詳細情報を参照するものであるか否かを判別する(ステップS180)。すなわち、キーフレーム抽出詳細情報を参照する場合、値がマイナス値になるので、マイナス値であるか否かを判別する。キーフレーム抽出詳細情報を参照するものであった場合、キーフレーム抽出詳細情報の先頭ポインタおよびステップS177で取得した関連値を一時バッファに保存する(ステップS181)。この後、本処理を終了する。
図44はステップS177における条件情報判定処理手順を示すフローチャートである。まず、条件情報判定処理における初期化処理を行う(ステップS191)。この初期化処理では、例えば、ステップS176で取得したキーフレーム抽出方法決定情報に格納されているキーフレーム抽出方法判断処理タイプ情報格納数を取得し、判断処理カウンタを「0」に設定する。
そして、ステップS192〜S201において、キーフレーム抽出方法決定情報に格納されている判断処理を行う。これら全ての判断処理の結果、「真」と判定された場合、ステップS203で全ての判断処理で一致したとして、本処理を終了する。一方、なんらかの判断処理で「偽」と判定された場合、ステップS202で一致しなかったとして、本処理を終了する。
具体的に、判断処理カウンタの値がステップS191で取得したキーフレーム抽出方法判断処理タイプ情報格納数と同じであるか否かを判別する(ステップS192)。同じである場合、前述したように、全ての判断処理で一致したと判断し、判定結果として「真」を格納し(ステップS203)、本処理を終了する。
一方、ステップS192で、判断処理カウンタの値がステップS191で取得したキーフレーム抽出方法判断処理タイプ情報格納数と同じでなく、まだ判断処理を終了していない場合、判断処理カウンタによって示されるキーフレーム抽出方法判断処理タイプ情報を取得する(ステップS193)。取得したキーフレーム抽出方法判断処理タイプ情報が「1」〜「R」の範囲内であるか否かを判別する(ステップS194)。ここで、「R」は、予め設定されているキーフレーム抽出方法判断処理タイプ情報数である。キーフレーム抽出方法判断処理タイプ情報が「1」〜「R」の範囲内でなく、その他であった場合、判断処理で一致しなかったとみなされ、判定結果を「偽」とし(ステップS202)、本処理を終了する。
一方、ステップS194でキーフレーム抽出方法判断処理タイプ情報が「1」〜「R」の範囲内である場合、ステップS195からステップS200までの処理で、キーフレーム抽出方法判断処理タイプ情報毎の判断処理を行う。具体的に、キーフレーム抽出方法判断処理タイプ情報が「1」であるか否かを判別する(ステップS195)。キーフレーム抽出方法判断処理タイプ情報が「1」であった場合、キーフレーム抽出方法判断処理タイプ情報1に対する判断処理を行う(ステップS196)。ステップS196の判断処理で「真」と判定されたか否かを判別する(ステップS201)。「真」と判別された場合、判断処理カウンタを+1増加させ(ステップS201A)、ステップS192の処理に戻る。一方、ステップS201で「偽」と判別された場合、ステップS202で判定結果を「偽」とし、本処理を終了する。
また、ステップS195でキーフレーム抽出方法判断処理タイプ情報が「1」でない場合、キーフレーム抽出方法判断処理タイプ情報が「2」であるか否かを判別する(ステップS197)。キーフレーム抽出方法判断処理タイプ情報が「2」であった場合、キーフレーム抽出方法判断処理タイプ情報2に対する判断処理を行う(ステップS198)。この後、ステップS201の処理に移行する。ステップS197でキーフレーム抽出判断処理タイプ情報が「2」でない場合、同様の処理がキーフレーム抽出方法判断処理タイプ情報が「R−1」であるまで行われ、さらにキーフレーム抽出方法判断処理タイプ情報が「R−1」でない場合、キーフレーム抽出判断処理タイプ情報が「R」であるか否かを判別する(ステップS199)。キーフレーム抽出方法判断処理タイプ情報が「R」であった場合、キーフレーム抽出方法判断処理タイプ情報Rに対する判断処理を行う(ステップS200)。この後、ステップS201の処理に移行する。一方、キーフレーム抽出方法判断処理タイプ情報が「R」でない場合、ステップS202の処理に移行する。
ここで、ステップS196におけるキーフレーム抽出方法判断処理タイプ情報1に対する判断処理を示す。図45はステップS196におけるキーフレーム抽出方法判断処理タイプ情報1に対する判断処理手順を示すフローチャートである。まず、キーフレームが変更になった映像区間におけるサブショット情報から開始フレーム番号を取得する(ステップS211)。判定タイプ情報を基に、新規キーフレーム番号と開始フレーム番号とが「=」であるか、つまり同じであるか否かを比較する(ステップS212)。この比較の結果、「同じ」である場合、判定結果を「真(1)」とし(ステップS213)、本処理を終了し、元の処理に戻る。一方、ステップS212の比較の結果、「同じでない」場合、判定結果を偽(0)とし(ステップS214)、本処理を終了し、元の処理に戻る。
また、同様に、キーフレーム抽出方法判断処理タイプ情報14に対する判断処理を示す。図46はキーフレーム抽出方法判断処理タイプ情報14に対する判断処理手順を示すフローチャートである。まず、キーフレームのフレーム番号に対する撮影環境情報のイベント種別を取得する(ステップS221)。取得したイベント種別が「パン継続」であるか否かを判別する(ステップS222)。「パン継続」でない場合、判定結果を「偽(0)」とし(ステップS223)、本処理を終了する。一方、ステップS222で「パン継続」である場合、判定結果を「真(1)」とする(ステップS224)。サブショット情報からパン開始フレーム番号の取得を行い(ステップS225)、パン終了フレーム番号を取得する(ステップS226)。数式(4)にしたがって、パン中のキーフレーム位置の割合を計算して取得する(ステップS227)。
割合=(キーフレームのフレーム番号―パン開始フレーム番号)/(パン終了フレーム番号―パン開始フレーム番号) …… (4)
つぎに、類似動画区間の変更処理の概要を示す。図47および図48はステップS157における類似動画区間の変更処理手順を示すフローチャートである。まず、キーフレームが変更された映像区間における新規キーフレーム抽出タイプ情報およびキーフレーム抽出関連値を取得する(ステップS231)。この処理は、キーフレーム抽出履歴情報登録処理(図42参照)におけるステップS162の処理と同一であるので、キーフレーム抽出履歴情報登録処理において、既に新規キーフレームの抽出タイプ情報およびキーフレーム抽出関連値を取得していた場合、キーフレーム抽出履歴情報登録処理で取得した値を使用する。
類似動画区間を変更するための初期化処理を行う(ステップS232)。この初期化処理では、例えば、サブショット情報リストの先頭に現在処理しているサブショット情報を示すポインタPを移動する。また、キーフレームを変更した映像区間の分類情報を取得する。そして、ステップS233からステップS236までの処理を行い、サブショット情報からキーフレームの変更を行った映像区間の分類情報と一致するサブショット情報を取得する。
具体的に、ポインタPがサブショット情報リストの末尾に達したか否かを判別する(ステップS233)。全てのサブショット情報における分類情報との比較が終了していないと判断された場合、サブショット情報リストのポインタPによりサブショット情報の分類情報を取得し(ステップS234)、キーフレームを変更した映像区間の分類情報と一致するか否かを判別する(ステップS235)。一致した場合、類似動画区間としてサブショット情報のアドレスを一時バッファに保持する(ステップS236)。そして、ステップS233の処理に戻り、次のサブショット情報の比較処理を行う。一方、ステップS235で一致しなかった場合、そのまま次のサブショット情報の比較処理に移行する。
一方、ステップS233で、全てのサブショット情報における分類情報との比較が終了したと判断された場合、サブショット情報リスト中に、キーフレームを変更した映像区間と分類情報が一致するサブショット情報があったか否かを判別する(ステップS237)。分類情報が一致するサブショット情報がなかった場合、本類似動画区間のキーフレーム変更処理を終了する。
一方、ステップS237でキーフレームを変更した映像区間と分類情報が一致するサブショット情報があった場合、類似動画区間とみなされた映像区間のキーフレーム変更処理に移行する。ステップS236で取得した類似動画区間を示すサブショット情報のポインタから、サブショット情報を参照し、各サブショットの映像区間において、ステップS231で取得した映像区間のキーフレーム抽出タイプ情報およびキーフレーム抽出関連値から、新規キーフレームを取得する(ステップS238)。
類似動画区間の変更する前のキーフレームと新規キーフレームとを対で表示する(ステップS239)。ここでは、変更指示情報、つまり新規キーフレームに変更するか否かを表す情報は、「新規キーフレームに変更する」に初期設定されている。
図51はキーフレーム変更処理における類似動画区間のキーフレーム変更処理を行う際の操作画面を示す図である。この操作画面の上位部分には、図49と同様、分割された映像の動画区間におけるキーフレームが表示される。このとき、動画区間Bにおけるサムネイル画像には、図50に示すフレーム画像B3が表示される。そして、動画区間Bは、キーフレームを変更した動画区間としてポイント表示される。さらに、図51では、動画区間Bは色付けされて表示される。また、類似動画区間のキーフレーム変更処理(図47、図48参照)のステップS231からステップS237までの処理で取得した、キーフレーム変更動画区間と類似する動画区間が、図51では太枠でポイント表示される。ここでは、動画区間Bの類似動画区間は、動画区間H、J、Pである。
この操作画面の下位部分には、類似動画区間とみなされた動画区間が一覧表示されている。この下位部分の類似動画区間には、新規キーフレームが表示され、後述する変更操作によって上位部分の類似動画区間に表示されたキーフレームと入れ替え可能である。さらに、操作者が変更した下位部分の動画区間はポイント表示されている。
このように、操作画面の上位部分には、全体映像における類似動画区間のキーフレーム画像が表示され、一方、操作画面の下位部分には、類似動画区間のキーフレーム画像がまとめて参照できるように一覧表示される。尚、操作画面では、上位部分だけあるいは下位部分だけを表示するようにしてもよい。さらに、ポイント表示は、本実施形態に限定されるものでなく、類似動画区間のグループ内で操作者が変更したキーフレームを識別できるものである限り、その態様は任意である。
そして、操作入力部24からの入力を待つ(ステップS240)。何らかの入力があった場合、キーフレーム変更実行が指示されたか否かを判別する(ステップS241)。キーフレーム変更実行が指示された場合、キーフレーム変更処理を実行する(ステップS242)。この後、ステップS240の処理に戻る。
一方、ステップS241で、キーフレーム変更実行が指示されていない場合、類似動画区間に対するキーフレームの変更指示情報の設定指示であるか否かを判別する(ステップS243)。変更指示情報の設定指示である場合、操作者による操作入力部24からの変更指示情報「新規キーフレームに変更する/しない」を基に、変更指示情報を変更する(ステップS244)。
図52は変更指示の有無を設定するメニュー画面を示す図である。この操作画面上で類似動画区間におけるキーフレームの変更を行わない場合、操作者は、キーフレームを選択し、変更を行わない指示を設定する。操作者は変更を行わないキーフレームを指定すると、図52に示したメニューが表示され、変更の指示を設定することができる。
そして、類似動画区間のキーフレームを変更し、キーフレーム一覧表示を表示した場合、更新後のキーフレームが一覧表示される。尚、図52の操作画面は、変更指示操作の一例であり、この他、図51の操作画面の上位部分における変更前のフレーム画像を下位部分の変更後のフレーム画像に、ドラック&ドロップで指定し直すことも可能である。また、サムネイル画像上に変更指示ボタン等を表示しておき、これを指定することも可能である。
一方、ステップS243で類似動画区間に対するキーフレーム設定実行の指示でない場合、キャンセルの指示であるか否かを判別する(ステップS245)。キャンセルの指示であった場合、本類似動画区間に対するキーフレームの変更処理を終了する。一方、キャンセル指示でなかった場合、キーフレーム変更実行指示であるか否かを判別する(ステップS246)。キーフレーム変更実行指示であると判断された場合、変更指示情報を参照し、類似動画区間におけるサブショット情報のキーフレーム情報を変更する(ステップS247)。この後、本類似動画区間におけるキーフレーム変更処理を終了する。一方、ステップS246で、キーフレーム変更実行指示でない場合、ステップS240に戻り、入力待ちを行う。
このように、第1の実施形態の撮像装置によれば、映像データを複数の映像区間に分割し、分割された映像区間の中から、キーフレームを自動的に抽出した後、操作者によって抽出されたキーフレームが変更された場合、キーフレームが変更された映像区間におけるキーフレーム抽出方法を取得する。このキーフレームが変更された映像区間と類似する類似映像区間を抽出し、抽出された類似映像区間に対し、キーフレームが変更された映像区間におけるキーフレーム抽出方法を用いて、抽出された類似映像区間のキーフレームを変更する。したがって、操作者がキーフレームの変更を行った映像区間と類似する類似映像区間のキーフレームを容易に変更することができる。
例えば、花や人物など、ある特定の被写体を集めた映像などを撮影した場合、ズームなどの操作、パンやチルトなどの撮影環境が類似することが多く、撮影者が同じ場合、被写体に対する撮影方法が類似する可能性が高い。したがって、自動的に抽出されたキーフレームが操作者にとって最適なキーフレームでなかった場合、1度の変更操作で、自動的に類似映像区間の抽出およびこれらのキーフレーム変更を行うので、類似映像区間が多くても、変更操作を行う回数を減らすことができ、操作性を向上できる。
[第2の実施形態]
前記第1の実施形態では、撮影環境情報、操作情報、フレーム位置情報などの付属情報を主に利用してキーフレーム抽出方法を特定していたが、これらの付属情報のみならず、例えば、被写体情報や音声情報を参照してキーフレーム抽出方法を特定してもよい。従来技術として、特許文献3に記載のカメラでは、被写体の顔を認識するだけでなく、顔の方向(目線がカメラの方向を向いている/向いていない)、被写体の目の状態(目を閉じている/閉じていない)、顔の表情(喜びの顔、悲しみの顔、怒りの顔、驚きの顔など)、被写体の姿勢(認識された人が特定のポーズとなっているかを認識)などが認識可能である。また、特許文献4に記載の人物検出機能搭載装置では、被写体の認識および音声情報から、話者を識別することが可能である。第2の実施形態では、これらの技術を用いて、撮影環境情報や操作情報などと同様、フレーム毎に被写体情報(図54参照)および話者情報(図56参照)を取得して記録するようにする。
図53は被写体情報データリストの構造を示す図である。図54は被写体情報データの構造を示す図である。被写体情報データには、特許文献3に記載のカメラにより取得された被写体に関する情報が格納される。作成された被写体情報のフレーム番号が変わる度に、被写体情報の先頭ポインタが被写体情報データリストに格納される。したがって、被写体情報データリストからフレーム番号の先頭ポインタを取得することにより、被写体情報を取得することが可能となる。
図54の被写体情報データの各要素データを示す。要素データ「フレーム番号」には、動画ファイルの先頭を基準とするフレーム番号が記述される。要素データ「被写体ID」には、フレーム番号の画像に映っている被写体の識別番号が記述される。要素データ「顔の向き情報」には、被写体の顔の向きが格納される。ここで、「0」は認識不可能を表し、「1」はカメラの方を向いていることを表し、「2」はカメラの方を向いていないことを表す。要素データ「目の状態情報」には、被写体の目の状態が格納される。ここで、「0」は認識不可能を表し、「1」は、目を閉じていることを表し、「2は」目が開いていることを表す。要素データ「顔の表情情報」には、被写体の表情が格納される。ここで、「0」は認識不可能を表し、「1」は無表情を表し、「2」は喜びを表し、「3」は悲しみを表し、「4」は怒りを表し、「5」は驚きを表す。要素データ「姿勢情報」には、被写体の姿勢の状態が格納される。ここで、「0」は認識不可能を表し、「1」は座っていることを表し、「2」は立っていることを表し、「3」は走っていることを表す。
図55は音声情報データリストの構造を示す図である。図56は音声情報データの構造を示す図である。音声情報データには、特許文献4に記載の人物検出機能搭載装置などによって取得された音声に関する情報が格納される。作成された音声情報のフレーム番号が変わる度に、音声情報の先頭ポインタが音声情報データリストに格納される。したがって、音声情報データリストからフレーム番号の先頭ポインタを取得することにより、音声情報を取得することが可能となる。
図56の音声情報データの各要素データを示す。要素データ「フレーム番号」には、動画ファイルの先頭を基準とするフレーム番号が記述される。要素データ「音情報」には、音が入っているか入っていないかを示す値が格納される。ここで、「1」は「入っている」ことを表し、「0」は「入っていない」ことを表す。要素データ「被写体格納数」には、フレーム番号の画像に対する被写体IDの格納数が記述される。要素データ「被写体ID」には、フレーム番号で示される画像において話声が認識される場合、その話している人物の被写体IDが格納される。
これら被写体情報および音声情報の付属情報を、前述した映像区間分類情報データ、キーフレーム抽出履歴情報データ、キーフレーム抽出方法決定情報データにそれぞれ加えることで、操作者によって選択されたキーフレームのキーフレーム抽出方法の精度を向上させることが可能になる。
例えば、被写体情報および音声情報を利用したキーフレーム抽出方法としては、次の「13」〜「15」に示す方法が挙げられる。
13.被写体数の一番多いフレームを抽出する。つまり、サブショット情報の開始フレーム番号から終了フレーム番号までの被写体情報を参照し、各フレーム番号の被写体IDの数を取得し、一番数の多いフレームをキーフレームとして抽出する。
14.一番多く映っている被写体が始めて登場するフレームを抽出する。つまり、サブショット情報の開始フレーム番号から終了フレーム番号までの被写体情報を参照し、被写体ID毎の格納フレーム数を取得し、一番数の多い被写体IDにおいて、開始フレーム番号から検索して始めて登場するフレームをキーフレームとして抽出する。
15.キーフレーム変更で取得されるキーフレーム抽出方法の例として、パン中間フレームにおける被写体ID(A)が映っているフレームを抽出する。つまり、撮影環境情報を参照し、パン開始フレームおよびパン終了フレームを取得し、そのフレーム番号中における被写体ID(A)が登場するフレームを被写体情報から取得し、キーフレームとして選択されたフレームが何番目かを取得する。
このように、第2の実施形態の撮像装置によれば、被写体情報等を格納することにより、キーフレームの抽出方法を詳細に指定することができるようになる。
[第3の実施形態]
図57は第3の実施形態における操作画面を示す図である。この操作画面は、キーフレーム変更処理において類似動画区間のキーフレーム変更処理を行う際の操作画面である。類似動画区間のキーフレーム変更処理におけるキーフレームの表示処理(ステップS239参照)では、図57に示す操作画面が表示される。この操作画面では、分割された映像区間のキーフレームのサムネイル画像が表示されている。動画区間Bでは、サムネイル画像として、フレーム画像B3(図50参照)が表示されている。このサムネイル画像領域の左上隅には変更前のキーフレーム画像aが表示されるとともに、その他のサムネイル画像領域には新規のキーフレーム画像が表示される。また、この動画区間Bは、キーフレームが変更された動画区間として、太枠でポイント表示されている。
類似動画区間のキーフレーム変更処理(ステップS233〜S237参照)で取得されたキーフレーム変更動画区間と類似する動画区間では、動画区間Bと同様、サムネイル画像領域の左上隅には変更前のキーフレーム画像が表示されるとともに、その他のサムネイル画像領域には新規のキーフレーム画像が表示される。図57では、動画区間Bと類似する類似動画区間は、動画区間H、J、Pである。
このように、第3の実施形態の撮像装置によれば、同じサムネイル画像領域に、変更前と変更後のキーフレーム画像を表示することが可能である。また同様に、変更後のサムネイル画像に変更前のサムネイル画像を表示する方法として、例えば、切り替えボタンの押下やマウスのクリックによって切り替えることも可能である。
以上が本発明の実施の形態の説明であるが、本発明は、これら実施の形態の構成に限られるものではなく、特許請求の範囲で示した機能、または実施の形態の構成が持つ機能が達成できる構成であればどのようなものであっても適用可能である。
例えば、上記実施形態のユーザ識別処理では、指紋センサを用いてユーザを認識していたが、ユーザを認識する処理である限り、どのような処理方法であっても構わない。図58は表示部18に表示された文字表を示す図である。操作者は、表示部18に一覧表示された文字表に対し、カーソルを移動させて文字列を指定し、操作者の名前等の識別情報を入力する。そして、この識別情報の入力により自動的に付与された連番(ユーザID)をユーザ識別データリストに登録することで、ユーザの識別処理を行ってもよい。
また、上記実施形態では、撮影環境情報や操作情報などの時刻の単位として、動画ファイルの再生時刻を基準とするフレーム番号を用いたが、映像や音声と同期が取れる限り、どのような単位であってもよい。また、本実施形態では、キーフレームをフレーム番号で示したが、フレームを特定できる限り、どのような単位でキーフレームを示してもよい。また、キーフレームの画像データそのもの、あるいは縮小等の画像処理が施された画像データを別の領域に作成し、その画像データへのポインタ情報やハイパーリンクを記述するようにしてもよい。
また、上記実施形態では、映像処理装置は、単体の撮像装置で実現されたが、USB2.0等のシリアルインターフェース、IEEE1394、イーサネット(登録商標)、無線LANなどの通信手段により、ネットワークに接続された複数の装置から構成され、同様の機能を実現するようにしてもよい。
さらに、サブショット分割やキーフレームの抽出処理は、録画終了時に行われることに限定されるものではなく、例えば、記録メディアの情報をパーソナルコンピュータ(PC)のような外部装置に読み込ませ、PC上で同様の処理を行って付属情報を加工してもよい。
また、本実施形態では、撮影環境情報として、撮像装置の回転を検出する回転検出部(X方向回転検出部21、Y方向回転検出部22)からの情報を例示したが、撮影環境情報の種類によってキーフレームの選択基準が変わるような場合、これに限定されるものではなく、例えば、GPSなどの位置測定システム、温度計、高度計、方位磁石、気圧計、湿度計等の計測器の出力情報や、撮影者の体位、視線、瞳孔の大きさ、皮膚抵抗、脈、脳波などの生体情報を用いてもよい。
また、上記実施形態では、サブショットから1つのキーフレームを選択する場合を示したが、1つに限らず、複数であってもよい。また、キーフレームとして適したフレーム画像が無い場合、選択を行わなくてもよい。
また、本発明の目的は、実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU等)が記憶媒体に格納されたプログラムコードを読み出して実行することによっても達成される。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。
また、プログラムコードを供給するための記憶媒体としては、例えば、ROM、フロッピー(登録商標)ディスク、PCMCIAカードやコンパクトフラッシュ(登録商標)等のメモリカード、ハードディスク、マイクロDAT、光磁気ディスク、CD−RやCD−RW等の光ディスク、DVD等の相変化型光ディスク等で構成されてもよい。
また、コンピュータが読み出したプログラムコードを実行することにより、上記実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれる。
更に、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行い、その処理によって前述した実施の形態の機能が実現される場合も含まれる。
第1の実施形態における撮像装置の構成を示すブロック図である。 システム制御部23の構成を示す図である。 映像管理部17の構成を示すブロック図である。 撮影環境情報データの構造を示す図である。 撮影環境情報データリストの構造を示す図である。 操作情報データの構造を示す図である。 操作情報データリストの構造を示す図である。 サブショット情報データの構造を示す図である。 サブショット情報データリストの構造を示す図である。 映像区間分類情報の構造を示す図である。 映像区間分類情報リストを示す図である。 分類条件情報の構造を示す図である。 映像区間分類情報を示す図である。 映像区間分類情報「1」における分類条件情報を示す図である。 ユーザキーフレーム抽出履歴情報を示す図である。 ユーザキーフレーム抽出履歴リストの構造を示す図である。 キーフレーム抽出履歴情報の構造を示す図である。 キーフレーム抽出履歴情報リストの構造を示す図である。 キーフレーム抽出詳細情報の構造を示す図である。 キーフレーム抽出詳細情報リストの構造を示す図である。 キーフレーム抽出方法決定情報の構造を示す図である。 キーフレーム抽出方法決定情報インデックスリストの構造を示す図である。 キーフレーム抽出方法条件情報の構造を示す図である。 キーフレーム抽出方法決定情報の具体例を示す図である。 撮像装置におけるキーフレーム設定処理手順を示すフローチャートである。 図25につづく撮像装置におけるキーフレーム設定処理手順を示すフローチャートである。 ステップS8における映像分割処理手順を示すフローチャートである。 ステップS9におけるキーフレーム設定処理手順を示すフローチャートである。 ステップS44における分類情報の取得処理手順を示すフローチャートである。 図29につづくステップS44における分類情報の取得処理手順を示すフローチャートである。 ステップS60における分類判断処理タイプ情報1の判断処理手順を示すフローチャートである。 ステップS60における分類判断処理タイプ情報2の判断処理手順を示すフローチャートである。 ステップS60における分類判断処理タイプ情報3の判断処理手順を示すフローチャートである。 ステップS60における分類判断処理タイプ情報4の判断処理手順を示すフローチャートである。 ステップS47におけるキーフレーム抽出処理手順を示すフローチャートである。 開始フレームをキーフレームとして設定するキーフレーム抽出タイプ情報1のキーフレーム抽出処理手順を示すフローチャートである。 終了フレームをキーフレームとして設定するキーフレーム抽出タイプ情報2のキーフレーム抽出処理手順を示すフローチャートである。 パン中の中間フレームをキーフレームとして設定するキーフレーム抽出タイプ情報3のキーフレーム抽出処理手順を示すフローチャートである。 ステップS92におけるキーフレーム抽出詳細情報を用いたキーフレーム抽出処理手順を示すフローチャートである。 キーフレーム抽出詳細情報タイプ情報3のキーフレーム抽出処理手順を示すフローチャートである。 ステップS11におけるキーフレーム変更処理手順を示すフローチャートである。 ステップS155におけるキーフレーム抽出履歴情報登録処理手順を示すフローチャートである。 ステップS162における新規設定キーフレーム抽出タイプ情報取得処理手順を示すフローチャートである。 ステップS177における条件情報判定処理手順を示すフローチャートである。 ステップS196におけるキーフレーム抽出方法判断処理タイプ情報1に対する判断処理手順を示すフローチャートである。 キーフレーム抽出方法判断処理タイプ情報14に対する判断処理手順を示すフローチャートである。 ステップS157における類似動画区間の変更処理手順を示すフローチャートである。 図47につづくステップS157における類似動画区間の変更処理手順を示すフローチャートである。 動画区間毎のキーフレームを一覧表示する操作画面を示す図である。 動画区間におけるキーフレームの変更処理を行う際の操作画面を示す図である。 キーフレーム変更処理における類似動画区間のキーフレーム変更処理を行う際の操作画面を示す図である。 変更指示の有無を設定するメニュー画面を示す図である。 被写体情報データリストの構造を示す図である。 被写体情報データの構造を示す図である。 音声情報データリストの構造を示す図である。 音声情報データの構造を示す図である。 第3の実施形態における操作画面を示す図である。 表示部18に表示された文字表を示す図である。 映像区間毎に分割された中からキーフレームが抽出される様子を示す図である。
符号の説明
17 映像管理部
18 表示部
19 レンズ位置検出部
21 X方向回転検出部
22 Y方向回転検出部
23 システム制御部
24 操作入力部
31 指紋検出部
41 CPU
42 ROM
56 映像分割部
57 キーフレーム抽出部
58 類似映像区間抽出部
59 付属情報管理部

Claims (10)

  1. 映像データから抽出された代表画像を変更する代表画像変更手段と、
    前記代表画像が変更された映像区間における代表画像抽出方法を取得する代表画像抽出方法取得手段と、
    前記代表画像が変更された映像区間と類似する映像区間である類似映像区間を抽出する類似映像区間抽出手段と、
    前記代表画像抽出方法取得手段によって取得され、前記代表画像が変更された映像区間における代表画像抽出方法を用いて、前記抽出された類似映像区間の代表画像を変更する類似映像区間代表画像変更手段とを備えた映像処理装置。
  2. 前記映像区間の中から抽出された代表画像を表示する表示手段と、
    前記表示された代表画像を含む映像区間を選択する映像区間選択手段とを備え、
    前記代表画像変更手段は、前記選択された映像区間に含まれる代表画像を変更することを特徴とする請求項1記載の映像処理装置。
  3. 前記代表画像抽出方法取得手段は、前記代表画像が変更された映像区間に付与されている付属情報を参照し、前記代表画像抽出方法を決定することを特徴とする請求項1記載の映像処理装置。
  4. 前記代表画像抽出方法取得手段は、前記付属情報およびフレーム位置情報を用いた代表画像抽出方法条件情報と、前記代表画像抽出方法条件情報を満足する映像区間の代表画像を設定するための代表画像設定情報とからなる代表画像抽出方法決定情報を保持し、該代表画像抽出方法決定情報を用いて前記代表画像抽出方法を決定することを特徴とする請求項3記載の映像処理装置。
  5. 前記映像区間に付与されている付属情報を基に分類を行って該映像区間の分類情報を取得する分類情報取得手段を備え、
    前記類似映像区間抽出手段は、前記取得された映像区間の分類情報と、前記付属情報および前記代表画像のフレーム位置情報を用いた分類条件情報とからなる映像区間分類情報を保持し、前記分類条件情報を満足する分類情報と一致する分類情報を有する映像区間を前記類似映像区間として抽出することを特徴とする請求項1記載の映像処理装置。
  6. 前記類似映像区間代表画像変更手段は、
    前記代表画像抽出方法を用いて前記類似映像区間の代表画像を取得する類似映像区間代表画像取得手段と、
    前記類似映像区間代表画像取得手段によって取得された類似映像区間の代表画像と、前記代表画像抽出手段によって抽出された変更前の代表画像とを対応付けて表示する変更前後代表画像表示手段と、
    前記代表画像の変更指示を確認する確認手段と、
    前記変更指示が確認された場合、前記変更前の代表画像を、前記類似映像区間代表画像取得手段によって取得された代表画像に変更する変更手段とを備えたことを特徴とする請求項1記載の映像処理装置。
  7. 前記付属情報は、撮影環境情報および操作情報を含むことを特徴とする請求項3乃至5のいずれか記載の映像処理装置。
  8. 被写体情報を検出する被写体情報検出手段を備え、
    前記付属情報は、前記被写体情報を含むことを特徴とする請求項3乃至5のいずれか記載の映像処理装置。
  9. 話者情報を検出する話者情報検出手段を備え、
    前記付属情報は、前記話者情報を含むことを特徴とする請求項3乃至5のいずれか記載の映像処理装置。
  10. 映像データから抽出された代表画像を変更する代表画像変更ステップと、
    前記代表画像が変更された映像区間における代表画像抽出方法を取得する代表画像抽出方法取得ステップと、
    前記代表画像が変更された映像区間と類似する映像区間である類似映像区間を抽出する類似映像区間抽出ステップと、
    前記代表画像抽出方法取得ステップで取得され、前記代表画像が変更された映像区間における代表画像抽出方法を用いて、前記抽出された類似映像区間の代表画像を変更する類似映像区間代表画像変更ステップとを有する代表画像設定方法。
JP2003408073A 2003-12-05 2003-12-05 映像処理装置および代表画像設定方法 Withdrawn JP2005175533A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003408073A JP2005175533A (ja) 2003-12-05 2003-12-05 映像処理装置および代表画像設定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003408073A JP2005175533A (ja) 2003-12-05 2003-12-05 映像処理装置および代表画像設定方法

Publications (1)

Publication Number Publication Date
JP2005175533A true JP2005175533A (ja) 2005-06-30

Family

ID=34729923

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003408073A Withdrawn JP2005175533A (ja) 2003-12-05 2003-12-05 映像処理装置および代表画像設定方法

Country Status (1)

Country Link
JP (1) JP2005175533A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009017598A (ja) * 2008-10-02 2009-01-22 Sony Corp 撮像装置、および情報処理方法、並びにコンピュータ・プログラム
CN111753642A (zh) * 2020-05-09 2020-10-09 三生万物(北京)人工智能技术有限公司 一种确定关键帧的方法及装置
CN113132690A (zh) * 2021-04-22 2021-07-16 北京房江湖科技有限公司 施工过程视频的生成方法、装置以及电子设备、存储介质

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009017598A (ja) * 2008-10-02 2009-01-22 Sony Corp 撮像装置、および情報処理方法、並びにコンピュータ・プログラム
CN111753642A (zh) * 2020-05-09 2020-10-09 三生万物(北京)人工智能技术有限公司 一种确定关键帧的方法及装置
CN111753642B (zh) * 2020-05-09 2024-02-20 三生万物(北京)人工智能技术有限公司 一种确定关键帧的方法及装置
CN113132690A (zh) * 2021-04-22 2021-07-16 北京房江湖科技有限公司 施工过程视频的生成方法、装置以及电子设备、存储介质
CN113132690B (zh) * 2021-04-22 2022-11-08 北京房江湖科技有限公司 施工过程视频的生成方法、装置以及电子设备、存储介质

Similar Documents

Publication Publication Date Title
JP4760892B2 (ja) 表示制御装置、表示制御方法及びプログラム
JP4618166B2 (ja) 画像処理装置、画像処理方法、およびプログラム
EP1816649B1 (en) Imaging device, information processing method, and computer program
US9361010B2 (en) Imaging device, image processing method, and program thereof
KR101382954B1 (ko) 정보 처리 장치와 방법 및 프로그램이 기록된 기록 매체
JP4241709B2 (ja) 画像処理装置
US8199213B2 (en) Method for selecting desirable images from among a plurality of images and apparatus thereof
EP2741293A1 (en) Video processing apparatus and method
KR20090055516A (ko) 기록 장치 및 방법, 프로그램, 재생장치 및 방법
JP3636830B2 (ja) インテリジェントビデオカメラ及びインテリジェントスチルカメラ
WO2007126097A1 (ja) 画像処理装置及び画像処理方法
WO2007126096A1 (ja) 画像処理装置及び画像処理方法
US20110096994A1 (en) Similar image retrieval system and similar image retrieval method
JP4490214B2 (ja) 電子アルバム表示システム、電子アルバム表示方法、及び電子アルバム表示プログラム
JP2004056397A (ja) 画像処理装置および方法
JP4606278B2 (ja) 映像構造化方法及び装置及びプログラム
JP2009017123A (ja) 画像再生装置及びその制御方法
JP2005184348A (ja) 映像処理装置および代表画像設定方法
EP1278135A2 (en) Image processing apparatus
JP2009267773A (ja) 映像編集装置、撮影装置および映像編集方法
JP5064173B2 (ja) カメラ
JP2005175533A (ja) 映像処理装置および代表画像設定方法
JP2005175532A (ja) 映像処理装置および代表画像設定方法
JP5368614B2 (ja) 画像検索装置および画像検索方法
WO2022030275A1 (ja) 撮像装置、情報処理装置、情報処理方法、及びプログラム

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20060418

A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20070206