JP2005184348A - Video image processor and representative image setting method - Google Patents
Video image processor and representative image setting method Download PDFInfo
- Publication number
- JP2005184348A JP2005184348A JP2003421061A JP2003421061A JP2005184348A JP 2005184348 A JP2005184348 A JP 2005184348A JP 2003421061 A JP2003421061 A JP 2003421061A JP 2003421061 A JP2003421061 A JP 2003421061A JP 2005184348 A JP2005184348 A JP 2005184348A
- Authority
- JP
- Japan
- Prior art keywords
- information
- key frame
- representative image
- video
- classification
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Abstract
Description
本発明は、映像区間毎に分割された映像データの中から、映像区間を識別するための代表画像を取得する映像処理装置および代表画像設定方法に関する。 The present invention relates to a video processing apparatus and a representative image setting method for acquiring a representative image for identifying a video section from video data divided for each video section.
従来、この種の映像処理装置として、記憶媒体に記録された映像データを自動的にあるまとまり(映像区間)毎に分割し、分割された各映像区間の中から少なくとも1つの静止画データを代表画像(「キーフレーム」と称する)として一覧表示するものが知られている。図59は映像区間毎に分割された中からキーフレームが抽出される様子を示す図である。キーフレームを一覧表示することにより、操作者は、記憶された映像データの内容を素早く確認できる。また、分割された映像区間単位の編集作業を容易に行うことができる。 Conventionally, as this type of video processing apparatus, video data recorded on a storage medium is automatically divided into a set (video section), and at least one still picture data is represented from each of the divided video sections. A list of images (referred to as “key frames”) is known. FIG. 59 is a diagram showing a state in which key frames are extracted from the video segments divided for each video section. By displaying a list of key frames, the operator can quickly confirm the contents of the stored video data. In addition, editing work for each divided video section can be easily performed.
従来、映像データを分割する方法として、例えば、映像が時間的に急激に変化する部分をシーンの切れ目として自動的に分割する方法が知られている。また、代表画像を抽出する方法として、分割されたシーンの先頭フレーム、末尾フレームあるいは中間フレームを代表画像として抽出する方法、カメラ動作により重要と思われる代表画像を推定して自動的に抽出する方法が知られている。 Conventionally, as a method of dividing video data, for example, a method of automatically dividing a portion where a video changes rapidly with time as a break of a scene is known. Also, as a method for extracting a representative image, a method for extracting the first frame, end frame or intermediate frame of a divided scene as a representative image, a method for automatically estimating and extracting a representative image that seems to be important by camera operation It has been known.
しかし、このように、映像データを自動的に分割し、分割された映像区間から自動的にキーフレームを抽出する方法では、必ずしも操作者にとって最適なキーフレームになるとは限らなかった。このため、自動的に分割された映像区間毎のキーフレームを変更する操作が必要となる。例えば、キーフレームを変更する方法として、操作者が変更したいキーフレームを選択し、そのキーフレームが属するシーンのシーンチェンジの前後の映像を再生し、再生された映像の各フレーム画像の一覧表示の中からキーフレームを設定するように変更する方法が知られている(例えば、特許文献1参照)。 However, the method of automatically dividing the video data and automatically extracting the key frame from the divided video section as described above does not necessarily result in an optimal key frame for the operator. For this reason, an operation for changing the key frame for each automatically divided video section is required. For example, as a method of changing the key frame, the operator selects a key frame to be changed, plays the video before and after the scene change of the scene to which the key frame belongs, and displays a list of each frame image of the played video. There is known a method for changing a key frame so as to set a key frame (for example, see Patent Document 1).
また従来、指紋認識技術として、指紋認識装置が知られている(例えば、特許文献2参照)。この指紋認識装置は、センサ部に押し当てられた指によって生じた影をセンサ部で指紋であると検出し、この指紋を、予め記憶されたユーザ認識データリストの指紋データと照合する。 Conventionally, a fingerprint recognition device is known as a fingerprint recognition technique (see, for example, Patent Document 2). In this fingerprint recognition device, a shadow generated by a finger pressed against the sensor unit is detected as a fingerprint by the sensor unit, and this fingerprint is collated with fingerprint data in a user recognition data list stored in advance.
また従来技術として、被写体の顔を認識するカメラが知られている(例えば、特許文献3参照)。このカメラでは、被写体の顔を認識するだけでなく、顔の方向(目線がカメラの方向を向いている/向いていない)、被写体の目の状態(目を閉じている/閉じていない)、顔の表情(喜びの顔、悲しみの顔、怒りの顔、驚きの顔など)、被写体の姿勢(認識された人が特定のポーズとなっているかを認識)などが認識可能である。 As a conventional technique, a camera that recognizes the face of a subject is known (see, for example, Patent Document 3). This camera not only recognizes the face of the subject, but also the direction of the face (the line of sight is facing / not facing the camera), the state of the subject's eyes (the eyes are closed / not closed), Facial expressions (joy face, sad face, angry face, surprise face, etc.), subject posture (recognizes whether a recognized person is in a specific pose), etc. can be recognized.
また同様に、被写体を認識する人物検出機能搭載装置が知られている(例えば、特許文献4参照)。この人物検出機能搭載装置では、被写体の認識および音声情報から、話者を識別することが可能である。
しかしながら、上記従来の映像処理装置では、以下に掲げる問題があり、その改善が要望された。即ち、キーフレームを変更する際、1度のキーフレーム変更操作は、一映像区間だけが対象となっている。したがって、自動的に設定されたフレームでは、キーフレームとして満足できない場合、操作者は、満足できない全ての映像区間のキーフレームに対し、それぞれ変更操作を行わなければならなかった。変更操作を行う映像区間の数が多いと、変更回数も多くなり、操作者にとって変更操作は面倒であった。 However, the above-described conventional video processing apparatus has the following problems, and improvements have been demanded. That is, when changing the key frame, one key frame changing operation is only for one video section. Therefore, if the automatically set frame cannot be satisfied as a key frame, the operator has to perform a change operation for each of the key frames in all video sections that cannot be satisfied. When the number of video sections to be changed is large, the number of times of change increases, and the change operation is troublesome for the operator.
そこで、本発明は、代表画像の変更操作の回数を減らすことができる映像処理装置および代表画像設定方法を提供することを目的とする。 Therefore, an object of the present invention is to provide a video processing apparatus and a representative image setting method that can reduce the number of operations for changing a representative image.
上記目的を達成するために、本発明の映像処理装置は、映像データを複数の映像区間に分割する映像分割手段と、前記分割された映像区間に付与されている付属情報を基に分類を行って該映像区間の分類情報を取得する分類情報取得手段と、前記分割された映像区間の中から、該映像区間を識別するための代表画像を抽出する代表画像抽出手段と、前記抽出された代表画像を変更する代表画像変更手段と、前記代表画像が変更された映像区間における代表画像抽出方法を取得する代表画像抽出方法取得手段と、前記代表画像が変更された映像区間の分類情報および前記取得した代表画像抽出方法を履歴情報として保持する履歴情報保持手段と、前記履歴情報として保持された分類情報と一致する分類情報を有する他の映像区間が存在するか否かを判別する判別手段と、前記他の映像区間が存在する場合、前記履歴情報として保持された代表画像抽出方法を取得する代表画像抽出方法取得手段とを備え、前記代表画像抽出手段は、前記取得した代表画像抽出方法を用いて前記他の映像区間の中から代表画像を抽出することを特徴とする。 In order to achieve the above object, the video processing apparatus according to the present invention performs classification based on video dividing means for dividing video data into a plurality of video sections and attached information assigned to the divided video sections. Classification information acquisition means for acquiring classification information of the video section; representative image extraction means for extracting a representative image for identifying the video section from the divided video sections; and the extracted representative Representative image changing means for changing an image, representative image extraction method acquiring means for acquiring a representative image extraction method in a video section in which the representative image has been changed, classification information on the video section in which the representative image has been changed, and the acquisition History information holding means for holding the representative image extraction method as history information and whether there is another video section having classification information that matches the classification information held as the history information And a representative image extraction method acquisition unit that acquires a representative image extraction method held as the history information when the other video section exists, and the representative image extraction unit includes the acquisition unit A representative image is extracted from the other video section using the representative image extraction method described above.
本発明の代表画像設定方法は、映像データを複数の映像区間に分割する映像分割ステップと、前記分割された映像区間に付与されている付属情報を基に分類を行って該映像区間の分類情報を取得する分類情報取得ステップと、前記分割された映像区間の中から、該映像区間を識別するための代表画像を抽出する代表画像抽出ステップと、前記抽出された代表画像を変更する代表画像変更ステップと、前記代表画像が変更された映像区間における代表画像抽出方法を取得する代表画像抽出方法取得ステップと、前記代表画像が変更された映像区間の分類情報および前記取得した代表画像抽出方法を履歴情報として保持する履歴情報保持ステップと、前記履歴情報として保持された分類情報と一致する分類情報を有する他の映像区間が存在するか否かを判別する判別ステップと、前記他の映像区間が存在する場合、前記履歴情報として保持された代表画像抽出方法を取得する代表画像抽出方法取得ステップとを有し、前記代表画像抽出ステップでは、前記取得した代表画像抽出方法を用いて前記他の映像区間の中から代表画像を抽出することを特徴とする。 The representative image setting method of the present invention includes a video division step for dividing video data into a plurality of video sections, and classification information based on the attached information assigned to the divided video sections to classify the video sections. A classification information obtaining step for obtaining a representative image, a representative image extracting step for extracting a representative image for identifying the video section from the divided video sections, and a representative image change for changing the extracted representative image A representative image extraction method acquisition step of acquiring a representative image extraction method in a video section in which the representative image has been changed, a history of classification information of the video section in which the representative image has been changed, and the acquired representative image extraction method Whether there is another video section having a history information holding step for holding information and classification information that matches the classification information held as the history information And a representative image extraction method acquisition step of acquiring a representative image extraction method held as the history information when the other video section exists, and in the representative image extraction step, A representative image is extracted from the other video section using the acquired representative image extraction method.
本発明によれば、操作者が代表画像の変更を行った場合、その代表画像抽出方法を履歴情報として保持し、この後、代表画像の変更を行った映像区間の分類情報と一致する分類情報を有する他の映像区間の中から代表画像を抽出する際、履歴情報として保持された代表画像抽出方法で代表画像を取得するので、代表画像の変更操作の回数を減らすことができる。したがって、次回、代表画像の抽出を自動的に行う際、操作者が再び代表画像を変更しないで済むようになる。 According to the present invention, when the operator changes the representative image, the representative image extraction method is retained as history information, and thereafter the classification information that matches the classification information of the video section in which the representative image has been changed. When the representative image is extracted from the other video sections having the representative image, the representative image is acquired by the representative image extraction method stored as the history information, so that the number of operations for changing the representative image can be reduced. Therefore, the next time the representative image is automatically extracted, the operator does not have to change the representative image again.
本発明の映像処理装置および代表画像設定方法の実施の形態について、図面を参照しながら説明する。本実施形態の映像処理装置は撮像装置に適用された場合を示す。この撮像装置では、撮影された映像データは録画操作の開始・終了を基準に分割される。この分割された映像区間を「ショット」と称する。さらに、ショット内の映像データは、操作情報(ズームなどの操作情報)、撮影環境情報(パンやチルトなどの情報)などの付属情報を基に分割される。この分割された各映像区間を「サブショット」と称する。そして、サブショット毎に分割された映像区間に対し、前述した操作情報、撮影環境情報などの付属情報を基に、キーフレーム(代表画像)が自動的に抽出される。 Embodiments of a video processing apparatus and a representative image setting method of the present invention will be described with reference to the drawings. The video processing apparatus according to the present embodiment is applied to an imaging apparatus. In this imaging apparatus, the captured video data is divided based on the start / end of the recording operation. This divided video section is called a “shot”. Furthermore, video data in a shot is divided based on attached information such as operation information (operation information such as zoom) and shooting environment information (information such as pan and tilt). Each divided video section is referred to as a “sub-shot”. A key frame (representative image) is automatically extracted from the video section divided for each sub-shot based on the attached information such as the operation information and the shooting environment information described above.
[第1の実施形態]
図1は第1の実施形態における撮像装置の構成を示すブロック図である。この撮像装置は、被写体を結像させるズームレンズ11、光量を調節する絞り12、入力した光を電気信号に変換するCCDからなる撮像素子13、サンプルホールドおよびゲイン調整を行うサンプルホールド・AGC回路14、アナログデジタル変換(A/D変換)を行うA/D変換部15、およびA/D変換された信号を処理して映像信号を生成する映像信号処理部16を有する。
[First Embodiment]
FIG. 1 is a block diagram illustrating a configuration of an imaging apparatus according to the first embodiment. This image pickup apparatus includes a
また、この撮像装置は、映像データを分割し、分割された映像区間における付属情報やキーフレームなどの情報を管理する映像管理部17、撮影内容や各映像区間におけるキーフレームなどを表示する表示部18、レンズの位置を検出するレンズ位置検出部19、レンズを駆動するレンズ駆動部20、撮像装置の水平方向の回転を検出するX方向回転検出部21、撮像装置の垂直方向の回転を検出するY方向回転検出部22、および撮像装置全体を制御するシステム制御部23を有する。ここで、X方向回転検出部21は、ジャイロセンサや加速度センサにより検出された信号に対し、バンドパスフィルタなどで信号処理を行った後、A/D変換を行って出力信号とする。Y方向回転検出部22は、X方向回転検出部21と同様の構成を有する。尚、映像の防振を目的として、回転検出部が搭載されている場合、それを兼用させてもよい。
The imaging apparatus also divides the video data and manages a
また、この撮像装置は、ズームや録画の開始終了を操作するキー、キーフレームの変更操作を行うキーなどが配置された操作入力部24、映像データをMPEG形式に符号化するMPEG_CODEC28、記録媒体を駆動して情報を記録するドライブなどから構成される記録部29、光ディスク、磁気ディスク、光磁気ディスク、磁気テープ、ハードディスク、不揮発性メモリ、不揮発性メモリカードなどからなる記録媒体30、および指紋を検出する指紋センサからなる指紋検出部31を有する。
The imaging apparatus also includes an
操作入力部24には、ズームをワイド(広角、つまり画像縮小)方向に動作させるワイド・キー25、テレ(望遠、つまり画像拡大)方向に移動させるテレ・キー26、録画の開始・終了を指示するRECキー27、キーフレームの変更やキーフレームの一覧表示を指示するメニューキー32、キーフレームの一覧からキーフレームを変更する映像区間の選択などに使用されるカーソルキー33などが設けられている。ここで、ワイド・キー25およびテレ・キー26は、例えばシーソー型の連動したキーであり、どちらのキーがどの程度の押圧力により押されているかを示す出力信号をシステム制御部23に出力する。また、RECキー27は、トグル型のキーであり、録画中に押下すると、録画終了を指示し、非録画中に押下すると、録画開始を指示する。
On the
図2はシステム制御部23の構成を示す図である。システム制御部23は、周知のCPU41、ROM42、RAM43、I/Oインターフェース44、バス45および割込み信号線46を有する。ROM42には、CPU41によって実行される、後述するプログラム、テーブル値などが格納されている。
FIG. 2 is a diagram illustrating a configuration of the
図3は映像管理部17の構成を示すブロック図である。この映像管理部17は、撮影された映像データを分割する映像分割部56、分割された映像区間においてその映像区間を象徴するキーフレームを抽出するキーフレーム抽出部57、キーフレームの変更を行った映像区間と類似する映像区間を抽出する類似映像区間抽出部58、およびこの撮像装置で使用される付属情報を取得・記憶する付属情報管理部59を有する。これらの各部は、映像管理部17内の周知のCPU(図示せず)がROM(図示せず)に記憶されたプログラムを実行することによって実現される。尚、操作入力部24、表示部18、指紋検出部31、映像信号処理部16、各検出部19、21、22の各部と、映像管理部17との間でやり取りされる信号は、システム制御部23を介して行われるが、図3では、分かり易くするため、システム制御部23が省略されている。
FIG. 3 is a block diagram showing the configuration of the
上記構成を有する撮像装置の各部の動作を示す。ズームレンズ11を介して受光した被写体からの光は、絞り12によりその光量が調整され、撮像素子13の面上に結像する。撮像素子13によって電気信号に変換されると、その電気信号は、サンプルホールド・AGC部14およびA/D変換部15によりA/D変換された後、映像信号処理部16に入力する。この入力信号に対し、映像信号処理部16は、輝度および色成分毎にアパーチャ補正、ガンマ補正、ホワイトバランス補正、電子ズームなどの処理を施し、映像信号が生成されると、その映像信号はシステム制御部23を介して映像管理部17に出力される。
The operation of each part of the imaging apparatus having the above configuration will be described. The light from the subject received through the
一方、X方向回転検出部21およびY方向回転検出部22から得られる撮像装置の回転信号を基に、システム制御部23は、パン(カメラの水平方向の回転操作)やチルト(カメラの垂直方向の回転操作)を検出する。パンやチルト等の撮影環境情報、および操作入力部24からの操作情報は、システム制御部23を介して映像管理部17に出力される。また、映像管理部17は、入力された各種情報を付属情報管理部59に記憶・保持し、映像分割部56により、録画の開始操作から終了操作までの映像区間(ショット)を1つまたは複数の映像区間(サブショット)に分割する。また、付属情報管理部59により、入力された情報にサブショットの区間情報を付加し、キーフレーム抽出部57によりキーフレーム抽出処理を行う。
On the other hand, based on the rotation signal of the imaging device obtained from the X-direction
このキーフレーム抽出処理では、入力された各種情報に基づき、サブショットの各区間に対し、各区間を代表するにふさわしいフレーム画像(キーフレーム)が決定される。決定されたキーフレームの情報は、付属情報管理部59に付加される。そして、これらの付属情報は、MPEG_CODEC28に出力される。MPEG_CODEC28では、入力された映像信号の符号化が行われる。このとき、MPEG_CODEC28は、映像管理部17から出力される撮影環境情報、操作情報、サブショット情報などの付属情報を、符号化された映像信号と共に格納し、MPEG_CODEC28に接続された記録部29に出力する。尚、撮影環境情報、操作情報、サブショット情報などの付属情報の格納方法については後述する。
In this key frame extraction process, a frame image (key frame) suitable for representing each section is determined for each section of the sub-shot based on various pieces of input information. Information on the determined key frame is added to the attached
記録部29は、1ショット毎に記録メディア30に1つのファイルを作成する。尚、1ショットを複数のファイルで保存しても、複数のショットを1つのファイルで保存してもよい。また、記録したデジタル情報が読み出せる限り、ファイルシステムによらない方法で記憶してもよい。
The
システム制御部23は、RECキー27の操作に応じて録画を開始・終了する。また、システム制御部23は、ワイド・キー25およびテレ・キー26の操作に応じて、レンズ駆動部20を制御し、また映像信号処理部16に対して電子ズームの制御を行う。このとき、押圧力が大きいほど、ズーム倍率を高速に変化させることができる。尚、レンズ光学系によって撮像される画像を拡大する機能を光学ズームといい、レンズ光学系によらず、電気的な信号処理によって画像を垂直・水平方向に拡大する機能を電子ズームという。
The
また、システム制御部23は、レンズ位置検出部19からのレンズ位置検出信号を基に、光学ズーム時におけるズーム倍率を判断する。また、システム制御部23は、映像管理部17における処理を制御する。また、システム制御部23は、X方向回転検出部21およびY方向回転検出部22から出力される回転情報を基に、手ぶれ等に起因する信号成分を除去し、ユーザ操作によるパンまたはチルト情報を検出し、映像管理部17に出力する。この他、システム制御部23は必要に応じて撮像装置各部を制御する。
Further, the
指紋検出部31は、そのセンサ部に押し当てられた指によってできた影をセンサ部で指紋であると検出し、予め記憶された指紋データリスト(ユーザIDと指紋データが対になって登録されているユーザ認識データリスト)に登録された指紋データと照合する。指紋データが一致した場合、操作者を識別するユーザIDが取得される。一方、指紋データが一致しなかった場合、新規ユーザであるとして、指紋データとユーザIDがユーザ認識データリストに登録される。
The
つぎに、動画像とともに操作情報や撮影環境情報などの付属情報を記録する方法を示す。この記録方法として、フレーム単位の画像データ管理情報中の未使用領域などに、付属情報を格納する方法が知られている。具体的に、例えば、映像データがMPEG−2ストリームである場合、ピクチャヘッダのユーザ領域に格納する方法がある。また、撮影終了後に演算の結果として生成された情報を、動画ファイルの末尾にフッタとして追加する方法がある。例えば、MPEG−2トランスポートストリームである場合、プライベートエリアに付属情報を格納したTSパケットをファイルの末尾に追記してもよい。また、動画と付属情報を別のファイルにする方法もある。この場合、動画と付属情報を対応付けるために、動画ファイル名と付属情報ファイル名との間で、相互にファイル名が一意に求まるように、ファイル名生成規則を設けるなど、参照情報を格納し、その参照情報へのハイパーリンクを貼るようにしてもよい。 Next, a method for recording attached information such as operation information and shooting environment information together with a moving image will be described. As this recording method, a method of storing attached information in an unused area in image data management information in units of frames is known. Specifically, for example, when the video data is an MPEG-2 stream, there is a method of storing it in the user area of the picture header. In addition, there is a method of adding information generated as a result of calculation after the end of shooting as a footer at the end of a moving image file. For example, in the case of an MPEG-2 transport stream, a TS packet storing attached information in the private area may be added to the end of the file. There is also a method to separate the movie and attached information. In this case, in order to associate the movie with the attached information, the reference information is stored, such as providing a file name generation rule so that the file name can be uniquely obtained between the movie file name and the attached information file name. A hyperlink to the reference information may be pasted.
本実施形態では、パンを検出した結果を記録しているが、この検出結果を記録する代わりに、パン検出前の加速度センサの出力信号等の生情報を量子化した情報や、パン検出までの各段で行われる信号処理の結果を量子化した情報を格納してもよい。これらの量子化した情報は、撮像装置(カムコーダ)本体の処理負荷という面で、リアルタイム処理が難しい場合、カムコーダ本体による後処理あるいは外部デバイスによる処理の際、操作情報および撮影環境情報として、パンやズーム単位の情報を生成・記録するために使用される。また、これらの量子化した情報を用いることで、将来、より精度が向上したパン検出手段によってパンの検出が可能となる場合、その拡張性が図られる。 In this embodiment, the result of detecting pan is recorded, but instead of recording this detection result, information obtained by quantizing raw information such as an output signal of an acceleration sensor before pan detection, and pan detection Information obtained by quantizing the result of signal processing performed at each stage may be stored. If the quantized information is difficult to process in real time in terms of the processing load of the imaging device (camcorder) body, panning and shooting environment information can be used as operation information and shooting environment information during post-processing by the camcorder body or processing by an external device. Used to generate and record zoom unit information. Further, by using such quantized information, if pan detection can be performed by a pan detection means with improved accuracy in the future, the expandability can be achieved.
つぎに、付属情報の詳細を示す。後述する図4〜図8、図15〜図17、図19、図21に示すデータ構造は、それぞれ1つのデータ要素を表している。複数のデータ要素がある場合、付属情報は、各データ要素にアクセス可能なリストとして構成される。また、本実施形態では、データ構造はビット列で表現されているが、システム制御部23が解釈可能である限り、テキスト形式や独自のDTD(Document Type Definition)を定義し、XML(Extensible Markup Language)形式等で表現するようにしてもよい。また、MPEG7に適した形式で格納する場合、データ構造を記述するツールであるSegment DSに格納すればよい。
Next, details of the attached information are shown. The data structures shown in FIGS. 4 to 8, 15 to 17, 19, and 21 described later each represent one data element. When there are a plurality of data elements, the attached information is configured as a list accessible to each data element. In the present embodiment, the data structure is represented by a bit string. However, as long as the
図4は撮影環境情報データの構造を示す図である。図5は撮影環境情報データリストの構造を示す図である。撮影環境情報データには、レンズ位置検出部19、X方向回転検出部21、Y方向回転検出部22などから取得されたパンやチルトなどの撮影環境情報が含まれている。図5に示すように、撮影環境情報が取得される毎に撮影環境情報データが作成され、撮影環境情報を取得したフレーム番号が変わる毎に、撮影環境情報データの先頭アドレス(ポインタ)が撮影環境情報データリストに格納される。例えば、フレーム番号1の撮影環境情報データを参照する場合、撮影環境情報データリストから1番目に格納されているフレーム1ポインタを取得し、撮影環境情報データ1を参照する。
FIG. 4 is a diagram showing the structure of the shooting environment information data. FIG. 5 shows the structure of the shooting environment information data list. The shooting environment information data includes shooting environment information such as pan and tilt acquired from the lens
図4には、撮影環境情報データの各要素データが示されている。要素データTimeには、撮影環境が変化した時の動画ファイルの再生時間開始(先頭)を基準とするフレーム番号が記述される。要素データDataTypeには、撮影環境情報のイベント種別を表すデータが記述される。撮影環境情報のイベント種別には、パンの開始、パンの継続、パンの終了、チルトの開始、チルトの継続、チルトの終了が設定される。パン、チルトの継続は、スピードや方向が変化した場合に使用される。ここでは、要素データDataTypeが「0」でパンの開始、「1」でパンの継続、「2」でパンの終了、「4」でチルトの開始、「5」でチルトの継続、「6」でチルトの終了を表す。要素データSpeedは、要素データDataTypeがパンの開始、パンの継続、チルトの開始、チルトの継続である場合に存在し、パンやチルトの回転スピードを表す。本実施形態では、最低スピードの「1」から最高スピードの「7」までの7段階で、回転スピードが記述される。要素データDirectionは、要素データDataTypeがパンの開始、パンの継続、チルトの開始、チルトの継続の場合に存在し、パンやチルトの方向を表す。本実施形態では、パンの場合、「1」で右、「0」で左を表す。チルトの場合、「1」で上、「0」で下を表す。 FIG. 4 shows each element data of the shooting environment information data. In the element data Time, a frame number based on the start (start) of the playback time of the moving image file when the shooting environment changes is described. The element data DataType describes data representing the event type of the shooting environment information. In the event type of the shooting environment information, pan start, pan continuation, pan end, tilt start, tilt continuation, and tilt end are set. Pan / tilt continuation is used when the speed or direction changes. Here, the element data DataType is “0” to start panning, “1” to continue panning, “2” to end panning, “4” to start tilting, “5” to continue tilting, “6” Represents the end of tilt. The element data Speed exists when the element data DataType is pan start, pan continuation, tilt start, and tilt continuation, and represents the rotation speed of pan and tilt. In this embodiment, the rotational speed is described in seven stages from “1” at the lowest speed to “7” at the highest speed. Element data Direction is present when element data DataType is pan start, pan continuation, tilt start, and tilt continuation, and represents the direction of pan and tilt. In the present embodiment, in the case of pan, “1” represents right and “0” represents left. In the case of tilt, “1” represents the top and “0” represents the bottom.
図6は操作情報データの構造を示す図である。図7は操作情報データリストの構造を示す図である。操作情報データには、操作入力部24、レンズ位置検出部19、レンズ駆動部20などから取得したズームなどの操作情報が含まれている。図7に示すように、操作情報が取得される毎に操作情報データが作成され、操作情報を取得したフレーム番号が変わる毎に、操作情報データの先頭アドレス(ポインタ)が操作情報データリストに格納される。例えば、フレーム番号1の操作情報データを参照する場合、操作情報データリストから1番目に格納されているフレーム1ポインタを取得し、操作情報データ1を参照する。
FIG. 6 shows the structure of the operation information data. FIG. 7 is a diagram showing the structure of the operation information data list. The operation information data includes operation information such as zoom acquired from the
図6には、操作情報データの各要素データが示されている。要素データTimeには、操作が発生した時の動画ファイルの再生時間開始(先頭)を基準とするフレーム番号が記述される。要素データDataTypeには、操作情報のイベント種別を表すデータが記述される。操作情報のイベント種別には、ズームの開始、ズームの継続、ズームの終了、録画の開始、録画の終了等が設定される。ズームの継続は、スピードが変化した場合に使用される。ここでは、要素データDataTypeが「0」でズームの開始、「1」でズームの継続、「2」でズームの終了、「3」で録画開始、「4」で録画終了を表す。要素データSpeedは、要素データDataTypeがズームの開始、ズームの継続の場合に存在し、ズーム変化のスピードを表す。本実施形態では、最低スピードの「1」から最高スピードの「7」までの7段階で、スピードが記述される。要素データDirectionは、要素データDataTypeがズームの開始、ズームの継続の場合に存在し、ズームの方向を表す。要素データDirectionが「0」でテレ側、「1」でワイド側を表す。要素データMagnificationは、要素データDataTypeがズームの開始、ズームの継続の場合に存在してズーム倍率を表し、最もテレ側を「0」、最もワイド側を「31」の32段階で記述される。 FIG. 6 shows each element data of the operation information data. In the element data Time, a frame number based on the start (start) of the reproduction time of the moving image file when the operation occurs is described. In the element data DataType, data representing the event type of the operation information is described. As the event type of the operation information, zoom start, zoom continuation, zoom end, recording start, recording end, and the like are set. Zoom continuation is used when the speed changes. Here, when the element data DataType is “0”, the zoom starts, “1” indicates the continuation of zooming, “2” indicates the end of zooming, “3” indicates the start of recording, and “4” indicates the end of recording. Element data Speed exists when the element data DataType is the start of zooming and the continuation of zooming, and represents the speed of zoom change. In this embodiment, the speed is described in seven stages from “1” at the lowest speed to “7” at the highest speed. Element data Direction is present when element data DataType is the start of zooming or the continuation of zooming, and represents the direction of zooming. Element data Direction “0” indicates the tele side, and “1” indicates the wide side. The element data “Magnification” is present when the element data “DataType” is the start of zooming and the continuation of zooming, and indicates the zoom magnification. The element data “Magnification” is described in 32 levels, “0” for the telephoto side and “31” for the widest side.
図8はサブショット情報データの構造を示す図である。図9はサブショット情報データリストの構造を示す図である。サブショット情報データは、映像分割部56で分割された映像区間に関する情報である。図9(a)に示すように、映像がサブショット1、サブショット2、…、サブショットMと分割される毎に、サブショット情報データは、同図(b)に示すように、サブショット情報1、サブショット情報2、…、サブショット情報Mまで作成される。例えば、サブショット情報1は、フレーム番号1からフレーム番号6で構成される。また、サブショット情報2は、フレーム番号7からフレーム番号11で構成される。それ以降のサブショット情報も同様である。
FIG. 8 shows the structure of sub-shot information data. FIG. 9 shows the structure of the sub-shot information data list. The sub-shot information data is information related to the video section divided by the
作成されたサブショット情報データの先頭アドレス(ポインタ)は、同図(b)に示すサブショット情報データリストに格納される。サブショット情報データ1を参照する場合、サブショット情報データリストからサブショット情報データ1に格納されているポインタを取得し、サブショット情報データ1を参照する。
The top address (pointer) of the created sub-shot information data is stored in the sub-shot information data list shown in FIG. When referring to the
図8には、サブショット情報データの各要素データが示されている。要素データStartTimeは、サブショットの開始時刻を表し、動画ファイルの再生時間開始(先頭)を基準とするフレーム番号で記述される。要素データEndTimeは、サブショットの終了時刻を表し、動画ファイルの再生時間開始を基準とするフレーム番号で記述される。要素データContentsDataTypeには、サブショット情報の映像区間における付属情報を基に分類された分類情報が記述される。この分類情報の詳細については後述する。 FIG. 8 shows each element data of the sub-shot information data. Element data StartTime represents the start time of the sub-shot, and is described by a frame number with reference to the start (start) of the playback time of the moving image file. Element data EndTime represents the end time of the sub-shot, and is described by a frame number based on the start of the reproduction time of the moving image file. In the element data ContentsDataType, classification information classified based on the attached information in the video section of the sub-shot information is described. Details of this classification information will be described later.
要素データNumberOfKeyFrameには、要素データStartTimeおよび要素データEndTimeで示される映像区間に設定されているキーフレームの数が記述される。要素データKeyFrameには、キーフレームとなるフレームの動画ファイルの再生時間開始を基準とするフレーム番号が格納される。この要素データKeyFrameは、要素データNumberOfKeyFrameで示される数だけ記述される。 In the element data NumberOfKeyFrame, the number of key frames set in the video section indicated by the element data StartTime and the element data EndTime is described. In the element data KeyFrame, a frame number based on the start of the reproduction time of the moving image file of the frame serving as the key frame is stored. This element data KeyFrame is described by the number indicated by the element data NumberOfKeyFrame.
図9(c)には、キーフレームが1つ設定された場合のサブショット情報が示されている。このサブショット情報で示されるサブショット区間は、図9(a)のサブショット1に相当する。フレーム番号1からフレーム番号6までをサブショット1とする場合、要素データStartTimeには、「1」、要素データEndTimeには、「6」が格納される。また、分類情報には、「3」が格納されているので、このサブショットの映像区間の分類タイプは「3」となる。また、要素データNumberOfKeyframeには、「1」が格納されている。これにより、このサブショットの映像区間では、キーフレームが1つ設定されていることがわかる。要素データKeyFrameには、「6」が格納されているので、フレーム番号6がキーフレームとして設定されている。
FIG. 9C shows the sub-shot information when one key frame is set. The sub-shot section indicated by this sub-shot information corresponds to sub-shot 1 in FIG. When sub-shot 1 is set from
図9(d)には、キーフレームが2つ設定された場合のサブショット情報が示されている。このサブショット情報で示されるサブショット区間は、図9(a)のサブショット2に相当する。フレーム番号7からフレーム番号11までをサブショット2とする場合、要素データStartTimeには、「7」、要素データEndTimeには、「11」が格納される。また、分類情報には、「7」が格納されているので、このサブショットの映像区間の分類タイプは「7」となる。また、要素データNumberOfKeyframeには、「2」が格納される。これにより、このサブショットの映像区間では、キーフレームが2つ設定されていることがわかる。要素データKeyframe1には、「8」が格納されているので、キーフレームとしてフレーム番号8が設定されている。また、要素データKeyframe2には、「11」が格納されているので、フレーム番号11がキーフレームとして設定されている。
FIG. 9D shows sub-shot information when two key frames are set. The sub-shot section indicated by this sub-shot information corresponds to sub-shot 2 in FIG. When sub-shot 2 is set from
図10は映像区間分類情報の構造を示す図である。映像区間分類情報は、映像区間における付属情報の分類に関するデータであり、分類されるタイプの数だけ存在する。この映像区間情報には、分類された映像区間におけるキーフレーム抽出方法が格納されており、キーフレーム抽出処理で参照される。 FIG. 10 is a diagram showing the structure of video segment classification information. The video segment classification information is data relating to the classification of the attached information in the video segment, and there are as many types as the type to be classified. This video section information stores the key frame extraction method in the classified video section, and is referred to in the key frame extraction process.
図11は映像区間分類情報リストを示す図である。この映像区間分類情報リストには、映像区間分類情報の先頭ポインタが映像区間の分類数分(L個)格納される。したがって、映像区間の分類情報として映像区間分類情報1を参照する場合、映像区間分類情報リストの映像区間分類情報1を示すポインタを取得し、そのポインタ先を参照することで、映像区間分類情報1を取得することができる。
FIG. 11 is a diagram showing a video section classification information list. In this video segment classification information list, the start pointer of the video segment classification information is stored for the number of video segment classifications (L). Therefore, when the video
映像区間分類情報の要素データである分類情報は、映像区間に関する付属情報を基に分類された映像の分類タイプを表している。また、要素データである分類条件情報には、付属情報の少なくともいずれか1つもしくは組合せを基に、分類情報に格納された分類タイプであるか否かを判断するための条件情報が記述されている。 The classification information, which is element data of the video section classification information, represents the classification type of the video classified based on the attached information regarding the video section. The classification condition information that is element data includes condition information for determining whether or not the classification type is stored in the classification information based on at least one or a combination of the attached information. Yes.
図12は分類条件情報の構造を示す図である。分類条件情報の要素データである分類判断処理タイプ情報格納数は、分類判断処理タイプ情報の格納数を表す。分類判断処理タイプ情報は、分類情報に記述された映像区間に分類されるか否かを判断する際、取得された付属情報と比較値に記述された値とを比較する処理の識別情報(タイプ)である。 FIG. 12 shows the structure of the classification condition information. The number of stored classification determination process type information, which is element data of the classification condition information, represents the number of stored classification determination process type information. The classification determination processing type information is identification information (type of processing) for comparing the acquired auxiliary information with the value described in the comparison value when determining whether or not the video section is described in the classification information. ).
要素データである比較値は、分類判断処理タイプ情報で取得された付属情報と比較される値を示す。判定タイプ情報には、付属情報と比較値とを比較する際の判定方法のタイプが格納される。例えば、値1は「=」を示し、分類判断処理で取得した値と比較値とが「=」であるか、つまり等しいかを比較することを示す。値2は、「!=」を示し、分類判断処理で取得した値と比較値とが「!=」であるか、つまり等しくないかを比較することを示す。値3は、「>」を示し、分類判断処理で取得した値と比較値とが「>」であるか、つまり取得した値が比較値より大きいかを比較することを示す。値4は、「<」を示し、分類判断処理で取得した値と比較値とが「<」であるか、つまり取得した値が比較値より小さいかを比較することを示す。値5は、「≦」を示し、分類判断処理で取得した値と比較値とが「≦」であるか、つまり取得した値が比較値以下であるかを比較することを示す。値6は、「≧」を示し、分類判断処理で取得した値と比較値とが「≧」であるか、つまり取得した値が比較値以上であるかを比較することを示す。
The comparison value that is element data indicates a value to be compared with the attached information acquired by the classification determination processing type information. The determination type information stores the type of determination method used when comparing the attached information with the comparison value. For example, the
また、図10に示すキーフレーム抽出タイプ情報格納数には、分類情報で分類された映像区間におけるキーフレーム抽出方法の数が記述される。キーフレーム抽出タイプ情報には、分類情報で分類される映像区間におけるキーフレームの抽出方法が記述される。具体的に、「0」は予め操作者によって指定された、あるいは本撮像装置によって予め設定されたデフォルトのキーフレームの抽出方法で行うことを示す。「1」はサブショットの先頭フレームでキーフレームを抽出することを示す。「2」はサブショットの終了フレームでキーフレームを抽出することを示す。「3」はサブショットの中間フレームでキーフレームを抽出することを示す。「4」はサブショットのズーム開始(縮小→拡大)フレームでキーフレームを抽出することを示す。「5」はサブショットのズーム終了(縮小→拡大)フレームでキーフレームを抽出することを示す。「6」はサブショットのズーム中間(縮小→拡大)フレームでキーフレームを抽出することを示す。「7」はサブショットのズーム開始(拡大→縮小)フレームでキーフレームを抽出することを示す。「8」はサブショットのズーム終了(拡大→縮小)フレームでキーフレームを抽出することを示す。「9」はサブショットのズーム中間(拡大→縮小)フレームでキーフレームを抽出することを示す。「10」はサブショットのチルト開始フレームでキーフレームを抽出することを示す。「11」はサブショットのチルト終了フレームでキーフレームを抽出することを示す。「12」はサブショットのチルト中間フレームでキーフレームを抽出することを示す。「13」はサブショットのパン開始フレームでキーフレームを抽出することを示す。「14」はサブショットのパン終了フレームでキーフレームを抽出することを示す。「15」はサブショットのパン中間フレームでキーフレームを抽出することを示す。尚、キーフレーム抽出タイプ情報は、キーフレーム抽出タイプ情報格納数で指定された数だけ格納される。 Further, the number of key frame extraction type information stored in FIG. 10 describes the number of key frame extraction methods in the video section classified by the classification information. The key frame extraction type information describes a key frame extraction method in the video section classified by the classification information. Specifically, “0” indicates that a default key frame extraction method designated in advance by the operator or preset by the imaging apparatus is performed. “1” indicates that a key frame is extracted from the first frame of the sub-shot. “2” indicates that a key frame is extracted at the end frame of the sub-shot. “3” indicates that a key frame is extracted in an intermediate frame of the sub-shot. “4” indicates that a key frame is extracted at the zoom start (reduction → enlargement) frame of the sub-shot. “5” indicates that a key frame is extracted at the zoom end (reduction → enlargement) frame of the sub-shot. “6” indicates that a key frame is extracted at a zoom middle (reduction → enlargement) frame of the sub-shot. “7” indicates that a key frame is extracted at the zoom start (enlargement → reduction) frame of the sub-shot. “8” indicates that the key frame is extracted at the zoom end (enlargement → reduction) frame of the sub-shot. “9” indicates that a key frame is extracted in the middle zoom (enlargement → reduction) frame of the sub-shot. “10” indicates that a key frame is extracted at the tilt start frame of the sub-shot. “11” indicates that a key frame is extracted at the tilt end frame of the sub-shot. “12” indicates that a key frame is extracted at an intermediate frame of the sub-shot tilt. “13” indicates that a key frame is extracted at the pan start frame of the sub-shot. “14” indicates that a key frame is extracted at the pan end frame of the sub-shot. “15” indicates that a key frame is extracted in the pan intermediate frame of the sub-shot. The key frame extraction type information is stored in the number specified by the number of stored key frame extraction type information.
図13は映像区間分類情報を示す図である。映像区間分類情報「0」は、予め操作者によって指定された、あるいは本撮像装置によって予め設定されたデフォルトのキーフレーム抽出方法を示す。映像区間分類情報リストに存在する映像区間分類情報(デフォルトの映像区間分類情報を除く)のいずれにも該当しなかった場合、このデフォルトの映像区間分類情報に記述されたキーフレーム抽出方法が使用される。ここでは、キーフレーム抽出タイプ情報に「1」が設定されており、映像区間の開始フレームがキーフレームとなる。 FIG. 13 is a diagram showing video segment classification information. The video segment classification information “0” indicates a default key frame extraction method designated in advance by the operator or preset by the imaging apparatus. If none of the video segment classification information (except the default video segment classification information) exists in the video segment classification information list, the key frame extraction method described in the default video segment classification information is used. The Here, “1” is set in the key frame extraction type information, and the start frame of the video section becomes the key frame.
映像区間分類情報「1」には、パン操作における付属情報を用いた分類条件情報が格納されている。具体的に、撮影環境情報および操作情報を参照し、開始フレームがパンの開始であるか、ズーム中であるか、ショット中のパンの回数は1度であるか、ショット中のパンの長さは「大」であるか等が判断される。 The video section classification information “1” stores classification condition information using attached information in the pan operation. Specifically, referring to the shooting environment information and the operation information, whether the start frame is the start of panning, zooming, the number of times of panning during a shot, or the length of panning during a shot Is determined to be “large” or the like.
図14は映像区間分類情報「1」における分類条件情報を示す図である。映像区間分類情報「1」の分類判断処理タイプ情報は5つあるので、分類判断処理タイプ情報格納数には、「5」が格納される。5つの各分類判断処理タイプ情報には、分類判断処理タイプ、比較値および判定タイプ情報がそれぞれ設定されている。先頭の分類判断処理タイプ情報には、開始フレームの撮影環境情報のイベント種別を取得し、比較値(パン開始)と比較される分類判断処理タイプ1が格納されている。
FIG. 14 is a diagram showing the classification condition information in the video section classification information “1”. Since there are five classification determination processing type information of the video section classification information “1”, “5” is stored in the number of classification determination processing type information storages. In each of the five classification determination processing type information, classification determination processing type, comparison value, and determination type information are set. In the first classification determination processing type information, a classification
2番目および3番目の分類判断処理タイプ情報には、開始フレームの操作情報のイベント種別を取得して比較を行う分類判断処理タイプ2が格納されている。4番目の分類判断処理タイプ情報には、ショット中のパン回数を取得して比較を行う分類判断処理タイプ3が格納されている。5番目の分類判断処理タイプ情報には、ショット中のパンの長さを取得して比較を行う分類判断処理タイプ4が格納されている。
The second and third classification determination processing type information stores a classification
これらの分類判断処理の結果、比較値に示す値と全て一致した場合、分類情報は「1」となる。そして、キーフレームは、キーフレーム抽出タイプ情報に格納されているキーフレーム抽出方法の「3」に該当する、パン中央フレームに設定される。この分類情報1の映像区間に分類される映像データは、パンによって撮影者がどのような空間にいるのかを意図して撮影したものと推測される。例えば、風景や会場内全体を撮影する場合、このような撮影方法が行われる。したがって、この分類情報1に分類される映像区間では、パンの最後よりパン中の映像に意味がある場合が多いと考えられるので、パン操作区間の中央フレームがキーフレームに設定される。
As a result of these classification determination processes, the classification information is “1” when all the values indicated by the comparison values match. The key frame is set to the pan center frame corresponding to “3” of the key frame extraction method stored in the key frame extraction type information. The video data classified into the video section of the
つぎに、分類情報が「2」である場合の映像区間分類情報を示す。分類情報2には、ズーム操作における付属情報を用いた映像区間分類条件情報が設定されている。図13に示したように、撮影環境情報および操作情報を参照し、開始フレームがズームの開始であるか、そのズームの方向はテレ側であるか、パン中であるか、ショット中のズームが1回であるかによって判断される。
Next, video section classification information when the classification information is “2” is shown. In the
これらの判断処理の結果、比較値に示す値と全て一致した場合、分類情報は「2」となる。キーフレームは、キーフレーム抽出タイプ情報に格納されているキーフレーム抽出方法「2」である、終了フレームに設定される。この分類情報2の映像区間に分類される映像データは、ズームが縮小から拡大され、被写体全体が表示された画面から、注目して欲しい被写体の場所を表示することを意図して撮影されたものと推測される。したがって、ズームの開始に比べてズームの終了の方が重要であると考えられ、ズーム操作(縮小→拡大)の映像区間のズーム終了フレームがキーフレームに設定される。このように、付属情報の状態を取得して判断することにより、映像区間の分類が行われる。
As a result of these determination processes, the classification information is “2” when all the values indicated by the comparison values match. The key frame is set as the end frame which is the key frame extraction method “2” stored in the key frame extraction type information. The video data classified into the video section of this
図15はユーザキーフレーム抽出履歴情報を示す図である。図16はユーザキーフレーム抽出履歴リストの構造を示す図である。ユーザキーフレーム抽出履歴情報は、撮像装置に予め設定されているキーフレーム抽出方法によるキーフレームに対し、操作者がキーフレームの設定・変更を行ったときに作成され、操作者によるキーフレーム抽出方法が登録される情報である。キーフレームを抽出する映像区間の分類情報とキーフレームの変更が行われた映像区間の分類情報とが一致した場合、キーフレーム抽出履歴情報からキーフレーム抽出タイプ情報が取得され、キーフレーム抽出タイプ情報に対応するキーフレーム抽出方法でキーフレームが抽出される。 FIG. 15 is a diagram showing user key frame extraction history information. FIG. 16 is a diagram showing the structure of the user key frame extraction history list. The user key frame extraction history information is created when the operator sets / changes the key frame with respect to the key frame by the key frame extraction method preset in the imaging apparatus, and the key frame extraction method by the operator Is registered information. When the classification information of the video section from which the key frame is extracted matches the classification information of the video section in which the key frame has been changed, the key frame extraction type information is obtained from the key frame extraction history information. A key frame is extracted by a key frame extraction method corresponding to the above.
図16に示すように、ユーザキーフレーム抽出履歴情報リストは、ユーザキーフレーム抽出履歴情報を取得するためのリストであり、ユーザキーフレーム抽出履歴情報リストには、ユーザ毎のキーフレーム抽出履歴情報の先頭ポインタが格納されている。つまり、ユーザ2のキーフレーム抽出履歴情報を取得する場合、ユーザ2キーフレーム抽出履歴情報ポインタをユーザキーフレーム抽出履歴情報リストから取得することにより、参照することが可能である。
As shown in FIG. 16, the user key frame extraction history information list is a list for acquiring user key frame extraction history information. The user key frame extraction history information list includes key frame extraction history information for each user. The head pointer is stored. That is, when acquiring the
図15のユーザキーフレーム抽出履歴情報の各要素データを示す。要素データ「ユーザID」は、キーフレーム抽出履歴情報を保持するユーザを識別するものである。この要素データ「ユーザID」には、指紋検出部31により取得されたユーザIDが使用される。要素データ「キーフレーム抽出履歴情報格納数」は、ユーザが保持しているキーフレーム抽出履歴情報の数を示す。要素データ「キーフレーム抽出履歴情報のリンク情報」には、キーフレーム抽出履歴情報への先頭アドレスが記述される。
Each element data of the user key frame extraction log | history information of FIG. 15 is shown. The element data “user ID” identifies a user who holds key frame extraction history information. As the element data “user ID”, the user ID acquired by the
図16のユーザ1キーフレーム抽出履歴情報では、ユーザIDに、ユーザ1の識別情報が格納されている。ユーザ1に対するキーフレーム抽出履歴情報は、N個存在し、N個のキーフレーム抽出履歴情報の先頭ポインタは、各キーフレーム抽出履歴情報の格納場所を示している。
In the
図17はキーフレーム抽出履歴情報の構造を示す図である。図18はキーフレーム抽出履歴情報リストの構造を示す図である。キーフレーム抽出履歴情報は、撮像装置に予め設定されている映像区間分類情報のキーフレーム抽出方法で抽出されたキーフレームに対し、操作者がキーフレームの変更を行ったときに作成され、キーフレームの変更が行われた映像区間のキーフレーム抽出方法が登録される情報である。 FIG. 17 shows the structure of key frame extraction history information. FIG. 18 is a diagram showing the structure of the key frame extraction history information list. The key frame extraction history information is created when the operator changes the key frame with respect to the key frame extracted by the key frame extraction method of the video section classification information preset in the imaging device. The information for registering the key frame extraction method of the video section where the change is made.
図16に示すように、キーフレーム抽出履歴情報は、ユーザキーフレーム抽出履歴情報にリンクされており、ユーザキーフレーム抽出履歴情報に格納されているポインタを参照することにより取得される。取得したキーフレーム抽出履歴情報は、図18に示すように、必要に応じてキーフレーム抽出詳細情報にリンクされる。 As shown in FIG. 16, the key frame extraction history information is linked to the user key frame extraction history information, and is obtained by referring to a pointer stored in the user key frame extraction history information. The acquired key frame extraction history information is linked to key frame extraction detailed information as necessary, as shown in FIG.
キーフレーム抽出履歴情報データの各要素データを示す。要素データ「分類情報」には、操作者がキーフレームを変更した映像区間におけるサブショット情報から取得された映像区間の分類タイプ(分類情報)が記述される。要素データ「キーフレーム抽出タイプ情報格納数」には、分類情報に分類される映像区間におけるキーフレーム抽出方法の数が記述される。要素データ「キーフレーム抽出タイプ情報」には、操作者がキーフレームを設定・変更して取得された新規のキーフレームの抽出方法が記述される。具体的に、マイナスの連番が格納されている場合、キーフレーム抽出詳細情報へのリンクを行うことを意味し、キーフレーム抽出詳細情報に格納された値を使用し、キーフレーム抽出が行われる。このキーフレーム抽出タイプ情報は、映像区間分類情報のキーフレーム抽出タイプ情報と同じであり、キーフレーム抽出タイプ情報格納数で指定された数だけ存在する。 Each element data of key frame extraction history information data is shown. The element data “classification information” describes the classification type (classification information) of the video section acquired from the sub-shot information in the video section whose key frame has been changed by the operator. In the element data “number of key frame extraction type information stored”, the number of key frame extraction methods in the video section classified in the classification information is described. The element data “key frame extraction type information” describes a method for extracting a new key frame obtained by the operator setting / changing the key frame. Specifically, when a negative serial number is stored, it means that a link to key frame extraction detailed information is performed, and a key frame extraction is performed using a value stored in the key frame extraction detailed information. . This key frame extraction type information is the same as the key frame extraction type information of the video section classification information, and there are the number specified by the number of stored key frame extraction type information.
図19はキーフレーム抽出詳細情報の構造を示す図である。図20はキーフレーム抽出詳細情報リストの構造を示す図である。キーフレーム抽出詳細情報は、キーフレーム抽出履歴情報の分類情報で分類される映像区間のキーフレーム抽出方法を示し、キーフレームを抽出するために使用される値を格納する。このキーフレーム抽出詳細情報は、分類情報におけるキーフレーム抽出方法(キーフレーム抽出詳細情報を参照する抽出方法を除く)と異なる値を必要とする抽出方法において、操作者によりキーフレームの変更が行われた場合に作成される。 FIG. 19 is a diagram showing a structure of key frame extraction detailed information. FIG. 20 shows the structure of the key frame extraction detailed information list. The key frame extraction detailed information indicates a key frame extraction method of the video section classified by the classification information of the key frame extraction history information, and stores a value used for extracting the key frame. This key frame extraction detailed information is an extraction method that requires a value different from the key frame extraction method in the classification information (excluding the extraction method that refers to the key frame extraction detailed information), and the key frame is changed by the operator. Created when
図20に示すように、キーフレーム抽出詳細情報リストには、キーフレーム抽出詳細情報の先頭ポインタが格納されている。このキーフレーム抽出詳細情報は、図18に示すように、キーフレーム抽出履歴情報(キーフレーム抽出タイプ情報)から参照される。例えば、キーフレーム抽出履歴情報(キーフレーム抽出タイプ情報)に「−2」が指定されていた場合、キーフレーム抽出詳細情報タイプ情報2のキーフレーム抽出詳細情報が設定されていることを表す。
As shown in FIG. 20, the key frame extraction detailed information list stores the head pointer of the key frame extraction detailed information. The key frame extraction detailed information is referred to from key frame extraction history information (key frame extraction type information) as shown in FIG. For example, when “−2” is designated in the key frame extraction history information (key frame extraction type information), it indicates that the key frame extraction detailed information of the key frame extraction detailed
キーフレーム抽出詳細情報データの各要素データを示す。要素データ「キーフレーム抽出詳細情報タイプ情報」には、キーフレーム抽出方法(キーフレーム抽出詳細情報に格納されている値を利用して抽出する方法)の種別が記述される。キーフレーム抽出詳細情報タイプ情報には、連番が格納される。この連番は、キーフレーム抽出タイプ情報に、「−1」をかけた値である。また、要素データ「キーフレーム抽出関連値格納数」は、キーフレームの抽出を行うために使用される値の格納数を示す。要素データ「キーフレーム抽出関連値」は、キーフレームの抽出を行うために使用する値である。 Each element data of key frame extraction detailed information data is shown. The element data “key frame extraction detailed information type information” describes the type of key frame extraction method (a method of extracting using a value stored in the key frame extraction detailed information). A serial number is stored in the key frame extraction detailed information type information. This serial number is a value obtained by multiplying the key frame extraction type information by “−1”. The element data “number of key frame extraction related values stored” indicates the number of stored values used for extracting key frames. The element data “key frame extraction related value” is a value used to extract a key frame.
図21はキーフレーム抽出方法決定情報の構造を示す図である。図22はキーフレーム抽出方法決定情報インデックスリストの構造を示す図である。キーフレーム抽出方法決定情報は、操作者が設定されたキーフレームを変更した場合、新規に設定されたキーフレームの抽出方法を特定するための情報である。このキーフレーム抽出方法決定情報は、新規キーフレームとして設定されたフレームの付属情報、および新規キーフレームのフレーム位置情報の少なくとも1つあるいはその組合せにより、キーフレーム抽出方法を特定するためのキーフレーム抽出方法条件情報、および全てのキーフレーム抽出条件情報と一致した映像区間におけるキーフレームを設定するためのキーフレーム抽出タイプ情報を保持する。 FIG. 21 is a diagram showing the structure of key frame extraction method determination information. FIG. 22 is a diagram showing the structure of the key frame extraction method determination information index list. The key frame extraction method determination information is information for specifying a method for extracting a newly set key frame when the operator changes the set key frame. The key frame extraction method determination information includes key frame extraction for specifying a key frame extraction method based on at least one of or a combination of frame additional information set as a new key frame and frame position information of the new key frame. The method condition information and key frame extraction type information for setting the key frame in the video section that matches all the key frame extraction condition information are held.
図22で示すように、キーフレーム抽出方法決定情報は、分類情報毎に存在する。分類情報におけるインデックス情報は、キーフレーム抽出方法決定情報インデックスリストに格納される。このインデックス情報の要素データには、分類情報(映像区間の分類情報)、インデックス格納数(分類情報に分類される映像区間のキーフレーム抽出方法決定情報の先頭ポインタ格納数)、およびインデックス(キーフレーム抽出方法決定情報の先頭ポインタ)がある。 As shown in FIG. 22, the key frame extraction method determination information exists for each classification information. The index information in the classification information is stored in the key frame extraction method determination information index list. The element data of the index information includes classification information (video section classification information), index storage count (number of key pointer extraction method determination information for the video section classified in the classification information), and index (key frame). There is a leading pointer of extraction method decision information).
例えば、分類情報からキーフレーム抽出方法決定情報1を取得する場合、キーフレーム抽出方法決定情報インデックスリストのインデックス情報1を参照し、分類情報のインデックス情報1を取得する。このインデックス情報1から、キーフレーム抽出方法決定情報の先頭ポインタをインデックス格納数分(Q個)取得し、キーフレーム抽出方法決定情報を取得する。つまり、操作者がキーフレームの変更操作を行った場合、キーフレームが変更になった映像区間の分類情報をサブショット情報から取得し、キーフレーム抽出方法決定情報インデックスリストから取得した分類情報を持つインデックス情報を求め、キーフレーム抽出方法決定情報を取得する。取得したキーフレーム抽出方法決定情報を基に、新規に設定されたキーフレームの抽出方法を特定する。また、キーフレーム抽出方法決定情報には、必ずキーフレームが抽出されるように、デフォルトのキーフレーム抽出方法決定情報が存在しており、例えば、映像区間中のキーフレーム位置の割合を求めて特定する方法などが記述されている。
For example, when acquiring the key frame extraction
キーフレーム抽出方法決定情報の各要素データを示す。要素データ「キーフレーム抽出方法条件情報」には、キーフレーム変更操作において、新規にキーフレームとなったフレームの位置を特定するためのキーフレーム抽出方法条件情報が記述される。 Each element data of key frame extraction method determination information is shown. In the element data “key frame extraction method condition information”, key frame extraction method condition information for specifying the position of a frame that newly becomes a key frame in the key frame change operation is described.
図23はキーフレーム抽出方法条件情報の構造を示す図である。要素データ「キーフレーム抽出方法判断処理タイプ情報格納数」には、キーフレーム抽出方法判断処理タイプ情報で示される判断処理数が格納される。要素データ「キーフレーム抽出方法判断処理タイプ情報」は、新規に設定されたキーフレームのフレーム番号と、キーフレーム抽出方法判断処理で取得されたフレーム番号とを比較する際の処理タイプを示す。 FIG. 23 shows the structure of key frame extraction method condition information. The element data “number of key frame extraction method determination process type information storage” stores the number of determination processes indicated by the key frame extraction method determination process type information. The element data “key frame extraction method determination processing type information” indicates a processing type when comparing the frame number of a newly set key frame with the frame number acquired in the key frame extraction method determination processing.
例えば、キーフレーム抽出方法判断処理タイプ情報が「1」である場合、「サブショットの開始フレーム番号とキーフレーム番号を比較する処理である」ことを示す。「2」である場合、「サブショットの終了フレーム番号とキーフレーム番号を比較する処理である」ことを示す。「3」である場合、「ズーム(縮小→拡大)開始フレーム番号とキーフレーム番号を比較する処理である」ことを示す。「4」である場合、「ズーム(縮小→拡大)終了フレーム番号とキーフレーム番号を比較する処理である」ことを示す。「5」である場合、「ズーム(縮小→拡大)中間フレーム番号とキーフレーム番号を比較する処理である」ことを示す。この中間フレーム番号として、中間値の割合が取得される。 For example, when the key frame extraction method determination processing type information is “1”, this indicates “a process of comparing the start frame number of the sub-shot with the key frame number”. “2” indicates “a process of comparing the end frame number of the sub-shot and the key frame number”. “3” indicates “a process of comparing the zoom (reduction → enlargement) start frame number with the key frame number”. “4” indicates “a process of comparing the zoom (reduction → enlargement) end frame number with the key frame number”. “5” indicates “a process of comparing the zoom (reduction → enlargement) intermediate frame number with the key frame number”. As the intermediate frame number, the ratio of the intermediate value is acquired.
また、「6」である場合、「ズーム(拡大→縮小)開始フレーム番号とキーフレーム番号を比較する処理である」ことを示す。「7」である場合、「ズーム(拡大→縮小)終了フレーム番号とキーフレーム番号を比較する処理である」ことを示す。「8」である場合、「ズーム(拡大→縮小)中間フレーム番号とキーフレーム番号を比較する処理である」ことを示す。この中間フレーム番号として、中間値の割合が取得される。 Further, “6” indicates “a process of comparing the zoom (enlargement → reduction) start frame number with the key frame number”. “7” indicates “a process of comparing the zoom (enlargement → reduction) end frame number with the key frame number”. “8” indicates “a process of comparing the zoom (enlargement → reduction) intermediate frame number with the key frame number”. As the intermediate frame number, the ratio of the intermediate value is acquired.
また、「9」である場合、「チルト開始フレーム番号とキーフレーム番号を比較する処理である」ことを示す。「10」である場合、「チルト終了フレーム番号とキーフレーム番号を比較する処理である」ことを示す。「11」である場合、「チルト中間フレーム番号とキーフレーム番号を比較する処理である」ことを示す。この中間フレーム番号として、中間値の割合が取得される。 Further, “9” indicates “a process of comparing the tilt start frame number with the key frame number”. When it is “10”, it indicates that “this is a process of comparing the tilt end frame number with the key frame number”. “11” indicates that “this is a process of comparing the tilt intermediate frame number with the key frame number”. As the intermediate frame number, the ratio of the intermediate value is acquired.
また、「12」である場合、「パン開始フレーム番号とキーフレーム番号を比較する処理である」ことを示す。「13」である場合、「パン終了フレーム番号とキーフレーム番号を比較する処理である」ことを示す。「14」である場合、「パン中間フレーム番号とキーフレーム番号を比較する処理である」ことを示す。この中間フレーム番号として、中間値の割合が取得される。 Further, “12” indicates “a process of comparing the pan start frame number and the key frame number”. “13” indicates “a process of comparing the pan end frame number with the key frame number”. “14” indicates “a process of comparing the pan intermediate frame number with the key frame number”. As the intermediate frame number, the ratio of the intermediate value is acquired.
また、要素データ「キーフレーム抽出タイプ情報」には、キーフレーム抽出方法条件情報に一致した映像区間におけるキーフレームの抽出方法が記述される。このキーフレーム抽出タイプ情報は、キーフレーム抽出履歴情報のキーフレーム抽出タイプ情報と同じ値を有するので、その説明を省略する。 The element data “key frame extraction type information” describes a method for extracting a key frame in a video section that matches the key frame extraction method condition information. Since this key frame extraction type information has the same value as the key frame extraction type information of the key frame extraction history information, description thereof is omitted.
また、要素データ「判定タイプ情報」には、新規キーフレーム番号とフレーム番号を判定する方法が格納される。例えば、判定タイプ情報が「1」である場合、「=」、つまり分類判断処理で取得された値と比較値とが等しいか否かを比較することを示す。「2」である場合、「!=」、つまり分類判断処理で取得された値と比較値とが等しくないか否かを比較することを示す。「3」である場合、「>」、つまり分類判断処理で取得された値が比較値より大きいか否かを比較することを示す。「4」である場合、「<」、つまり分類判断処理で取得された値が比較値より小さいか否かを比較することを示す。「5」である場合、「≦」、つまり分類判断処理で取得された値が比較値以下であるか否かを比較することを示す。「6」である場合、「≧」、つまり分類判断処理で取得された値が比較値以上であるか否かを比較することを示す。 The element data “determination type information” stores a new key frame number and a method for determining the frame number. For example, when the determination type information is “1”, it indicates that “=”, that is, whether or not the value acquired in the classification determination process is equal to the comparison value. “2” indicates that “! =”, That is, whether the value acquired in the classification determination process is not equal to the comparison value. When “3”, it indicates “>”, that is, whether or not the value acquired in the classification determination process is larger than the comparison value. “4” indicates that “<”, that is, whether or not the value acquired in the classification determination process is smaller than the comparison value. “5” indicates that “≦”, that is, whether or not the value acquired in the classification determination process is equal to or less than the comparison value. “6” indicates that “≧”, that is, whether or not the value acquired in the classification determination process is greater than or equal to the comparison value.
図24はキーフレーム抽出方法決定情報の具体例を示す図である。図13に示す映像区間分類情報を想定した場合の、キーフレーム抽出方法決定情報を示す。図24には、図13の映像区間分類情報(映像区間分類情報=1)のキーフレーム抽出方法決定情報が示されている。 FIG. 24 is a diagram showing a specific example of key frame extraction method determination information. 14 shows key frame extraction method determination information when the video section classification information shown in FIG. 13 is assumed. FIG. 24 shows key frame extraction method determination information of the video section classification information (video section classification information = 1) in FIG.
分類情報1のキーフレーム抽出方法決定情報では、インデックス情報がS個存在し、キーフレーム抽出方法決定情報の先頭ポインタがS個格納されている。キーフレーム抽出方法決定情報のポインタを取得した順番に、キーフレーム抽出方法決定情報を参照し、キーフレーム抽出方法決定情報のキーフレーム抽出条件情報に記述されている判断処理タイプ情報から、付属情報に関するフレーム番号を取得する。そして、新規に設定されたキーフレームのフレーム番号に対し、判定タイプ情報で指定された判定タイプの比較を行う。
In the key frame extraction method determination information of the
キーフレーム抽出条件情報に格納されている判断処理が全て一致した場合、キーフレーム抽出方法決定情報に記述されているキーフレーム抽出タイプ情報を取得する。例えば、図24に示す動画区間の分類情報1は、パンが1回行われ、パン区間が長い動画区間であることを示し、その分類情報1に関連する付属情報を用いたキーフレーム抽出条件情報が格納されたキーフレーム抽出方法決定情報が記述されている。
When all the judgment processes stored in the key frame extraction condition information match, the key frame extraction type information described in the key frame extraction method determination information is acquired. For example, the
例えば、インデックス(ポインタ)1は、新規のキーフレームがパンの開始フレームであるか否かの判断処理タイプ情報を示しており、キーフレームとして設定されたフレーム番号を取得し、そのフレーム番号によって示される撮影環境情報のイベント種別がパン開始であるか否かを比較する。イベント種別がパン開始と一致した場合、キーフレームがパン開始位置に設定されたとみなされ、キーフレーム抽出方法決定情報に記述されているキーフレーム抽出方法として、キーフレーム抽出タイプ情報の「13」のパン開始フレームを決定する。 For example, the index (pointer) 1 indicates determination processing type information as to whether or not a new key frame is a pan start frame, acquires a frame number set as a key frame, and indicates the frame number by that frame number. It is compared whether or not the event type of the shooting environment information is pan start. When the event type matches the pan start, it is considered that the key frame is set at the pan start position. As the key frame extraction method described in the key frame extraction method determination information, the key frame extraction type information “13” is set. Determine the pan start frame.
また例えば、インデックス(ポインタ)3には、新規キーフレームがパンの中間フレームであるか否かを判断するための判断処理タイプ情報が記述されている。キーフレームとして設定されたフレーム番号の撮影環境情報のイベント種別を参照し、イベント種別が比較値(パン継続)と等しいか否かを比較する。パン継続であった場合、そのパン中のどのフレームがキーフレームとなったのか、その位置情報を数式(1)にしたがって算出する。 For example, the index (pointer) 3 describes determination processing type information for determining whether or not the new key frame is an intermediate frame of pan. The event type of the shooting environment information of the frame number set as the key frame is referred to, and it is compared whether or not the event type is equal to the comparison value (pan continuation). If panning is continued, the position information of which frame in the pan has become a key frame is calculated according to Equation (1).
位置情報=(キーフレームとなるフレームの番号―パン開始フレーム番号)/(パン終了フレーム番号―パン開始フレーム番号) …… (1)
この算出された値は、キーフレーム抽出詳細情報(図19参照)に格納される。パンフレームの中間にキーフレームを設定するキーフレーム抽出方法が格納されたキーフレーム抽出詳細情報のタイプ情報を、キーフレーム抽出タイプ情報から取得する。図24では、キーフレーム抽出詳細情報のタイプ情報は、「3」=(−3)×(−1)である。キーフレーム抽出詳細情報のタイプ情報が「3」であるキーフレーム抽出詳細情報に、数式(1)により算出された値を格納する。例えば、取得(算出)した値が「0.1」であった場合、図20に示すように、キーフレーム抽出詳細情報のタイプ情報3の関連値1に「0.1」が格納される。
Position information = (frame number to be a key frame-pan start frame number) / (pan end frame number-pan start frame number) (1)
This calculated value is stored in the key frame extraction detailed information (see FIG. 19). Type information of key frame extraction detailed information in which a key frame extraction method for setting a key frame in the middle of a pan frame is stored is acquired from the key frame extraction type information. In FIG. 24, the type information of the key frame extraction detailed information is “3” = (− 3) × (−1). The value calculated by the formula (1) is stored in the key frame extraction detailed information whose type information of the key frame extraction detailed information is “3”. For example, when the acquired (calculated) value is “0.1”, “0.1” is stored in the
上記構成を有する撮像装置のキーフレーム設定処理動作を示す。図25および図26は撮像装置におけるキーフレーム設定処理手順を示すフローチャートである。この処理プログラムは、撮像装置内の記憶媒体に格納されており、撮像装置内のCPU(具体的には、システム制御部23内のCPUおよび映像管理部17内のCPU)によって、電源ON後に実行される。
The key frame setting processing operation of the imaging apparatus having the above configuration will be described. 25 and 26 are flowcharts showing a key frame setting process procedure in the imaging apparatus. This processing program is stored in a storage medium in the imaging apparatus, and is executed after the power is turned on by a CPU in the imaging apparatus (specifically, a CPU in the
まず、初期化処理を行い(ステップS1)、操作入力部24から入力を待つ(ステップS2)。操作入力部24から何らかの入力があった場合、入力操作の内容を判別する。即ち、入力操作がRECボタン27の押下による撮影開始であるか否かを判別する(ステップS3)。入力操作がRECボタン27の押下であった場合、撮影処理を行う(ステップS6)。このとき、前述した操作情報および撮影環境情報を記録部29に出力するとともに、RAM43内の撮影環境情報リストに時系列順で一時記憶する。
First, initialization processing is performed (step S1), and input from the
撮影が終了したか否かを判別し(ステップS7)、終了していない場合、撮影が終了するまで、ステップS6の処理を繰り返す。ここで、撮影の終了は、RECボタン27が再び押下された場合、記録メディア30の記録容量が一杯になった場合、電源を供給できなくなりそうな場合など、いずれかの条件が満たされた時に行われる。
It is determined whether or not the shooting has been completed (step S7). If the shooting has not been completed, the process of step S6 is repeated until the shooting is completed. Here, the end of shooting is when the
ステップS7で撮影が終了した場合、撮影された映像データをサブショット映像区間毎に分割する映像分割処理を行う(ステップS8)。分割された映像区間を代表するフレーム画像を設定するキーフレーム設定処理を行う(ステップS9)。このキーフレーム設定処理の詳細については後述する。この後、ステップS2の処理に戻り、次の入力操作を待つ。 When shooting is completed in step S7, video division processing is performed to divide the shot video data into sub-shot video sections (step S8). A key frame setting process for setting a frame image representing the divided video section is performed (step S9). Details of the key frame setting process will be described later. Thereafter, the process returns to step S2 to wait for the next input operation.
一方、ステップS3で入力操作がRECボタン27の押下でなかった場合、キーフレーム一覧表示の指示が行われたか否かを判別する(ステップS4)。このキーフレーム一覧表示の指示は、予めキーフレーム一覧表示の機能が設定された操作入力部(操作パネル)24のボタン等が押された場合、メニューボタン32からキーフレーム一覧表示が指定された場合などで、実行可能である。キーフレーム一覧表示の指示が行われた場合、キーフレームの一覧表示処理を行う(ステップS10)。この後、ステップS2の処理に戻り、次の入力操作を待つ。このキーフレーム一覧表示処理では、サブショット情報リスト(図9参照)に登録されている全てのポインタからサブショット情報を取得し、そのサブショット情報(図8参照)の要素データKeyFrameからキーフレームとなるフレーム番号を取得し、その対応する画像データを取得して表示部18に表示する。
On the other hand, if the input operation is not pressing the
図49は動画区間毎のキーフレームを一覧表示する操作画面を示す図である。この操作画面では、撮影された映像を分割した動画(映像)区間毎のキーフレームが一覧表示されている。サブショット情報も、動画区間AからPに対して作成される。後述するように、動画区間Bにおけるキーフレームの変更操作が行われた場合、動画区間Bにおけるキーフレームの変更処理が開始する。 FIG. 49 is a diagram showing an operation screen for displaying a list of key frames for each moving image section. In this operation screen, a list of key frames for each moving image (video) section obtained by dividing the captured video is displayed. Sub-shot information is also created for moving image sections A to P. As will be described later, when the key frame changing operation in the moving image section B is performed, the key frame changing process in the moving image section B is started.
一方、ステップS4でキーフレーム一覧表示指示が行われていない場合、キーフレームの変更指示が行われたか否かを判別する(ステップS5)。このキーフレームの変更指示の有無は、予めキーフレーム変更の機能が設定された操作入力部(操作パネル)24のメニューボタン32によってキーフレーム変更が選択されること等で判別可能である。キーフレームの変更指示が行われた場合、キーフレームの変更処理を行う(ステップS11)。このキーフレームの変更処理の詳細については後述する。この後、ステップS2の処理に戻り、次の入力操作を待つ。
On the other hand, if the key frame list display instruction has not been issued in step S4, it is determined whether or not a key frame change instruction has been issued (step S5). Whether or not there is an instruction to change the key frame can be determined by selecting the key frame change by the
一方、ステップS5でキーフレーム変更指示が行われていない場合、ユーザ認識指示が行われたか否かを判別する(ステップS12)。このユーザ認識指示の有無は、指紋検出部31のセンサ部に指が押し当てられたことにより判別可能である。ユーザ認識指示が行われた場合、ユーザ識別処理を行う(ステップS13)。この後、ステップS2の処理に戻り、次の入力操作を待つ。このユーザ識別処理では、特許文献2に示される指紋認識技術が用いられ、指紋検出部31に押し当てられた指によって生じた影をセンサ部で指紋であると検出し、この指紋を、予め記憶されたユーザ認識データリスト(ユーザIDと指紋データが対であるリスト)からの指紋データと照合する。指紋データが一致した場合、操作者を識別するユーザIDが取得される。一方、指紋データが一致しなかった場合、新規ユーザとして、指紋データとユーザIDがユーザ認識データリストに登録される。そして、現在使用されている操作者のユーザIDは、RAM43に保持される。
On the other hand, when the key frame change instruction is not performed in step S5, it is determined whether or not the user recognition instruction is performed (step S12). The presence / absence of this user recognition instruction can be determined by pressing a finger against the sensor unit of the
一方、ステップS12でユーザ認識指示がなかった場合、その他の処理を行い(ステップS14)、ステップS2の処理に戻る。また、割込み信号46による割り込みが発生した場合、本処理を中断して必要な割り込み処理が行われる。
On the other hand, if there is no user recognition instruction in step S12, other processes are performed (step S14), and the process returns to step S2. When an interrupt is generated by the interrupt
図27はステップS8における映像分割処理手順を示すフローチャートである。本実施形態では、撮像装置で撮影された映像データは、ショット単位(録画操作の開始・終了を基準に分割された単位)に分割される。さらに、ショット内の映像データは、操作情報(ズームなどの操作情報)、撮影環境情報(パンやチルトなどの情報)などの情報を基に、サブショット単位に分割される。 FIG. 27 is a flowchart showing the video division processing procedure in step S8. In the present embodiment, the video data captured by the imaging apparatus is divided into shot units (units divided based on the start / end of the recording operation). Furthermore, video data in a shot is divided into sub-shot units based on information such as operation information (operation information such as zoom) and shooting environment information (information such as pan and tilt).
まず、記憶されている撮影環境情報リストの先頭にポインタを設定する(ステップS21)。ポインタで示された撮影環境情報のイベント種別情報がパンの開始であるか否かを判別する(ステップS22)。パン開始であった場合、ズーム区間中であるか否かを判別する(ステップS23)。この判別は、パン中にズームを開始するなど、複数の操作が同一時間内で行われた場合、最初に発生した操作に着目し、サブショットに分割するために行われる。また、撮影環境情報リスト内の現在処理されているポインタから、撮影環境情報データリストの前後の要素データを参照することで行われる。 First, a pointer is set at the head of the stored shooting environment information list (step S21). It is determined whether or not the event type information of the shooting environment information indicated by the pointer is the start of panning (step S22). If panning has started, it is determined whether or not the zoom section is in progress (step S23). This determination is performed in order to divide into sub-shots by paying attention to the operation that occurs first when a plurality of operations are performed within the same time, such as starting zooming during panning. Further, it is performed by referring to the element data before and after the shooting environment information data list from the currently processed pointer in the shooting environment information list.
ステップS23でズーム中でなかった場合、画面上の移動量を換算する(ステップS24)。同じ回転角度であっても、撮像装置がズーミングを行っている場合、画面上の移動は激しいものとなる。そこで、回転角度に、ズーム位置毎に予め決められた係数を掛けることによって換算を行う。そして、撮影環境情報リスト内の現在処理中のポインタからパン終了時までのパン全体における総移動量を算出する。 If the zoom is not performed in step S23, the movement amount on the screen is converted (step S24). Even when the rotation angle is the same, when the image pickup apparatus is zooming, the movement on the screen is intense. Therefore, the conversion is performed by multiplying the rotation angle by a coefficient predetermined for each zoom position. Then, the total movement amount of the entire pan from the pointer currently being processed in the shooting environment information list to the end of panning is calculated.
画面上の移動量が閾値を越えているか否かを判別する(ステップS25)。閾値を越えている場合、前回のパン操作終了との時間差が閾値を越えているか否かを判別する(ステップS26)。これは、高頻度に行われた操作を、サブショットの対象外とするためである。前回のパン操作終了との時間差が閾値を越えている場合、パン開始点を分割点とする(ステップS27)。 It is determined whether or not the amount of movement on the screen exceeds a threshold value (step S25). If it exceeds the threshold, it is determined whether or not the time difference from the end of the previous pan operation exceeds the threshold (step S26). This is because operations performed frequently are excluded from sub-shot targets. If the time difference from the end of the previous pan operation exceeds the threshold, the pan start point is set as a division point (step S27).
映像の分割点が決定された場合、分割点の前に位置する映像のサブショット情報における終了点、キーフレーム数およびサブショット情報を新規に作成し、サブショット情報に追加する。一方、新規サブショット情報には、開始点が格納される。これらのサブショット情報は、操作情報および撮影環境情報と同様、記録部29に出力される他、RAM43内のサブショット情報リストに時系列順で一時記憶される。
When the division point of the video is determined, the end point, the number of key frames, and the sub-shot information in the sub-shot information of the video located before the division point are newly created and added to the sub-shot information. On the other hand, the start point is stored in the new sub-shot information. Like the operation information and the shooting environment information, these sub-shot information is output to the
この後、ステップS32の処理に移行する。また、ステップS23でズーム区間中であった場合、ステップS25で画面上の移動量が閾値を越えていない場合、またはステップS26で前回のパン操作終了との時間差が閾値を越えていない場合、分割点を決定することなく、ステップS32の処理に移行する。 Thereafter, the process proceeds to step S32. Further, if the zoom section is in step S23, the amount of movement on the screen does not exceed the threshold value in step S25, or if the time difference from the end of the previous pan operation does not exceed the threshold value in step S26, division is performed. The process proceeds to step S32 without determining a point.
一方、ステップS22の判別の結果、撮影環境情報のイベント種別情報がパン開始でなかった場合、撮影環境情報のイベント種別情報がズーム開始であるか否かを判別する(ステップS28)。ズーム開始であった場合、パン区間中であるか否かを判別する(ステップS29)。このズーム中におけるパン区間中であるか否かの判別は、パン中におけるズーム区間中であるか否かの判別と同様の理由で行われる。 On the other hand, as a result of the determination in step S22, if the event type information in the shooting environment information is not pan start, it is determined whether or not the event type information in the shooting environment information is zoom start (step S28). If the zoom has been started, it is determined whether or not it is during the pan period (step S29). The determination as to whether or not it is during the pan period during zooming is performed for the same reason as the determination as to whether or not it is during the zoom period during panning.
ステップS29でパン区間中でなかった場合、ズーム開始は撮影者の意図したものであるか否かを判別する(ステップS30)。この処理では、複数のズーム操作が行われた場合でも、撮影者は1回のズーム操作を意図していたものと推測する。例えば、初心者に特徴的な操作であって、ワイドボタン25あるいはテレボタン26の操作を意図したズーム倍率で止めることができず、それを補正するために逆方向に戻す操作を行ったと推測される。このことは、ズーム操作を終了してから戻し操作を始めるまでの時間が所定の範囲内であること、ズームスピードが高速であること、ズームの方向が逆になること等から、推測可能である。また、初心者の操作には、ズームを滑らかに行わず、断続的に行うという特徴がある。このような断続的な操作は、時間差とズームの方向から推測可能であり、連続したズーム区間で行われたとみなす。
If it is not in the pan section in step S29, it is determined whether or not the zoom start is intended by the photographer (step S30). In this process, it is estimated that the photographer intended one zoom operation even when a plurality of zoom operations were performed. For example, it is an operation characteristic for beginners, and the operation of the
ステップS30の判別の結果、ズーム開始が撮影者の意図したものであると推測された場合、ズーム開始点を分割点とする(ステップS31)。前述したように、映像の分割点が決定された場合、分割点の前に位置する映像のサブショット情報における終了点、キーフレーム数およびサブショット情報を新規に作成し、サブショット情報リストに追加する。また、新規のサブショット情報には、開始点が登録される。これらのサブショット情報は、操作情報および撮影環境情報と同様、記録部29に出力される他、RAM43内のサブショット情報リストに時系列順で一時記憶される。撮影環境情報リストの現在のポインタにおける処理が終了すると、ステップS32の処理に進む。また、ステップS28でズーム開始でない場合、ステップS29でパン区間中である場合、あるいはステップS30でズーム開始が撮影者の意図したものでない場合、分割点を決定することなく、ステップS32の処理に進む。そして、次の入力操作情報があるか否かを判別する(ステップS32)。次の入力操作情報がある場合、ステップS22の処理に戻り、一方、次の入力操作情報がない場合、本処理を終了する。
As a result of the determination in step S30, when it is estimated that the zoom start is intended by the photographer, the zoom start point is set as a division point (step S31). As described above, when the video division point is determined, the end point, the number of key frames, and the sub-shot information in the sub-shot information of the video located before the division point are newly created and added to the sub-shot information list To do. Also, the start point is registered in the new sub-shot information. Like the operation information and the shooting environment information, these sub-shot information is output to the
図28はステップS9におけるキーフレーム設定処理手順を示すフローチャートである。まず、キーフレームの設定を行う操作者のユーザIDをRAM43から取得する(ステップS41)。ユーザIDが設定されていなかった場合、本撮像装置に予め指定されている共通ユーザのユーザIDが取得される。 FIG. 28 is a flowchart showing the key frame setting processing procedure in step S9. First, the user ID of the operator who sets the key frame is acquired from the RAM 43 (step S41). When the user ID is not set, the user ID of the common user specified in advance in the imaging apparatus is acquired.
キーフレーム設定処理を行うための初期化処理を行う(ステップS42)。例えば、キーフレームを抽出するサブショット情報リストの先頭にポインタを移動する。そして、サブショット情報リストに示される映像区間毎のキーフレームの設定が終了であるか否かを判別し(ステップS43)、キーフレーム設定終了である場合、本処理を終了する。一方、キーフレーム設定終了でない場合、ステップS44の処理に移行する。 An initialization process for performing the key frame setting process is performed (step S42). For example, the pointer is moved to the head of the sub-shot information list for extracting the key frame. Then, it is determined whether or not the key frame setting for each video section shown in the sub-shot information list is finished (step S43). If the key frame setting is finished, this process is finished. On the other hand, if the key frame setting is not completed, the process proceeds to step S44.
サブショット情報リストおよびサブショット情報を参照し、キーフレームを設定する映像区間の分類情報を取得する(ステップS44)。この分類情報の取得処理は、サブショットの映像区間に関する付属情報(撮像環境情報および操作情報など)を参照し、映像区間分類情報に格納されている分類条件情報を基に判定して行われる。この分類情報の取得処理の詳細については後述する。ステップS41で取得したユーザIDから操作者のキーフレーム抽出履歴情報を取得し、その中からステップS44で取得した分類情報のキーフレーム抽出履歴情報を取得する(ステップS45)。ステップS44で取得した分類情報を基に、キーフレーム抽出タイプ情報を検索して取得する(ステップS46)。ステップS46で取得したキーフレーム抽出タイプ情報を用いて、キーフレームの抽出を行う(ステップS47)。ステップS47で抽出されたキーフレームのフレーム番号をサブショット情報の要素データKeyframeに格納する(ステップS48)。このとき、要素データNumberOfKeyframeの情報は、抽出されたキーフレームに応じて加算される。映像区間分類情報にキーフレーム抽出タイプ情報が2つある場合、キーフレームを2つ取得し、取得したキーフレーム番号が同一でなかった場合、サブショット情報の要素データNumberOfKeyframeの情報は、「+2」加算される。取得した2つのフレーム番号は要素データKeyframeに登録される。 By referring to the sub-shot information list and the sub-shot information, the classification information of the video section for setting the key frame is acquired (step S44). This classification information acquisition process is performed by referring to the attached information (such as imaging environment information and operation information) related to the video section of the sub-shot and based on the classification condition information stored in the video section classification information. Details of the classification information acquisition process will be described later. The key frame extraction history information of the operator is acquired from the user ID acquired in step S41, and the key frame extraction history information of the classification information acquired in step S44 is acquired from the user ID (step S45). Based on the classification information acquired in step S44, key frame extraction type information is searched and acquired (step S46). The key frame is extracted using the key frame extraction type information acquired in step S46 (step S47). The frame number of the key frame extracted in step S47 is stored in the element data Keyframe of the sub-shot information (step S48). At this time, information of element data NumberOfKeyframe is added according to the extracted key frame. When there are two key frame extraction type information in the video section classification information, two key frames are acquired, and when the acquired key frame number is not the same, the information of the element data NumberOfKeyframe of the sub-shot information is “+2”. Is added. The acquired two frame numbers are registered in the element data Keyframe.
図29および図30はステップS44における分類情報の取得処理手順を示すフローチャートである。まず、映像区間分類情報リストの先頭にポインタIを設定する(ステップS51)。例えば、図11に示す映像区間分類情報リストの映像区間分類情報1先頭ポインタにポインタIを移動させる。そして、ポインタIが映像区間分類情報リストの末尾に移動したか否かを判別する(ステップS52)。つまり、全ての映像区間分類情報を参照したか否かを判断する。ステップS52で、全ての映像区間分類情報を参照した場合、当てはまる分類情報が存在しなかったことを意味するので、デフォルトの分類情報を設定し(ステップS67)、本処理を終了する。
FIG. 29 and FIG. 30 are flowcharts showing the classification information acquisition processing procedure in step S44. First, the pointer I is set at the head of the video section classification information list (step S51). For example, the pointer I is moved to the head pointer of the video
一方、ステップS52で全ての映像区間分類情報が参照されていない場合、ポインタIで示される映像区間分類情報を取得する(ステップS53)。図11に示す映像区間分類情報1先頭ポインタを取得し、映像区間分類情報1を取得する。映像区間分類情報の分類条件情報に格納されている分類判断処理タイプ情報格納数を取得する(ステップS54)。分類情報1(図13参照)における分類条件情報(図14参照)では、分類判断処理タイプ情報格納数に「5」が格納されているので、分類判断処理タイプ情報格納数として、「5」が取得される。
On the other hand, if all the video segment classification information is not referenced in step S52, the video segment classification information indicated by the pointer I is acquired (step S53). The video
この後、ステップS55〜S57の処理で、分類条件情報に格納されている分類判断処理を行い、全ての分類判断処理で一致するか否かを判断する。全ての分類判断処理で一致した場合、この分類条件情報を有する分類情報に分類される。まず、分類条件情報に格納されている分類判断処理タイプ情報の分類判断処理を全て終了したか否かを判別する(ステップS55)。分類判断処理を全て終了した場合、ステップS65の処理に移行する。一方、ステップS55で、分類判断処理を全て終了していない場合、次の分類判断処理タイプ情報の分類判断処理を行う。 Thereafter, in steps S55 to S57, the classification determination process stored in the classification condition information is performed, and it is determined whether or not all the classification determination processes match. If all the classification determination processes match, the classification information having the classification condition information is classified. First, it is determined whether or not all the classification determination processes of the classification determination process type information stored in the classification condition information have been completed (step S55). When all the classification determination processes are completed, the process proceeds to step S65. On the other hand, if all the classification determination processes are not completed in step S55, the classification determination process for the next classification determination process type information is performed.
分類判断処理タイプ情報の値が「1」〜「L」(Lは分類判断処理タイプ情報の定義数であり、分類情報1では値5)までであるか否かを判別する(ステップS56)。「1」〜「L」まででない場合、映像区間分類情報リストのポインタIを加算し(ステップS56A)、ステップS52の処理に戻り、次の映像区間分類情報の判定に移行する。 It is determined whether or not the value of the classification determination processing type information is “1” to “L” (L is the number of definitions of the classification determination processing type information, and the value is 5 in the classification information 1) (step S56). If it is not “1” to “L”, the pointer I of the video segment classification information list is added (step S56A), the process returns to step S52, and the process proceeds to determination of the next video segment classification information.
一方、ステップS56で分類判断処理タイプ情報の値が「1」〜「L」までであった場合、ステップS59〜S64で分類判断処理タイプ情報毎の分類判断処理を行う。すなわち、分類判断処理タイプ情報が「1」であるか否かを判別する(ステップS59)。分類判断処理タイプ情報が「1」である場合、分類判断処理タイプ情報1の判断処理を行い(ステップS60)、ステップS57の処理に移行する。一方、分類判断処理タイプ情報が「1」でない場合、分類判断処理タイプ情報が「2」であるか否かを判別する(ステップS61)。分類判断処理タイプ情報が「2」である場合、分類判断処理タイプ情報2の判断処理を行い(ステップS62)、ステップS57の処理に移行する。一方、分類判断処理タイプ情報が「2」でない場合、分類判断処理タイプ情報1、2と同様の処理を、分類判断処理タイプ情報が「L−1」まで行う。そして、分類判断処理タイプ情報が「L−1」でない場合、分類判断処理タイプ情報が「L」であるか否かを判別する(ステップS63)。分類判断処理タイプ情報が「L」である場合、分類判断処理タイプ情報Lの判断処理を行い(ステップS64)、ステップS57の処理に移行する。尚、この分類判断処理の詳細については後述する。
On the other hand, if the value of the classification determination processing type information is “1” to “L” in step S56, the classification determination processing for each classification determination processing type information is performed in steps S59 to S64. That is, it is determined whether or not the classification determination processing type information is “1” (step S59). When the classification determination process type information is “1”, the determination process of the classification determination
このように、ステップS59〜ステップS64で分類判断処理タイプ情報毎の分類判断処理を行った後、各分類判断処理の結果が真である(一致するとみなされる)か否かを判別する(ステップS57)。各分類判断処理の戻り値が真でなかった場合、ポインタIを加算し(ステップS58)、ステップS52に戻り、次の映像区間分類情報に移行する。一方、ステップS57で一致するとみなされた場合、ステップS55に戻って次の分類判断処理タイプ情報に移行する。 As described above, after performing the classification determination processing for each classification determination processing type information in step S59 to step S64, it is determined whether or not the result of each classification determination processing is true (considerable to match) (step S57). ). If the return value of each classification determination process is not true, the pointer I is added (step S58), the process returns to step S52, and the process proceeds to the next video segment classification information. On the other hand, if it is determined in step S57 that the two match, the process returns to step S55 to move to the next classification determination processing type information.
ステップS55で分類判断処理タイプ情報の分類判断処理を全て終了した場合、分類判断処理タイプ情報の全ての分類判断処理が一致して真となったか否かを判別する(ステップS65)。分類条件情報の分類判断処理の結果が全て真となった映像区間分類情報が存在する場合、分類情報を取得し(ステップS66)、本処理を終了する。一方、分類条件情報の分類判断処理が全て真とはならなかった場合、ステップS52の処理に戻る。そして、ステップS52で全ての映像区間分類情報を参照し終えた場合、前述したように、ステップS67でデフォルトの分類情報を設定し、本処理を終了する。 When all the classification determination processes of the classification determination process type information are completed in step S55, it is determined whether or not all the classification determination processes of the classification determination process type information match and become true (step S65). If there is video segment classification information for which the result of classification determination processing for classification condition information is all true, classification information is acquired (step S66), and this process is terminated. On the other hand, if all the classification determination processes of the classification condition information are not true, the process returns to step S52. If all the video segment classification information has been referred to in step S52, the default classification information is set in step S67 as described above, and the process is terminated.
例えば、図14に示す最初の分類判断処理では、分類判断処理タイプ情報1を設定し、開始フレームの撮影環境情報のイベント種別情報を取得することが示されている。そして、取得したイベント種別情報と比較値(0:パン開始)との比較を、判定方法タイプ1(=)で行うことが示されている。つまり、等しいか否かの比較が行われる。
For example, in the first classification determination process shown in FIG. 14, the classification determination
図31はステップS60における分類判断処理タイプ情報1の判断処理手順を示すフローチャートである。まず、比較値(0:パン開始)および判定方法タイプ情報(1:=)を取得する(ステップS71)。サブショット情報の要素データStartTimeから開始フレーム番号を取得し、そのフレーム番号と一致する撮影環境情報を検索し、そのイベント種別情報を求める(ステップS72)。
FIG. 31 is a flowchart showing the determination processing procedure of the classification determination
ステップS71で取得した判定方法タイプを判別する(ステップS73)。つまり、判定タイプが「1:=」である場合、等しいか否かの比較を行い(ステップS75)、ステップS74の処理に移行する。判定タイプが「2:!=」である場合、等しくないか否かの比較を行い(ステップS76)、ステップS74の処理に移行する。判定タイプが「3:>」である場合、イベント種別情報が比較値より大きいか否かの比較を行い(ステップS77)、ステップS74の処理に移行する。判定タイプが「4:<」である場合、イベント種別情報が比較値より小さいか否かの比較を行い(ステップS78)、ステップS74の処理に移行する。このような処理を判定タイプが「T−1」まで行った後(ここで、「T」は値5以上の数)、判定タイプが「T」である場合、「T」に対応する判定タイプでイベント種別情報と比較値の比較を行い(ステップS78)、ステップS74の処理に移行する。一方、ステップS73で判定タイプが上記いずれの値でもなく、その他(etc)である場合、ステップS82の処理に移行する。 The determination method type acquired in step S71 is determined (step S73). That is, when the determination type is “1: =”, a comparison is made as to whether or not they are equal (step S75), and the process proceeds to step S74. If the determination type is “2:! =”, A comparison is made as to whether they are not equal (step S76), and the process proceeds to step S74. When the determination type is “3:>”, it is compared whether or not the event type information is larger than the comparison value (step S77), and the process proceeds to step S74. When the determination type is “4: <”, it is compared whether or not the event type information is smaller than the comparison value (step S78), and the process proceeds to step S74. After such processing is performed until the determination type is “T−1” (where “T” is a value of 5 or more), when the determination type is “T”, the determination type corresponding to “T” Then, the event type information is compared with the comparison value (step S78), and the process proceeds to step S74. On the other hand, if it is determined in step S73 that the determination type is not one of the above values and other (etc), the process proceeds to step S82.
ここでは、判定方法タイプが「1」、つまり「=」であるので、ステップS75において、ステップS72で取得したイベント種別情報とステップS71で取得した比較値(0:パン開始)とを比較する。この比較が成立して真であるか否かを判別する(ステップS74)。比較の結果、成立している場合、戻り値として「1」を設定し(ステップS81)、本処理を終了する。一方、比較の結果、不成立である場合、戻り値として「0」を設定し(ステップS82)、本処理を終了する。 Here, since the determination method type is “1”, that is, “=”, in step S75, the event type information acquired in step S72 is compared with the comparison value (0: pan start) acquired in step S71. It is determined whether this comparison is true and true (step S74). As a result of the comparison, if it is established, “1” is set as a return value (step S81), and this process is terminated. On the other hand, if the result of comparison is not established, “0” is set as a return value (step S82), and this process is terminated.
つづいて、図14の2番目の分類判断処理を示す。図32はステップS60における分類判断処理タイプ情報2の判断処理手順を示すフローチャートである。図31と同一のステップ処理については同一のステップ番号を付すことにする。まず、分類判断処理タイプ情報2を設定し、開始フレームの操作情報のイベント種別情報を取得する。そして、取得したイベント種別情報と比較値(1:ズーム継続)との比較を、判定方法タイプ2、つまり「!=」で行う。
Next, the second classification determination process in FIG. 14 is shown. FIG. 32 is a flowchart showing the determination processing procedure of the classification determination
具体的に、前述したステップS71で、比較値(1:ズーム継続)および判定方法タイプ情報(2:!=)を取得する。サブショット情報の要素データStartTimeから開始フレーム番号を取得し、そのフレーム番号と一致する操作情報を検索し、そのイベント種別情報を求める(ステップS72A)。ステップS71で取得した判定方法タイプが「2」、つまり「!=」であるので、ステップS73でステップS76の処理に分岐する。ステップS76では、ステップS72で取得したイベント種別情報とステップS71で取得した比較値(1:ズーム継続)とが等しくない(「!=」である)か否かを比較する。そして、ステップS74、S81、S82で比較した結果の値を戻り値として設定し、本分類判断処理タイプ2の判断処理を終了する。同様に、図14の3番目の分類判断処理を示す。この分類判断処理手順は、比較値が異なるだけで2番目の分類判断処理と同様であるので、その説明を省略する。
Specifically, in step S71 described above, a comparison value (1: zoom continuation) and determination method type information (2:! =) Are acquired. The start frame number is acquired from the element data StartTime of the sub-shot information, the operation information that matches the frame number is searched, and the event type information is obtained (step S72A). Since the determination method type acquired in step S71 is “2”, that is, “! =”, The process branches to step S76 in step S73. In step S76, it is compared whether or not the event type information acquired in step S72 and the comparison value (1: zoom continuation) acquired in step S71 are not equal (“! =”). Then, the value obtained as a result of the comparison in steps S74, S81, and S82 is set as a return value, and the determination process of this classification
図14の4番目の分類判断処理では、分類判断処理タイプ情報3を設定し、サブショット中のパンの回数を取得することが示されている。この分類判断処理では、取得したイベント種別と比較値(1:パン継続)との比較を、判定方法タイプ1、つまり「=」で行う。図33はステップS60における分類判断処理タイプ情報3の判断処理手順を示すフローチャートである。図31と同一のステップ処理については同一のステップ番号を付すことにする。ステップS71で、比較値(1:パン継続)および判定方法タイプ情報(1:=)を取得する。そして、サブショット情報の要素データStartTimeから開始フレーム番号を取得し、要素データEndTimeから終了フレーム番号を取得し、そのフレーム番号内のフレーム番号と一致する撮影環境情報を取得し、そのイベント種別が「パン開始」の数を求める(ステップS72B)。ステップS73では、ステップS71で取得した判定方法タイプが「1」、つまり「=」であるので、ステップS75で、ステップS72Bで取得したパン開始の数とステップS71で取得した比較値(1:パン継続)とが等しい(「=」である)かを比較する。ステップS74、S81、S82で比較した結果の値を戻り値として設定し、本分類判断処理タイプ4の判断処理を終了する。
In the fourth classification determination process of FIG. 14, the classification determination
図14の5番目の分類判断処理では、分類判断処理タイプ情報4を設定し、パンの長さを取得することが示されている。この分類判断処理では、取得したイベント種別と比較値(予め設定されたパンの長さが大きいことを示す閾値)との比較を、判定方法タイプ3、つまり「>」で行う。図34はステップS60における分類判断処理タイプ情報4の判断処理手順を示すフローチャートである。図31と同一のステップ処理については同一のステップ番号を付すことにする。ステップS71で、比較値(閾値)および判定方法タイプ情報(3:>)を取得する。サブショット情報の要素データStartTimeから開始フレーム番号を取得し、要素データEndTimeから終了フレーム番号を取得し、パン開始からパン終了までの時間を取得する(ステップS72C)。
The fifth classification determination process in FIG. 14 indicates that the classification determination
ステップS73において、ステップS71で取得した判定方法タイプが「3」、つまり「>」であるので、ステップS77に分岐し、ステップS77では、ステップS72Cで取得したパン開始からパン終了までの時間がステップS71で取得した比較値(閾値)より長い(「>」である)かを比較する。そして、ステップS74、S81、S82で比較した結果の値を戻り値として設定し、本分類判断処理タイプ4の判断処理を終了する。
In step S73, since the determination method type acquired in step S71 is “3”, that is, “>”, the process branches to step S77. In step S77, the time from the start of pan to the end of pan acquired in step S72C is stepped. It is compared whether it is longer (">") than the comparison value (threshold value) acquired in S71. Then, the value obtained as a result of the comparison in steps S74, S81, and S82 is set as a return value, and the determination process of this classification
図35はステップS47におけるキーフレーム抽出処理手順を示すフローチャートである。まず、キーフレーム抽出タイプ情報がマイナス値であるか否かを判別する(ステップS91)。マイナス値であった場合、キーフレーム抽出詳細情報によるキーフレーム抽出を行い(ステップS92)、本処理を終了する。このキーフレーム抽出詳細情報によるキーフレーム抽出処理の詳細については後述する。 FIG. 35 is a flowchart showing the key frame extraction processing procedure in step S47. First, it is determined whether or not the key frame extraction type information is a negative value (step S91). If it is a negative value, key frame extraction based on the key frame extraction detailed information is performed (step S92), and this process ends. Details of the key frame extraction processing based on the key frame extraction detailed information will be described later.
一方、ステップS91でキーフレーム抽出タイプ情報がマイナス値でなかった場合、ステップS93からステップS98までの処理によって、キーフレーム抽出タイプ情報に応じたキーフレーム抽出処理が行われる。具体的に、キーフレーム抽出タイプ情報が「1」であるか否かを判別する(ステップS93)。キーフレーム抽出タイプ情報が「1」である場合、キーフレーム抽出タイプ1でサブショット映像区間の先頭フレームを取得する(ステップS94)。この後、本処理を終了する。 On the other hand, if the key frame extraction type information is not a negative value in step S91, the key frame extraction processing corresponding to the key frame extraction type information is performed by the processing from step S93 to step S98. Specifically, it is determined whether or not the key frame extraction type information is “1” (step S93). When the key frame extraction type information is “1”, the first frame of the sub-shot video section is acquired with the key frame extraction type 1 (step S94). Then, this process is complete | finished.
一方、ステップS93でキーフレーム抽出タイプ情報が「1」でない場合、キーフレーム抽出タイプ情報が「2」であるか否かを判別する(ステップS95)。キーフレーム抽出タイプ情報が「2」である場合、キーフレーム抽出タイプ2でサブショット映像区間の終了フレームを取得する(ステップS96)。この後、本処理を終了する。同様に、ステップS95でキーフレーム抽出タイプ情報が「2」でない場合、キーフレーム抽出タイプ情報が「V−1」まで同様の処理を行い(「V」はキーフレーム抽出タイプ情報における値3以上の数)、キーフレーム抽出タイプ情報が「V−1」でない場合、キーフレーム抽出タイプ情報が「V」であるか否かを判別する(ステップS97)。キーフレーム抽出タイプ情報が「V」である場合、キーフレーム抽出タイプ情報が「V」に対応するキーフレーム抽出処理を行う(ステップS98)。この後、本処理を終了する。一方、キーフレーム抽出タイプ情報が「V」でない場合、そのまま本処理を終了する。 On the other hand, if the key frame extraction type information is not “1” in step S93, it is determined whether or not the key frame extraction type information is “2” (step S95). When the key frame extraction type information is “2”, the end frame of the sub-shot video section is acquired with the key frame extraction type 2 (step S96). Then, this process is complete | finished. Similarly, when the key frame extraction type information is not “2” in step S95, the same processing is performed until the key frame extraction type information is “V−1” (“V” is a value of 3 or more in the key frame extraction type information). When the key frame extraction type information is not “V−1”, it is determined whether or not the key frame extraction type information is “V” (step S97). When the key frame extraction type information is “V”, a key frame extraction process corresponding to the key frame extraction type information “V” is performed (step S98). Then, this process is complete | finished. On the other hand, if the key frame extraction type information is not “V”, the present process is terminated.
つぎに、キーフレーム抽出タイプ情報毎のキーフレーム抽出処理を示す。図36は開始フレームをキーフレームとして設定するキーフレーム抽出タイプ情報1のキーフレーム抽出処理手順を示すフローチャートである。まず、サブショット情報の要素データStartTimeから開始フレーム番号を取得する(ステップS101)。サブショット情報の要素データNumberOfKeyframeを値1加算する(ステップS102)。サブショット情報の要素データKeyframeに、ステップS101で取得したフレーム番号を格納する(ステップS103)。この後、本処理を終了する。これにより、開始フレームがキーフレームとして設定される。
Next, a key frame extraction process for each key frame extraction type information is shown. FIG. 36 is a flowchart showing a key frame extraction processing procedure of key frame
図37は終了フレームをキーフレームとして設定するキーフレーム抽出タイプ情報2のキーフレーム抽出処理手順を示すフローチャートである。まず、サブショット情報の要素データEndTimeから終了フレーム番号を取得する(ステップS111)。サブショット情報の要素データNumberOfKeyframeを値1加算する(ステップS112)。サブショット情報の要素データKeyframeに、ステップS111で取得したフレーム番号を格納する(ステップS113)。この後、本処理を終了する。これにより、終了フレームがキーフレームとして設定される。
FIG. 37 is a flowchart showing the key frame extraction processing procedure of the key frame
図38はパン中の中間フレームをキーフレームとして設定するキーフレーム抽出タイプ情報3のキーフレーム抽出処理手順を示すフローチャートである。まず、サブショット情報の要素データStartTimeから開始フレーム番号を取得する(ステップS121)。サブショット情報の要素データEndTimeから終了フレーム番号を取得する(ステップS122)。ステップS121およびステップS122で取得したフレーム番号の範囲内における撮影環境情報を参照し、パン開始フレーム番号およびパン終了フレーム番号を取得し、数式(2)にしたがって、パン中間フレーム番号を求める(ステップS123)。
FIG. 38 is a flowchart showing a key frame extraction processing procedure of key frame
(パン終了フレーム番号−パン開始フレーム番号)/2+パン開始フレーム番号 ……(2)
サブショット情報の要素データNumberOfKeyframeを値1加算する(ステップS124)。サブショット情報の要素データKeyframeに、ステップS123で取得したフレーム番号を格納する(ステップS125)。この後、本処理を終了する。これにより、パン中の中間フレームはキーフレームとして設定される。
(Pan end frame number−pan start frame number) / 2 + pan start frame number (2)
The element data NumberOfKeyframe of the sub-shot information is incremented by 1 (step S124). The frame number acquired in step S123 is stored in the element data Keyframe of the sub-shot information (step S125). Then, this process is complete | finished. Thereby, the intermediate frame during panning is set as a key frame.
図39はステップS92におけるキーフレーム抽出詳細情報を用いたキーフレーム抽出処理手順を示すフローチャートである。まず、ステップS46で取得されたキーフレーム抽出タイプ情報を用いてキーフレーム抽出詳細情報を検索する(ステップS131)。キーフレーム抽出詳細情報タイプ情報を参照する場合(図18参照)、キーフレーム抽出情報タイプ情報には、「−1」が掛けられているので、キーフレーム抽出タイプ情報の値に「ー1」を掛けて、キーフレーム抽出詳細情報タイプ情報が取得される。この取得したキーフレーム抽出詳細情報タイプ情報を用いて検索することで、キーフレーム抽出詳細情報は取得される。取得したキーフレーム抽出詳細情報に格納されているキーフレーム抽出関連値を全て順に取得する(ステップS132)。 FIG. 39 is a flowchart showing the key frame extraction processing procedure using the key frame extraction detailed information in step S92. First, the key frame extraction detailed information is searched using the key frame extraction type information acquired in step S46 (step S131). When referring to the key frame extraction detailed information type information (see FIG. 18), since the key frame extraction information type information is multiplied by “−1”, “−1” is added to the value of the key frame extraction type information. As a result, key frame extraction detailed information type information is acquired. By performing a search using the acquired key frame extraction detailed information type information, the key frame extraction detailed information is acquired. All the key frame extraction related values stored in the acquired key frame extraction detailed information are sequentially acquired (step S132).
そして、ステップS133からステップS138までの処理によって、キーフレーム抽出詳細情報タイプ情報毎に取得した関連値を使用し、キーフレーム抽出処理を行う。具体的に、キーフレーム抽出詳細情報タイプ情報が「1」であるか否かを判別する(ステップS133)。「1」である場合、キーフレーム抽出詳細情報タイプ情報1のキーフレーム抽出処理を行い(ステップS134)、本処理を終了する。一方、「1」でない場合、キーフレーム抽出詳細情報タイプ情報が「2」であるか否かを判別する(ステップS135)。「2」である場合、キーフレーム抽出詳細情報タイプ情報2のキーフレーム抽出処理を行い(ステップS136)、本処理を終了する。一方、「2」でない場合、キーフレーム抽出詳細情報タイプ情報が「N−1」となるまで同様の処理を行い(ここで、Nはキーフレーム抽出詳細情報タイプ情報のうち、「3」以上の数)、キーフレーム抽出詳細情報タイプ情報が「N−1」でない場合、キーフレーム抽出詳細情報タイプ情報が「N」であるか否かを判別する(ステップS137)。「N」である場合、キーフレーム抽出詳細情報タイプ情報Nのキーフレーム抽出処理を行い(ステップS138)、本処理を終了する。一方、「N」でない場合、そのまま本処理を終了する。
Then, by the processing from step S133 to step S138, the related value acquired for each key frame extraction detailed information type information is used to perform the key frame extraction processing. Specifically, it is determined whether or not the key frame extraction detailed information type information is “1” (step S133). In the case of “1”, the key frame extraction process of the key frame extraction detailed
例えば、キーフレーム抽出詳細情報タイプ情報が「3」である場合、つまり、キーフレームがパン中に存在する場合、キーフレーム設定処理として、ステップS132で取得したパン中のキーフレーム抽出関連値の位置にキーフレームを設定する処理を行う。 For example, when the key frame extraction detailed information type information is “3”, that is, when the key frame exists during panning, the position of the key frame extraction related value during panning acquired in step S132 as key frame setting processing Perform processing to set keyframes in
図40はキーフレーム抽出詳細情報タイプ情報3のキーフレーム抽出処理手順を示すフローチャートである。このキーフレーム抽出詳細情報タイプ情報3のキーフレーム抽出処理では、キーフレームは、キーフレーム抽出詳細情報3のキーフレーム抽出関連値(サブショット情報のパン開始フレーム中の割合を示す値)に従って抽出される。
FIG. 40 is a flowchart showing the key frame extraction processing procedure of the key frame extraction detailed
まず、サブショット情報の開始フレーム番号および終了フレーム番号を取得し、その範囲内のフレーム番号の中から、撮影環境情報を参照し、イベント種別がパン開始であるものを検索し、パン開始フレーム番号を取得する(ステップS141)。同様に、サブショット情報の開始フレーム番号および終了フレーム番号の範囲内のフレーム番号の中から、撮影環境情報を参照し、イベント種別がパン終了であるものを検索し、パン終了フレーム番号を取得する(ステップS142)。この後、ステップS132で取得したキーフレーム抽出関連値(0.1)を基に、数式(3)にしたがって、キーフレーム番号を計算して取得する(ステップS143)。 First, the start frame number and the end frame number of the sub-shot information are acquired, and the shooting environment information is searched from the frame numbers within the range, and the event type is pan start, and the pan start frame number is searched. Is acquired (step S141). Similarly, referring to the shooting environment information from the frame numbers within the range of the start frame number and end frame number of the sub-shot information, search for the event type of pan end, and acquire the pan end frame number (Step S142). After that, based on the key frame extraction related value (0.1) acquired in step S132, the key frame number is calculated and acquired according to equation (3) (step S143).
(パン終了フレーム番号―パン開始フレーム番号)×0.1+パン開始フレーム番号 …… (3)
サブショット情報の要素データNumberOfKeyframeを値1加算し(ステップS144)、ステップS143で取得したキーフレーム番号をサブショット情報の要素データKeyframeに設定する(ステップS145)。この後、本処理を終了する。
(Pan end frame number−pan start frame number) × 0.1 + pan start frame number (3)
The element data NumberOfKeyframe of the sub-shot information is incremented by 1 (step S144), and the key frame number acquired in step S143 is set in the element data Keyframe of the sub-shot information (step S145). Then, this process is complete | finished.
図41はステップS11におけるキーフレーム変更処理手順を示すフローチャートである。まず、キーフレームを変更する動画(映像)区間を取得する(ステップS151)。この動画区間は、例えば、キーフレーム一覧表示処理(ステップS10参照)によって表示部18に表示されたキーフレームの一覧から、操作者がキーフレームを選択することで、変更される。
FIG. 41 is a flowchart showing the key frame change processing procedure in step S11. First, a moving image (video) section whose key frame is to be changed is acquired (step S151). This moving image section is changed, for example, when the operator selects a key frame from the list of key frames displayed on the
図50は動画区間におけるキーフレームの変更処理を行う際の操作画面を示す図である。この操作画面の上位部分では、現在変更中のキーフレームのポイント表示が行われる。ここでは、動画区間Bのサムネイル画像を太枠で表示することにより、ポイント表示が行われる。一方、この操作画面の下位部分では、動画区間Bのフレーム画像が表示される。さらに、現在キーフレームとなっているフレーム画像および選択中のフレーム画像がポイント表示される。ここでは、フレーム画像B1が現在キーフレームとなっているフレーム画像であり、点線枠で表示される。また、フレーム画像B3は現在選択中のフレーム画像である。この操作画面で設定を行うと、キーフレームはフレーム画像B3に設定される。 FIG. 50 is a diagram illustrating an operation screen when performing key frame change processing in a moving image section. In the upper part of this operation screen, the point display of the key frame currently being changed is performed. Here, the point display is performed by displaying the thumbnail image of the moving image section B with a thick frame. On the other hand, in the lower part of the operation screen, the frame image of the moving image section B is displayed. Further, the frame image which is the current key frame and the currently selected frame image are displayed as points. Here, the frame image B1 is a frame image that is currently a key frame, and is displayed in a dotted frame. The frame image B3 is a currently selected frame image. When setting is made on this operation screen, the key frame is set to the frame image B3.
このようにして新規に設定されるキーフレームの選択処理を行う(ステップS152)。尚、このキーフレームの選択処理は、特に限定されない。例えば、ステップS151で取得したサブショット情報の要素データStartTimeおよび要素データEndTimeを用いて動画を再生し、キーフレームとして使用したい画像が表示された時点で、操作者が操作入力部24のStopボタンを押下することで、キーフレームの選択が行われるようにしてもよい。また、要素データStartTimeおよび要素データEndTime間のフレーム全てを、同時にもしくは階層的に表示し、そのフレームの一覧から、操作者がキーフレームを選択するようにしてもよい。選択されたキーフレームとなるフレーム番号をサブショット情報の要素データKeyFrameに格納する(ステップS153)。
In this way, the newly set key frame is selected (step S152). The key frame selection process is not particularly limited. For example, when the moving image is reproduced using the element data StartTime and the element data EndTime acquired in step S151 and an image to be used as a key frame is displayed, the operator presses the Stop button of the
キーフレーム抽出履歴情報にキーフレームの抽出方法を登録するか否かを判別する(ステップS154)。この判別処理では、予めキーフレームの変更時、キーフレーム抽出履歴情報を作成するか否かの情報を環境ファイル等に記述しておき、その情報を取得して判別してもよいし、あるいはキーフレームの変更時、操作者がキーフレーム抽出履歴情報を作成するか否かを確認することによって判別してもよく、特に限定されない。 It is determined whether or not the key frame extraction method is registered in the key frame extraction history information (step S154). In this determination process, when changing the key frame, information on whether or not to generate key frame extraction history information is previously described in an environment file or the like, and the information may be acquired and determined. When changing the frame, the operator may determine whether or not to create key frame extraction history information, and is not particularly limited.
ステップS154で、キーフレーム抽出履歴情報に登録する場合、キーフレーム抽出履歴情報の登録処理を行い(ステップS155)、ステップS156の処理に移行する。一方、ステップS154で、キーフレーム抽出履歴情報に登録しない場合、そのままステップS156の処理に移行する。類似動画区間におけるキーフレームの変更処理を行うか否かを判別する(ステップS156)。この判別処理では、ステップS154と同様、予めキーフレーム変更時、類似動画区間におけるキーフレームの変更処理を行うか否かの情報を、保持する環境ファイル等から取得して判別してもよいし、あるいはキーフレーム変更時、操作者が変更するか否かを確認することによって判別してもよく、特に限定されない。 When registering in the key frame extraction history information in step S154, the key frame extraction history information is registered (step S155), and the process proceeds to step S156. On the other hand, if not registered in the key frame extraction history information in step S154, the process proceeds to step S156 as it is. It is determined whether or not to change the key frame in the similar moving image section (step S156). In this determination process, as in step S154, information on whether or not to perform a key frame change process in a similar moving image section at the time of key frame change may be obtained from a stored environment file or the like. Alternatively, when the key frame is changed, the determination may be made by confirming whether or not the operator changes, and there is no particular limitation.
ステップS156で、類似動画区間のキーフレーム変更を行う場合、類似動画区間のキーフレーム変更処理を行い(ステップS157)、本キーフレーム変更処理を終了する。一方、ステップS156で、類似動画区間のキーフレーム変更を行わない場合、そのまま本キーフレーム変更処理を終了する。 In step S156, when changing the key frame of the similar moving picture section, the key frame changing process of the similar moving picture section is performed (step S157), and the key frame changing process is ended. On the other hand, when the key frame change of the similar moving image section is not performed in step S156, the key frame change process is terminated as it is.
図42はステップS155におけるキーフレーム抽出履歴情報登録処理手順を示すフローチャートである。まず、キーフレームの変更を行った映像区間における分類情報を取得する(ステップS161)。この分類情報の取得処理では、キーフレームの変更を行ったサブショット情報の分類情報、あるいはRAM43に格納されているキーフレームの変更を行った分類情報が取得される。新規に設定されたキーフレームのキーフレーム抽出方法を取得する(ステップS162)。この新規に設定されたキーフレームの抽出方法を取得する際、キーフレーム抽出詳細情報に抽出方法の関連値が格納されている場合、その関連値も取得される。ステップS162で関連値を取得した場合、キーフレーム抽出詳細情報に関連値を格納する(ステップS163)。
FIG. 42 is a flowchart showing the key frame extraction history information registration processing procedure in step S155. First, the classification information in the video section in which the key frame has been changed is acquired (step S161). In this classification information acquisition process, the classification information of the sub-shot information in which the key frame is changed or the classification information in which the key frame stored in the
キーフレーム抽出履歴情報の設定を行う操作者のユーザIDをRAM43から取得する(ステップS164)。ユーザキーフレーム抽出履歴情報リストから、ユーザIDによって示されるユーザキーフレーム抽出履歴情報の先頭ポインタを取得し、このユーザキーフレーム抽出履歴情報の中からキーフレーム抽出履歴情報リンク情報が示すキーフレーム抽出履歴情報から、ステップS161で取得した分類情報のキーフレーム抽出履歴情報を検索する(ステップS165)。 The user ID of the operator who sets the key frame extraction history information is acquired from the RAM 43 (step S164). From the user key frame extraction history information list, the head pointer of the user key frame extraction history information indicated by the user ID is acquired, and the key frame extraction history indicated by the key frame extraction history information link information from the user key frame extraction history information The key frame extraction history information of the classification information acquired in step S161 is searched from the information (step S165).
分類情報が一致するキーフレーム抽出履歴情報があったか否かを判別する(ステップS166)。分類情報が一致するキーフレーム抽出履歴情報があった場合、ステップS165で取得したキーフレーム抽出履歴情報のキーフレーム抽出タイプ情報を、ステップS162で取得したキーフレーム抽出タイプ情報に変更する(ステップS167)。この後、本処理を終了する。一方、ステップS166で、分類情報が一致するキーフレーム抽出履歴情報が存在しなかった場合、ステップS161で取得した分類情報を新規キーフレーム抽出履歴情報の分類情報に登録し、ステップS162で取得したキーフレーム抽出タイプ情報をキーフレーム抽出タイプ情報に登録し、キーフレーム抽出タイプ情報格納数に「1」を追加してキーフレーム抽出履歴情報を作成する(ステップS168)。このとき、作成された先頭アドレスを、ステップS164で取得されたユーザのキーフレーム抽出履歴情報リストに登録する。この後、本処理を終了する。 It is determined whether there is key frame extraction history information that matches the classification information (step S166). If there is key frame extraction history information that matches the classification information, the key frame extraction type information of the key frame extraction history information acquired in step S165 is changed to the key frame extraction type information acquired in step S162 (step S167). . Then, this process is complete | finished. On the other hand, if there is no key frame extraction history information that matches the classification information in step S166, the classification information acquired in step S161 is registered in the classification information of the new key frame extraction history information, and the key acquired in step S162. The frame extraction type information is registered in the key frame extraction type information, and “1” is added to the number of stored key frame extraction type information to create key frame extraction history information (step S168). At this time, the created head address is registered in the user's key frame extraction history information list acquired in step S164. Then, this process is complete | finished.
図43はステップS162における新規設定キーフレーム抽出タイプ情報取得処理手順を示すフローチャートである。まず、新規キーフレームとして設定されたフレーム番号を取得する(ステップS171)。このフレーム番号の取得処理では、ステップS152の新規設定キーフレーム取得処理で取得された値が取得される。キーフレームの変更が行われた映像区間の分類情報を取得する(ステップS172)。ステップS171で取得した分類情報のキーフレーム抽出方法決定情報を検索する(ステップS173)。具体的に、キーフレーム抽出方法決定情報インデックスリストから、ステップS171で取得した分類情報とインデックス情報の分類情報とが一致するインデックス情報を取得する。取得したインデックス情報に格納されているキーフレーム抽出方法決定情報のポインタを取得する。 FIG. 43 is a flowchart showing a newly set key frame extraction type information acquisition processing procedure in step S162. First, the frame number set as a new key frame is acquired (step S171). In this frame number acquisition process, the value acquired in the newly set key frame acquisition process in step S152 is acquired. The classification information of the video section in which the key frame has been changed is acquired (step S172). The key frame extraction method determination information of the classification information acquired in step S171 is searched (step S173). Specifically, index information in which the classification information acquired in step S171 matches the classification information of the index information is acquired from the key frame extraction method determination information index list. A pointer of key frame extraction method determination information stored in the acquired index information is acquired.
ステップS171で取得した分類情報が一致するキーフレーム抽出方法決定情報があったか否かを判別する(ステップS174)。分類情報が一致するキーフレーム抽出方法決定情報がなかった場合、デフォルトのキーフレーム抽出方法決定情報を取得し(ステップS175)、ステップS179の処理に移行する。 It is determined whether or not there is key frame extraction method determination information that matches the classification information acquired in step S171 (step S174). If there is no key frame extraction method determination information that matches the classification information, default key frame extraction method determination information is acquired (step S175), and the process proceeds to step S179.
一方、ステップS174で分類情報が一致するキーフレーム抽出方法決定情報があった場合、インデックス情報に格納されている順にキーフレーム抽出方法決定情報のポインタを取得し、取得したポインタからキーフレーム抽出方法決定情報を取得する(ステップS176)。キーフレーム抽出方法決定情報に格納されているキーフレーム抽出方法条件情報に格納されている判断処理を基に、新規キーフレームがキーフレーム抽出方法決定情報に記述されているキーフレーム抽出方法により抽出されたものであるか否かの条件判定処理を行う(ステップS177)。この判定処理では、キーフレーム抽出方法条件情報に記述されている付属情報を取得し、キーフレームに設定されたフレーム番号等と比較することにより、キーフレーム抽出方法決定情報に格納されているキーフレーム抽出タイプ情報で抽出されるか否かが判定される。また、キーフレーム抽出方法判断処理タイプ情報により、抽出時に使用する値(関連値)を取得する。 On the other hand, if there is key frame extraction method determination information that matches the classification information in step S174, the pointer of the key frame extraction method determination information is acquired in the order stored in the index information, and the key frame extraction method determination is determined from the acquired pointer. Information is acquired (step S176). Based on the judgment processing stored in the key frame extraction method condition information stored in the key frame extraction method determination information, a new key frame is extracted by the key frame extraction method described in the key frame extraction method determination information. A condition determination process is performed to determine whether or not the image has been updated (step S177). In this determination processing, the key frame stored in the key frame extraction method determination information is obtained by acquiring the attached information described in the key frame extraction method condition information and comparing it with the frame number set in the key frame. It is determined whether or not the extraction type information is extracted. Also, a value (related value) used at the time of extraction is acquired from the key frame extraction method determination processing type information.
キーフレーム抽出方法条件情報に存在する条件判定処理で全ての条件に一致するか否かを判別する(ステップS178)。全ての条件に一致していない場合、ステップS176の処理に戻り、ステップS173で取得されたインデックス情報に格納されている次のキーフレーム抽出方法決定情報を取得し、同様の処理を繰り返す。一方、ステップS178で全ての条件に一致した場合、キーフレーム抽出タイプ情報を取得する(ステップS179)。 It is determined whether or not all conditions are met in the condition determination process existing in the key frame extraction method condition information (step S178). If all the conditions are not met, the process returns to step S176, the next key frame extraction method determination information stored in the index information acquired in step S173 is acquired, and the same process is repeated. On the other hand, if all the conditions are matched in step S178, key frame extraction type information is acquired (step S179).
取得したキーフレーム抽出方法決定情報のキーフレーム抽出タイプ情報がキーフレーム抽出詳細情報を参照するものであるか否かを判別する(ステップS180)。すなわち、キーフレーム抽出詳細情報を参照する場合、値がマイナス値になるので、マイナス値であるか否かを判別する。キーフレーム抽出詳細情報を参照するものであった場合、キーフレーム抽出詳細情報の先頭ポインタおよびステップS177で取得した関連値を一時バッファに保存する(ステップS181)。この後、本処理を終了する。 It is determined whether or not the key frame extraction type information of the acquired key frame extraction method determination information refers to the key frame extraction detailed information (step S180). That is, when referring to the key frame extraction detailed information, the value becomes a negative value, so it is determined whether or not it is a negative value. When the key frame extraction detailed information is referred to, the head pointer of the key frame extraction detailed information and the related value acquired in step S177 are stored in the temporary buffer (step S181). Then, this process is complete | finished.
図44はステップS177における条件情報判定処理手順を示すフローチャートである。まず、条件情報判定処理における初期化処理を行う(ステップS191)。この初期化処理では、例えば、ステップS176で取得したキーフレーム抽出方法決定情報に格納されているキーフレーム抽出方法判断処理タイプ情報格納数を取得し、判断処理カウンタを「0」に設定する。 FIG. 44 is a flowchart showing the condition information determination processing procedure in step S177. First, an initialization process in the condition information determination process is performed (step S191). In this initialization process, for example, the number of stored key frame extraction method determination process type information stored in the key frame extraction method determination information acquired in step S176 is acquired, and the determination process counter is set to “0”.
そして、ステップS192〜S201において、キーフレーム抽出方法決定情報に格納されている判断処理を行う。これら全ての判断処理の結果、「真」と判定された場合、ステップS203で全ての判断処理で一致したとして、本処理を終了する。一方、なんらかの判断処理で「偽」と判定された場合、ステップS202で一致しなかったとして、本処理を終了する。 In steps S192 to S201, the determination process stored in the key frame extraction method determination information is performed. If it is determined as “true” as a result of all the determination processes, it is determined that all the determination processes match in step S203, and the present process ends. On the other hand, if it is determined as “false” in any determination process, it is determined that there is no match in step S202, and this process is terminated.
具体的に、判断処理カウンタの値がステップS191で取得したキーフレーム抽出方法判断処理タイプ情報格納数と同じであるか否かを判別する(ステップS192)。同じである場合、前述したように、全ての判断処理で一致したと判断し、判定結果として「真」を格納し(ステップS203)、本処理を終了する。 Specifically, it is determined whether or not the value of the determination process counter is the same as the number of stored key frame extraction method determination process type information acquired in step S191 (step S192). If they are the same, as described above, it is determined that they match in all the determination processes, “true” is stored as the determination result (step S203), and this process ends.
一方、ステップS192で、判断処理カウンタの値がステップS191で取得したキーフレーム抽出方法判断処理タイプ情報格納数と同じでなく、まだ判断処理を終了していない場合、判断処理カウンタによって示されるキーフレーム抽出方法判断処理タイプ情報を取得する(ステップS193)。取得したキーフレーム抽出方法判断処理タイプ情報が「1」〜「R」の範囲内であるか否かを判別する(ステップS194)。ここで、「R」は、予め設定されているキーフレーム抽出方法判断処理タイプ情報数である。キーフレーム抽出方法判断処理タイプ情報が「1」〜「R」の範囲内でなく、その他であった場合、判断処理で一致しなかったとみなされ、判定結果を「偽」とし(ステップS202)、本処理を終了する。 On the other hand, in step S192, if the value of the determination process counter is not the same as the number of stored key frame extraction method determination process type information acquired in step S191, and the determination process has not ended yet, the key frame indicated by the determination process counter Extraction method determination processing type information is acquired (step S193). It is determined whether or not the acquired key frame extraction method determination processing type information is within a range of “1” to “R” (step S194). Here, “R” is the number of key frame extraction method determination processing type information set in advance. If the key frame extraction method determination processing type information is not within the range of “1” to “R”, but other than that, it is considered that the determination processing does not match, and the determination result is “false” (step S202). This process ends.
一方、ステップS194でキーフレーム抽出方法判断処理タイプ情報が「1」〜「R」の範囲内である場合、ステップS195からステップS200までの処理で、キーフレーム抽出方法判断処理タイプ情報毎の判断処理を行う。具体的に、キーフレーム抽出方法判断処理タイプ情報が「1」であるか否かを判別する(ステップS195)。キーフレーム抽出方法判断処理タイプ情報が「1」であった場合、キーフレーム抽出方法判断処理タイプ情報1に対する判断処理を行う(ステップS196)。ステップS196の判断処理で「真」と判定されたか否かを判別する(ステップS201)。「真」と判別された場合、判断処理カウンタを+1増加させ(ステップS201A)、ステップS192の処理に戻る。一方、ステップS201で「偽」と判別された場合、ステップS202で判定結果を「偽」とし、本処理を終了する。 On the other hand, if the key frame extraction method determination processing type information is in the range of “1” to “R” in step S194, the determination processing for each key frame extraction method determination processing type information is performed in steps S195 to S200. I do. Specifically, it is determined whether or not the key frame extraction method determination processing type information is “1” (step S195). If the key frame extraction method determination process type information is “1”, a determination process is performed on the key frame extraction method determination process type information 1 (step S196). It is determined whether or not “true” is determined in the determination process of step S196 (step S201). If it is determined as “true”, the determination process counter is incremented by +1 (step S201A), and the process returns to step S192. On the other hand, if “false” is determined in step S201, the determination result is “false” in step S202, and the process is terminated.
また、ステップS195でキーフレーム抽出方法判断処理タイプ情報が「1」でない場合、キーフレーム抽出方法判断処理タイプ情報が「2」であるか否かを判別する(ステップS197)。キーフレーム抽出方法判断処理タイプ情報が「2」であった場合、キーフレーム抽出方法判断処理タイプ情報2に対する判断処理を行う(ステップS198)。この後、ステップS201の処理に移行する。ステップS197でキーフレーム抽出判断処理タイプ情報が「2」でない場合、同様の処理がキーフレーム抽出方法判断処理タイプ情報が「R−1」であるまで行われ、さらにキーフレーム抽出方法判断処理タイプ情報が「R−1」でない場合、キーフレーム抽出判断処理タイプ情報が「R」であるか否かを判別する(ステップS199)。キーフレーム抽出方法判断処理タイプ情報が「R」であった場合、キーフレーム抽出方法判断処理タイプ情報Rに対する判断処理を行う(ステップS200)。この後、ステップS201の処理に移行する。一方、キーフレーム抽出方法判断処理タイプ情報が「R」でない場合、ステップS202の処理に移行する。 If the key frame extraction method determination processing type information is not “1” in step S195, it is determined whether or not the key frame extraction method determination processing type information is “2” (step S197). If the key frame extraction method determination process type information is “2”, a determination process is performed on the key frame extraction method determination process type information 2 (step S198). Thereafter, the process proceeds to step S201. If the key frame extraction determination processing type information is not “2” in step S197, the same processing is performed until the key frame extraction method determination processing type information is “R−1”, and further the key frame extraction method determination processing type information. Is not “R−1”, it is determined whether or not the key frame extraction determination processing type information is “R” (step S199). If the key frame extraction method determination process type information is “R”, a determination process for the key frame extraction method determination process type information R is performed (step S200). Thereafter, the process proceeds to step S201. On the other hand, if the key frame extraction method determination process type information is not “R”, the process proceeds to step S202.
ここで、ステップS196におけるキーフレーム抽出方法判断処理タイプ情報1に対する判断処理を示す。図45はステップS196におけるキーフレーム抽出方法判断処理タイプ情報1に対する判断処理手順を示すフローチャートである。まず、キーフレームが変更になった映像区間におけるサブショット情報から開始フレーム番号を取得する(ステップS211)。判定タイプ情報を基に、新規キーフレーム番号と開始フレーム番号とが「=」であるか、つまり同じであるか否かを比較する(ステップS212)。この比較の結果、「同じ」である場合、判定結果を「真(1)」とし(ステップS213)、本処理を終了し、元の処理に戻る。一方、ステップS212の比較の結果、「同じでない」場合、判定結果を偽(0)とし(ステップS214)、本処理を終了し、元の処理に戻る。
Here, the determination process for the key frame extraction method determination
また、同様に、キーフレーム抽出方法判断処理タイプ情報14に対する判断処理を示す。図46はキーフレーム抽出方法判断処理タイプ情報14に対する判断処理手順を示すフローチャートである。まず、キーフレームのフレーム番号に対する撮影環境情報のイベント種別を取得する(ステップS221)。取得したイベント種別が「パン継続」であるか否かを判別する(ステップS222)。「パン継続」でない場合、判定結果を「偽(0)」とし(ステップS223)、本処理を終了する。一方、ステップS222で「パン継続」である場合、判定結果を「真(1)」とする(ステップS224)。サブショット情報からパン開始フレーム番号の取得を行い(ステップS225)、パン終了フレーム番号を取得する(ステップS226)。数式(4)にしたがって、パン中のキーフレーム位置の割合を計算して取得する(ステップS227)。
Similarly, a determination process for the key frame extraction method determination
割合=(キーフレームのフレーム番号―パン開始フレーム番号)/(パン終了フレーム番号―パン開始フレーム番号) …… (4)
つぎに、類似動画区間の変更処理の概要を示す。図47および図48はステップS157における類似動画区間の変更処理手順を示すフローチャートである。まず、キーフレームが変更された映像区間における新規キーフレーム抽出タイプ情報およびキーフレーム抽出関連値を取得する(ステップS231)。この処理は、キーフレーム抽出履歴情報登録処理(図42参照)におけるステップS162の処理と同一であるので、キーフレーム抽出履歴情報登録処理において、既に新規キーフレームの抽出タイプ情報およびキーフレーム抽出関連値を取得していた場合、キーフレーム抽出履歴情報登録処理で取得した値を使用する。
Ratio = (frame number of key frame−pan start frame number) / (pan end frame number−pan start frame number) (4)
Next, the outline of the change processing of the similar moving image section is shown. 47 and 48 are flowcharts showing the procedure for changing the similar moving image section in step S157. First, new key frame extraction type information and key frame extraction related values in the video section in which the key frame is changed are acquired (step S231). Since this process is the same as the process of step S162 in the key frame extraction history information registration process (see FIG. 42), the new key frame extraction type information and the key frame extraction related value are already included in the key frame extraction history information registration process. Is acquired, the value acquired in the key frame extraction history information registration process is used.
類似動画区間を変更するための初期化処理を行う(ステップS232)。この初期化処理では、例えば、サブショット情報リストの先頭に現在処理しているサブショット情報を示すポインタPを移動する。また、キーフレームを変更した映像区間の分類情報を取得する。そして、ステップS233からステップS236までの処理を行い、サブショット情報からキーフレームの変更を行った映像区間の分類情報と一致するサブショット情報を取得する。 An initialization process for changing the similar moving image section is performed (step S232). In this initialization process, for example, the pointer P indicating the sub-shot information currently being processed is moved to the top of the sub-shot information list. In addition, the classification information of the video section whose key frame has been changed is acquired. Then, the processing from step S233 to step S236 is performed, and sub-shot information that matches the classification information of the video section in which the key frame has been changed is acquired from the sub-shot information.
具体的に、ポインタPがサブショット情報リストの末尾に達したか否かを判別する(ステップS233)。全てのサブショット情報における分類情報との比較が終了していないと判断された場合、サブショット情報リストのポインタPによりサブショット情報の分類情報を取得し(ステップS234)、キーフレームを変更した映像区間の分類情報と一致するか否かを判別する(ステップS235)。一致した場合、類似動画区間としてサブショット情報のアドレスを一時バッファに保持する(ステップS236)。そして、ステップS233の処理に戻り、次のサブショット情報の比較処理を行う。一方、ステップS235で一致しなかった場合、そのまま次のサブショット情報の比較処理に移行する。 Specifically, it is determined whether or not the pointer P has reached the end of the sub-shot information list (step S233). When it is determined that the comparison with the classification information in all the sub-shot information has not been completed, the classification information of the sub-shot information is acquired from the pointer P of the sub-shot information list (step S234), and the video with the key frame changed It is determined whether or not it matches the section classification information (step S235). If they match, the sub-shot information address is held in the temporary buffer as a similar moving image section (step S236). Then, the process returns to the process of step S233, and the next sub-shot information comparison process is performed. On the other hand, if they do not match in step S235, the process proceeds to the next sub-shot information comparison process.
一方、ステップS233で、全てのサブショット情報における分類情報との比較が終了したと判断された場合、サブショット情報リスト中に、キーフレームを変更した映像区間と分類情報が一致するサブショット情報があったか否かを判別する(ステップS237)。分類情報が一致するサブショット情報がなかった場合、本類似動画区間のキーフレーム変更処理を終了する。 On the other hand, if it is determined in step S233 that the comparison with the classification information in all the sub-shot information has been completed, the sub-shot information whose classification information matches the video section whose key frame has been changed is included in the sub-shot information list. It is determined whether or not there is (step S237). If there is no sub-shot information that matches the classification information, the key frame changing process for the similar moving image section is terminated.
一方、ステップS237でキーフレームを変更した映像区間と分類情報が一致するサブショット情報があった場合、類似動画区間とみなされた映像区間のキーフレーム変更処理に移行する。ステップS236で取得した類似動画区間を示すサブショット情報のポインタから、サブショット情報を参照し、各サブショットの映像区間において、ステップS231で取得した映像区間のキーフレーム抽出タイプ情報およびキーフレーム抽出関連値から、新規キーフレームを取得する(ステップS238)。 On the other hand, if there is sub-shot information whose classification information coincides with the video section whose key frame has been changed in step S237, the process proceeds to key frame changing processing for the video section regarded as a similar moving image section. The sub-shot information is referred to from the pointer of the sub-shot information indicating the similar video section acquired in step S236, and the key frame extraction type information and key frame extraction related to the video section acquired in step S231 in the video section of each sub-shot. A new key frame is acquired from the value (step S238).
類似動画区間の変更する前のキーフレームと新規キーフレームとを対で表示する(ステップS239)。ここでは、変更指示情報、つまり新規キーフレームに変更するか否かを表す情報は、「新規キーフレームに変更する」に初期設定されている。 The key frame before the change of the similar moving image section and the new key frame are displayed as a pair (step S239). Here, the change instruction information, that is, information indicating whether or not to change to a new key frame is initially set to “change to a new key frame”.
図51はキーフレーム変更処理における類似動画区間のキーフレーム変更処理を行う際の操作画面を示す図である。この操作画面の上位部分には、図49と同様、分割された映像の動画区間におけるキーフレームが表示される。このとき、動画区間Bにおけるサムネイル画像は、図50に示すフレーム画像B3が表示される。そして、動画区間Bは、キーフレームを変更した動画区間としてポイント表示される。さらに、図51では、動画区間Bは色付けされて表示される。また、類似動画区間のキーフレーム変更処理(図47、図48参照)のステップS231からステップS237までの処理で取得した、キーフレーム変更動画区間と類似する動画区間が、図51では太枠でポイント表示される。ここでは、動画区間Bの類似動画区間は、動画区間H、J、Pである。 FIG. 51 is a diagram showing an operation screen when performing the key frame changing process of the similar moving image section in the key frame changing process. In the upper part of this operation screen, as in FIG. 49, key frames in the moving image section of the divided video are displayed. At this time, the frame image B3 shown in FIG. 50 is displayed as the thumbnail image in the moving image section B. The moving image section B is displayed as a point as a moving image section in which the key frame is changed. Further, in FIG. 51, the moving image section B is displayed with color. In addition, the moving image section similar to the key frame changing moving image section obtained by the processing from step S231 to step S237 of the key frame changing process (see FIGS. 47 and 48) of the similar moving image section is indicated by a thick frame in FIG. Is displayed. Here, the similar moving image sections of the moving image section B are the moving image sections H, J, and P.
この操作画面の下位部分には、類似動画区間とみなされた動画区間が一覧表示されている。この下位部分の類似動画区間には、新規キーフレームが表示され、後述する変更操作によって上位部分の類似動画区間に表示されたキーフレームと入れ替え可能である。さらに、操作者が変更した下位部分の動画区間はポイント表示されている。 In a lower part of the operation screen, a list of moving image sections regarded as similar moving image sections is displayed. A new key frame is displayed in the lower similar animation section, and can be replaced with a key frame displayed in the upper similar animation section by a change operation described later. Further, the lower part moving image section changed by the operator is displayed as points.
このように、操作画面の上位部分には、全体映像における類似動画区間のキーフレーム画像が表示され、一方、操作画面の下位部分には、類似動画区間のキーフレーム画像がまとめて参照できるように一覧表示される。尚、操作画面では、上位部分だけあるいは下位部分だけを表示するようにしてもよい。さらに、ポイント表示は、本実施形態に限定されるものでなく、類似動画区間のグループ内で操作者が変更したキーフレームを識別できるものである限り、その態様は任意である。 Thus, the key frame image of the similar video section in the entire video is displayed in the upper part of the operation screen, while the key frame image of the similar video section can be referred to collectively in the lower part of the operation screen. Listed. In the operation screen, only the upper part or only the lower part may be displayed. Furthermore, the point display is not limited to this embodiment, and the mode is arbitrary as long as the key frame changed by the operator in the group of similar moving image sections can be identified.
そして、操作入力部24からの入力を待つ(ステップS240)。何らかの入力があった場合、キーフレーム変更実行が指示されたか否かを判別する(ステップS241)。キーフレーム変更実行が指示された場合、キーフレーム変更処理を実行する(ステップS242)。この後、ステップS240の処理に戻る。 Then, it waits for an input from the operation input unit 24 (step S240). If there is any input, it is determined whether or not execution of key frame change is instructed (step S241). When the key frame change execution is instructed, the key frame change process is executed (step S242). Thereafter, the process returns to step S240.
一方、ステップS241で、キーフレーム変更実行が指示されていない場合、類似動画区間に対するキーフレームの変更指示情報の設定指示であるか否かを判別する(ステップS243)。変更指示情報の設定指示である場合、操作者による操作入力部24からの変更指示情報「新規キーフレームに変更する/しない」を基に、変更指示情報を変更する(ステップS244)。
On the other hand, if it is determined in step S241 that execution of key frame change is not instructed, it is determined whether or not it is an instruction to set key frame change instruction information for a similar moving image section (step S243). In the case of the change instruction information setting instruction, the change instruction information is changed based on the change instruction information “change / do not change to a new key frame” from the
図52は変更指示の有無を設定するメニュー画面を示す図である。この操作画面上で類似動画区間におけるキーフレームの変更を行わない場合、操作者は、キーフレームを選択し、変更を行わない指示を設定する。操作者が変更を行わないキーフレームを指定すると、図52に示したメニューが表示され、変更の指示を設定することができる。 FIG. 52 is a diagram showing a menu screen for setting presence / absence of a change instruction. When the key frame in the similar moving image section is not changed on the operation screen, the operator selects the key frame and sets an instruction not to change the key frame. When the operator designates a key frame that is not changed, the menu shown in FIG. 52 is displayed, and a change instruction can be set.
そして、類似動画区間のキーフレームを変更し、キーフレーム一覧表示を表示した場合、更新後のキーフレームが一覧表示される。尚、図52の操作画面は、変更指示操作の一例であり、この他、図51の操作画面の上位部分における変更前のフレーム画像を下位部分の変更後のフレーム画像に、ドラック&ドロップで指定し直すことも可能である。また、サムネイル画像上に変更指示ボタン等を表示しておき、これを指定することも可能である。 When the key frame of the similar moving image section is changed and the key frame list display is displayed, the updated key frames are displayed in a list. The operation screen in FIG. 52 is an example of a change instruction operation. In addition, the frame image before the change in the upper part of the operation screen in FIG. 51 is designated by drag and drop as the frame image after the change in the lower part. It is possible to redo it. It is also possible to display a change instruction button or the like on the thumbnail image and designate it.
一方、ステップS243で類似動画区間に対するキーフレーム設定実行の指示でない場合、キャンセルの指示であるか否かを判別する(ステップS245)。キャンセルの指示であった場合、本類似動画区間に対するキーフレームの変更処理を終了する。一方、キャンセル指示でなかった場合、キーフレーム変更実行指示であるか否かを判別する(ステップS246)。キーフレーム変更実行指示であると判断された場合、変更指示情報を参照し、類似動画区間におけるサブショット情報のキーフレーム情報を変更する(ステップS247)。この後、本類似動画区間におけるキーフレーム変更処理を終了する。一方、ステップS246で、キーフレーム変更実行指示でない場合、ステップS240に戻り、入力待ちを行う。 On the other hand, if it is not an instruction to execute key frame setting for the similar moving image section in step S243, it is determined whether or not the instruction is a cancel instruction (step S245). If the instruction is to cancel, the key frame changing process for the similar moving image section is terminated. On the other hand, if it is not a cancel instruction, it is determined whether or not it is a key frame change execution instruction (step S246). If it is determined that the instruction is a key frame change execution instruction, the change instruction information is referred to, and the key frame information of the sub-shot information in the similar moving image section is changed (step S247). Thereafter, the key frame changing process in the similar moving image section is ended. On the other hand, if it is not a key frame change execution instruction in step S246, the process returns to step S240 and waits for input.
このように、第1の実施形態の撮像装置によれば、操作者がキーフレームの変更を行った場合、そのキーフレーム抽出方法を学習し、この後、キーフレームの変更を行った映像区間と類似する映像区間でキーフレームを抽出する際、学習したキーフレーム抽出方法でキーフレームを取得するので、キーフレームの変更操作を減らすことができる。 As described above, according to the imaging apparatus of the first embodiment, when the operator changes the key frame, the key frame extraction method is learned, and thereafter, the video section in which the key frame is changed and When extracting a key frame in a similar video section, the key frame is acquired by the learned key frame extraction method, so that the key frame changing operation can be reduced.
例えば、花や人物など、ある特定の被写体を集めた映像などを撮影した場合、ズームなどの操作、パンやチルトなどの撮影環境が類似することが多く、撮影者が同じ場合、被写体に対する撮影方法が類似する可能性が高い。したがって、このような映像データに対し、操作者が自動的に抽出されたキーフレームを変更した場合、そのキーフレーム抽出方法が記憶されるので、次回、自動的にキーフレーム抽出を行う場合、既に記憶された、つまり学習したキーフレームの抽出方法で自動的にキーフレームを抽出すると、操作者に適したキーフレームの抽出が行われるようになり、その変更操作をしないで済むようになる。したがって、変更操作を行う回数を減らすことができ、操作性を向上できる。 For example, when shooting a video of a specific subject such as a flower or a person, the shooting environment such as zooming and panning and tilting are often similar, and if the photographer is the same, the shooting method for the subject Are likely to be similar. Therefore, when the operator changes the key frame that has been automatically extracted for such video data, the key frame extraction method is stored. If a key frame is automatically extracted by the stored, that is, learned key frame extraction method, a key frame suitable for the operator is extracted, and the change operation is not required. Therefore, the number of times of changing operation can be reduced, and operability can be improved.
[第2の実施形態]
前記第1の実施形態では、撮影環境情報、操作情報、フレーム位置情報などの付属情報を主に利用してキーフレーム抽出方法を特定していたが、これらの付属情報のみならず、例えば、被写体情報や音声情報を参照してキーフレーム抽出方法を特定してもよい。従来技術として、特許文献3に記載のカメラでは、被写体の顔を認識するだけでなく、顔の方向(目線がカメラの方向を向いている/向いていない)、被写体の目の状態(目を閉じている/閉じていない)、顔の表情(喜びの顔、悲しみの顔、怒りの顔、驚きの顔など)、被写体の姿勢(認識された人が特定のポーズとなっているかを認識)などが認識可能である。また、特許文献4に記載の人物検出機能搭載装置では、被写体の認識および音声情報から、話者を識別することが可能である。第2の実施形態では、これらの技術を用いて、撮影環境情報や操作情報などと同様、フレーム毎に被写体情報(図54参照)および話者情報(図56参照)を取得して記録するようにする。
[Second Embodiment]
In the first embodiment, the key frame extraction method is specified mainly using the attached information such as the shooting environment information, the operation information, and the frame position information. The key frame extraction method may be specified with reference to information or audio information. As a conventional technique, the camera described in
図53は被写体情報データリストの構造を示す図である。図54は被写体情報データの構造を示す図である。被写体情報データには、特許文献3に記載のカメラにより取得された被写体に関する情報が格納される。作成された被写体情報のフレーム番号が変わる度に、被写体情報の先頭ポインタが被写体情報データリストに格納される。したがって、被写体情報データリストからフレーム番号の先頭ポインタを取得することにより、被写体情報を取得することが可能となる。
FIG. 53 shows the structure of the subject information data list. FIG. 54 shows the structure of subject information data. In the subject information data, information on the subject acquired by the camera described in
図54の被写体情報データの各要素データを示す。要素データ「フレーム番号」には、動画ファイルの先頭を基準とするフレーム番号が記述される。要素データ「被写体ID」には、フレーム番号の画像に映っている被写体の識別番号が記述される。要素データ「顔の向き情報」には、被写体の顔の向きが格納される。ここで、「0」は認識不可能を表し、「1」はカメラの方を向いていることを表し、「2」はカメラの方を向いていないことを表す。要素データ「目の状態情報」には、被写体の目の状態が格納される。ここで、「0」は認識不可能を表し、「1」は、目を閉じていることを表し、「2は」目が開いていることを表す。要素データ「顔の表情情報」には、被写体の表情が格納される。ここで、「0」は認識不可能を表し、「1」は無表情を表し、「2」は喜びを表し、「3」は悲しみを表し、「4」は怒りを表し、「5」は驚きを表す。要素データ「姿勢情報」には、被写体の姿勢の状態が格納される。ここで、「0」は認識不可能を表し、「1」は座っていることを表し、「2」は立っていることを表し、「3」は走っていることを表す。 Each element data of the subject information data of FIG. 54 is shown. In the element data “frame number”, a frame number based on the head of the moving image file is described. In the element data “subject ID”, the identification number of the subject shown in the frame number image is described. The element data “face orientation information” stores the face orientation of the subject. Here, “0” indicates that recognition is impossible, “1” indicates that the camera is facing, and “2” indicates that the camera is not facing. The element data “eye state information” stores the eye state of the subject. Here, “0” indicates that recognition is impossible, “1” indicates that the eyes are closed, and “2” indicates that the eyes are open. The element data “facial expression information” stores the facial expression of the subject. Here, “0” represents unrecognizable, “1” represents no expression, “2” represents joy, “3” represents sadness, “4” represents anger, “5” represents Represents surprise. The element data “posture information” stores the posture state of the subject. Here, “0” represents unrecognizable, “1” represents sitting, “2” represents standing, and “3” represents running.
図55は音声情報データリストの構造を示す図である。図56は音声情報データの構造を示す図である。音声情報データには、特許文献4に記載の人物検出機能搭載装置などによって取得された音声に関する情報が格納される。作成された音声情報のフレーム番号が変わる度に、音声情報の先頭ポインタが音声情報データリストに格納される。したがって、音声情報データリストからフレーム番号の先頭ポインタを取得することにより、音声情報を取得することが可能となる。
FIG. 55 shows the structure of the audio information data list. FIG. 56 shows the structure of audio information data. In the audio information data, information related to audio acquired by the person detection function-equipped device described in
図56の音声情報データの各要素データを示す。要素データ「フレーム番号」には、動画ファイルの先頭を基準とするフレーム番号が記述される。要素データ「音情報」には、音が入っているか入っていないかを示す値が格納される。ここで、「1」は「入っている」ことを表し、「0」は「入っていない」ことを表す。要素データ「被写体格納数」には、フレーム番号の画像に対する被写体IDの格納数が記述される。要素データ「被写体ID」には、フレーム番号で示される画像において話声が認識される場合、その話している人物の被写体IDが格納される。 Each element data of the audio | voice information data of FIG. 56 is shown. In the element data “frame number”, a frame number based on the head of the moving image file is described. The element data “sound information” stores a value indicating whether or not sound is included. Here, “1” represents “entered” and “0” represents “not entered”. The element data “number of stored subjects” describes the number of stored subject IDs for the image of the frame number. The element data “subject ID” stores the subject ID of the person who is speaking when the speech is recognized in the image indicated by the frame number.
これら被写体情報および音声情報の付属情報を、前述した映像区間分類情報データ、キーフレーム抽出履歴情報データ、キーフレーム抽出方法決定情報データにそれぞれ加えることで、操作者によって選択されたキーフレームのキーフレーム抽出方法の精度を向上させることが可能になる。 The key frame of the key frame selected by the operator is added to the above-described video section classification information data, key frame extraction history information data, and key frame extraction method determination information data, respectively, by adding the subject information and audio information additional information. It becomes possible to improve the accuracy of the extraction method.
例えば、被写体情報および音声情報を利用したキーフレーム抽出方法としては、次の「13」〜「15」に示す方法が挙げられる。 For example, as key frame extraction methods using subject information and audio information, the following methods “13” to “15” can be cited.
13.被写体数の一番多いフレームを抽出する。つまり、サブショット情報の開始フレーム番号から終了フレーム番号までの被写体情報を参照し、各フレーム番号の被写体IDの数を取得し、一番数の多いフレームをキーフレームとして抽出する。 13. Extract the frame with the largest number of subjects. That is, the subject information from the start frame number to the end frame number of the sub-shot information is referred to, the number of subject IDs of each frame number is acquired, and the largest number of frames is extracted as a key frame.
14.一番多く映っている被写体が始めて登場するフレームを抽出する。つまり、サブショット情報の開始フレーム番号から終了フレーム番号までの被写体情報を参照し、被写体ID毎の格納フレーム数を取得し、一番数の多い被写体IDにおいて、開始フレーム番号から検索して始めて登場するフレームをキーフレームとして抽出する。 14 Extract the frame in which the most reflected subject appears for the first time. That is, reference is made to the subject information from the start frame number to the end frame number of the sub-shot information, the number of stored frames for each subject ID is acquired, and the search starts from the start frame number for the largest number of subject IDs. The frames to be extracted are extracted as key frames.
15.キーフレーム変更で取得されるキーフレーム抽出方法の例として、パン中間フレームにおける被写体ID(A)が映っているフレームを抽出する。つまり、撮影環境情報を参照し、パン開始フレームおよびパン終了フレームを取得し、そのフレーム番号中における被写体ID(A)が登場するフレームを被写体情報から取得し、キーフレームとして選択されたフレームが何番目かを取得する。 15. As an example of the key frame extraction method acquired by changing the key frame, a frame in which the subject ID (A) is shown in the pan intermediate frame is extracted. That is, referring to the shooting environment information, a pan start frame and a pan end frame are obtained, a frame in which the subject ID (A) appears in the frame number is obtained from the subject information, and what is selected as a key frame. Get the second.
このように、第2の実施形態の撮像装置によれば、被写体情報等を格納することにより、キーフレームの抽出方法を詳細に指定することができるようになる。 As described above, according to the imaging apparatus of the second embodiment, it is possible to specify a key frame extraction method in detail by storing subject information and the like.
[第3の実施形態]
図57は第3の実施形態における操作画面を示す図である。この操作画面は、キーフレーム変更処理において類似動画区間のキーフレーム変更処理を行う際の操作画面である。類似動画区間のキーフレーム変更処理におけるキーフレームの表示処理(ステップS239参照)では、図57に示す操作画面が表示される。この操作画面では、分割された映像区間のキーフレームのサムネイル画像が表示されている。動画区間Bでは、サムネイル画像として、フレーム画像B3(図50参照)が表示されている。このサムネイル画像領域の左上隅には変更前のキーフレーム画像aが表示されるとともに、その他のサムネイル画像領域には新規のキーフレーム画像が表示される。また、この動画区間Bは、キーフレームが変更された動画区間として、太枠でポイント表示されている。
[Third Embodiment]
FIG. 57 is a diagram showing an operation screen in the third embodiment. This operation screen is an operation screen used when the key frame changing process of the similar moving image section is performed in the key frame changing process. In the key frame display process (see step S239) in the key frame change process of the similar moving image section, the operation screen shown in FIG. 57 is displayed. On this operation screen, a thumbnail image of a key frame of the divided video section is displayed. In the moving image section B, a frame image B3 (see FIG. 50) is displayed as a thumbnail image. The key frame image a before change is displayed in the upper left corner of the thumbnail image area, and a new key frame image is displayed in the other thumbnail image areas. In addition, the moving image section B is displayed as a point with a thick frame as a moving image section in which the key frame is changed.
類似動画区間のキーフレーム変更処理(ステップS233〜S237参照)で取得されたキーフレーム変更動画区間と類似する動画区間では、動画区間Bと同様、サムネイル画像領域の左上隅には変更前のキーフレーム画像が表示されるとともに、その他のサムネイル画像領域には新規のキーフレーム画像が表示される。図57では、動画区間Bと類似する類似動画区間は、動画区間H、J、Pである。 In the moving image section similar to the key frame changed moving image section acquired in the key frame changing process of the similar moving image section (see steps S233 to S237), the key frame before the change is displayed in the upper left corner of the thumbnail image area in the same manner as the moving image section B. An image is displayed, and a new key frame image is displayed in the other thumbnail image area. In FIG. 57, the similar moving image sections similar to the moving image section B are the moving image sections H, J, and P.
このように、第3の実施形態の撮像装置によれば、同じサムネイル画像領域に、変更前と変更後のキーフレーム画像を表示することが可能である。また同様に、変更後のサムネイル画像に変更前のサムネイル画像を表示する方法として、例えば、切り替えボタンの押下やマウスのクリックによって切り替えることも可能である。 As described above, according to the imaging apparatus of the third embodiment, it is possible to display the key frame images before and after the change in the same thumbnail image area. Similarly, as a method of displaying the thumbnail image before the change on the thumbnail image after the change, for example, it is also possible to switch by pressing the switch button or clicking the mouse.
以上が本発明の実施の形態の説明であるが、本発明は、これら実施の形態の構成に限られるものではなく、特許請求の範囲で示した機能、または実施の形態の構成が持つ機能が達成できる構成であればどのようなものであっても適用可能である。 The above is the description of the embodiments of the present invention. However, the present invention is not limited to the configurations of these embodiments, and the functions shown in the claims or the functions of the configurations of the embodiments are included. Any configuration that can be achieved is applicable.
例えば、上記実施形態のユーザ識別処理では、指紋センサを用いてユーザを認識していたが、ユーザを認識する処理である限り、どのような処理方法であっても構わない。図58は表示部18に表示された文字表を示す図である。操作者は、表示部18に一覧表示された文字表に対し、カーソルを移動させて文字列を指定し、操作者の名前等の識別情報を入力する。そして、この識別情報の入力により自動的に付与された連番(ユーザID)をユーザ識別データリストに登録することで、ユーザの識別処理を行ってもよい。
For example, in the user identification process of the above embodiment, the user is recognized using the fingerprint sensor. However, any processing method may be used as long as the process recognizes the user. FIG. 58 is a diagram showing a character table displayed on the
また、上記実施形態では、撮影環境情報や操作情報などの時刻の単位として、動画ファイルの再生時刻を基準とするフレーム番号を用いたが、映像や音声と同期が取れる限り、どのような単位であってもよい。また、本実施形態では、キーフレームをフレーム番号で示したが、フレームを特定できる限り、どのような単位でキーフレームを示してもよい。また、キーフレームの画像データそのもの、あるいは縮小等の画像処理が施された画像データを別の領域に作成し、その画像データへのポインタ情報やハイパーリンクを記述するようにしてもよい。 In the above embodiment, the frame number based on the playback time of the moving image file is used as the unit of time for shooting environment information, operation information, etc., but in any unit as long as it can be synchronized with video and audio. There may be. In this embodiment, the key frame is indicated by the frame number. However, the key frame may be indicated by any unit as long as the frame can be specified. Alternatively, key frame image data itself or image data that has been subjected to image processing such as reduction may be created in another area, and pointer information or hyperlinks to the image data may be described.
また、上記実施形態では、映像処理装置は、単体の撮像装置で実現されたが、USB2.0等のシリアルインターフェース、IEEE1394、イーサネット(登録商標)、無線LANなどの通信手段により、ネットワークに接続された複数の装置から構成され、同様の機能を実現するようにしてもよい。 In the above embodiment, the video processing apparatus is realized by a single imaging apparatus, but is connected to a network by a communication means such as a serial interface such as USB 2.0, IEEE 1394, Ethernet (registered trademark), or wireless LAN. Alternatively, the same function may be realized.
さらに、サブショット分割やキーフレームの抽出処理は、録画終了時に行われることに限定されるものではなく、例えば、記録メディアの情報をパーソナルコンピュータ(PC)のような外部装置に読み込ませ、PC上で同様の処理を行って付属情報を加工してもよい。 Further, sub-shot division and key frame extraction processing are not limited to being performed at the end of recording. For example, information on a recording medium is read by an external device such as a personal computer (PC), The same process may be performed to process the attached information.
また、本実施形態では、撮影環境情報として、撮像装置の回転を検出する回転検出部(X方向回転検出部21、Y方向回転検出部22)からの情報を例示したが、撮影環境情報の種類によってキーフレームの選択基準が変わるような場合、これに限定されるものではなく、例えば、GPSなどの位置測定システム、温度計、高度計、方位磁石、気圧計、湿度計等の計測器の出力情報や、撮影者の体位、視線、瞳孔の大きさ、皮膚抵抗、脈、脳波などの生体情報を用いてもよい。
Further, in the present embodiment, the information from the rotation detection unit (the X direction
また、上記実施形態では、サブショットから1つのキーフレームを選択する場合を示したが、1つに限らず、複数であってもよい。また、キーフレームとして適したフレーム画像が無い場合、選択を行わなくてもよい。 Moreover, although the case where one key frame was selected from the sub-shot was shown in the above embodiment, the number is not limited to one and may be plural. Further, when there is no frame image suitable as a key frame, the selection may not be performed.
また、本発明の目的は、実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU等)が記憶媒体に格納されたプログラムコードを読み出して実行することによっても達成される。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。 In addition, an object of the present invention is to supply a storage medium in which a program code of software for realizing the functions of the embodiment is recorded to a system or apparatus, and a computer (or CPU, MPU, etc.) of the system or apparatus as the storage medium. This can also be achieved by reading and executing the stored program code. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention.
また、プログラムコードを供給するための記憶媒体としては、例えば、ROM、フロッピー(登録商標)ディスク、PCMCIAカードやコンパクトフラッシュ(登録商標)等のメモリカード、ハードディスク、マイクロDAT、光磁気ディスク、CD−RやCD−RW等の光ディスク、DVD等の相変化型光ディスク等で構成されてもよい。 Examples of storage media for supplying the program code include ROM, floppy (registered trademark) disk, memory card such as PCMCIA card and compact flash (registered trademark), hard disk, micro DAT, magneto-optical disk, CD- It may be composed of an optical disk such as R or CD-RW, a phase change optical disk such as DVD, or the like.
また、コンピュータが読み出したプログラムコードを実行することにより、上記実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれる。 Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an OS (operating system) or the like running on the computer is actually executed based on the instruction of the program code. This includes a case where part or all of the processing is performed and the functions of the above-described embodiments are realized by the processing.
更に、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行い、その処理によって前述した実施の形態の機能が実現される場合も含まれる。 Further, after the program code read from the storage medium is written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, the function expansion is performed based on the instruction of the program code. This includes the case where the CPU or the like provided in the board or the function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.
17 映像管理部
18 表示部
19 レンズ位置検出部
21 X方向回転検出部
22 Y方向回転検出部
23 システム制御部
24 操作入力部
31 指紋検出部
41 CPU
42 ROM
56 映像分割部
57 キーフレーム抽出部
58 類似映像区間抽出部
59 付属情報管理部
DESCRIPTION OF
42 ROM
56
Claims (11)
前記分割された映像区間に付与されている付属情報を基に分類を行って該映像区間の分類情報を取得する分類情報取得手段と、
前記分割された映像区間の中から、該映像区間を識別するための代表画像を抽出する代表画像抽出手段と、
前記抽出された代表画像を変更する代表画像変更手段と、
前記代表画像が変更された映像区間における代表画像抽出方法を取得する代表画像抽出方法取得手段と、
前記代表画像が変更された映像区間の分類情報および前記取得した代表画像抽出方法を履歴情報として保持する履歴情報保持手段と、
前記履歴情報として保持された分類情報と一致する分類情報を有する他の映像区間が存在するか否かを判別する判別手段と、
前記他の映像区間が存在する場合、前記履歴情報として保持された代表画像抽出方法を取得する代表画像抽出方法取得手段とを備え、
前記代表画像抽出手段は、前記取得した代表画像抽出方法を用いて前記他の映像区間の中から代表画像を抽出することを特徴とする映像処理装置。 Video dividing means for dividing the video data into a plurality of video sections;
Classification information acquisition means for performing classification based on the attached information given to the divided video section and acquiring the classification information of the video section;
Representative image extraction means for extracting a representative image for identifying the video section from the divided video sections;
Representative image changing means for changing the extracted representative image;
Representative image extraction method acquisition means for acquiring a representative image extraction method in a video section in which the representative image is changed;
History information holding means for holding the classification information of the video section in which the representative image is changed and the acquired representative image extraction method as history information;
A discriminating means for discriminating whether or not there is another video section having classification information matching the classification information held as the history information;
A representative image extraction method obtaining unit for obtaining a representative image extraction method held as the history information when the other video section exists;
The video processing apparatus, wherein the representative image extraction means extracts a representative image from the other video section using the acquired representative image extraction method.
前記表示された代表画像を含む映像区間を選択する映像区間選択手段とを備え、
前記代表画像変更手段は、前記選択された映像区間に含まれる代表画像を変更することを特徴とする請求項1記載の映像処理装置。 Display means for displaying a representative image extracted from the video section;
Video section selection means for selecting a video section including the displayed representative image,
The video processing apparatus according to claim 1, wherein the representative image changing unit changes a representative image included in the selected video section.
前記履歴情報保持手段は、前記ユーザ認識手段によって取得されたユーザ識別情報毎に、前記分類情報および前記代表画像抽出方法を前記履歴情報として保持し、
前記代表画像抽出手段は、前記取得されたユーザ識別情報を基に、前記履歴情報を検索し、前記ユーザ識別情報に該当する履歴情報が存在する場合、該履歴情報として保持された代表画像抽出方法を用いて代表画像を抽出することを特徴とする請求項1記載の映像処理装置。 Comprising user recognition means for recognizing a user and obtaining user identification information;
The history information holding unit holds the classification information and the representative image extraction method as the history information for each user identification information acquired by the user recognition unit,
The representative image extraction means searches the history information based on the acquired user identification information, and if there is history information corresponding to the user identification information, a representative image extraction method held as the history information The video processing apparatus according to claim 1, wherein a representative image is extracted by using.
前記付属情報およびフレーム位置情報を用いた代表画像抽出方法条件情報と、前記代表画像抽出方法条件情報を満足する映像区間の代表画像を設定するための代表画像設定情報とからなる代表画像抽出方法決定情報を保持し、該代表画像抽出方法決定情報を用いて前記代表画像抽出方法を決定することを特徴とする請求項4記載の映像処理装置。 The representative image extraction method acquisition means includes:
Representative image extraction method determination information including representative image extraction method condition information using the attached information and frame position information, and representative image setting information for setting a representative image of a video section that satisfies the representative image extraction method condition information 5. The video processing apparatus according to claim 4, wherein information is held and the representative image extraction method is determined using the representative image extraction method determination information.
前記付属情報は、前記被写体情報を含むことを特徴とする請求項1記載の映像処理装置。 Subject information detection means for detecting subject information is provided,
The video processing apparatus according to claim 1, wherein the attached information includes the subject information.
前記付属情報は、前記話者情報を含むことを特徴とする請求項1記載の映像処理装置。 Comprising speaker information detecting means for detecting speaker information;
The video processing apparatus according to claim 1, wherein the attached information includes the speaker information.
前記代表画像変更手段は、前記表示されたフレーム画像が選択されることで、前記代表画像を変更することを特徴とする請求項2記載の映像処理装置。 In addition to displaying a plurality of representative images of the plurality of video sections, the display means displays a plurality of frame images of the selected video sections,
The video processing apparatus according to claim 2, wherein the representative image changing unit changes the representative image by selecting the displayed frame image.
前記代表画像変更手段は、切替操作に応じて変更前後の代表画像を入れ替えることを特徴とする請求項2記載の映像処理装置。 The display means displays the representative image before the change and the representative image after the change in an identifiable manner,
The video processing apparatus according to claim 2, wherein the representative image changing unit replaces the representative images before and after the change according to a switching operation.
前記分割された映像区間に付与されている付属情報を基に分類を行って該映像区間の分類情報を取得する分類情報取得ステップと、
前記分割された映像区間の中から、該映像区間を識別するための代表画像を抽出する代表画像抽出ステップと、
前記抽出された代表画像を変更する代表画像変更ステップと、
前記代表画像が変更された映像区間における代表画像抽出方法を取得する代表画像抽出方法取得ステップと、
前記代表画像が変更された映像区間の分類情報および前記取得した代表画像抽出方法を履歴情報として保持する履歴情報保持ステップと、
前記履歴情報として保持された分類情報と一致する分類情報を有する他の映像区間が存在するか否かを判別する判別ステップと、
前記他の映像区間が存在する場合、前記履歴情報として保持された代表画像抽出方法を取得する代表画像抽出方法取得ステップとを有し、
前記代表画像抽出ステップでは、前記取得した代表画像抽出方法を用いて前記他の映像区間の中から代表画像を抽出することを特徴とする代表画像設定方法。 A video dividing step for dividing the video data into a plurality of video sections;
A classification information acquisition step of performing classification based on the attached information given to the divided video section and acquiring the classification information of the video section;
A representative image extracting step of extracting a representative image for identifying the video section from the divided video sections;
A representative image changing step of changing the extracted representative image;
A representative image extraction method acquisition step of acquiring a representative image extraction method in a video section in which the representative image is changed;
A history information holding step for holding the classification information of the video section in which the representative image is changed and the acquired representative image extraction method as history information;
A determination step of determining whether there is another video section having classification information that matches the classification information held as the history information;
A representative image extraction method acquisition step of acquiring a representative image extraction method held as the history information when the other video section exists;
In the representative image extraction step, a representative image is extracted from the other video section using the acquired representative image extraction method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003421061A JP2005184348A (en) | 2003-12-18 | 2003-12-18 | Video image processor and representative image setting method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003421061A JP2005184348A (en) | 2003-12-18 | 2003-12-18 | Video image processor and representative image setting method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005184348A true JP2005184348A (en) | 2005-07-07 |
Family
ID=34782399
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003421061A Withdrawn JP2005184348A (en) | 2003-12-18 | 2003-12-18 | Video image processor and representative image setting method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005184348A (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008205953A (en) * | 2007-02-21 | 2008-09-04 | Sanyo Electric Co Ltd | Imaging device and image reproducing device |
JP2009118040A (en) * | 2007-11-05 | 2009-05-28 | Olympus Imaging Corp | Image retrieving device, and image retrieving method |
US8478004B2 (en) | 2007-06-22 | 2013-07-02 | Samsung Electronics Co., Ltd. | Method of controlling digital image processing apparatus for performing moving picture photographing mode, and digital image processing apparatus using the method |
CN105631419A (en) * | 2015-12-24 | 2016-06-01 | 浙江宇视科技有限公司 | Face recognition method and device |
JP2016165042A (en) * | 2015-03-06 | 2016-09-08 | 株式会社Jvcケンウッド | Moving imaging taking system, information processing terminal, moving image confirmation method and program |
CN110008793A (en) * | 2018-01-05 | 2019-07-12 | 中国移动通信有限公司研究院 | Face identification method, device and equipment |
CN113627363A (en) * | 2021-08-13 | 2021-11-09 | 百度在线网络技术(北京)有限公司 | Video file processing method, device, equipment and storage medium |
-
2003
- 2003-12-18 JP JP2003421061A patent/JP2005184348A/en not_active Withdrawn
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008205953A (en) * | 2007-02-21 | 2008-09-04 | Sanyo Electric Co Ltd | Imaging device and image reproducing device |
US8478004B2 (en) | 2007-06-22 | 2013-07-02 | Samsung Electronics Co., Ltd. | Method of controlling digital image processing apparatus for performing moving picture photographing mode, and digital image processing apparatus using the method |
JP2009118040A (en) * | 2007-11-05 | 2009-05-28 | Olympus Imaging Corp | Image retrieving device, and image retrieving method |
JP2016165042A (en) * | 2015-03-06 | 2016-09-08 | 株式会社Jvcケンウッド | Moving imaging taking system, information processing terminal, moving image confirmation method and program |
CN105631419A (en) * | 2015-12-24 | 2016-06-01 | 浙江宇视科技有限公司 | Face recognition method and device |
CN110008793A (en) * | 2018-01-05 | 2019-07-12 | 中国移动通信有限公司研究院 | Face identification method, device and equipment |
CN113627363A (en) * | 2021-08-13 | 2021-11-09 | 百度在线网络技术(北京)有限公司 | Video file processing method, device, equipment and storage medium |
CN113627363B (en) * | 2021-08-13 | 2023-08-15 | 百度在线网络技术(北京)有限公司 | Video file processing method, device, equipment and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4760892B2 (en) | Display control apparatus, display control method, and program | |
JP4618166B2 (en) | Image processing apparatus, image processing method, and program | |
KR101382954B1 (en) | Information processing apparatus and method and recording medium for program | |
JP5267149B2 (en) | Display control apparatus, display control method, and program | |
EP1816649B1 (en) | Imaging device, information processing method, and computer program | |
US20200120262A1 (en) | Image processing device, image processing method, and program | |
TWI375917B (en) | Image processing apparatus, imaging apparatus, image processing method, and computer program | |
US8199213B2 (en) | Method for selecting desirable images from among a plurality of images and apparatus thereof | |
JP4241709B2 (en) | Image processing device | |
EP2741293A1 (en) | Video processing apparatus and method | |
KR20090055516A (en) | Recording device and method, program, and reproducing device and method | |
JP3636830B2 (en) | Intelligent video camera and intelligent still camera | |
US20110096994A1 (en) | Similar image retrieval system and similar image retrieval method | |
JP4490214B2 (en) | Electronic album display system, electronic album display method, and electronic album display program | |
JP2004056397A (en) | Image processing apparatus and method | |
JP4606278B2 (en) | Video structuring method, apparatus and program | |
JP2005184348A (en) | Video image processor and representative image setting method | |
JP2009267773A (en) | Video editing device, photographic device, and video-editing method | |
JP5064173B2 (en) | camera | |
JP2005175533A (en) | Video processing apparatus and representative image setting method | |
US20080068483A1 (en) | Image reproducing apparatus and image reproducing method | |
JP2005175532A (en) | Video processing apparatus and representative image setting method | |
JP5368614B2 (en) | Image search apparatus and image search method | |
WO2022030275A1 (en) | Imaging device, information processing device, information processing method, and program | |
JP2005057623A (en) | Image data processor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20060418 |
|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20070306 |