JP2005175532A - Video processing apparatus and representative image setting method - Google Patents

Video processing apparatus and representative image setting method Download PDF

Info

Publication number
JP2005175532A
JP2005175532A JP2003408072A JP2003408072A JP2005175532A JP 2005175532 A JP2005175532 A JP 2005175532A JP 2003408072 A JP2003408072 A JP 2003408072A JP 2003408072 A JP2003408072 A JP 2003408072A JP 2005175532 A JP2005175532 A JP 2005175532A
Authority
JP
Japan
Prior art keywords
information
key frame
representative image
video
video section
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2003408072A
Other languages
Japanese (ja)
Inventor
Mikiko Sugiyama
幹子 杉山
Kazuyo Ikeda
和世 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2003408072A priority Critical patent/JP2005175532A/en
Publication of JP2005175532A publication Critical patent/JP2005175532A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a video processing apparatus capable of easily changing a representative image of a similar video section similar to a video section whose representative image is changed by an operator. <P>SOLUTION: In an image pickup apparatus, video data are separated into a plurality of video sections, and a key frame is automatically extracted from the separated video sections, and if the extracted key frame is changed by the operator, a key frame extracting method is obtained in a video section where the key frame is changed. A similar video section similar to the video section where this key frame is changed is extracted, and the extracted key frame is added as a key frame of the similar video section to the already extracted key frame. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、映像データの中から、映像区間を識別するための代表画像を取得する映像処理装置および代表画像設定方法に関する。   The present invention relates to a video processing apparatus and a representative image setting method for acquiring a representative image for identifying a video section from video data.

従来、この種の映像処理装置として、記憶媒体に記録された映像データを自動的にあるまとまり(映像区間)毎に分割し、分割された各映像区間の中から少なくとも1つの静止画データを代表画像(「キーフレーム」と称する)として一覧表示するものが知られている。図58は映像区間毎に分割された中からキーフレームが抽出される様子を示す図である。キーフレームを一覧表示することにより、操作者は、記憶された映像データの内容を素早く確認できる。また、分割された映像区間単位の編集作業を容易に行うことができる。   Conventionally, as this type of video processing apparatus, video data recorded on a storage medium is automatically divided into a set (video section), and at least one still picture data is represented from each of the divided video sections. A list of images (referred to as “key frames”) is known. FIG. 58 is a diagram showing a state in which key frames are extracted from the video segments divided for each video section. By displaying a list of key frames, the operator can quickly confirm the contents of the stored video data. In addition, editing work for each divided video section can be easily performed.

従来、映像データを分割する方法として、例えば、映像が時間的に急激に変化する部分をシーンの切れ目として自動的に分割する方法が知られている。また、代表画像を抽出する方法として、分割されたシーンの先頭フレーム、末尾フレームあるいは中間フレームを代表画像として抽出する方法、カメラ動作により重要と思われる代表画像を推定して自動的に抽出する方法が知られている。   Conventionally, as a method of dividing video data, for example, a method of automatically dividing a portion where a video changes rapidly with time as a break of a scene is known. Also, as a method for extracting a representative image, a method for extracting the first frame, end frame or intermediate frame of a divided scene as a representative image, a method for automatically estimating and extracting a representative image that seems to be important by camera operation It has been known.

しかし、このように、映像データを自動的に分割し、分割された映像区間から自動的にキーフレームを抽出する方法では、必ずしも操作者にとって最適なキーフレームになるとは限らなかった。このため、自動的に分割された映像区間毎のキーフレームを変更する操作が必要となる。例えば、キーフレームを変更する方法として、操作者が変更したいキーフレームを選択し、そのキーフレームが属するシーンのシーンチェンジの前後の映像を再生し、再生された映像の各フレーム画像の一覧表示の中からキーフレームを設定するように変更する方法が知られている(例えば、特許文献1参照)。   However, the method of automatically dividing the video data and automatically extracting the key frame from the divided video section as described above does not necessarily result in an optimal key frame for the operator. For this reason, an operation for changing the key frame for each automatically divided video section is required. For example, as a method of changing the key frame, the operator selects a key frame to be changed, plays the video before and after the scene change of the scene to which the key frame belongs, and displays a list of each frame image of the played video. There is known a method for changing a key frame so as to set a key frame (for example, see Patent Document 1).

また従来、指紋認識技術として、指紋認識装置が知られている(例えば、特許文献2参照)。この指紋認識装置は、センサ部に押し当てられた指によって生じた影をセンサ部で指紋であると検出し、この指紋を、予め記憶されたユーザ認識データリストの指紋データと照合する。   Conventionally, a fingerprint recognition device is known as a fingerprint recognition technique (see, for example, Patent Document 2). In this fingerprint recognition device, a shadow generated by a finger pressed against the sensor unit is detected as a fingerprint by the sensor unit, and this fingerprint is collated with fingerprint data in a user recognition data list stored in advance.

また従来技術として、被写体の顔を認識するカメラが知られている(例えば、特許文献3参照)。このカメラでは、被写体の顔を認識するだけでなく、顔の方向(目線がカメラの方向を向いている/向いていない)、被写体の目の状態(目を閉じている/閉じていない)、顔の表情(喜びの顔、悲しみの顔、怒りの顔、驚きの顔など)、被写体の姿勢(認識された人が特定のポーズとなっているかを認識)などが認識可能である。   As a conventional technique, a camera that recognizes the face of a subject is known (see, for example, Patent Document 3). This camera not only recognizes the face of the subject, but also the direction of the face (the line of sight is facing / not facing the camera), the state of the subject's eyes (the eyes are closed / not closed), Facial expressions (joy face, sad face, angry face, surprise face, etc.), subject posture (recognizes whether a recognized person is in a specific pose), etc. can be recognized.

また同様に、被写体を認識する人物検出機能搭載装置が知られている(例えば、特許文献4参照)。この人物検出機能搭載装置では、被写体の認識および音声情報から、話者を識別することが可能である。
特開平09−093527号公報 特開2002−123821号公報 特開2001−51338号公報 特開2001−67098号公報
Similarly, an apparatus equipped with a person detection function for recognizing a subject is known (for example, see Patent Document 4). In this person detection function-equipped device, it is possible to identify the speaker from the recognition of the subject and the voice information.
JP 09-093527 A JP 2002-123821 A JP 2001-51338 A JP 2001-67098 A

しかしながら、上記従来の映像処理装置では、以下に掲げる問題があり、その改善が要望された。即ち、キーフレームを変更する際、1度のキーフレーム変更操作は、一映像区間だけが対象となっている。したがって、自動的に設定されたフレームでは、キーフレームとして満足できない場合、操作者は、満足できない全ての映像区間のキーフレームに対し、それぞれ変更操作を行わなければならなかった。変更操作を行う映像区間の数が多いと、変更回数も多くなり、操作者にとって変更操作は面倒であった。特に、類似する映像区間が多くても、操作者は同様の変更操作を繰り返し行わなければならなかった。   However, the above-described conventional video processing apparatus has the following problems, and improvements have been demanded. That is, when changing the key frame, one key frame changing operation is only for one video section. Therefore, if the automatically set frame cannot be satisfied as a key frame, the operator has to perform a change operation for each of the key frames in all video sections that cannot be satisfied. When the number of video sections to be changed is large, the number of times of change increases, and the change operation is troublesome for the operator. In particular, even if there are many similar video sections, the operator has to repeat the same changing operation.

そこで、本発明は、操作者が代表画像の変更を行った映像区間と類似する類似映像区間の代表画像を容易に変更することができる映像処理装置および代表画像設定方法を提供することを目的とする。   Therefore, an object of the present invention is to provide a video processing apparatus and a representative image setting method capable of easily changing a representative image in a similar video section similar to the video section in which the operator has changed the representative image. To do.

上記目的を達成するために、本発明の映像処理装置は、映像データから抽出された代表画像を変更する代表画像変更手段と、前記代表画像が変更された映像区間における代表画像抽出方法を取得する代表画像抽出方法取得手段と、前記代表画像が変更された映像区間と類似する映像区間である類似映像区間を抽出する類似映像区間抽出手段と、前記代表画像が変更された映像区間における代表画像抽出方法を用いて、前記抽出された類似映像区間の代表画像を抽出し、該抽出された代表画像を、前記類似映像区間の代表画像として、前記代表画像抽出手段によって抽出された前記類似映像区間の代表画像に追加する類似映像区間代表画像追加手段とを備える。   In order to achieve the above object, a video processing apparatus of the present invention acquires a representative image changing means for changing a representative image extracted from video data, and a representative image extracting method in a video section in which the representative image is changed. Representative image extraction method acquisition means, similar video section extraction means for extracting a similar video section that is a video section similar to the video section in which the representative image is changed, and representative image extraction in the video section in which the representative image is changed Using the method, a representative image of the extracted similar video section is extracted, and the extracted representative image is used as a representative image of the similar video section as a representative image of the similar video section extracted by the representative image extracting means. And a similar video section representative image adding means for adding to the representative image.

本発明の代表画像設定方法は、映像データから抽出された代表画像を変更する代表画像変更ステップと、前記代表画像が変更された映像区間における代表画像抽出方法を取得する代表画像抽出方法取得ステップと、前記代表画像が変更された映像区間と類似する映像区間である類似映像区間を抽出する類似映像区間抽出ステップと、前記代表画像が変更された映像区間における代表画像抽出方法を用いて、前記抽出された類似映像区間の代表画像を抽出し、該抽出された代表画像を、前記類似映像区間の代表画像として、前記代表画像抽出ステップで抽出された前記類似映像区間の代表画像に追加する類似映像区間代表画像追加ステップとを有する。   The representative image setting method of the present invention includes a representative image changing step of changing a representative image extracted from video data, and a representative image extracting method acquiring step of acquiring a representative image extracting method in a video section in which the representative image is changed. The extraction using a similar video section extraction step of extracting a similar video section that is a video section similar to the video section in which the representative image is changed, and a representative image extraction method in the video section in which the representative image is changed. A similar image that extracts a representative image of the similar video section and adds the extracted representative image as a representative image of the similar video section to the representative image of the similar video section extracted in the representative image extraction step A section representative image adding step.

本発明によれば、操作者が代表画像の変更を行った映像区間と類似する類似映像区間の代表画像を容易に変更することができる。   ADVANTAGE OF THE INVENTION According to this invention, the representative image of the similar video area similar to the video area which the operator changed the representative image can be changed easily.

本発明の映像処理装置および代表画像設定方法の実施の形態について、図面を参照しながら説明する。本実施形態の映像処理装置は撮像装置に適用された場合を示す。この撮像装置では、撮影された映像データは録画操作の開始・終了を基準に分割される。この分割された映像区間を「ショット」と称する。さらに、ショット内の映像データは、操作情報(ズームなどの操作情報)、撮影環境情報(パンやチルトなどの情報)などの付属情報を基に分割される。この分割された各映像区間を「サブショット」と称する。そして、サブショット毎に分割された映像区間に対し、前述した操作情報、撮影環境情報などの付属情報を基に、キーフレーム(代表画像)が自動的に抽出される。   Embodiments of a video processing apparatus and a representative image setting method of the present invention will be described with reference to the drawings. The video processing apparatus according to the present embodiment is applied to an imaging apparatus. In this imaging apparatus, the captured video data is divided based on the start / end of the recording operation. This divided video section is called a “shot”. Furthermore, video data in a shot is divided based on attached information such as operation information (operation information such as zoom) and shooting environment information (information such as pan and tilt). Each divided video section is referred to as a “sub-shot”. A key frame (representative image) is automatically extracted from the video section divided for each sub-shot based on the attached information such as the operation information and the shooting environment information described above.

[第1の実施形態]
図1は第1の実施形態における撮像装置の構成を示すブロック図である。この撮像装置は、被写体を結像させるズームレンズ11、光量を調節する絞り12、入力した光を電気信号に変換するCCDからなる撮像素子13、サンプルホールドおよびゲイン調整を行うサンプルホールド・AGC回路14、アナログデジタル変換(A/D変換)を行うA/D変換部15、およびA/D変換された信号を処理して映像信号を生成する映像信号処理部16を有する。
[First Embodiment]
FIG. 1 is a block diagram illustrating a configuration of an imaging apparatus according to the first embodiment. This image pickup apparatus includes a zoom lens 11 that forms an image of an object, a diaphragm 12 that adjusts the amount of light, an image pickup device 13 that includes a CCD that converts input light into an electrical signal, and a sample hold / AGC circuit 14 that performs sample hold and gain adjustment. An A / D conversion unit 15 that performs analog-digital conversion (A / D conversion), and a video signal processing unit 16 that processes the A / D converted signal to generate a video signal.

また、この撮像装置は、映像データを分割し、分割された映像区間における付属情報やキーフレームなどの情報を管理する映像管理部17、撮影内容や各映像区間におけるキーフレームなどを表示する表示部18、レンズの位置を検出するレンズ位置検出部19、レンズを駆動するレンズ駆動部20、撮像装置の水平方向の回転を検出するX方向回転検出部21、撮像装置の垂直方向の回転を検出するY方向回転検出部22、および撮像装置全体を制御するシステム制御部23を有する。ここで、X方向回転検出部21は、ジャイロセンサや加速度センサにより検出された信号に対し、バンドパスフィルタなどで信号処理を行った後、A/D変換を行って出力信号とする。Y方向回転検出部22は、X方向回転検出部21と同様の構成を有する。尚、映像の防振を目的として、回転検出部が搭載されている場合、それを兼用させてもよい。   The imaging apparatus also divides the video data and manages a video management unit 17 that manages information such as attached information and key frames in the divided video segments, and a display unit that displays captured contents and key frames in each video segment. 18, a lens position detection unit 19 that detects the position of the lens, a lens drive unit 20 that drives the lens, an X-direction rotation detection unit 21 that detects the horizontal rotation of the imaging device, and a vertical rotation of the imaging device. A Y-direction rotation detection unit 22 and a system control unit 23 that controls the entire imaging apparatus are included. Here, the X-direction rotation detection unit 21 performs signal processing on a signal detected by a gyro sensor or an acceleration sensor using a band-pass filter or the like, and then performs A / D conversion to generate an output signal. The Y direction rotation detection unit 22 has the same configuration as the X direction rotation detection unit 21. If a rotation detection unit is mounted for the purpose of image stabilization, it may be used as well.

また、この撮像装置は、ズームや録画の開始終了を操作するキー、キーフレームの変更操作を行うキーなどが配置された操作入力部24、映像データをMPEG形式に符号化するMPEG_CODEC28、記録媒体を駆動して情報を記録するドライブなどから構成される記録部29、光ディスク、磁気ディスク、光磁気ディスク、磁気テープ、ハードディスク、不揮発性メモリ、不揮発性メモリカードなどからなる記録媒体30、および指紋を検出する指紋センサからなる指紋検出部31を有する。   The imaging apparatus also includes an operation input unit 24 on which keys for operating zooming and recording start / end, keys for changing key frames, and the like, MPEG_CODEC 28 for encoding video data in MPEG format, and a recording medium. A recording unit 29 configured by a drive for recording information by driving, an optical disk, a magnetic disk, a magneto-optical disk, a magnetic tape, a hard disk, a non-volatile memory, a non-volatile memory card, a recording medium 30, and a fingerprint are detected. A fingerprint detection unit 31 including a fingerprint sensor.

操作入力部24には、ズームをワイド(広角、つまり画像縮小)方向に動作させるワイド・キー25、テレ(望遠、つまり画像拡大)方向に移動させるテレ・キー26、録画の開始・終了を指示するRECキー27、キーフレームの変更やキーフレームの一覧表示を指示するメニューキー32、キーフレームの一覧からキーフレームを変更する映像区間の選択などに使用されるカーソルキー33などが設けられている。ここで、ワイド・キー25およびテレ・キー26は、例えばシーソー型の連動したキーであり、どちらのキーがどの程度の押圧力により押されているかを示す出力信号をシステム制御部23に出力する。また、RECキー27は、トグル型のキーであり、録画中に押下すると、録画終了を指示し、非録画中に押下すると、録画開始を指示する。   On the operation input unit 24, a wide key 25 for moving the zoom in the wide (wide-angle, ie, image reduction) direction, a tele key (26) for moving in the tele (telephoto, ie, image enlargement) direction, and the start / end of recording are instructed. There are provided a REC key 27 for selecting, a menu key 32 for instructing key frame change and key frame list display, a cursor key 33 used for selecting a video section for changing the key frame from the key frame list, and the like. . Here, the wide key 25 and the tele key 26 are, for example, seesaw-type interlocking keys, and output to the system control unit 23 an output signal indicating which key is being pressed by what level of pressing force. . The REC key 27 is a toggle-type key. When pressed during recording, the REC key 27 instructs to end recording, and when pressed during non-recording, instructs to start recording.

図2はシステム制御部23の構成を示す図である。システム制御部23は、周知のCPU41、ROM42、RAM43、I/Oインターフェース44、バス45および割込み信号線46を有する。ROM42には、CPU41によって実行される、後述するプログラム、テーブル値などが格納されている。   FIG. 2 is a diagram illustrating a configuration of the system control unit 23. The system control unit 23 includes a well-known CPU 41, ROM 42, RAM 43, I / O interface 44, bus 45, and interrupt signal line 46. The ROM 42 stores programs to be described later, table values, and the like that are executed by the CPU 41.

図3は映像管理部17の構成を示すブロック図である。この映像管理部17は、撮影された映像データを分割する映像分割部56、分割された映像区間においてその映像区間を象徴するキーフレームを抽出するキーフレーム抽出部57、キーフレームの変更を行った映像区間と類似する映像区間を抽出する類似映像区間抽出部58、およびこの撮像装置で使用される付属情報を取得・記憶する付属情報管理部59を有する。これらの各部は、映像管理部17内の周知のCPU(図示せず)がROM(図示せず)に記憶されたプログラムを実行することによって実現される。尚、操作入力部24、表示部18、指紋検出部31、映像信号処理部16、各検出部19、21、22の各部と、映像管理部17との間でやり取りされる信号は、システム制御部23を介して行われるが、図3では、分かり易くするため、システム制御部23が省略されている。   FIG. 3 is a block diagram showing the configuration of the video management unit 17. The video management unit 17 performs a video division unit 56 that divides the captured video data, a key frame extraction unit 57 that extracts a key frame that symbolizes the video section in the divided video section, and a key frame change. A similar video section extraction unit 58 that extracts a video section similar to the video section, and an auxiliary information management unit 59 that acquires and stores the auxiliary information used in the imaging apparatus. Each of these units is realized by executing a program stored in a ROM (not shown) by a known CPU (not shown) in the video management unit 17. Signals exchanged between the operation input unit 24, the display unit 18, the fingerprint detection unit 31, the video signal processing unit 16, the detection units 19, 21, and 22 and the video management unit 17 are controlled by the system control. The system control unit 23 is omitted in FIG. 3 for easy understanding.

上記構成を有する撮像装置の各部の動作を示す。ズームレンズ11を介して受光した被写体からの光は、絞り12によりその光量が調整され、撮像素子13の面上に結像する。撮像素子13によって電気信号に変換されると、その電気信号は、サンプルホールド・AGC部14およびA/D変換部15によりA/D変換された後、映像信号処理部16に入力する。この入力信号に対し、映像信号処理部16は、輝度および色成分毎にアパーチャ補正、ガンマ補正、ホワイトバランス補正、電子ズームなどの処理を施し、映像信号が生成されると、その映像信号はシステム制御部23を介して映像管理部17に出力される。   The operation of each part of the imaging apparatus having the above configuration will be described. The light from the subject received through the zoom lens 11 is adjusted in light quantity by the diaphragm 12 and imaged on the surface of the image sensor 13. When converted into an electrical signal by the image sensor 13, the electrical signal is A / D converted by the sample hold / AGC unit 14 and the A / D converter 15 and then input to the video signal processing unit 16. The video signal processing unit 16 performs processing such as aperture correction, gamma correction, white balance correction, and electronic zoom on the input signal for each luminance and color component, and when the video signal is generated, the video signal is The data is output to the video management unit 17 via the control unit 23.

一方、X方向回転検出部21およびY方向回転検出部22から得られる撮像装置の回転信号を基に、システム制御部23は、パン(カメラの水平方向の回転操作)やチルト(カメラの垂直方向の回転操作)を検出する。パンやチルト等の撮影環境情報、および操作入力部24からの操作情報は、システム制御部23を介して映像管理部17に出力される。また、映像管理部17は、入力された各種情報を付属情報管理部59に記憶・保持し、映像分割部56により、録画の開始操作から終了操作までの映像区間(ショット)を1つまたは複数の映像区間(サブショット)に分割する。また、付属情報管理部59により、入力された情報にサブショットの区間情報を付加し、キーフレーム抽出部57によりキーフレーム抽出処理を行う。   On the other hand, based on the rotation signal of the imaging device obtained from the X-direction rotation detection unit 21 and the Y-direction rotation detection unit 22, the system control unit 23 performs panning (camera horizontal rotation operation) and tilt (camera vertical direction). Rotation operation) is detected. Shooting environment information such as pan and tilt and operation information from the operation input unit 24 are output to the video management unit 17 via the system control unit 23. In addition, the video management unit 17 stores and holds various types of input information in the attached information management unit 59, and the video division unit 56 uses the video segmentation unit 56 to provide one or more video sections (shots) from the recording start operation to the end operation. Is divided into video segments (sub-shots). The attached information management unit 59 adds sub-shot section information to the input information, and the key frame extraction unit 57 performs key frame extraction processing.

このキーフレーム抽出処理では、入力された各種情報に基づき、サブショットの各区間に対し、各区間を代表するにふさわしいフレーム画像(キーフレーム)が決定される。決定されたキーフレームの情報は、付属情報管理部59に付加される。そして、これらの付属情報は、MPEG_CODEC28に出力される。MPEG_CODEC28では、入力された映像信号の符号化が行われる。このとき、MPEG_CODEC28は、映像管理部17から出力される撮影環境情報、操作情報、サブショット情報などの付属情報を、符号化された映像信号と共に格納し、MPEG_CODEC28に接続された記録部29に出力する。尚、撮影環境情報、操作情報、サブショット情報などの付属情報の格納方法については後述する。   In this key frame extraction process, a frame image (key frame) suitable for representing each section is determined for each section of the sub-shot based on various pieces of input information. Information on the determined key frame is added to the attached information management unit 59. These pieces of attached information are output to MPEG_CODEC 28. In MPEG_CODEC 28, an input video signal is encoded. At this time, the MPEG_CODEC 28 stores the attached information such as shooting environment information, operation information, and sub-shot information output from the video management unit 17 together with the encoded video signal, and outputs it to the recording unit 29 connected to the MPEG_CODEC 28. To do. Note that a method for storing auxiliary information such as shooting environment information, operation information, and sub-shot information will be described later.

記録部29は、1ショット毎に記録メディア30に1つのファイルを作成する。尚、1ショットを複数のファイルで保存しても、複数のショットを1つのファイルで保存してもよい。また、記録したデジタル情報が読み出せる限り、ファイルシステムによらない方法で記憶してもよい。   The recording unit 29 creates one file on the recording medium 30 for each shot. Note that one shot may be saved as a plurality of files, or a plurality of shots may be saved as one file. Further, as long as the recorded digital information can be read, it may be stored by a method that does not depend on the file system.

システム制御部23は、RECキー27の操作に応じて録画を開始・終了する。また、システム制御部23は、ワイド・キー25およびテレ・キー26の操作に応じて、レンズ駆動部20を制御し、また映像信号処理部16に対して電子ズームの制御を行う。このとき、押圧力が大きいほど、ズーム倍率を高速に変化させることができる。尚、レンズ光学系によって撮像される画像を拡大する機能を光学ズームといい、レンズ光学系によらず、電気的な信号処理によって画像を垂直・水平方向に拡大する機能を電子ズームという。   The system control unit 23 starts / stops recording in accordance with the operation of the REC key 27. Further, the system control unit 23 controls the lens driving unit 20 according to the operation of the wide key 25 and the tele key 26, and controls the electronic zoom for the video signal processing unit 16. At this time, the zoom magnification can be changed faster as the pressing force is larger. The function of enlarging an image captured by the lens optical system is called optical zoom, and the function of enlarging the image in the vertical and horizontal directions by electrical signal processing regardless of the lens optical system is called electronic zoom.

また、システム制御部23は、レンズ位置検出部19からのレンズ位置検出信号を基に、光学ズーム時におけるズーム倍率を判断する。また、システム制御部23は、映像管理部17における処理を制御する。また、システム制御部23は、X方向回転検出部21およびY方向回転検出部22から出力される回転情報を基に、手ぶれ等に起因する信号成分を除去し、ユーザ操作によるパンまたはチルト情報を検出し、映像管理部17に出力する。この他、システム制御部23は必要に応じて撮像装置各部を制御する。   Further, the system control unit 23 determines the zoom magnification at the time of optical zoom based on the lens position detection signal from the lens position detection unit 19. Further, the system control unit 23 controls processing in the video management unit 17. In addition, the system control unit 23 removes signal components due to camera shake and the like based on the rotation information output from the X direction rotation detection unit 21 and the Y direction rotation detection unit 22, and displays pan or tilt information by a user operation. Detect and output to the video management unit 17. In addition, the system control unit 23 controls each unit of the imaging apparatus as necessary.

指紋検出部31は、そのセンサ部に押し当てられた指によってできた影をセンサ部で指紋であると検出し、予め記憶された指紋データリスト(ユーザIDと指紋データが対になって登録されているユーザ認識データリスト)に登録された指紋データと照合する。指紋データが一致した場合、操作者を識別するユーザIDが取得される。一方、指紋データが一致しなかった場合、新規ユーザであるとして、指紋データとユーザIDがユーザ認識データリストに登録される。   The fingerprint detection unit 31 detects a shadow formed by a finger pressed against the sensor unit as a fingerprint by the sensor unit, and stores a fingerprint data list (a user ID and fingerprint data registered in pairs). The fingerprint data registered in the user recognition data list). If the fingerprint data matches, a user ID that identifies the operator is acquired. On the other hand, if the fingerprint data does not match, the fingerprint data and the user ID are registered in the user recognition data list as a new user.

つぎに、動画像とともに操作情報や撮影環境情報などの付属情報を記録する方法を示す。この記録方法として、フレーム単位の画像データ管理情報中の未使用領域などに、付属情報を格納する方法が知られている。具体的に、例えば、映像データがMPEG−2ストリームである場合、ピクチャヘッダのユーザ領域に格納する方法がある。また、撮影終了後に演算の結果として生成された情報を、動画ファイルの末尾にフッタとして追加する方法がある。例えば、MPEG−2トランスポートストリームである場合、プライベートエリアに付属情報を格納したTSパケットをファイルの末尾に追記してもよい。また、動画と付属情報を別のファイルにする方法もある。この場合、動画と付属情報を対応付けるために、動画ファイル名と付属情報ファイル名との間で、相互にファイル名が一意に求まるように、ファイル名生成規則を設けるなど、参照情報を格納し、その参照情報へのハイパーリンクを貼るようにしてもよい。   Next, a method for recording attached information such as operation information and shooting environment information together with a moving image will be described. As this recording method, a method of storing attached information in an unused area in image data management information in units of frames is known. Specifically, for example, when the video data is an MPEG-2 stream, there is a method of storing it in the user area of the picture header. In addition, there is a method of adding information generated as a result of calculation after the end of shooting as a footer at the end of a moving image file. For example, in the case of an MPEG-2 transport stream, a TS packet storing attached information in the private area may be added to the end of the file. There is also a method to separate the movie and attached information. In this case, in order to associate the movie with the attached information, the reference information is stored, such as providing a file name generation rule so that the file name can be uniquely obtained between the movie file name and the attached information file name. A hyperlink to the reference information may be pasted.

本実施形態では、パンを検出した結果を記録しているが、この検出結果を記録する代わりに、パン検出前の加速度センサの出力信号等の生情報を量子化した情報や、パン検出までの各段で行われる信号処理の結果を量子化した情報を格納してもよい。これらの量子化した情報は、撮像装置(カムコーダ)本体の処理負荷という面で、リアルタイム処理が難しい場合、カムコーダ本体による後処理あるいは外部デバイスによる処理の際、操作情報および撮影環境情報として、パンやズーム単位の情報を生成・記録するために使用される。また、これらの量子化した情報を用いることで、将来、より精度が向上したパン検出手段によってパンの検出が可能となる場合、その拡張性が図られる。   In this embodiment, the result of detecting pan is recorded, but instead of recording this detection result, information obtained by quantizing raw information such as an output signal of an acceleration sensor before pan detection, and pan detection Information obtained by quantizing the result of signal processing performed at each stage may be stored. If the quantized information is difficult to process in real time in terms of the processing load of the imaging device (camcorder) body, panning and shooting environment information can be used as operation information and shooting environment information during post-processing by the camcorder body or processing by an external device. Used to generate and record zoom unit information. Further, by using such quantized information, if pan detection can be performed by a pan detection means with improved accuracy in the future, the expandability can be achieved.

つぎに、付属情報の詳細を示す。後述する図4〜図8、図15〜図17、図19、図21に示すデータ構造は、それぞれ1つのデータ要素を表している。複数のデータ要素がある場合、付属情報は、各データ要素にアクセス可能なリストとして構成される。また、本実施形態では、データ構造はビット列で表現されているが、システム制御部23が解釈可能である限り、テキスト形式や独自のDTD(Document Type Definition)を定義し、XML(Extensible Markup Language)形式等で表現するようにしてもよい。また、MPEG7に適した形式で格納する場合、データ構造を記述するツールであるSegment DSに格納すればよい。   Next, details of the attached information are shown. The data structures shown in FIGS. 4 to 8, 15 to 17, 19, and 21 described later each represent one data element. When there are a plurality of data elements, the attached information is configured as a list accessible to each data element. In the present embodiment, the data structure is represented by a bit string. However, as long as the system control unit 23 can interpret the data structure, a text format or a unique DTD (Document Type Definition) is defined, and XML (Extensible Markup Language) is defined. It may be expressed in a format or the like. Further, in the case of storing in a format suitable for MPEG7, it may be stored in Segment DS, which is a tool for describing the data structure.

図4は撮影環境情報データの構造を示す図である。図5は撮影環境情報データリストの構造を示す図である。撮影環境情報データには、レンズ位置検出部19、X方向回転検出部21、Y方向回転検出部22などから取得されたパンやチルトなどの撮影環境情報が含まれている。図5に示すように、撮影環境情報が取得される毎に撮影環境情報データが作成され、撮影環境情報を取得したフレーム番号が変わる毎に、撮影環境情報データの先頭アドレス(ポインタ)が撮影環境情報データリストに格納される。例えば、フレーム番号1の撮影環境情報データを参照する場合、撮影環境情報データリストから1番目に格納されているフレーム1ポインタを取得し、撮影環境情報データ1を参照する。   FIG. 4 is a diagram showing the structure of the shooting environment information data. FIG. 5 shows the structure of the shooting environment information data list. The shooting environment information data includes shooting environment information such as pan and tilt acquired from the lens position detection unit 19, the X direction rotation detection unit 21, the Y direction rotation detection unit 22, and the like. As shown in FIG. 5, shooting environment information data is created every time shooting environment information is acquired, and the start address (pointer) of the shooting environment information data is changed every time the frame number from which the shooting environment information is acquired changes. Stored in the information data list. For example, when referring to the shooting environment information data of frame number 1, the first stored frame 1 pointer is acquired from the shooting environment information data list, and the shooting environment information data 1 is referred to.

図4には、撮影環境情報データの各要素データが示されている。要素データTimeには、撮影環境が変化した時の動画ファイルの再生時間開始(先頭)を基準とするフレーム番号が記述される。要素データDataTypeには、撮影環境情報のイベント種別を表すデータが記述される。撮影環境情報のイベント種別には、パンの開始、パンの継続、パンの終了、チルトの開始、チルトの継続、チルトの終了が設定される。パン、チルトの継続は、スピードや方向が変化した場合に使用される。ここでは、要素データDataTypeが「0」でパンの開始、「1」でパンの継続、「2」でパンの終了、「4」でチルトの開始、「5」でチルトの継続、「6」でチルトの終了を表す。要素データSpeedは、要素データDataTypeがパンの開始、パンの継続、チルトの開始、チルトの継続である場合に存在し、パンやチルトの回転スピードを表す。本実施形態では、最低スピードの「1」から最高スピードの「7」までの7段階で、回転スピードが記述される。要素データDirectionは、要素データDataTypeがパンの開始、パンの継続、チルトの開始、チルトの継続の場合に存在し、パンやチルトの方向を表す。本実施形態では、パンの場合、「1」で右、「0」で左を表す。チルトの場合、「1」で上、「0」で下を表す。   FIG. 4 shows each element data of the shooting environment information data. In the element data Time, a frame number based on the start (start) of the playback time of the moving image file when the shooting environment changes is described. The element data DataType describes data representing the event type of the shooting environment information. In the event type of the shooting environment information, pan start, pan continuation, pan end, tilt start, tilt continuation, and tilt end are set. Pan / tilt continuation is used when the speed or direction changes. Here, the element data DataType is “0” to start panning, “1” to continue panning, “2” to end panning, “4” to start tilting, “5” to continue tilting, “6” Represents the end of tilt. The element data Speed exists when the element data DataType is pan start, pan continuation, tilt start, and tilt continuation, and represents the rotation speed of pan and tilt. In this embodiment, the rotational speed is described in seven stages from “1” at the lowest speed to “7” at the highest speed. Element data Direction is present when element data DataType is pan start, pan continuation, tilt start, and tilt continuation, and represents the direction of pan and tilt. In the present embodiment, in the case of pan, “1” represents right and “0” represents left. In the case of tilt, “1” represents the top and “0” represents the bottom.

図6は操作情報データの構造を示す図である。図7は操作情報データリストの構造を示す図である。操作情報データには、操作入力部24、レンズ位置検出部19、レンズ駆動部20などから取得したズームなどの操作情報が含まれている。図7に示すように、操作情報が取得される毎に操作情報データが作成され、操作情報を取得したフレーム番号が変わる毎に、操作情報データの先頭アドレス(ポインタ)が操作情報データリストに格納される。例えば、フレーム番号1の操作情報データを参照する場合、操作情報データリストから1番目に格納されているフレーム1ポインタを取得し、操作情報データ1を参照する。   FIG. 6 shows the structure of the operation information data. FIG. 7 is a diagram showing the structure of the operation information data list. The operation information data includes operation information such as zoom acquired from the operation input unit 24, the lens position detection unit 19, the lens driving unit 20, and the like. As shown in FIG. 7, operation information data is created every time operation information is acquired, and the start address (pointer) of the operation information data is stored in the operation information data list every time the frame number from which the operation information is acquired changes. Is done. For example, when referring to the operation information data of frame number 1, the first stored frame 1 pointer is acquired from the operation information data list, and the operation information data 1 is referred to.

図6には、操作情報データの各要素データが示されている。要素データTimeには、操作が発生した時の動画ファイルの再生時間開始(先頭)を基準とするフレーム番号が記述される。要素データDataTypeには、操作情報のイベント種別を表すデータが記述される。操作情報のイベント種別には、ズームの開始、ズームの継続、ズームの終了、録画の開始、録画の終了等が設定される。ズームの継続は、スピードが変化した場合に使用される。ここでは、要素データDataTypeが「0」でズームの開始、「1」でズームの継続、「2」でズームの終了、「3」で録画開始、「4」で録画終了を表す。要素データSpeedは、要素データDataTypeがズームの開始、ズームの継続の場合に存在し、ズーム変化のスピードを表す。本実施形態では、最低スピードの「1」から最高スピードの「7」までの7段階で、スピードが記述される。要素データDirectionは、要素データDataTypeがズームの開始、ズームの継続の場合に存在し、ズームの方向を表す。要素データDirectionが「0」でテレ側、「1」でワイド側を表す。要素データMagnificationは、要素データDataTypeがズームの開始、ズームの継続の場合に存在してズーム倍率を表し、最もテレ側を「0」、最もワイド側を「31」の32段階で記述される。   FIG. 6 shows each element data of the operation information data. In the element data Time, a frame number based on the start (start) of the reproduction time of the moving image file when the operation occurs is described. In the element data DataType, data representing the event type of the operation information is described. As the event type of the operation information, zoom start, zoom continuation, zoom end, recording start, recording end, and the like are set. Zoom continuation is used when the speed changes. Here, when the element data DataType is “0”, the zoom starts, “1” indicates the continuation of zooming, “2” indicates the end of zooming, “3” indicates the start of recording, and “4” indicates the end of recording. Element data Speed exists when the element data DataType is the start of zooming and the continuation of zooming, and represents the speed of zoom change. In this embodiment, the speed is described in seven stages from “1” at the lowest speed to “7” at the highest speed. Element data Direction is present when element data DataType is the start of zooming or the continuation of zooming, and represents the direction of zooming. Element data Direction “0” indicates the tele side, and “1” indicates the wide side. The element data “Magnification” is present when the element data “DataType” is the start of zooming and the continuation of zooming, and indicates the zoom magnification. The element data “Magnification” is described in 32 levels, “0” for the telephoto side and “31” for the widest side.

図8はサブショット情報データの構造を示す図である。図9はサブショット情報データリストの構造を示す図である。サブショット情報データは、映像分割部56で分割された映像区間に関する情報である。図9(a)に示すように、映像がサブショット1、サブショット2、…、サブショットMと分割される毎に、サブショット情報データは、同図(b)に示すように、サブショット情報1、サブショット情報2、…、サブショット情報Mまで作成される。例えば、サブショット情報1は、フレーム番号1からフレーム番号6で構成される。また、サブショット情報2は、フレーム番号7からフレーム番号11で構成される。それ以降のサブショット情報も同様である。   FIG. 8 shows the structure of sub-shot information data. FIG. 9 shows the structure of the sub-shot information data list. The sub-shot information data is information related to the video section divided by the video dividing unit 56. As shown in FIG. 9A, every time a video is divided into sub-shot 1, sub-shot 2,..., Sub-shot M, sub-shot information data is sub-shot as shown in FIG. Information 1, sub-shot information 2,..., Sub-shot information M are created. For example, the sub-shot information 1 includes frame number 1 to frame number 6. The sub-shot information 2 is composed of frame number 7 to frame number 11. The same applies to the subsequent sub-shot information.

作成されたサブショット情報データの先頭アドレス(ポインタ)は、同図(b)に示すサブショット情報データリストに格納される。サブショット情報データ1を参照する場合、サブショット情報データリストからサブショット情報データ1に格納されているポインタを取得し、サブショット情報データ1を参照する。   The top address (pointer) of the created sub-shot information data is stored in the sub-shot information data list shown in FIG. When referring to the sub-shot information data 1, the pointer stored in the sub-shot information data 1 is acquired from the sub-shot information data list, and the sub-shot information data 1 is referred to.

図8には、サブショット情報データの各要素データが示されている。要素データStartTimeは、サブショットの開始時刻を表し、動画ファイルの再生時間開始(先頭)を基準とするフレーム番号で記述される。要素データEndTimeは、サブショットの終了時刻を表し、動画ファイルの再生時間開始を基準とするフレーム番号で記述される。要素データContentsDataTypeには、サブショット情報の映像区間における付属情報を基に分類された分類情報が記述される。この分類情報の詳細については後述する。   FIG. 8 shows each element data of the sub-shot information data. Element data StartTime represents the start time of the sub-shot, and is described by a frame number with reference to the start (start) of the playback time of the moving image file. Element data EndTime represents the end time of the sub-shot, and is described by a frame number based on the start of the reproduction time of the moving image file. In the element data ContentsDataType, classification information classified based on the attached information in the video section of the sub-shot information is described. Details of this classification information will be described later.

要素データNumberOfKeyFrameには、要素データStartTimeおよび要素データEndTimeで示される映像区間に設定されているキーフレームの数が記述される。要素データKeyFrameには、キーフレームとなるフレームの動画ファイルの再生時間開始を基準とするフレーム番号が格納される。要素データNumberOfTimesには、編集や映像の再生を行う際、要素データKeyFrameで記述されたキーフレームが選択された回数が格納される。キーフレーム抽出時、要素データNumberOfTimesには、値1が格納される。この要素データKeyFrameおよびNumberOfTimesは、要素データNumberOfKeyFrameで示される数だけ記述される。   In the element data NumberOfKeyFrame, the number of key frames set in the video section indicated by the element data StartTime and the element data EndTime is described. In the element data KeyFrame, a frame number based on the start of the reproduction time of the moving image file of the frame serving as the key frame is stored. The element data NumberOfTimes stores the number of times the key frame described by the element data KeyFrame is selected when editing or video reproduction is performed. At the time of key frame extraction, the value 1 is stored in the element data NumberOfTimes. The element data KeyFrame and NumberOfTimes are described by the number indicated by the element data NumberOfKeyFrame.

図9(c)には、キーフレームが1つ設定された場合のサブショット情報が示されている。このサブショット情報で示されるサブショット区間は、図9(a)のサブショット1に相当する。フレーム番号1からフレーム番号6までをサブショット1とする場合、要素データStartTimeには、「1」、要素データEndTimeには、「6」が格納される。また、分類情報には、「3」が格納されているので、このサブショットの映像区間の分類タイプは「3」となる。また、要素データNumberOfKeyframeには、「1」が格納されている。これにより、このサブショットの映像区間では、キーフレームが1つ設定されていることがわかる。要素データKeyFrameには、「6」が格納されているので、フレーム番号6がキーフレームとして設定されている。要素データNumberOfTimesには、「1」が格納されているので、フレーム番号6のキーフレームは、映像再生または編集の際、まだ選択されていないことがわかる。   FIG. 9C shows the sub-shot information when one key frame is set. The sub-shot section indicated by this sub-shot information corresponds to sub-shot 1 in FIG. When sub-shot 1 is set from frame number 1 to frame number 6, “1” is stored in element data StartTime, and “6” is stored in element data EndTime. In addition, since “3” is stored in the classification information, the classification type of the video section of this sub-shot is “3”. In addition, “1” is stored in the element data NumberOfKeyframe. Thereby, it can be seen that one key frame is set in the video section of the sub-shot. Since element data KeyFrame stores “6”, frame number 6 is set as a key frame. Since “1” is stored in the element data NumberOfTimes, it can be seen that the key frame of frame number 6 has not yet been selected during video playback or editing.

図9(d)には、キーフレームが2つ設定された場合のサブショット情報が示されている。このサブショット情報で示されるサブショット区間は、図9(a)のサブショット2に相当する。フレーム番号7からフレーム番号11までをサブショット2とする場合、要素データStartTimeには、「7」、要素データEndTimeには、「11」が格納される。また、分類情報には、「7」が格納されているので、このサブショットの映像区間の分類タイプは「7」となる。また、要素データNumberOfKeyframeには、「2」が格納される。これにより、このサブショットの映像区間では、キーフレームが2つ設定されていることがわかる。要素データKeyframe1には、「8」が格納されているので、キーフレームとしてフレーム番号8が設定されている。また、要素データKeyframe2には、「11」が格納されているので、フレーム番号11がキーフレームとして設定されている。要素データKeyframe1、2の各要素データNumberOfTimesには、それぞれ「2」、「1」が格納されているので、フレーム番号8のキーフレームは、映像再生または編集の際、1度選択されたことがわかる。また、フレーム番号11のキーフレームは、映像再生または編集の際、まだ選択されていないことがわかる。   FIG. 9D shows sub-shot information when two key frames are set. The sub-shot section indicated by this sub-shot information corresponds to sub-shot 2 in FIG. When sub-shot 2 is set from frame number 7 to frame number 11, “7” is stored in element data StartTime, and “11” is stored in element data EndTime. Further, since “7” is stored in the classification information, the classification type of the video section of this sub-shot is “7”. In addition, “2” is stored in the element data NumberOfKeyframe. Thereby, it can be seen that two key frames are set in the video section of the sub-shot. Since element data Keyframe1 stores “8”, frame number 8 is set as a key frame. In addition, since “11” is stored in the element data Keyframe2, the frame number 11 is set as a key frame. Since “2” and “1” are stored in each element data NumberOfTimes of the element data Keyframes 1 and 2, the key frame of frame number 8 has been selected once during video playback or editing. Understand. It can also be seen that the key frame of frame number 11 has not yet been selected during video playback or editing.

図10は映像区間分類情報の構造を示す図である。映像区間分類情報は、映像区間における付属情報の分類に関するデータであり、分類されるタイプの数だけ存在する。この映像区間情報には、分類された映像区間におけるキーフレーム抽出方法が格納されており、キーフレーム抽出処理で参照される。   FIG. 10 is a diagram showing the structure of video segment classification information. The video segment classification information is data relating to the classification of the attached information in the video segment, and there are as many types as the type to be classified. This video section information stores the key frame extraction method in the classified video section, and is referred to in the key frame extraction process.

図11は映像区間分類情報リストを示す図である。この映像区間分類情報リストには、映像区間分類情報の先頭ポインタが映像区間の分類数分(L個)格納される。したがって、映像区間の分類情報として映像区間分類情報1を参照する場合、映像区間分類情報リストの映像区間分類情報1を示すポインタを取得し、そのポインタ先を参照することで、映像区間分類情報1を取得することができる。   FIG. 11 is a diagram showing a video section classification information list. In this video segment classification information list, the start pointer of the video segment classification information is stored for the number of video segment classifications (L). Therefore, when the video segment classification information 1 is referred to as the video segment classification information, a pointer indicating the video segment classification information 1 in the video segment classification information list is acquired, and the pointer destination is referred to, so that the video segment classification information 1 is obtained. Can be obtained.

映像区間分類情報の要素データである分類情報は、映像区間に関する付属情報を基に分類された映像の分類タイプを表している。また、要素データである分類条件情報には、付属情報の少なくともいずれか1つもしくは組合せを基に、分類情報に格納された分類タイプであるか否かを判断するための条件情報が記述されている。   The classification information, which is element data of the video section classification information, represents the classification type of the video classified based on the attached information regarding the video section. The classification condition information that is element data includes condition information for determining whether or not the classification type is stored in the classification information based on at least one or a combination of the attached information. Yes.

図12は分類条件情報の構造を示す図である。分類条件情報の要素データである分類判断処理タイプ情報格納数は、分類判断処理タイプ情報の格納数を表す。分類判断処理タイプ情報は、分類情報に記述された映像区間に分類されるか否かを判断する際、取得された付属情報と比較値に記述された値とを比較する処理の識別情報(タイプ)である。   FIG. 12 shows the structure of the classification condition information. The number of stored classification determination process type information, which is element data of the classification condition information, represents the number of stored classification determination process type information. The classification determination processing type information is identification information (type of processing) for comparing the acquired auxiliary information with the value described in the comparison value when determining whether or not the video section is described in the classification information. ).

要素データである比較値は、分類判断処理タイプ情報で取得された付属情報と比較される値を示す。判定タイプ情報には、付属情報と比較値とを比較する際の判定方法のタイプが格納される。例えば、値1は「=」を示し、分類判断処理で取得した値と比較値とが「=」であるか、つまり等しいかを比較することを示す。値2は、「!=」を示し、分類判断処理で取得した値と比較値とが「!=」であるか、つまり等しくないかを比較することを示す。値3は、「>」を示し、分類判断処理で取得した値と比較値とが「>」であるか、つまり取得した値が比較値より大きいかを比較することを示す。値4は、「<」を示し、分類判断処理で取得した値と比較値とが「<」であるか、つまり取得した値が比較値より小さいかを比較することを示す。値5は、「≦」を示し、分類判断処理で取得した値と比較値とが「≦」であるか、つまり取得した値が比較値以下であるかを比較することを示す。値6は、「≧」を示し、分類判断処理で取得した値と比較値とが「≧」であるか、つまり取得した値が比較値以上であるかを比較することを示す。   The comparison value that is element data indicates a value to be compared with the attached information acquired by the classification determination processing type information. The determination type information stores the type of determination method used when comparing the attached information with the comparison value. For example, the value 1 indicates “=”, and indicates that the value acquired in the classification determination process is compared with whether the comparison value is “=”, that is, is equal. The value 2 indicates “! =”, And indicates that the value acquired in the classification determination process and the comparison value are “! =”, That is, whether they are not equal. The value 3 indicates “>” and indicates whether the value acquired in the classification determination process is “>”, that is, whether the acquired value is greater than the comparison value. The value 4 indicates “<”, and indicates whether the value acquired in the classification determination process and the comparison value are “<”, that is, whether the acquired value is smaller than the comparison value. The value 5 indicates “≦”, and indicates whether the value acquired in the classification determination process and the comparison value are “≦”, that is, whether the acquired value is equal to or less than the comparison value. The value 6 indicates “≧” and indicates whether the value acquired in the classification determination process is “≧”, that is, whether the acquired value is equal to or greater than the comparison value.

また、図10に示すキーフレーム抽出タイプ情報格納数には、分類情報で分類された映像区間におけるキーフレーム抽出方法の数が記述される。キーフレーム抽出タイプ情報には、分類情報で分類される映像区間におけるキーフレームの抽出方法が記述される。具体的に、「0」は予め操作者によって指定された、あるいは本撮像装置によって予め設定されたデフォルトのキーフレームの抽出方法で行うことを示す。「1」はサブショットの先頭フレームでキーフレームを抽出することを示す。「2」はサブショットの終了フレームでキーフレームを抽出することを示す。「3」はサブショットの中間フレームでキーフレームを抽出することを示す。「4」はサブショットのズーム開始(縮小→拡大)フレームでキーフレームを抽出することを示す。「5」はサブショットのズーム終了(縮小→拡大)フレームでキーフレームを抽出することを示す。「6」はサブショットのズーム中間(縮小→拡大)フレームでキーフレームを抽出することを示す。「7」はサブショットのズーム開始(拡大→縮小)フレームでキーフレームを抽出することを示す。「8」はサブショットのズーム終了(拡大→縮小)フレームでキーフレームを抽出することを示す。「9」はサブショットのズーム中間(拡大→縮小)フレームでキーフレームを抽出することを示す。「10」はサブショットのチルト開始フレームでキーフレームを抽出することを示す。「11」はサブショットのチルト終了フレームでキーフレームを抽出することを示す。「12」はサブショットのチルト中間フレームでキーフレームを抽出することを示す。「13」はサブショットのパン開始フレームでキーフレームを抽出することを示す。「14」はサブショットのパン終了フレームでキーフレームを抽出することを示す。「15」はサブショットのパン中間フレームでキーフレームを抽出することを示す。尚、キーフレーム抽出タイプ情報は、キーフレーム抽出タイプ情報格納数で指定された数だけ格納される。   Further, the number of key frame extraction type information stored in FIG. 10 describes the number of key frame extraction methods in the video section classified by the classification information. The key frame extraction type information describes a key frame extraction method in the video section classified by the classification information. Specifically, “0” indicates that a default key frame extraction method designated in advance by the operator or preset by the imaging apparatus is performed. “1” indicates that a key frame is extracted from the first frame of the sub-shot. “2” indicates that a key frame is extracted at the end frame of the sub-shot. “3” indicates that a key frame is extracted in an intermediate frame of the sub-shot. “4” indicates that a key frame is extracted at the zoom start (reduction → enlargement) frame of the sub-shot. “5” indicates that a key frame is extracted at the zoom end (reduction → enlargement) frame of the sub-shot. “6” indicates that a key frame is extracted at a zoom middle (reduction → enlargement) frame of the sub-shot. “7” indicates that a key frame is extracted at the zoom start (enlargement → reduction) frame of the sub-shot. “8” indicates that the key frame is extracted at the zoom end (enlargement → reduction) frame of the sub-shot. “9” indicates that a key frame is extracted in the middle zoom (enlargement → reduction) frame of the sub-shot. “10” indicates that a key frame is extracted at the tilt start frame of the sub-shot. “11” indicates that a key frame is extracted at the tilt end frame of the sub-shot. “12” indicates that a key frame is extracted at an intermediate frame of the sub-shot tilt. “13” indicates that a key frame is extracted at the pan start frame of the sub-shot. “14” indicates that a key frame is extracted at the pan end frame of the sub-shot. “15” indicates that a key frame is extracted in the pan intermediate frame of the sub-shot. The key frame extraction type information is stored in the number specified by the number of stored key frame extraction type information.

図13は映像区間分類情報を示す図である。映像区間分類情報「0」は、予め操作者によって指定された、あるいは本撮像装置によって予め設定されたデフォルトのキーフレーム抽出方法を示す。映像区間分類情報リストに存在する映像区間分類情報(デフォルトの映像区間分類情報を除く)のいずれにも該当しなかった場合、このデフォルトの映像区間分類情報に記述されたキーフレーム抽出方法が使用される。ここでは、キーフレーム抽出タイプ情報に「1」が設定されており、映像区間の開始フレームがキーフレームとなる。   FIG. 13 is a diagram showing video segment classification information. The video segment classification information “0” indicates a default key frame extraction method designated in advance by the operator or preset by the imaging apparatus. If none of the video segment classification information (except the default video segment classification information) exists in the video segment classification information list, the key frame extraction method described in the default video segment classification information is used. The Here, “1” is set in the key frame extraction type information, and the start frame of the video section becomes the key frame.

映像区間分類情報「1」には、パン操作における付属情報を用いた分類条件情報が格納されている。具体的に、撮影環境情報および操作情報を参照し、開始フレームがパンの開始であるか、ズーム中であるか、ショット中のパンの回数は1度であるか、ショット中のパンの長さは「大」であるか等が判断される。   The video section classification information “1” stores classification condition information using attached information in the pan operation. Specifically, referring to the shooting environment information and the operation information, whether the start frame is the start of panning, zooming, the number of times of panning during a shot, or the length of panning during a shot Is determined to be “large” or the like.

図14は映像区間分類情報「1」における分類条件情報を示す図である。映像区間分類情報「1」の分類判断処理タイプ情報は5つあるので、分類判断処理タイプ情報格納数には、「5」が格納される。5つの各分類判断処理タイプ情報には、分類判断処理タイプ、比較値および判定タイプ情報がそれぞれ設定されている。先頭の分類判断処理タイプ情報には、開始フレームの撮影環境情報のイベント種別を取得し、比較値(パン開始)と比較される分類判断処理タイプ1が格納されている。   FIG. 14 is a diagram showing the classification condition information in the video section classification information “1”. Since there are five classification determination processing type information of the video section classification information “1”, “5” is stored in the number of classification determination processing type information storages. In each of the five classification determination processing type information, classification determination processing type, comparison value, and determination type information are set. In the first classification determination processing type information, a classification determination processing type 1 that acquires the event type of the shooting environment information of the start frame and is compared with the comparison value (pan start) is stored.

2番目および3番目の分類判断処理タイプ情報には、開始フレームの操作情報のイベント種別を取得して比較を行う分類判断処理タイプ2が格納されている。4番目の分類判断処理タイプ情報には、ショット中のパン回数を取得して比較を行う分類判断処理タイプ3が格納されている。5番目の分類判断処理タイプ情報には、ショット中のパンの長さを取得して比較を行う分類判断処理タイプ4が格納されている。   The second and third classification determination processing type information stores a classification determination processing type 2 for acquiring and comparing the event type of the operation information of the start frame. The fourth classification determination processing type information stores a classification determination processing type 3 for obtaining and comparing the number of pans in a shot. The fifth classification determination processing type information stores a classification determination processing type 4 for acquiring and comparing the length of a pan in a shot.

これらの分類判断処理の結果、比較値に示す値と全て一致した場合、分類情報は「1」となる。そして、キーフレームは、キーフレーム抽出タイプ情報に格納されているキーフレーム抽出方法の「3」に該当する、パン中央フレームに設定される。この分類情報1の映像区間に分類される映像データは、パンによって撮影者がどのような空間にいるのかを意図して撮影したものと推測される。例えば、風景や会場内全体を撮影する場合、このような撮影方法が行われる。したがって、この分類情報1に分類される映像区間では、パンの最後よりパン中の映像に意味がある場合が多いと考えられるので、パン操作区間の中央フレームがキーフレームに設定される。   As a result of these classification determination processes, the classification information is “1” when all the values indicated by the comparison values match. The key frame is set to the pan center frame corresponding to “3” of the key frame extraction method stored in the key frame extraction type information. The video data classified into the video section of the classification information 1 is presumed to have been taken with the intention of what kind of space the photographer is in by panning. For example, when shooting a landscape or the entire venue, such a shooting method is performed. Accordingly, in the video section classified as the classification information 1, it is considered that the video being panned is more meaningful than the end of panning, so the center frame of the panning operation section is set as a key frame.

つぎに、分類情報が「2」である場合の映像区間分類情報を示す。分類情報2には、ズーム操作における付属情報を用いた映像区間分類条件情報が設定されている。図13に示したように、撮影環境情報および操作情報を参照し、開始フレームがズームの開始であるか、そのズームの方向はテレ側であるか、パン中であるか、ショット中のズームが1回であるかによって判断される。   Next, video section classification information when the classification information is “2” is shown. In the classification information 2, video section classification condition information using auxiliary information in the zoom operation is set. As shown in FIG. 13, referring to the shooting environment information and the operation information, whether the start frame is the start of zooming, the zoom direction is the tele side, panning, or zooming during a shot Judgment is made based on whether it is once.

これらの判断処理の結果、比較値に示す値と全て一致した場合、分類情報は「2」となる。キーフレームは、キーフレーム抽出タイプ情報に格納されているキーフレーム抽出方法「2」である、終了フレームに設定される。この分類情報2の映像区間に分類される映像データは、ズームが縮小から拡大され、被写体全体が表示された画面から、注目して欲しい被写体の場所を表示することを意図して撮影されたものと推測される。したがって、ズームの開始に比べてズームの終了の方が重要であると考えられ、ズーム操作(縮小→拡大)の映像区間のズーム終了フレームがキーフレームに設定される。このように、付属情報の状態を取得して判断することにより、映像区間の分類が行われる。   As a result of these determination processes, the classification information is “2” when all the values indicated by the comparison values match. The key frame is set as the end frame which is the key frame extraction method “2” stored in the key frame extraction type information. The video data classified into the video section of this classification information 2 was taken with the intention of displaying the location of the subject to be noticed from the screen on which the zoom is reduced and enlarged and the entire subject is displayed. It is guessed. Therefore, it is considered that the end of zoom is more important than the start of zoom, and the zoom end frame of the video section of the zoom operation (reduction → enlargement) is set as a key frame. In this manner, the video section is classified by acquiring and determining the state of the attached information.

図15はユーザキーフレーム抽出履歴情報を示す図である。図16はユーザキーフレーム抽出履歴リストの構造を示す図である。ユーザキーフレーム抽出履歴情報は、撮像装置に予め設定されているキーフレーム抽出方法によるキーフレームに対し、操作者がキーフレームの設定・変更を行ったときに作成され、操作者によるキーフレーム抽出方法が登録される情報である。キーフレームを抽出する映像区間の分類情報とキーフレームの変更が行われた映像区間の分類情報とが一致した場合、キーフレーム抽出履歴情報からキーフレーム抽出タイプ情報が取得され、キーフレーム抽出タイプ情報に対応するキーフレーム抽出方法でキーフレームが抽出される。   FIG. 15 is a diagram showing user key frame extraction history information. FIG. 16 is a diagram showing the structure of the user key frame extraction history list. The user key frame extraction history information is created when the operator sets / changes the key frame with respect to the key frame by the key frame extraction method preset in the imaging apparatus, and the key frame extraction method by the operator Is registered information. When the classification information of the video section from which the key frame is extracted matches the classification information of the video section in which the key frame has been changed, the key frame extraction type information is obtained from the key frame extraction history information. A key frame is extracted by a key frame extraction method corresponding to the above.

図16に示すように、ユーザキーフレーム抽出履歴情報リストは、ユーザキーフレーム抽出履歴情報を取得するためのリストであり、ユーザキーフレーム抽出履歴情報リストには、ユーザ毎のキーフレーム抽出履歴情報の先頭ポインタが格納されている。つまり、ユーザ2のキーフレーム抽出履歴情報を取得する場合、ユーザ2キーフレーム抽出履歴情報ポインタをユーザキーフレーム抽出履歴情報リストから取得することにより、参照することが可能である。   As shown in FIG. 16, the user key frame extraction history information list is a list for acquiring user key frame extraction history information. The user key frame extraction history information list includes key frame extraction history information for each user. The head pointer is stored. That is, when acquiring the user 2 key frame extraction history information, the user 2 key frame extraction history information pointer can be referred to by acquiring it from the user key frame extraction history information list.

図15のユーザキーフレーム抽出履歴情報の各要素データを示す。要素データ「ユーザID」は、キーフレーム抽出履歴情報を保持するユーザを識別するものである。この要素データ「ユーザID」には、指紋検出部31により取得されたユーザIDが使用される。要素データ「キーフレーム抽出履歴情報格納数」は、ユーザが保持しているキーフレーム抽出履歴情報の数を示す。要素データ「キーフレーム抽出履歴情報のリンク情報」には、キーフレーム抽出履歴情報への先頭アドレスが記述される。   Each element data of the user key frame extraction log | history information of FIG. 15 is shown. The element data “user ID” identifies a user who holds key frame extraction history information. As the element data “user ID”, the user ID acquired by the fingerprint detection unit 31 is used. The element data “number of key frame extraction history information stored” indicates the number of key frame extraction history information held by the user. In the element data “link information of key frame extraction history information”, a head address to the key frame extraction history information is described.

図16のユーザ1キーフレーム抽出履歴情報では、ユーザIDに、ユーザ1の識別情報が格納されている。ユーザ1に対するキーフレーム抽出履歴情報は、N個存在し、N個のキーフレーム抽出履歴情報の先頭ポインタは、各キーフレーム抽出履歴情報の格納場所を示している。   In the user 1 key frame extraction history information in FIG. 16, the identification information of the user 1 is stored in the user ID. There are N pieces of key frame extraction history information for the user 1, and the head pointer of the N pieces of key frame extraction history information indicates the storage location of each key frame extraction history information.

図17はキーフレーム抽出履歴情報の構造を示す図である。図18はキーフレーム抽出履歴情報リストの構造を示す図である。キーフレーム抽出履歴情報は、撮像装置に予め設定されている映像区間分類情報のキーフレーム抽出方法で抽出されたキーフレームに対し、操作者がキーフレームの変更を行ったときに作成され、キーフレームの変更が行われた映像区間のキーフレーム抽出方法が登録される情報である。   FIG. 17 shows the structure of key frame extraction history information. FIG. 18 is a diagram showing the structure of the key frame extraction history information list. The key frame extraction history information is created when the operator changes the key frame with respect to the key frame extracted by the key frame extraction method of the video section classification information preset in the imaging device. The information for registering the key frame extraction method of the video section where the change is made.

図16に示すように、キーフレーム抽出履歴情報は、ユーザキーフレーム抽出履歴情報にリンクされており、ユーザキーフレーム抽出履歴情報に格納されているポインタを参照することにより取得される。取得したキーフレーム抽出履歴情報は、図18に示すように、必要に応じてキーフレーム抽出詳細情報にリンクされる。   As shown in FIG. 16, the key frame extraction history information is linked to the user key frame extraction history information, and is obtained by referring to a pointer stored in the user key frame extraction history information. The acquired key frame extraction history information is linked to key frame extraction detailed information as necessary, as shown in FIG.

キーフレーム抽出履歴情報データの各要素データを示す。要素データ「分類情報」には、操作者がキーフレームを変更した映像区間におけるサブショット情報から取得された映像区間の分類タイプ(分類情報)が記述される。要素データ「キーフレーム抽出タイプ情報格納数」には、分類情報に分類される映像区間におけるキーフレーム抽出方法の数が記述される。要素データ「キーフレーム抽出タイプ情報」には、操作者がキーフレームを設定・変更して取得された新規のキーフレームの抽出方法が記述される。具体的に、マイナスの連番が格納されている場合、キーフレーム抽出詳細情報へのリンクを行うことを意味し、キーフレーム抽出詳細情報に格納された値を使用し、キーフレーム抽出が行われる。このキーフレーム抽出タイプ情報は、映像区間分類情報のキーフレーム抽出タイプ情報と同じであり、キーフレーム抽出タイプ情報格納数で指定された数だけ存在する。   Each element data of key frame extraction history information data is shown. The element data “classification information” describes the classification type (classification information) of the video section acquired from the sub-shot information in the video section whose key frame has been changed by the operator. In the element data “number of key frame extraction type information stored”, the number of key frame extraction methods in the video section classified in the classification information is described. The element data “key frame extraction type information” describes a method for extracting a new key frame obtained by the operator setting / changing the key frame. Specifically, when a negative serial number is stored, it means that a link to key frame extraction detailed information is performed, and a key frame extraction is performed using a value stored in the key frame extraction detailed information. . This key frame extraction type information is the same as the key frame extraction type information of the video section classification information, and there are the number specified by the number of stored key frame extraction type information.

図19はキーフレーム抽出詳細情報の構造を示す図である。図20はキーフレーム抽出詳細情報リストの構造を示す図である。キーフレーム抽出詳細情報は、キーフレーム抽出履歴情報の分類情報で分類される映像区間のキーフレーム抽出方法を示し、キーフレームを抽出するために使用される値を格納する。このキーフレーム抽出詳細情報は、分類情報におけるキーフレーム抽出方法(キーフレーム抽出詳細情報を参照する抽出方法を除く)と異なる値を必要とする抽出方法において、操作者によりキーフレームの変更が行われた場合に作成される。   FIG. 19 is a diagram showing a structure of key frame extraction detailed information. FIG. 20 shows the structure of the key frame extraction detailed information list. The key frame extraction detailed information indicates a key frame extraction method of the video section classified by the classification information of the key frame extraction history information, and stores a value used for extracting the key frame. This key frame extraction detailed information is an extraction method that requires a value different from the key frame extraction method in the classification information (excluding the extraction method that refers to the key frame extraction detailed information), and the key frame is changed by the operator. Created when

図20に示すように、キーフレーム抽出詳細情報リストには、キーフレーム抽出詳細情報の先頭ポインタが格納されている。このキーフレーム抽出詳細情報は、図18に示すように、キーフレーム抽出履歴情報(キーフレーム抽出タイプ情報)から参照される。例えば、キーフレーム抽出履歴情報(キーフレーム抽出タイプ情報)に「−2」が指定されていた場合、キーフレーム抽出詳細情報タイプ情報2のキーフレーム抽出詳細情報が設定されていることを表す。   As shown in FIG. 20, the key frame extraction detailed information list stores the head pointer of the key frame extraction detailed information. The key frame extraction detailed information is referred to from key frame extraction history information (key frame extraction type information) as shown in FIG. For example, when “−2” is designated in the key frame extraction history information (key frame extraction type information), it indicates that the key frame extraction detailed information of the key frame extraction detailed information type information 2 is set.

キーフレーム抽出詳細情報データの各要素データを示す。要素データ「キーフレーム抽出詳細情報タイプ情報」には、キーフレーム抽出方法(キーフレーム抽出詳細情報に格納されている値を利用して抽出する方法)の種別が記述される。キーフレーム抽出詳細情報タイプ情報には、連番が格納される。この連番は、キーフレーム抽出タイプ情報に、「−1」をかけた値である。また、要素データ「キーフレーム抽出関連値格納数」は、キーフレームの抽出を行うために使用される値の格納数を示す。要素データ「キーフレーム抽出関連値」は、キーフレームの抽出を行うために使用する値である。   Each element data of key frame extraction detailed information data is shown. The element data “key frame extraction detailed information type information” describes the type of key frame extraction method (a method of extracting using a value stored in the key frame extraction detailed information). A serial number is stored in the key frame extraction detailed information type information. This serial number is a value obtained by multiplying the key frame extraction type information by “−1”. The element data “number of key frame extraction related values stored” indicates the number of stored values used for extracting key frames. The element data “key frame extraction related value” is a value used to extract a key frame.

図21はキーフレーム抽出方法決定情報の構造を示す図である。図22はキーフレーム抽出方法決定情報インデックスリストの構造を示す図である。キーフレーム抽出方法決定情報は、操作者が設定されたキーフレームを変更した場合、新規に設定されたキーフレームの抽出方法を特定するための情報である。このキーフレーム抽出方法決定情報は、新規キーフレームとして設定されたフレームの付属情報、および新規キーフレームのフレーム位置情報の少なくとも1つあるいはその組合せにより、キーフレーム抽出方法を特定するためのキーフレーム抽出方法条件情報、および全てのキーフレーム抽出条件情報と一致した映像区間におけるキーフレームを設定するためのキーフレーム抽出タイプ情報を保持する。   FIG. 21 is a diagram showing the structure of key frame extraction method determination information. FIG. 22 is a diagram showing the structure of the key frame extraction method determination information index list. The key frame extraction method determination information is information for specifying a method for extracting a newly set key frame when the operator changes the set key frame. The key frame extraction method determination information includes key frame extraction for specifying a key frame extraction method based on at least one of or a combination of frame additional information set as a new key frame and frame position information of the new key frame. The method condition information and key frame extraction type information for setting the key frame in the video section that matches all the key frame extraction condition information are held.

図22で示すように、キーフレーム抽出方法決定情報は、分類情報毎に存在する。分類情報におけるインデックス情報は、キーフレーム抽出方法決定情報インデックスリストに格納される。このインデックス情報の要素データには、分類情報(映像区間の分類情報)、インデックス格納数(分類情報に分類される映像区間のキーフレーム抽出方法決定情報の先頭ポインタ格納数)、およびインデックス(キーフレーム抽出方法決定情報の先頭ポインタ)がある。   As shown in FIG. 22, the key frame extraction method determination information exists for each classification information. The index information in the classification information is stored in the key frame extraction method determination information index list. The element data of the index information includes classification information (video section classification information), index storage count (number of key pointer extraction method determination information for the video section classified in the classification information), and index (key frame). There is a leading pointer of extraction method decision information).

例えば、分類情報からキーフレーム抽出方法決定情報1を取得する場合、キーフレーム抽出方法決定情報インデックスリストのインデックス情報1を参照し、分類情報のインデックス情報1を取得する。このインデックス情報1から、キーフレーム抽出方法決定情報の先頭ポインタをインデックス格納数分(Q個)取得し、キーフレーム抽出方法決定情報を取得する。つまり、操作者がキーフレームの変更操作を行った場合、キーフレームが変更になった映像区間の分類情報をサブショット情報から取得し、キーフレーム抽出方法決定情報インデックスリストから取得した分類情報を持つインデックス情報を求め、キーフレーム抽出方法決定情報を取得する。取得したキーフレーム抽出方法決定情報を基に、新規に設定されたキーフレームの抽出方法を特定する。また、キーフレーム抽出方法決定情報には、必ずキーフレームが抽出されるように、デフォルトのキーフレーム抽出方法決定情報が存在しており、例えば、映像区間中のキーフレーム位置の割合を求めて特定する方法などが記述されている。   For example, when acquiring the key frame extraction method determination information 1 from the classification information, the index information 1 of the classification information is acquired by referring to the index information 1 of the key frame extraction method determination information index list. From this index information 1, the head pointer of the key frame extraction method determination information is acquired for the number of stored indexes (Q), and key frame extraction method determination information is acquired. That is, when the operator performs a key frame change operation, the classification information of the video section in which the key frame is changed is acquired from the sub-shot information, and the classification information acquired from the key frame extraction method determination information index list is included. Index information is obtained, and key frame extraction method determination information is obtained. Based on the acquired key frame extraction method determination information, a newly set key frame extraction method is specified. The key frame extraction method determination information includes default key frame extraction method determination information so that the key frame is always extracted. For example, the key frame extraction method determination information is specified by obtaining the ratio of the key frame position in the video section. The method to do is described.

キーフレーム抽出方法決定情報の各要素データを示す。要素データ「キーフレーム抽出方法条件情報」には、キーフレーム変更操作において、新規にキーフレームとなったフレームの位置を特定するためのキーフレーム抽出方法条件情報が記述される。   Each element data of key frame extraction method determination information is shown. In the element data “key frame extraction method condition information”, key frame extraction method condition information for specifying the position of a frame that newly becomes a key frame in the key frame change operation is described.

図23はキーフレーム抽出方法条件情報の構造を示す図である。要素データ「キーフレーム抽出方法判断処理タイプ情報格納数」には、キーフレーム抽出方法判断処理タイプ情報で示される判断処理数が格納される。要素データ「キーフレーム抽出方法判断処理タイプ情報」は、新規に設定されたキーフレームのフレーム番号と、キーフレーム抽出方法判断処理で取得されたフレーム番号とを比較する際の処理タイプを示す。   FIG. 23 shows the structure of key frame extraction method condition information. The element data “number of key frame extraction method determination process type information storage” stores the number of determination processes indicated by the key frame extraction method determination process type information. The element data “key frame extraction method determination processing type information” indicates a processing type when comparing the frame number of a newly set key frame with the frame number acquired in the key frame extraction method determination processing.

例えば、キーフレーム抽出方法判断処理タイプ情報が「1」である場合、「サブショットの開始フレーム番号とキーフレーム番号を比較する処理である」ことを示す。「2」である場合、「サブショットの終了フレーム番号とキーフレーム番号を比較する処理である」ことを示す。「3」である場合、「ズーム(縮小→拡大)開始フレーム番号とキーフレーム番号を比較する処理である」ことを示す。「4」である場合、「ズーム(縮小→拡大)終了フレーム番号とキーフレーム番号を比較する処理である」ことを示す。「5」である場合、「ズーム(縮小→拡大)中間フレーム番号とキーフレーム番号を比較する処理である」ことを示す。この中間フレーム番号として、中間値の割合が取得される。   For example, when the key frame extraction method determination processing type information is “1”, this indicates “a process of comparing the start frame number of the sub-shot with the key frame number”. “2” indicates “a process of comparing the end frame number of the sub-shot and the key frame number”. “3” indicates “a process of comparing the zoom (reduction → enlargement) start frame number with the key frame number”. “4” indicates “a process of comparing the zoom (reduction → enlargement) end frame number with the key frame number”. “5” indicates “a process of comparing the zoom (reduction → enlargement) intermediate frame number with the key frame number”. As the intermediate frame number, the ratio of the intermediate value is acquired.

また、「6」である場合、「ズーム(拡大→縮小)開始フレーム番号とキーフレーム番号を比較する処理である」ことを示す。「7」である場合、「ズーム(拡大→縮小)終了フレーム番号とキーフレーム番号を比較する処理である」ことを示す。「8」である場合、「ズーム(拡大→縮小)中間フレーム番号とキーフレーム番号を比較する処理である」ことを示す。この中間フレーム番号として、中間値の割合が取得される。   Further, “6” indicates “a process of comparing the zoom (enlargement → reduction) start frame number with the key frame number”. “7” indicates “a process of comparing the zoom (enlargement → reduction) end frame number with the key frame number”. “8” indicates “a process of comparing the zoom (enlargement → reduction) intermediate frame number with the key frame number”. As the intermediate frame number, the ratio of the intermediate value is acquired.

また、「9」である場合、「チルト開始フレーム番号とキーフレーム番号を比較する処理である」ことを示す。「10」である場合、「チルト終了フレーム番号とキーフレーム番号を比較する処理である」ことを示す。「11」である場合、「チルト中間フレーム番号とキーフレーム番号を比較する処理である」ことを示す。この中間フレーム番号として、中間値の割合が取得される。   Further, “9” indicates “a process of comparing the tilt start frame number with the key frame number”. When it is “10”, it indicates that “this is a process of comparing the tilt end frame number with the key frame number”. “11” indicates that “this is a process of comparing the tilt intermediate frame number with the key frame number”. As the intermediate frame number, the ratio of the intermediate value is acquired.

また、「12」である場合、「パン開始フレーム番号とキーフレーム番号を比較する処理である」ことを示す。「13」である場合、「パン終了フレーム番号とキーフレーム番号を比較する処理である」ことを示す。「14」である場合、「パン中間フレーム番号とキーフレーム番号を比較する処理である」ことを示す。この中間フレーム番号として、中間値の割合が取得される。   Further, “12” indicates “a process of comparing the pan start frame number and the key frame number”. “13” indicates “a process of comparing the pan end frame number with the key frame number”. “14” indicates “a process of comparing the pan intermediate frame number with the key frame number”. As the intermediate frame number, the ratio of the intermediate value is acquired.

また、要素データ「キーフレーム抽出タイプ情報」には、キーフレーム抽出方法条件情報に一致した映像区間におけるキーフレームの抽出方法が記述される。このキーフレーム抽出タイプ情報は、キーフレーム抽出履歴情報のキーフレーム抽出タイプ情報と同じ値を有するので、その説明を省略する。   The element data “key frame extraction type information” describes a method for extracting a key frame in a video section that matches the key frame extraction method condition information. Since this key frame extraction type information has the same value as the key frame extraction type information of the key frame extraction history information, description thereof is omitted.

また、要素データ「判定タイプ情報」には、新規キーフレーム番号とフレーム番号を判定する方法が格納される。例えば、判定タイプ情報が「1」である場合、「=」、つまり分類判断処理で取得された値と比較値とが等しいか否かを比較することを示す。「2」である場合、「!=」、つまり分類判断処理で取得された値と比較値とが等しくないか否かを比較することを示す。「3」である場合、「>」、つまり分類判断処理で取得された値が比較値より大きいか否かを比較することを示す。「4」である場合、「<」、つまり分類判断処理で取得された値が比較値より小さいか否かを比較することを示す。「5」である場合、「≦」、つまり分類判断処理で取得された値が比較値以下であるか否かを比較することを示す。「6」である場合、「≧」、つまり分類判断処理で取得された値が比較値以上であるか否かを比較することを示す。   The element data “determination type information” stores a new key frame number and a method for determining the frame number. For example, when the determination type information is “1”, it indicates that “=”, that is, whether or not the value acquired in the classification determination process is equal to the comparison value. “2” indicates that “! =”, That is, whether the value acquired in the classification determination process is not equal to the comparison value. When “3”, it indicates “>”, that is, whether or not the value acquired in the classification determination process is larger than the comparison value. “4” indicates that “<”, that is, whether or not the value acquired in the classification determination process is smaller than the comparison value. “5” indicates that “≦”, that is, whether or not the value acquired in the classification determination process is equal to or less than the comparison value. “6” indicates that “≧”, that is, whether or not the value acquired in the classification determination process is greater than or equal to the comparison value.

図24はキーフレーム抽出方法決定情報の具体例を示す図である。図13に示す映像区間分類情報を想定した場合の、キーフレーム抽出方法決定情報を示す。図24には、図13の映像区間分類情報(映像区間分類情報=1)のキーフレーム抽出方法決定情報が示されている。   FIG. 24 is a diagram showing a specific example of key frame extraction method determination information. 14 shows key frame extraction method determination information when the video section classification information shown in FIG. 13 is assumed. FIG. 24 shows key frame extraction method determination information of the video section classification information (video section classification information = 1) in FIG.

分類情報1のキーフレーム抽出方法決定情報では、インデックス情報がS個存在し、キーフレーム抽出方法決定情報の先頭ポインタがS個格納されている。キーフレーム抽出方法決定情報のポインタを取得した順番に、キーフレーム抽出方法決定情報を参照し、キーフレーム抽出方法決定情報のキーフレーム抽出条件情報に記述されている判断処理タイプ情報から、付属情報に関するフレーム番号を取得する。そして、新規に設定されたキーフレームのフレーム番号に対し、判定タイプ情報で指定された判定タイプの比較を行う。   In the key frame extraction method determination information of the classification information 1, there are S index information, and S head pointers of the key frame extraction method determination information are stored. With reference to the key frame extraction method determination information in the order in which the pointers of the key frame extraction method determination information are acquired, the decision processing type information described in the key frame extraction condition information of the key frame extraction method determination information Get the frame number. Then, the determination type specified by the determination type information is compared with the frame number of the newly set key frame.

キーフレーム抽出条件情報に格納されている判断処理が全て一致した場合、キーフレーム抽出方法決定情報に記述されているキーフレーム抽出タイプ情報を取得する。例えば、図24に示す動画区間の分類情報1は、パンが1回行われ、パン区間が長い動画区間であることを示し、その分類情報1に関連する付属情報を用いたキーフレーム抽出条件情報が格納されたキーフレーム抽出方法決定情報が記述されている。   When all the judgment processes stored in the key frame extraction condition information match, the key frame extraction type information described in the key frame extraction method determination information is acquired. For example, the classification information 1 of the moving image section shown in FIG. 24 indicates that the panning is performed once and the panning section is a long moving image section, and key frame extraction condition information using attached information related to the classification information 1 Is stored in the key frame extraction method determination information.

例えば、インデックス(ポインタ)1は、新規のキーフレームがパンの開始フレームであるか否かの判断処理タイプ情報を示しており、キーフレームとして設定されたフレーム番号を取得し、そのフレーム番号によって示される撮影環境情報のイベント種別がパン開始であるか否かを比較する。イベント種別がパン開始と一致した場合、キーフレームがパン開始位置に設定されたとみなされ、キーフレーム抽出方法決定情報に記述されているキーフレーム抽出方法として、キーフレーム抽出タイプ情報の「13」のパン開始フレームを決定する。   For example, the index (pointer) 1 indicates determination processing type information as to whether or not a new key frame is a pan start frame, acquires a frame number set as a key frame, and indicates the frame number by that frame number. It is compared whether or not the event type of the shooting environment information is pan start. When the event type matches the pan start, it is considered that the key frame is set at the pan start position. As the key frame extraction method described in the key frame extraction method determination information, the key frame extraction type information “13” is set. Determine the pan start frame.

また例えば、インデックス(ポインタ)3には、新規キーフレームがパンの中間フレームであるか否かを判断するための判断処理タイプ情報が記述されている。キーフレームとして設定されたフレーム番号の撮影環境情報のイベント種別を参照し、イベント種別が比較値(パン継続)と等しいか否かを比較する。パン継続であった場合、そのパン中のどのフレームがキーフレームとなったのか、その位置情報を数式(1)にしたがって算出する。   For example, the index (pointer) 3 describes determination processing type information for determining whether or not the new key frame is an intermediate frame of pan. The event type of the shooting environment information of the frame number set as the key frame is referred to, and it is compared whether or not the event type is equal to the comparison value (pan continuation). If panning is continued, the position information of which frame in the pan has become a key frame is calculated according to Equation (1).

位置情報=(キーフレームとなるフレームの番号―パン開始フレーム番号)/(パン終了フレーム番号―パン開始フレーム番号) …… (1)
この算出された値は、キーフレーム抽出詳細情報(図19参照)に格納される。パンフレームの中間にキーフレームを設定するキーフレーム抽出方法が格納されたキーフレーム抽出詳細情報のタイプ情報を、キーフレーム抽出タイプ情報から取得する。図24では、キーフレーム抽出詳細情報のタイプ情報は、「3」=(−3)×(−1)である。キーフレーム抽出詳細情報のタイプ情報が「3」であるキーフレーム抽出詳細情報に、数式(1)により算出された値を格納する。例えば、取得(算出)した値が「0.1」であった場合、図20に示すように、キーフレーム抽出詳細情報のタイプ情報3の関連値1に「0.1」が格納される。
Position information = (frame number to be a key frame-pan start frame number) / (pan end frame number-pan start frame number) (1)
This calculated value is stored in the key frame extraction detailed information (see FIG. 19). Type information of key frame extraction detailed information in which a key frame extraction method for setting a key frame in the middle of a pan frame is stored is acquired from the key frame extraction type information. In FIG. 24, the type information of the key frame extraction detailed information is “3” = (− 3) × (−1). The value calculated by the formula (1) is stored in the key frame extraction detailed information whose type information of the key frame extraction detailed information is “3”. For example, when the acquired (calculated) value is “0.1”, “0.1” is stored in the related value 1 of the type information 3 of the key frame extraction detailed information as shown in FIG.

上記構成を有する撮像装置のキーフレーム設定処理動作を示す。図25および図26は撮像装置におけるキーフレーム設定処理手順を示すフローチャートである。この処理プログラムは、撮像装置内の記憶媒体に格納されており、撮像装置内のCPU(具体的には、システム制御部23内のCPUおよび映像管理部17内のCPU)によって、電源ON後に実行される。   The key frame setting processing operation of the imaging apparatus having the above configuration will be described. 25 and 26 are flowcharts showing a key frame setting process procedure in the imaging apparatus. This processing program is stored in a storage medium in the imaging apparatus, and is executed after the power is turned on by a CPU in the imaging apparatus (specifically, a CPU in the system control unit 23 and a CPU in the video management unit 17). Is done.

まず、初期化処理を行い(ステップS1)、操作入力部24から入力を待つ(ステップS2)。操作入力部24から何らかの入力があった場合、入力操作の内容を判別する。即ち、入力操作がRECボタン27の押下による撮影開始であるか否かを判別する(ステップS3)。入力操作がRECボタン27の押下であった場合、撮影処理を行う(ステップS6)。このとき、前述した操作情報および撮影環境情報を記録部29に出力するとともに、RAM43内の撮影環境情報リストに時系列順で一時記憶する。   First, initialization processing is performed (step S1), and input from the operation input unit 24 is awaited (step S2). When there is any input from the operation input unit 24, the content of the input operation is determined. That is, it is determined whether or not the input operation is to start shooting by pressing the REC button 27 (step S3). If the input operation is pressing of the REC button 27, a photographing process is performed (step S6). At this time, the above-described operation information and shooting environment information are output to the recording unit 29 and are temporarily stored in the shooting environment information list in the RAM 43 in time series order.

撮影が終了したか否かを判別し(ステップS7)、終了していない場合、撮影が終了するまで、ステップS6の処理を繰り返す。ここで、撮影の終了は、RECボタン27が再び押下された場合、記録メディア30の記録容量が一杯になった場合、電源を供給できなくなりそうな場合など、いずれかの条件が満たされた時に行われる。   It is determined whether or not the shooting has been completed (step S7). If the shooting has not been completed, the process of step S6 is repeated until the shooting is completed. Here, the end of shooting is when the REC button 27 is pressed again, when the recording capacity of the recording medium 30 is full, or when it is likely that power cannot be supplied, or when any of the conditions is satisfied. Done.

ステップS7で撮影が終了した場合、撮影された映像データをサブショット映像区間毎に分割する映像分割処理を行う(ステップS8)。分割された映像区間を代表するフレーム画像を設定するキーフレーム設定処理を行う(ステップS9)。このキーフレーム設定処理の詳細については後述する。この後、ステップS2の処理に戻り、次の入力操作を待つ。   When shooting is completed in step S7, video division processing is performed to divide the shot video data into sub-shot video sections (step S8). A key frame setting process for setting a frame image representing the divided video section is performed (step S9). Details of the key frame setting process will be described later. Thereafter, the process returns to step S2 to wait for the next input operation.

一方、ステップS3で入力操作がRECボタン27の押下でなかった場合、キーフレーム一覧表示の指示が行われたか否かを判別する(ステップS4)。このキーフレーム一覧表示の指示は、予めキーフレーム一覧表示の機能が設定された操作入力部(操作パネル)24のボタン等が押された場合、メニューボタン32からキーフレーム一覧表示が指定された場合などで、実行可能である。キーフレーム一覧表示の指示が行われた場合、キーフレームの一覧表示処理を行う(ステップS10)。この後、ステップS2の処理に戻り、次の入力操作を待つ。このキーフレーム一覧表示処理では、サブショット情報リスト(図9参照)に登録されている全てのポインタからサブショット情報を取得し、そのサブショット情報(図8参照)の要素データKeyFrameからキーフレームとなるフレーム番号を取得し、その対応する画像データを取得して表示部18に表示する。   On the other hand, if the input operation is not pressing the REC button 27 in step S3, it is determined whether or not an instruction to display a key frame list has been issued (step S4). The key frame list display is instructed when a button or the like of the operation input unit (operation panel) 24 for which the key frame list display function is set in advance is pressed, or when the key frame list display is specified from the menu button 32. And so on. When an instruction to display a key frame list is given, key frame list display processing is performed (step S10). Thereafter, the process returns to step S2 to wait for the next input operation. In this key frame list display process, sub shot information is acquired from all pointers registered in the sub shot information list (see FIG. 9), and the key frame and key frame are obtained from the element data KeyFrame of the sub shot information (see FIG. 8). And the corresponding image data is acquired and displayed on the display unit 18.

図49は動画区間毎のキーフレームを一覧表示する操作画面を示す図である。この操作画面では、撮影された映像を分割した動画(映像)区間毎のキーフレームが一覧表示されている。サブショット情報も、動画区間AからPに対して作成される。後述するように、動画区間Bにおけるキーフレームの変更操作が行われた場合、動画区間Bにおけるキーフレームの変更処理が開始する。   FIG. 49 is a diagram showing an operation screen for displaying a list of key frames for each moving image section. In this operation screen, a list of key frames for each moving image (video) section obtained by dividing the captured video is displayed. Sub-shot information is also created for moving image sections A to P. As will be described later, when the key frame changing operation in the moving image section B is performed, the key frame changing process in the moving image section B is started.

一方、ステップS4でキーフレーム一覧表示指示が行われていない場合、キーフレームの変更指示が行われたか否かを判別する(ステップS5)。このキーフレームの変更指示の有無は、予めキーフレーム変更の機能が設定された操作入力部(操作パネル)24のメニューボタン32によってキーフレーム変更が選択されること等で判別可能である。キーフレームの変更指示が行われた場合、キーフレームの変更処理を行う(ステップS11)。このキーフレームの変更処理の詳細については後述する。この後、ステップS2の処理に戻り、次の入力操作を待つ。   On the other hand, if the key frame list display instruction has not been issued in step S4, it is determined whether or not a key frame change instruction has been issued (step S5). Whether or not there is an instruction to change the key frame can be determined by selecting the key frame change by the menu button 32 of the operation input unit (operation panel) 24 in which the function of changing the key frame is set in advance. When a key frame change instruction is issued, a key frame change process is performed (step S11). Details of the key frame changing process will be described later. Thereafter, the process returns to step S2 to wait for the next input operation.

一方、ステップS5でキーフレーム変更指示が行われていない場合、ユーザ認識指示が行われたか否かを判別する(ステップS12)。このユーザ認識指示の有無は、指紋検出部31のセンサ部に指が押し当てられたことにより判別可能である。ユーザ認識指示が行われた場合、ユーザ識別処理を行う(ステップS13)。この後、ステップS2の処理に戻り、次の入力操作を待つ。このユーザ識別処理では、特許文献2に示される指紋認識技術が用いられ、指紋検出部31に押し当てられた指によって生じた影をセンサ部で指紋であると検出し、この指紋を、予め記憶されたユーザ認識データリスト(ユーザIDと指紋データが対であるリスト)からの指紋データと照合する。指紋データが一致した場合、操作者を識別するユーザIDが取得される。一方、指紋データが一致しなかった場合、新規ユーザとして、指紋データとユーザIDがユーザ認識データリストに登録される。そして、現在使用されている操作者のユーザIDは、RAM43に保持される。   On the other hand, when the key frame change instruction is not performed in step S5, it is determined whether or not the user recognition instruction is performed (step S12). The presence / absence of this user recognition instruction can be determined by pressing a finger against the sensor unit of the fingerprint detection unit 31. When a user recognition instruction is given, user identification processing is performed (step S13). Thereafter, the process returns to step S2 to wait for the next input operation. In this user identification process, a fingerprint recognition technique disclosed in Patent Document 2 is used, and a shadow generated by a finger pressed against the fingerprint detection unit 31 is detected as a fingerprint by the sensor unit, and this fingerprint is stored in advance. It is compared with the fingerprint data from the user recognition data list (a list in which the user ID and the fingerprint data are a pair). If the fingerprint data matches, a user ID that identifies the operator is acquired. On the other hand, if the fingerprint data does not match, the fingerprint data and the user ID are registered in the user recognition data list as a new user. The user ID of the operator currently used is held in the RAM 43.

一方、ステップS12でユーザ認識指示がなかった場合、その他の処理を行い(ステップS14)、ステップS2の処理に戻る。また、割込み信号46による割り込みが発生した場合、本処理を中断して必要な割り込み処理が行われる。   On the other hand, if there is no user recognition instruction in step S12, other processes are performed (step S14), and the process returns to step S2. When an interrupt is generated by the interrupt signal 46, this process is interrupted and necessary interrupt processing is performed.

図27はステップS8における映像分割処理手順を示すフローチャートである。本実施形態では、撮像装置で撮影された映像データは、ショット単位(録画操作の開始・終了を基準に分割された単位)に分割される。さらに、ショット内の映像データは、操作情報(ズームなどの操作情報)、撮影環境情報(パンやチルトなどの情報)などの情報を基に、サブショット単位に分割される。   FIG. 27 is a flowchart showing the video division processing procedure in step S8. In the present embodiment, the video data captured by the imaging apparatus is divided into shot units (units divided based on the start / end of the recording operation). Furthermore, video data in a shot is divided into sub-shot units based on information such as operation information (operation information such as zoom) and shooting environment information (information such as pan and tilt).

まず、記憶されている撮影環境情報リストの先頭にポインタを設定する(ステップS21)。ポインタで示された撮影環境情報のイベント種別情報がパンの開始であるか否かを判別する(ステップS22)。パン開始であった場合、ズーム区間中であるか否かを判別する(ステップS23)。この判別は、パン中にズームを開始するなど、複数の操作が同一時間内で行われた場合、最初に発生した操作に着目し、サブショットに分割するために行われる。また、撮影環境情報リスト内の現在処理されているポインタから、撮影環境情報データリストの前後の要素データを参照することで行われる。   First, a pointer is set at the head of the stored shooting environment information list (step S21). It is determined whether or not the event type information of the shooting environment information indicated by the pointer is the start of panning (step S22). If panning has started, it is determined whether or not the zoom section is in progress (step S23). This determination is performed in order to divide into sub-shots by paying attention to the operation that occurs first when a plurality of operations are performed within the same time, such as starting zooming during panning. Further, it is performed by referring to the element data before and after the shooting environment information data list from the currently processed pointer in the shooting environment information list.

ステップS23でズーム中でなかった場合、画面上の移動量を換算する(ステップS24)。同じ回転角度であっても、撮像装置がズーミングを行っている場合、画面上の移動は激しいものとなる。そこで、回転角度に、ズーム位置毎に予め決められた係数を掛けることによって換算を行う。そして、撮影環境情報リスト内の現在処理中のポインタからパン終了時までのパン全体における総移動量を算出する。   If the zoom is not performed in step S23, the movement amount on the screen is converted (step S24). Even when the rotation angle is the same, when the image pickup apparatus is zooming, the movement on the screen is intense. Therefore, the conversion is performed by multiplying the rotation angle by a coefficient predetermined for each zoom position. Then, the total movement amount of the entire pan from the pointer currently being processed in the shooting environment information list to the end of panning is calculated.

画面上の移動量が閾値を越えているか否かを判別する(ステップS25)。閾値を越えている場合、前回のパン操作終了との時間差が閾値を越えているか否かを判別する(ステップS26)。これは、高頻度に行われた操作を、サブショットの対象外とするためである。前回のパン操作終了との時間差が閾値を越えている場合、パン開始点を分割点とする(ステップS27)。   It is determined whether or not the amount of movement on the screen exceeds a threshold value (step S25). If it exceeds the threshold, it is determined whether or not the time difference from the end of the previous pan operation exceeds the threshold (step S26). This is because operations performed frequently are excluded from sub-shot targets. If the time difference from the end of the previous pan operation exceeds the threshold, the pan start point is set as a division point (step S27).

映像の分割点が決定された場合、分割点の前に位置する映像のサブショット情報における終了点、キーフレーム数およびサブショット情報を新規に作成し、サブショット情報に追加する。一方、新規サブショット情報には、開始点が格納される。これらのサブショット情報は、操作情報および撮影環境情報と同様、記録部29に出力される他、RAM43内のサブショット情報リストに時系列順で一時記憶される。   When the division point of the video is determined, the end point, the number of key frames, and the sub-shot information in the sub-shot information of the video located before the division point are newly created and added to the sub-shot information. On the other hand, the start point is stored in the new sub-shot information. Like the operation information and the shooting environment information, these sub-shot information is output to the recording unit 29 and temporarily stored in the sub-shot information list in the RAM 43 in time series order.

この後、ステップS32の処理に移行する。また、ステップS23でズーム区間中であった場合、ステップS25で画面上の移動量が閾値を越えていない場合、またはステップS26で前回のパン操作終了との時間差が閾値を越えていない場合、分割点を決定することなく、ステップS32の処理に移行する。   Thereafter, the process proceeds to step S32. Further, if the zoom section is in step S23, the amount of movement on the screen does not exceed the threshold value in step S25, or if the time difference from the end of the previous pan operation does not exceed the threshold value in step S26, division is performed. The process proceeds to step S32 without determining a point.

一方、ステップS22の判別の結果、撮影環境情報のイベント種別情報がパン開始でなかった場合、撮影環境情報のイベント種別情報がズーム開始であるか否かを判別する(ステップS28)。ズーム開始であった場合、パン区間中であるか否かを判別する(ステップS29)。このズーム中におけるパン区間中であるか否かの判別は、パン中におけるズーム区間中であるか否かの判別と同様の理由で行われる。   On the other hand, as a result of the determination in step S22, if the event type information in the shooting environment information is not pan start, it is determined whether or not the event type information in the shooting environment information is zoom start (step S28). If the zoom has been started, it is determined whether or not it is during the pan period (step S29). The determination as to whether or not it is during the pan period during zooming is performed for the same reason as the determination as to whether or not it is during the zoom period during panning.

ステップS29でパン区間中でなかった場合、ズーム開始は撮影者の意図したものであるか否かを判別する(ステップS30)。この処理では、複数のズーム操作が行われた場合でも、撮影者は1回のズーム操作を意図していたものと推測する。例えば、初心者に特徴的な操作であって、ワイドボタン25あるいはテレボタン26の操作を意図したズーム倍率で止めることができず、それを補正するために逆方向に戻す操作を行ったと推測される。このことは、ズーム操作を終了してから戻し操作を始めるまでの時間が所定の範囲内であること、ズームスピードが高速であること、ズームの方向が逆になること等から、推測可能である。また、初心者の操作には、ズームを滑らかに行わず、断続的に行うという特徴がある。このような断続的な操作は、時間差とズームの方向から推測可能であり、連続したズーム区間で行われたとみなす。   If it is not in the pan section in step S29, it is determined whether or not the zoom start is intended by the photographer (step S30). In this process, it is estimated that the photographer intended one zoom operation even when a plurality of zoom operations were performed. For example, it is an operation characteristic for beginners, and the operation of the wide button 25 or the tele button 26 cannot be stopped at the intended zoom magnification, and it is presumed that an operation of returning to the reverse direction was performed in order to correct it. . This can be estimated from the fact that the time from the end of the zoom operation to the start of the return operation is within a predetermined range, the zoom speed is high, and the zoom direction is reversed. . In addition, the beginner's operation has a feature that the zooming is performed intermittently rather than smoothly. Such an intermittent operation can be estimated from the time difference and the direction of zooming, and is considered to have been performed in continuous zoom intervals.

ステップS30の判別の結果、ズーム開始が撮影者の意図したものであると推測された場合、ズーム開始点を分割点とする(ステップS31)。前述したように、映像の分割点が決定された場合、分割点の前に位置する映像のサブショット情報における終了点、キーフレーム数およびサブショット情報を新規に作成し、サブショット情報リストに追加する。また、新規のサブショット情報には、開始点が登録される。これらのサブショット情報は、操作情報および撮影環境情報と同様、記録部29に出力される他、RAM43内のサブショット情報リストに時系列順で一時記憶される。撮影環境情報リストの現在のポインタにおける処理が終了すると、ステップS32の処理に進む。また、ステップS28でズーム開始でない場合、ステップS29でパン区間中である場合、あるいはステップS30でズーム開始が撮影者の意図したものでない場合、分割点を決定することなく、ステップS32の処理に進む。そして、次の入力操作情報があるか否かを判別する(ステップS32)。次の入力操作情報がある場合、ステップS22の処理に戻り、一方、次の入力操作情報がない場合、本処理を終了する。   As a result of the determination in step S30, when it is estimated that the zoom start is intended by the photographer, the zoom start point is set as a division point (step S31). As described above, when the video division point is determined, the end point, the number of key frames, and the sub-shot information in the sub-shot information of the video located before the division point are newly created and added to the sub-shot information list To do. Also, the start point is registered in the new sub-shot information. Like the operation information and the shooting environment information, these sub-shot information is output to the recording unit 29 and temporarily stored in the sub-shot information list in the RAM 43 in time series order. When the process at the current pointer in the shooting environment information list is completed, the process proceeds to step S32. If the zoom is not started in step S28, the pan is in step S29, or if the zoom start is not intended by the photographer in step S30, the process proceeds to step S32 without determining a division point. . Then, it is determined whether or not there is next input operation information (step S32). If there is next input operation information, the process returns to step S22. If there is no next input operation information, this process ends.

図28はステップS9におけるキーフレーム設定処理手順を示すフローチャートである。まず、キーフレームの設定を行う操作者のユーザIDをRAM43から取得する(ステップS41)。ユーザIDが設定されていなかった場合、本撮像装置に予め指定されている共通ユーザのユーザIDが取得される。   FIG. 28 is a flowchart showing the key frame setting processing procedure in step S9. First, the user ID of the operator who sets the key frame is acquired from the RAM 43 (step S41). When the user ID is not set, the user ID of the common user specified in advance in the imaging apparatus is acquired.

キーフレーム設定処理を行うための初期化処理を行う(ステップS42)。例えば、キーフレームを抽出するサブショット情報リストの先頭にポインタを移動する。そして、サブショット情報リストに示される映像区間毎のキーフレームの設定が終了であるか否かを判別し(ステップS43)、キーフレーム設定終了である場合、本処理を終了する。一方、キーフレーム設定終了でない場合、ステップS44の処理に移行する。   An initialization process for performing the key frame setting process is performed (step S42). For example, the pointer is moved to the head of the sub-shot information list for extracting the key frame. Then, it is determined whether or not the key frame setting for each video section shown in the sub-shot information list is finished (step S43). If the key frame setting is finished, this process is finished. On the other hand, if the key frame setting is not completed, the process proceeds to step S44.

サブショット情報リストおよびサブショット情報を参照し、キーフレームを設定する映像区間の分類情報を取得する(ステップS44)。この分類情報の取得処理は、サブショットの映像区間に関する付属情報(撮像環境情報および操作情報など)を参照し、映像区間分類情報に格納されている分類条件情報を基に判定して行われる。この分類情報の取得処理の詳細については後述する。ステップS41で取得したユーザIDから操作者のキーフレーム抽出履歴情報を取得し、その中からステップS44で取得した分類情報のキーフレーム抽出履歴情報を取得する(ステップS45)。ステップS44で取得した分類情報を基に、キーフレーム抽出タイプ情報を検索して取得する(ステップS46)。ステップS46で取得したキーフレーム抽出タイプ情報を用いて、キーフレームの抽出を行う(ステップS47)。ステップS47で抽出されたキーフレームのフレーム番号をサブショット情報の要素データKeyframeに格納する(ステップS48)。このとき、要素データNumberOfKeyframeの情報は、抽出されたキーフレームに応じて加算される。映像区間分類情報にキーフレーム抽出タイプ情報が2つある場合、キーフレームを2つ取得し、取得したキーフレーム番号が同一でなかった場合、サブショット情報の要素データNumberOfKeyframeの情報は、「+2」加算される。取得した2つのフレーム番号は要素データKeyframeに登録される。   By referring to the sub-shot information list and the sub-shot information, the classification information of the video section for setting the key frame is acquired (step S44). This classification information acquisition process is performed by referring to the attached information (such as imaging environment information and operation information) related to the video section of the sub-shot and based on the classification condition information stored in the video section classification information. Details of the classification information acquisition process will be described later. The key frame extraction history information of the operator is acquired from the user ID acquired in step S41, and the key frame extraction history information of the classification information acquired in step S44 is acquired from the user ID (step S45). Based on the classification information acquired in step S44, key frame extraction type information is searched and acquired (step S46). The key frame is extracted using the key frame extraction type information acquired in step S46 (step S47). The frame number of the key frame extracted in step S47 is stored in the element data Keyframe of the sub-shot information (step S48). At this time, information of element data NumberOfKeyframe is added according to the extracted key frame. When there are two key frame extraction type information in the video section classification information, two key frames are acquired, and when the acquired key frame number is not the same, the information of the element data NumberOfKeyframe of the sub-shot information is “+2”. Is added. The acquired two frame numbers are registered in the element data Keyframe.

図29および図30はステップS44における分類情報の取得処理手順を示すフローチャートである。まず、映像区間分類情報リストの先頭にポインタIを設定する(ステップS51)。例えば、図11に示す映像区間分類情報リストの映像区間分類情報1先頭ポインタにポインタIを移動させる。そして、ポインタIが映像区間分類情報リストの末尾に移動したか否かを判別する(ステップS52)。つまり、全ての映像区間分類情報を参照したか否かを判断する。ステップS52で、全ての映像区間分類情報を参照した場合、当てはまる分類情報が存在しなかったことを意味するので、デフォルトの分類情報を設定し(ステップS67)、本処理を終了する。   FIG. 29 and FIG. 30 are flowcharts showing the classification information acquisition processing procedure in step S44. First, the pointer I is set at the head of the video section classification information list (step S51). For example, the pointer I is moved to the head pointer of the video section classification information 1 in the video section classification information list shown in FIG. Then, it is determined whether or not the pointer I has moved to the end of the video section classification information list (step S52). That is, it is determined whether or not all the video segment classification information has been referred to. If all the video section classification information is referred to in step S52, it means that there is no applicable classification information, so default classification information is set (step S67), and this process is terminated.

一方、ステップS52で全ての映像区間分類情報が参照されていない場合、ポインタIで示される映像区間分類情報を取得する(ステップS53)。図11に示す映像区間分類情報1先頭ポインタを取得し、映像区間分類情報1を取得する。映像区間分類情報の分類条件情報に格納されている分類判断処理タイプ情報格納数を取得する(ステップS54)。分類情報1(図13参照)における分類条件情報(図14参照)では、分類判断処理タイプ情報格納数に「5」が格納されているので、分類判断処理タイプ情報格納数として、「5」が取得される。   On the other hand, if all the video segment classification information is not referenced in step S52, the video segment classification information indicated by the pointer I is acquired (step S53). The video section classification information 1 head pointer shown in FIG. 11 is acquired, and the video section classification information 1 is acquired. The number of classification determination processing type information stored in the classification condition information of the video section classification information is acquired (step S54). In the classification condition information (see FIG. 14) in the classification information 1 (see FIG. 13), “5” is stored in the number of stored classification determination processing type information, so “5” is stored as the number of stored classification determination processing type information. To be acquired.

この後、ステップS55〜S57の処理で、分類条件情報に格納されている分類判断処理を行い、全ての分類判断処理で一致するか否かを判断する。全ての分類判断処理で一致した場合、この分類条件情報を有する分類情報に分類される。まず、分類条件情報に格納されている分類判断処理タイプ情報の分類判断処理を全て終了したか否かを判別する(ステップS55)。分類判断処理を全て終了した場合、ステップS65の処理に移行する。一方、ステップS55で、分類判断処理を全て終了していない場合、次の分類判断処理タイプ情報の分類判断処理を行う。   Thereafter, in steps S55 to S57, the classification determination process stored in the classification condition information is performed, and it is determined whether or not all the classification determination processes match. If all the classification determination processes match, the classification information having the classification condition information is classified. First, it is determined whether or not all the classification determination processes of the classification determination process type information stored in the classification condition information have been completed (step S55). When all the classification determination processes are completed, the process proceeds to step S65. On the other hand, if all the classification determination processes are not completed in step S55, the classification determination process for the next classification determination process type information is performed.

分類判断処理タイプ情報の値が「1」〜「L」(Lは分類判断処理タイプ情報の定義数であり、分類情報1では値5)までであるか否かを判別する(ステップS56)。「1」〜「L」まででない場合、映像区間分類情報リストのポインタIを加算し(ステップS56A)、ステップS52の処理に戻り、次の映像区間分類情報の判定に移行する。   It is determined whether or not the value of the classification determination processing type information is “1” to “L” (L is the number of definitions of the classification determination processing type information, and the value is 5 in the classification information 1) (step S56). If it is not “1” to “L”, the pointer I of the video segment classification information list is added (step S56A), the process returns to step S52, and the process proceeds to determination of the next video segment classification information.

一方、ステップS56で分類判断処理タイプ情報の値が「1」〜「L」までであった場合、ステップS59〜S64で分類判断処理タイプ情報毎の分類判断処理を行う。すなわち、分類判断処理タイプ情報が「1」であるか否かを判別する(ステップS59)。分類判断処理タイプ情報が「1」である場合、分類判断処理タイプ情報1の判断処理を行い(ステップS60)、ステップS57の処理に移行する。一方、分類判断処理タイプ情報が「1」でない場合、分類判断処理タイプ情報が「2」であるか否かを判別する(ステップS61)。分類判断処理タイプ情報が「2」である場合、分類判断処理タイプ情報2の判断処理を行い(ステップS62)、ステップS57の処理に移行する。一方、分類判断処理タイプ情報が「2」でない場合、分類判断処理タイプ情報1、2と同様の処理を、分類判断処理タイプ情報が「L−1」まで行う。そして、分類判断処理タイプ情報が「L−1」でない場合、分類判断処理タイプ情報が「L」であるか否かを判別する(ステップS63)。分類判断処理タイプ情報が「L」である場合、分類判断処理タイプ情報Lの判断処理を行い(ステップS64)、ステップS57の処理に移行する。尚、この分類判断処理の詳細については後述する。   On the other hand, if the value of the classification determination processing type information is “1” to “L” in step S56, the classification determination processing for each classification determination processing type information is performed in steps S59 to S64. That is, it is determined whether or not the classification determination processing type information is “1” (step S59). When the classification determination process type information is “1”, the determination process of the classification determination process type information 1 is performed (step S60), and the process proceeds to step S57. On the other hand, if the classification determination processing type information is not “1”, it is determined whether or not the classification determination processing type information is “2” (step S61). When the classification determination process type information is “2”, the determination process of the classification determination process type information 2 is performed (step S62), and the process proceeds to step S57. On the other hand, when the classification determination processing type information is not “2”, the same processing as the classification determination processing type information 1 and 2 is performed until the classification determination processing type information is “L−1”. If the classification determination process type information is not “L−1”, it is determined whether or not the classification determination process type information is “L” (step S63). If the classification determination process type information is “L”, the determination process of the classification determination process type information L is performed (step S64), and the process proceeds to step S57. Details of this classification determination process will be described later.

このように、ステップS59〜ステップS64で分類判断処理タイプ情報毎の分類判断処理を行った後、各分類判断処理の結果が真である(一致するとみなされる)か否かを判別する(ステップS57)。各分類判断処理の戻り値が真でなかった場合、ポインタIを加算し(ステップS58)、ステップS52に戻り、次の映像区間分類情報に移行する。一方、ステップS57で一致するとみなされた場合、ステップS55に戻って次の分類判断処理タイプ情報に移行する。   As described above, after performing the classification determination processing for each classification determination processing type information in step S59 to step S64, it is determined whether or not the result of each classification determination processing is true (considerable to match) (step S57). ). If the return value of each classification determination process is not true, the pointer I is added (step S58), the process returns to step S52, and the process proceeds to the next video segment classification information. On the other hand, if it is determined in step S57 that the two match, the process returns to step S55 to move to the next classification determination processing type information.

ステップS55で分類判断処理タイプ情報の分類判断処理を全て終了した場合、分類判断処理タイプ情報の全ての分類判断処理が一致して真となったか否かを判別する(ステップS65)。分類条件情報の分類判断処理の結果が全て真となった映像区間分類情報が存在する場合、分類情報を取得し(ステップS66)、本処理を終了する。一方、分類条件情報の分類判断処理が全て真とはならなかった場合、ステップS52の処理に戻る。そして、ステップS52で全ての映像区間分類情報を参照し終えた場合、前述したように、ステップS67でデフォルトの分類情報を設定し、本処理を終了する。   When all the classification determination processes of the classification determination process type information are completed in step S55, it is determined whether or not all the classification determination processes of the classification determination process type information match and become true (step S65). If there is video segment classification information for which the result of classification determination processing for classification condition information is all true, classification information is acquired (step S66), and this process is terminated. On the other hand, if all the classification determination processes of the classification condition information are not true, the process returns to step S52. If all the video segment classification information has been referred to in step S52, the default classification information is set in step S67 as described above, and the process is terminated.

例えば、図14に示す最初の分類判断処理では、分類判断処理タイプ情報1を設定し、開始フレームの撮影環境情報のイベント種別情報を取得することが示されている。そして、取得したイベント種別情報と比較値(0:パン開始)との比較を、判定方法タイプ1(=)で行うことが示されている。つまり、等しいか否かの比較が行われる。   For example, in the first classification determination process shown in FIG. 14, the classification determination process type information 1 is set, and the event type information of the shooting environment information of the start frame is acquired. Then, it is shown that the comparison between the acquired event type information and the comparison value (0: start of panning) is performed by the determination method type 1 (=). That is, a comparison is made as to whether they are equal.

図31はステップS60における分類判断処理タイプ情報1の判断処理手順を示すフローチャートである。まず、比較値(0:パン開始)および判定方法タイプ情報(1:=)を取得する(ステップS71)。サブショット情報の要素データStartTimeから開始フレーム番号を取得し、そのフレーム番号と一致する撮影環境情報を検索し、そのイベント種別情報を求める(ステップS72)。   FIG. 31 is a flowchart showing the determination processing procedure of the classification determination processing type information 1 in step S60. First, a comparison value (0: pan start) and determination method type information (1: =) are acquired (step S71). The start frame number is acquired from the element data StartTime of the sub-shot information, the shooting environment information that matches the frame number is searched, and the event type information is obtained (step S72).

ステップS71で取得した判定方法タイプを判別する(ステップS73)。つまり、判定タイプが「1:=」である場合、等しいか否かの比較を行い(ステップS75)、ステップS74の処理に移行する。判定タイプが「2:!=」である場合、等しくないか否かの比較を行い(ステップS76)、ステップS74の処理に移行する。判定タイプが「3:>」である場合、イベント種別情報が比較値より大きいか否かの比較を行い(ステップS77)、ステップS74の処理に移行する。判定タイプが「4:<」である場合、イベント種別情報が比較値より小さいか否かの比較を行い(ステップS78)、ステップS74の処理に移行する。このような処理を判定タイプが「T−1」まで行った後(ここで、「T」は値5以上の数)、判定タイプが「T」である場合、「T」に対応する判定タイプでイベント種別情報と比較値の比較を行い(ステップS78)、ステップS74の処理に移行する。一方、ステップS73で判定タイプが上記いずれの値でもなく、その他(etc)である場合、ステップS82の処理に移行する。   The determination method type acquired in step S71 is determined (step S73). That is, when the determination type is “1: =”, a comparison is made as to whether or not they are equal (step S75), and the process proceeds to step S74. If the determination type is “2:! =”, A comparison is made as to whether they are not equal (step S76), and the process proceeds to step S74. When the determination type is “3:>”, it is compared whether or not the event type information is larger than the comparison value (step S77), and the process proceeds to step S74. When the determination type is “4: <”, it is compared whether or not the event type information is smaller than the comparison value (step S78), and the process proceeds to step S74. After such processing is performed until the determination type is “T−1” (where “T” is a value of 5 or more), when the determination type is “T”, the determination type corresponding to “T” Then, the event type information is compared with the comparison value (step S78), and the process proceeds to step S74. On the other hand, if it is determined in step S73 that the determination type is not one of the above values and other (etc), the process proceeds to step S82.

ここでは、判定方法タイプが「1」、つまり「=」であるので、ステップS75において、ステップS72で取得したイベント種別情報とステップS71で取得した比較値(0:パン開始)とを比較する。この比較が成立して真であるか否かを判別する(ステップS74)。比較の結果、成立している場合、戻り値として「1」を設定し(ステップS81)、本処理を終了する。一方、比較の結果、不成立である場合、戻り値として「0」を設定し(ステップS82)、本処理を終了する。   Here, since the determination method type is “1”, that is, “=”, in step S75, the event type information acquired in step S72 is compared with the comparison value (0: pan start) acquired in step S71. It is determined whether this comparison is true and true (step S74). As a result of the comparison, if it is established, “1” is set as a return value (step S81), and this process is terminated. On the other hand, if the result of comparison is not established, “0” is set as a return value (step S82), and this process is terminated.

つづいて、図14の2番目の分類判断処理を示す。図32はステップS60における分類判断処理タイプ情報2の判断処理手順を示すフローチャートである。図31と同一のステップ処理については同一のステップ番号を付すことにする。まず、分類判断処理タイプ情報2を設定し、開始フレームの操作情報のイベント種別情報を取得する。そして、取得したイベント種別情報と比較値(1:ズーム継続)との比較を、判定方法タイプ2、つまり「!=」で行う。   Next, the second classification determination process in FIG. 14 is shown. FIG. 32 is a flowchart showing the determination processing procedure of the classification determination processing type information 2 in step S60. The same step numbers are assigned to the same step processes as in FIG. First, classification determination processing type information 2 is set, and event type information of operation information of the start frame is acquired. Then, the comparison between the acquired event type information and the comparison value (1: zoom continuation) is performed with the determination method type 2, that is, “! =”.

具体的に、前述したステップS71で、比較値(1:ズーム継続)および判定方法タイプ情報(2:!=)を取得する。サブショット情報の要素データStartTimeから開始フレーム番号を取得し、そのフレーム番号と一致する操作情報を検索し、そのイベント種別情報を求める(ステップS72A)。ステップS71で取得した判定方法タイプが「2」、つまり「!=」であるので、ステップS73でステップS76の処理に分岐する。ステップS76では、ステップS72で取得したイベント種別情報とステップS71で取得した比較値(1:ズーム継続)とが等しくない(「!=」である)か否かを比較する。そして、ステップS74、S81、S82で比較した結果の値を戻り値として設定し、本分類判断処理タイプ2の判断処理を終了する。同様に、図14の3番目の分類判断処理を示す。この分類判断処理手順は、比較値が異なるだけで2番目の分類判断処理と同様であるので、その説明を省略する。   Specifically, in step S71 described above, a comparison value (1: zoom continuation) and determination method type information (2:! =) Are acquired. The start frame number is acquired from the element data StartTime of the sub-shot information, the operation information that matches the frame number is searched, and the event type information is obtained (step S72A). Since the determination method type acquired in step S71 is “2”, that is, “! =”, The process branches to step S76 in step S73. In step S76, it is compared whether or not the event type information acquired in step S72 and the comparison value (1: zoom continuation) acquired in step S71 are not equal (“! =”). Then, the value obtained as a result of the comparison in steps S74, S81, and S82 is set as a return value, and the determination process of this classification determination process type 2 is terminated. Similarly, the third classification determination process in FIG. 14 is shown. This classification determination processing procedure is the same as the second classification determination processing except that the comparison values are different, and thus the description thereof is omitted.

図14の4番目の分類判断処理では、分類判断処理タイプ情報3を設定し、サブショット中のパンの回数を取得することが示されている。この分類判断処理では、取得したイベント種別と比較値(1:パン継続)との比較を、判定方法タイプ1、つまり「=」で行う。図33はステップS60における分類判断処理タイプ情報3の判断処理手順を示すフローチャートである。図31と同一のステップ処理については同一のステップ番号を付すことにする。ステップS71で、比較値(1:パン継続)および判定方法タイプ情報(1:=)を取得する。そして、サブショット情報の要素データStartTimeから開始フレーム番号を取得し、要素データEndTimeから終了フレーム番号を取得し、そのフレーム番号内のフレーム番号と一致する撮影環境情報を取得し、そのイベント種別が「パン開始」の数を求める(ステップS72B)。ステップS73では、ステップS71で取得した判定方法タイプが「1」、つまり「=」であるので、ステップS75で、ステップS72Bで取得したパン開始の数とステップS71で取得した比較値(1:パン継続)とが等しい(「=」である)かを比較する。ステップS74、S81、S82で比較した結果の値を戻り値として設定し、本分類判断処理タイプ4の判断処理を終了する。   In the fourth classification determination process of FIG. 14, the classification determination process type information 3 is set, and the number of times of panning in the sub-shot is acquired. In this classification determination process, the acquired event type is compared with the comparison value (1: pan continuation) with determination method type 1, that is, “=”. FIG. 33 is a flowchart showing the determination processing procedure of the classification determination processing type information 3 in step S60. The same step numbers are assigned to the same step processes as in FIG. In step S71, a comparison value (1: pan continuation) and determination method type information (1: =) are acquired. Then, the start frame number is acquired from the element data StartTime of the sub-shot information, the end frame number is acquired from the element data EndTime, the shooting environment information that matches the frame number in the frame number is acquired, and the event type is “ The number of “bread start” is obtained (step S72B). In step S73, since the determination method type acquired in step S71 is “1”, that is, “=”, in step S75, the number of pan starts acquired in step S72B and the comparison value acquired in step S71 (1: pan). Compare (Continuation) is equal ("="). The value of the result of comparison in steps S74, S81, and S82 is set as a return value, and the determination processing of this classification determination processing type 4 ends.

図14の5番目の分類判断処理では、分類判断処理タイプ情報4を設定し、パンの長さを取得することが示されている。この分類判断処理では、取得したイベント種別と比較値(予め設定されたパンの長さが大きいことを示す閾値)との比較を、判定方法タイプ3、つまり「>」で行う。図34はステップS60における分類判断処理タイプ情報4の判断処理手順を示すフローチャートである。図31と同一のステップ処理については同一のステップ番号を付すことにする。ステップS71で、比較値(閾値)および判定方法タイプ情報(3:>)を取得する。サブショット情報の要素データStartTimeから開始フレーム番号を取得し、要素データEndTimeから終了フレーム番号を取得し、パン開始からパン終了までの時間を取得する(ステップS72C)。   The fifth classification determination process in FIG. 14 indicates that the classification determination process type information 4 is set and the bread length is acquired. In this classification determination process, a comparison between the acquired event type and a comparison value (a preset threshold value indicating that the bread length is large) is performed using determination method type 3, that is, “>”. FIG. 34 is a flowchart showing the determination processing procedure of the classification determination processing type information 4 in step S60. The same step numbers are assigned to the same step processes as in FIG. In step S71, a comparison value (threshold value) and determination method type information (3:>) are acquired. The start frame number is acquired from the element data StartTime of the sub-shot information, the end frame number is acquired from the element data EndTime, and the time from the start of panning to the end of panning is acquired (step S72C).

ステップS73において、ステップS71で取得した判定方法タイプが「3」、つまり「>」であるので、ステップS77に分岐し、ステップS77では、ステップS72Cで取得したパン開始からパン終了までの時間がステップS71で取得した比較値(閾値)より長い(「>」である)かを比較する。そして、ステップS74、S81、S82で比較した結果の値を戻り値として設定し、本分類判断処理タイプ4の判断処理を終了する。   In step S73, since the determination method type acquired in step S71 is “3”, that is, “>”, the process branches to step S77. In step S77, the time from the start of pan to the end of pan acquired in step S72C is stepped. It is compared whether it is longer (">") than the comparison value (threshold value) acquired in S71. Then, the value obtained as a result of the comparison in steps S74, S81, and S82 is set as a return value, and the determination process of this classification determination process type 4 ends.

図35はステップS47におけるキーフレーム抽出処理手順を示すフローチャートである。まず、キーフレーム抽出タイプ情報がマイナス値であるか否かを判別する(ステップS91)。マイナス値であった場合、キーフレーム抽出詳細情報によるキーフレーム抽出を行い(ステップS92)、本処理を終了する。このキーフレーム抽出詳細情報によるキーフレーム抽出処理の詳細については後述する。   FIG. 35 is a flowchart showing the key frame extraction processing procedure in step S47. First, it is determined whether or not the key frame extraction type information is a negative value (step S91). If it is a negative value, key frame extraction based on the key frame extraction detailed information is performed (step S92), and this process ends. Details of the key frame extraction processing based on the key frame extraction detailed information will be described later.

一方、ステップS91でキーフレーム抽出タイプ情報がマイナス値でなかった場合、ステップS93からステップS98までの処理によって、キーフレーム抽出タイプ情報に応じたキーフレーム抽出処理が行われる。具体的に、キーフレーム抽出タイプ情報が「1」であるか否かを判別する(ステップS93)。キーフレーム抽出タイプ情報が「1」である場合、キーフレーム抽出タイプ1でサブショット映像区間の先頭フレームを取得する(ステップS94)。この後、本処理を終了する。   On the other hand, if the key frame extraction type information is not a negative value in step S91, the key frame extraction processing corresponding to the key frame extraction type information is performed by the processing from step S93 to step S98. Specifically, it is determined whether or not the key frame extraction type information is “1” (step S93). When the key frame extraction type information is “1”, the first frame of the sub-shot video section is acquired with the key frame extraction type 1 (step S94). Then, this process is complete | finished.

一方、ステップS93でキーフレーム抽出タイプ情報が「1」でない場合、キーフレーム抽出タイプ情報が「2」であるか否かを判別する(ステップS95)。キーフレーム抽出タイプ情報が「2」である場合、キーフレーム抽出タイプ2でサブショット映像区間の終了フレームを取得する(ステップS96)。この後、本処理を終了する。同様に、ステップS95でキーフレーム抽出タイプ情報が「2」でない場合、キーフレーム抽出タイプ情報が「V−1」まで同様の処理を行い(「V」はキーフレーム抽出タイプ情報における値3以上の数)、キーフレーム抽出タイプ情報が「V−1」でない場合、キーフレーム抽出タイプ情報が「V」であるか否かを判別する(ステップS97)。キーフレーム抽出タイプ情報が「V」である場合、キーフレーム抽出タイプ情報が「V」に対応するキーフレーム抽出処理を行う(ステップS98)。この後、本処理を終了する。一方、キーフレーム抽出タイプ情報が「V」でない場合、そのまま本処理を終了する。   On the other hand, if the key frame extraction type information is not “1” in step S93, it is determined whether or not the key frame extraction type information is “2” (step S95). When the key frame extraction type information is “2”, the end frame of the sub-shot video section is acquired with the key frame extraction type 2 (step S96). Then, this process is complete | finished. Similarly, when the key frame extraction type information is not “2” in step S95, the same processing is performed until the key frame extraction type information is “V−1” (“V” is a value of 3 or more in the key frame extraction type information). When the key frame extraction type information is not “V−1”, it is determined whether or not the key frame extraction type information is “V” (step S97). When the key frame extraction type information is “V”, a key frame extraction process corresponding to the key frame extraction type information “V” is performed (step S98). Then, this process is complete | finished. On the other hand, if the key frame extraction type information is not “V”, the present process is terminated.

つぎに、キーフレーム抽出タイプ情報毎のキーフレーム抽出処理を示す。図36は開始フレームをキーフレームとして設定するキーフレーム抽出タイプ情報1のキーフレーム抽出処理手順を示すフローチャートである。まず、サブショット情報の要素データStartTimeから開始フレーム番号を取得する(ステップS101)。サブショット情報の要素データNumberOfKeyframeを値1加算する(ステップS102)。サブショット情報の要素データKeyframeに、ステップS101で取得したフレーム番号を格納する(ステップS103)。この後、本処理を終了する。これにより、開始フレームがキーフレームとして設定される。   Next, a key frame extraction process for each key frame extraction type information is shown. FIG. 36 is a flowchart showing a key frame extraction processing procedure of key frame extraction type information 1 for setting a start frame as a key frame. First, the start frame number is acquired from the element data StartTime of the sub-shot information (step S101). The value 1 is added to the element data NumberOfKeyframe of the sub-shot information (step S102). The frame number acquired in step S101 is stored in the element data Keyframe of the sub-shot information (step S103). Then, this process is complete | finished. Thereby, the start frame is set as a key frame.

図37は終了フレームをキーフレームとして設定するキーフレーム抽出タイプ情報2のキーフレーム抽出処理手順を示すフローチャートである。まず、サブショット情報の要素データEndTimeから終了フレーム番号を取得する(ステップS111)。サブショット情報の要素データNumberOfKeyframeを値1加算する(ステップS112)。サブショット情報の要素データKeyframeに、ステップS111で取得したフレーム番号を格納する(ステップS113)。この後、本処理を終了する。これにより、終了フレームがキーフレームとして設定される。   FIG. 37 is a flowchart showing the key frame extraction processing procedure of the key frame extraction type information 2 for setting the end frame as a key frame. First, the end frame number is acquired from the element data EndTime of the sub-shot information (step S111). The element data NumberOfKeyframe of the sub-shot information is incremented by 1 (step S112). The frame number acquired in step S111 is stored in the element data Keyframe of the sub-shot information (step S113). Then, this process is complete | finished. Thereby, the end frame is set as a key frame.

図38はパン中の中間フレームをキーフレームとして設定するキーフレーム抽出タイプ情報3のキーフレーム抽出処理手順を示すフローチャートである。まず、サブショット情報の要素データStartTimeから開始フレーム番号を取得する(ステップS121)。サブショット情報の要素データEndTimeから終了フレーム番号を取得する(ステップS122)。ステップS121およびステップS122で取得したフレーム番号の範囲内における撮影環境情報を参照し、パン開始フレーム番号およびパン終了フレーム番号を取得し、数式(2)にしたがって、パン中間フレーム番号を求める(ステップS123)。   FIG. 38 is a flowchart showing a key frame extraction processing procedure of key frame extraction type information 3 for setting an intermediate frame in panning as a key frame. First, the start frame number is acquired from the element data StartTime of the sub-shot information (step S121). The end frame number is acquired from the element data EndTime of the sub-shot information (step S122). By referring to the shooting environment information within the frame number range acquired in step S121 and step S122, the pan start frame number and pan end frame number are acquired, and the pan intermediate frame number is obtained according to equation (2) (step S123). ).

(パン終了フレーム番号−パン開始フレーム番号)/2+パン開始フレーム番号 ……(2)
サブショット情報の要素データNumberOfKeyframeを値1加算する(ステップS124)。サブショット情報の要素データKeyframeに、ステップS123で取得したフレーム番号を格納する(ステップS125)。この後、本処理を終了する。これにより、パン中の中間フレームはキーフレームとして設定される。
(Pan end frame number−pan start frame number) / 2 + pan start frame number (2)
The element data NumberOfKeyframe of the sub-shot information is incremented by 1 (step S124). The frame number acquired in step S123 is stored in the element data Keyframe of the sub-shot information (step S125). Then, this process is complete | finished. Thereby, the intermediate frame during panning is set as a key frame.

図39はステップS92におけるキーフレーム抽出詳細情報を用いたキーフレーム抽出処理手順を示すフローチャートである。まず、ステップS46で取得されたキーフレーム抽出タイプ情報を用いてキーフレーム抽出詳細情報を検索する(ステップS131)。キーフレーム抽出詳細情報タイプ情報を参照する場合(図18参照)、キーフレーム抽出情報タイプ情報には、「−1」が掛けられているので、キーフレーム抽出タイプ情報の値に「ー1」を掛けて、キーフレーム抽出詳細情報タイプ情報が取得される。この取得したキーフレーム抽出詳細情報タイプ情報を用いて検索することで、キーフレーム抽出詳細情報は取得される。取得したキーフレーム抽出詳細情報に格納されているキーフレーム抽出関連値を全て順に取得する(ステップS132)。   FIG. 39 is a flowchart showing the key frame extraction processing procedure using the key frame extraction detailed information in step S92. First, the key frame extraction detailed information is searched using the key frame extraction type information acquired in step S46 (step S131). When referring to the key frame extraction detailed information type information (see FIG. 18), since the key frame extraction information type information is multiplied by “−1”, “−1” is added to the value of the key frame extraction type information. As a result, key frame extraction detailed information type information is acquired. By performing a search using the acquired key frame extraction detailed information type information, the key frame extraction detailed information is acquired. All the key frame extraction related values stored in the acquired key frame extraction detailed information are sequentially acquired (step S132).

そして、ステップS133からステップS138までの処理によって、キーフレーム抽出詳細情報タイプ情報毎に取得した関連値を使用し、キーフレーム抽出処理を行う。具体的に、キーフレーム抽出詳細情報タイプ情報が「1」であるか否かを判別する(ステップS133)。「1」である場合、キーフレーム抽出詳細情報タイプ情報1のキーフレーム抽出処理を行い(ステップS134)、本処理を終了する。一方、「1」でない場合、キーフレーム抽出詳細情報タイプ情報が「2」であるか否かを判別する(ステップS135)。「2」である場合、キーフレーム抽出詳細情報タイプ情報2のキーフレーム抽出処理を行い(ステップS136)、本処理を終了する。一方、「2」でない場合、キーフレーム抽出詳細情報タイプ情報が「N−1」となるまで同様の処理を行い(ここで、Nはキーフレーム抽出詳細情報タイプ情報のうち、「3」以上の数)、キーフレーム抽出詳細情報タイプ情報が「N−1」でない場合、キーフレーム抽出詳細情報タイプ情報が「N」であるか否かを判別する(ステップS137)。「N」である場合、キーフレーム抽出詳細情報タイプ情報Nのキーフレーム抽出処理を行い(ステップS138)、本処理を終了する。一方、「N」でない場合、そのまま本処理を終了する。   Then, by the processing from step S133 to step S138, the related value acquired for each key frame extraction detailed information type information is used to perform the key frame extraction processing. Specifically, it is determined whether or not the key frame extraction detailed information type information is “1” (step S133). In the case of “1”, the key frame extraction process of the key frame extraction detailed information type information 1 is performed (step S134), and this process ends. On the other hand, if it is not “1”, it is determined whether or not the key frame extraction detailed information type information is “2” (step S135). In the case of “2”, the key frame extraction processing of the key frame extraction detailed information type information 2 is performed (step S136), and this processing is terminated. On the other hand, if it is not “2”, the same processing is performed until the key frame extraction detailed information type information becomes “N−1” (where N is “3” or more of the key frame extraction detailed information type information). When the key frame extraction detailed information type information is not “N−1”, it is determined whether or not the key frame extraction detailed information type information is “N” (step S137). In the case of “N”, the key frame extraction process of the key frame extraction detailed information type information N is performed (step S138), and this process ends. On the other hand, if it is not “N”, this processing is terminated as it is.

例えば、キーフレーム抽出詳細情報タイプ情報が「3」である場合、つまり、キーフレームがパン中に存在する場合、キーフレーム設定処理として、ステップS132で取得したパン中のキーフレーム抽出関連値の位置にキーフレームを設定する処理を行う。   For example, when the key frame extraction detailed information type information is “3”, that is, when the key frame exists during panning, the position of the key frame extraction related value during panning acquired in step S132 as key frame setting processing Perform processing to set keyframes in

図40はキーフレーム抽出詳細情報タイプ情報3のキーフレーム抽出処理手順を示すフローチャートである。このキーフレーム抽出詳細情報タイプ情報3のキーフレーム抽出処理では、キーフレームは、キーフレーム抽出詳細情報3のキーフレーム抽出関連値(サブショット情報のパン開始フレーム中の割合を示す値)に従って抽出される。   FIG. 40 is a flowchart showing the key frame extraction processing procedure of the key frame extraction detailed information type information 3. In the key frame extraction process of the key frame extraction detailed information type information 3, the key frame is extracted according to the key frame extraction related value of the key frame extraction detailed information 3 (value indicating the ratio of the sub-shot information in the pan start frame). The

まず、サブショット情報の開始フレーム番号および終了フレーム番号を取得し、その範囲内のフレーム番号の中から、撮影環境情報を参照し、イベント種別がパン開始であるものを検索し、パン開始フレーム番号を取得する(ステップS141)。同様に、サブショット情報の開始フレーム番号および終了フレーム番号の範囲内のフレーム番号の中から、撮影環境情報を参照し、イベント種別がパン終了であるものを検索し、パン終了フレーム番号を取得する(ステップS142)。この後、ステップS132で取得したキーフレーム抽出関連値(0.1)を基に、数式(3)にしたがって、キーフレーム番号を計算して取得する(ステップS143)。   First, the start frame number and the end frame number of the sub-shot information are acquired, and the shooting environment information is searched from the frame numbers within the range, and the event type is pan start, and the pan start frame number is searched. Is acquired (step S141). Similarly, referring to the shooting environment information from the frame numbers within the range of the start frame number and end frame number of the sub-shot information, search for the event type of pan end, and acquire the pan end frame number (Step S142). After that, based on the key frame extraction related value (0.1) acquired in step S132, the key frame number is calculated and acquired according to equation (3) (step S143).

(パン終了フレーム番号―パン開始フレーム番号)×0.1+パン開始フレーム番号 …… (3)
サブショット情報の要素データNumberOfKeyframeを値1加算し(ステップS144)、ステップS143で取得したキーフレーム番号をサブショット情報の要素データKeyframeに設定する(ステップS145)。この後、本処理を終了する。
(Pan end frame number−pan start frame number) × 0.1 + pan start frame number (3)
The element data NumberOfKeyframe of the sub-shot information is incremented by 1 (step S144), and the key frame number acquired in step S143 is set in the element data Keyframe of the sub-shot information (step S145). Then, this process is complete | finished.

図41はステップS11におけるキーフレーム変更処理手順を示すフローチャートである。まず、キーフレームを変更する動画(映像)区間を取得する(ステップS151)。この動画区間は、例えば、キーフレーム一覧表示処理(ステップS10参照)によって表示部18に表示されたキーフレームの一覧から、操作者がキーフレームを選択することで、変更される。   FIG. 41 is a flowchart showing the key frame change processing procedure in step S11. First, a moving image (video) section whose key frame is to be changed is acquired (step S151). This moving image section is changed, for example, when the operator selects a key frame from the list of key frames displayed on the display unit 18 by the key frame list display process (see step S10).

図50は動画区間におけるキーフレームの変更処理を行う際の操作画面を示す図である。この操作画面の上位部分では、現在変更中のキーフレームのポイント表示が行われる。ここでは、動画区間Bのサムネイル画像を太枠で表示することにより、ポイント表示が行われる。一方、この操作画面の下位部分では、動画区間Bのフレーム画像が表示される。さらに、現在キーフレームとなっているフレーム画像および選択中のフレーム画像がポイント表示される。ここでは、フレーム画像B1が現在キーフレームとなっているフレーム画像であり、点線枠で表示される。また、フレーム画像B3は現在選択中のフレーム画像である。この操作画面で設定を行うと、キーフレームはフレーム画像B3に設定される。   FIG. 50 is a diagram illustrating an operation screen when performing key frame change processing in a moving image section. In the upper part of this operation screen, the point display of the key frame currently being changed is performed. Here, the point display is performed by displaying the thumbnail image of the moving image section B with a thick frame. On the other hand, in the lower part of the operation screen, the frame image of the moving image section B is displayed. Further, the frame image which is the current key frame and the currently selected frame image are displayed as points. Here, the frame image B1 is a frame image that is currently a key frame, and is displayed in a dotted frame. The frame image B3 is a currently selected frame image. When setting is made on this operation screen, the key frame is set to the frame image B3.

このようにして新規に設定されるキーフレームの選択処理を行う(ステップS152)。尚、このキーフレームの選択処理は、特に限定されない。例えば、ステップS151で取得したサブショット情報の要素データStartTimeおよび要素データEndTimeを用いて動画を再生し、キーフレームとして使用したい画像が表示された時点で、操作者が操作入力部24のStopボタンを押下することで、キーフレームの選択が行われるようにしてもよい。また、要素データStartTimeおよび要素データEndTime間のフレーム全てを、同時にもしくは階層的に表示し、そのフレームの一覧から、操作者がキーフレームを選択するようにしてもよい。選択されたキーフレームとなるフレーム番号をサブショット情報の要素データKeyFrameに格納する(ステップS153)。   In this way, the newly set key frame is selected (step S152). The key frame selection process is not particularly limited. For example, when the moving image is reproduced using the element data StartTime and the element data EndTime acquired in step S151 and an image to be used as a key frame is displayed, the operator presses the Stop button of the operation input unit 24. The key frame may be selected by pressing the key. Further, all the frames between the element data StartTime and the element data EndTime may be displayed simultaneously or hierarchically, and the operator may select a key frame from a list of the frames. The frame number that becomes the selected key frame is stored in the element data KeyFrame of the sub-shot information (step S153).

キーフレーム抽出履歴情報にキーフレームの抽出方法を登録するか否かを判別する(ステップS154)。この判別処理では、予めキーフレームの変更時、キーフレーム抽出履歴情報を作成するか否かの情報を環境ファイル等に記述しておき、その情報を取得して判別してもよいし、あるいはキーフレームの変更時、操作者がキーフレーム抽出履歴情報を作成するか否かを確認することによって判別してもよく、特に限定されない。   It is determined whether or not the key frame extraction method is registered in the key frame extraction history information (step S154). In this determination process, when changing the key frame, information on whether or not to generate key frame extraction history information is previously described in an environment file or the like, and the information may be acquired and determined. When changing the frame, the operator may determine whether or not to create key frame extraction history information, and is not particularly limited.

ステップS154で、キーフレーム抽出履歴情報に登録する場合、キーフレーム抽出履歴情報の登録処理を行い(ステップS155)、ステップS156の処理に移行する。一方、ステップS154で、キーフレーム抽出履歴情報に登録しない場合、そのままステップS156の処理に移行する。類似動画区間におけるキーフレームの変更処理を行うか否かを判別する(ステップS156)。この判別処理では、ステップS154と同様、予めキーフレーム変更時、類似動画区間におけるキーフレームの変更処理を行うか否かの情報を、保持する環境ファイル等から取得して判別してもよいし、あるいはキーフレーム変更時、操作者が変更するか否かを確認することによって判別してもよく、特に限定されない。   When registering in the key frame extraction history information in step S154, the key frame extraction history information is registered (step S155), and the process proceeds to step S156. On the other hand, if not registered in the key frame extraction history information in step S154, the process proceeds to step S156 as it is. It is determined whether or not to change the key frame in the similar moving image section (step S156). In this determination process, as in step S154, information on whether or not to perform a key frame change process in a similar moving image section at the time of key frame change may be obtained from a stored environment file or the like. Alternatively, when the key frame is changed, the determination may be made by confirming whether or not the operator changes, and there is no particular limitation.

ステップS156で、類似動画区間のキーフレーム変更を行う場合、類似動画区間のキーフレーム変更処理を行い(ステップS157)、本キーフレーム変更処理を終了する。一方、ステップS156で、類似動画区間のキーフレーム変更を行わない場合、そのまま本キーフレーム変更処理を終了する。   In step S156, when changing the key frame of the similar moving picture section, the key frame changing process of the similar moving picture section is performed (step S157), and the key frame changing process is ended. On the other hand, when the key frame change of the similar moving image section is not performed in step S156, the key frame change process is terminated as it is.

図42はステップS155におけるキーフレーム抽出履歴情報登録処理手順を示すフローチャートである。まず、キーフレームの変更を行った映像区間における分類情報を取得する(ステップS161)。この分類情報の取得処理では、キーフレームの変更を行ったサブショット情報の分類情報、あるいはRAM43に格納されているキーフレームの変更を行った分類情報が取得される。新規に設定されたキーフレームのキーフレーム抽出方法を取得する(ステップS162)。この新規に設定されたキーフレームの抽出方法を取得する際、キーフレーム抽出詳細情報に抽出方法の関連値が格納されている場合、その関連値も取得される。ステップS162で関連値を取得した場合、キーフレーム抽出詳細情報に関連値を格納する(ステップS163)。   FIG. 42 is a flowchart showing the key frame extraction history information registration processing procedure in step S155. First, the classification information in the video section in which the key frame has been changed is acquired (step S161). In this classification information acquisition process, the classification information of the sub-shot information in which the key frame is changed or the classification information in which the key frame stored in the RAM 43 is changed is acquired. A key frame extraction method for a newly set key frame is acquired (step S162). When acquiring the newly set key frame extraction method, if the related value of the extraction method is stored in the key frame extraction detailed information, the related value is also acquired. When the related value is acquired in step S162, the related value is stored in the key frame extraction detailed information (step S163).

キーフレーム抽出履歴情報の設定を行う操作者のユーザIDをRAM43から取得する(ステップS164)。ユーザキーフレーム抽出履歴情報リストから、ユーザIDによって示されるユーザキーフレーム抽出履歴情報の先頭ポインタを取得し、このユーザキーフレーム抽出履歴情報の中からキーフレーム抽出履歴情報リンク情報が示すキーフレーム抽出履歴情報から、ステップS161で取得した分類情報のキーフレーム抽出履歴情報を検索する(ステップS165)。   The user ID of the operator who sets the key frame extraction history information is acquired from the RAM 43 (step S164). From the user key frame extraction history information list, the head pointer of the user key frame extraction history information indicated by the user ID is acquired, and the key frame extraction history indicated by the key frame extraction history information link information from the user key frame extraction history information The key frame extraction history information of the classification information acquired in step S161 is searched from the information (step S165).

分類情報が一致するキーフレーム抽出履歴情報があったか否かを判別する(ステップS166)。分類情報が一致するキーフレーム抽出履歴情報があった場合、ステップS165で取得したキーフレーム抽出履歴情報のキーフレーム抽出タイプ情報を、ステップS162で取得したキーフレーム抽出タイプ情報に変更する(ステップS167)。この後、本処理を終了する。一方、ステップS166で、分類情報が一致するキーフレーム抽出履歴情報が存在しなかった場合、ステップS161で取得した分類情報を新規キーフレーム抽出履歴情報の分類情報に登録し、ステップS162で取得したキーフレーム抽出タイプ情報をキーフレーム抽出タイプ情報に登録し、キーフレーム抽出タイプ情報格納数に「1」を追加してキーフレーム抽出履歴情報を作成する(ステップS168)。このとき、作成された先頭アドレスを、ステップS164で取得されたユーザのキーフレーム抽出履歴情報リストに登録する。この後、本処理を終了する。   It is determined whether there is key frame extraction history information that matches the classification information (step S166). If there is key frame extraction history information that matches the classification information, the key frame extraction type information of the key frame extraction history information acquired in step S165 is changed to the key frame extraction type information acquired in step S162 (step S167). . Then, this process is complete | finished. On the other hand, if there is no key frame extraction history information that matches the classification information in step S166, the classification information acquired in step S161 is registered in the classification information of the new key frame extraction history information, and the key acquired in step S162. The frame extraction type information is registered in the key frame extraction type information, and “1” is added to the number of stored key frame extraction type information to create key frame extraction history information (step S168). At this time, the created head address is registered in the user's key frame extraction history information list acquired in step S164. Then, this process is complete | finished.

図43はステップS162における新規設定キーフレーム抽出タイプ情報取得処理手順を示すフローチャートである。まず、新規キーフレームとして設定されたフレーム番号を取得する(ステップS171)。このフレーム番号の取得処理では、ステップS152の新規設定キーフレーム取得処理で取得された値が取得される。キーフレームの変更が行われた映像区間の分類情報を取得する(ステップS172)。ステップS171で取得した分類情報のキーフレーム抽出方法決定情報を検索する(ステップS173)。具体的に、キーフレーム抽出方法決定情報インデックスリストから、ステップS171で取得した分類情報とインデックス情報の分類情報とが一致するインデックス情報を取得する。取得したインデックス情報に格納されているキーフレーム抽出方法決定情報のポインタを取得する。   FIG. 43 is a flowchart showing a newly set key frame extraction type information acquisition processing procedure in step S162. First, the frame number set as a new key frame is acquired (step S171). In this frame number acquisition process, the value acquired in the newly set key frame acquisition process in step S152 is acquired. The classification information of the video section in which the key frame has been changed is acquired (step S172). The key frame extraction method determination information of the classification information acquired in step S171 is searched (step S173). Specifically, index information in which the classification information acquired in step S171 matches the classification information of the index information is acquired from the key frame extraction method determination information index list. A pointer of key frame extraction method determination information stored in the acquired index information is acquired.

ステップS171で取得した分類情報が一致するキーフレーム抽出方法決定情報があったか否かを判別する(ステップS174)。分類情報が一致するキーフレーム抽出方法決定情報がなかった場合、デフォルトのキーフレーム抽出方法決定情報を取得し(ステップS175)、ステップS179の処理に移行する。   It is determined whether or not there is key frame extraction method determination information that matches the classification information acquired in step S171 (step S174). If there is no key frame extraction method determination information that matches the classification information, default key frame extraction method determination information is acquired (step S175), and the process proceeds to step S179.

一方、ステップS174で分類情報が一致するキーフレーム抽出方法決定情報があった場合、インデックス情報に格納されている順にキーフレーム抽出方法決定情報のポインタを取得し、取得したポインタからキーフレーム抽出方法決定情報を取得する(ステップS176)。キーフレーム抽出方法決定情報に格納されているキーフレーム抽出方法条件情報に格納されている判断処理を基に、新規キーフレームがキーフレーム抽出方法決定情報に記述されているキーフレーム抽出方法により抽出されたものであるか否かの条件判定処理を行う(ステップS177)。この判定処理では、キーフレーム抽出方法条件情報に記述されている付属情報を取得し、キーフレームに設定されたフレーム番号等と比較することにより、キーフレーム抽出方法決定情報に格納されているキーフレーム抽出タイプ情報で抽出されるか否かが判定される。また、キーフレーム抽出方法判断処理タイプ情報により、抽出時に使用する値(関連値)を取得する。   On the other hand, if there is key frame extraction method determination information that matches the classification information in step S174, the pointer of the key frame extraction method determination information is acquired in the order stored in the index information, and the key frame extraction method determination is determined from the acquired pointer. Information is acquired (step S176). Based on the judgment processing stored in the key frame extraction method condition information stored in the key frame extraction method determination information, a new key frame is extracted by the key frame extraction method described in the key frame extraction method determination information. A condition determination process is performed to determine whether or not the image has been updated (step S177). In this determination processing, the key frame stored in the key frame extraction method determination information is obtained by acquiring the attached information described in the key frame extraction method condition information and comparing it with the frame number set in the key frame. It is determined whether or not the extraction type information is extracted. Also, a value (related value) used at the time of extraction is acquired from the key frame extraction method determination processing type information.

キーフレーム抽出方法条件情報に存在する条件判定処理で全ての条件に一致するか否かを判別する(ステップS178)。全ての条件に一致していない場合、ステップS176の処理に戻り、ステップS173で取得されたインデックス情報に格納されている次のキーフレーム抽出方法決定情報を取得し、同様の処理を繰り返す。一方、ステップS178で全ての条件に一致した場合、キーフレーム抽出タイプ情報を取得する(ステップS179)。   It is determined whether or not all conditions are met in the condition determination process existing in the key frame extraction method condition information (step S178). If all the conditions are not met, the process returns to step S176, the next key frame extraction method determination information stored in the index information acquired in step S173 is acquired, and the same process is repeated. On the other hand, if all the conditions are matched in step S178, key frame extraction type information is acquired (step S179).

取得したキーフレーム抽出方法決定情報のキーフレーム抽出タイプ情報がキーフレーム抽出詳細情報を参照するものであるか否かを判別する(ステップS180)。すなわち、キーフレーム抽出詳細情報を参照する場合、値がマイナス値になるので、マイナス値であるか否かを判別する。キーフレーム抽出詳細情報を参照するものであった場合、キーフレーム抽出詳細情報の先頭ポインタおよびステップS177で取得した関連値を一時バッファに保存する(ステップS181)。この後、本処理を終了する。   It is determined whether or not the key frame extraction type information of the acquired key frame extraction method determination information refers to the key frame extraction detailed information (step S180). That is, when referring to the key frame extraction detailed information, the value becomes a negative value, so it is determined whether or not it is a negative value. When the key frame extraction detailed information is referred to, the head pointer of the key frame extraction detailed information and the related value acquired in step S177 are stored in the temporary buffer (step S181). Then, this process is complete | finished.

図44はステップS177における条件情報判定処理手順を示すフローチャートである。まず、条件情報判定処理における初期化処理を行う(ステップS191)。この初期化処理では、例えば、ステップS176で取得したキーフレーム抽出方法決定情報に格納されているキーフレーム抽出方法判断処理タイプ情報格納数を取得し、判断処理カウンタを「0」に設定する。   FIG. 44 is a flowchart showing the condition information determination processing procedure in step S177. First, an initialization process in the condition information determination process is performed (step S191). In this initialization process, for example, the number of stored key frame extraction method determination process type information stored in the key frame extraction method determination information acquired in step S176 is acquired, and the determination process counter is set to “0”.

そして、ステップS192〜S201において、キーフレーム抽出方法決定情報に格納されている判断処理を行う。これら全ての判断処理の結果、「真」と判定された場合、ステップS203で全ての判断処理で一致したとして、本処理を終了する。一方、なんらかの判断処理で「偽」と判定された場合、ステップS202で一致しなかったとして、本処理を終了する。   In steps S192 to S201, the determination process stored in the key frame extraction method determination information is performed. If it is determined as “true” as a result of all the determination processes, it is determined that all the determination processes match in step S203, and the present process ends. On the other hand, if it is determined as “false” in any determination process, it is determined that there is no match in step S202, and this process is terminated.

具体的に、判断処理カウンタの値がステップS191で取得したキーフレーム抽出方法判断処理タイプ情報格納数と同じであるか否かを判別する(ステップS192)。同じである場合、前述したように、全ての判断処理で一致したと判断し、判定結果として「真」を格納し(ステップS203)、本処理を終了する。   Specifically, it is determined whether or not the value of the determination process counter is the same as the number of stored key frame extraction method determination process type information acquired in step S191 (step S192). If they are the same, as described above, it is determined that they match in all the determination processes, “true” is stored as the determination result (step S203), and this process ends.

一方、ステップS192で、判断処理カウンタの値がステップS191で取得したキーフレーム抽出方法判断処理タイプ情報格納数と同じでなく、まだ判断処理を終了していない場合、判断処理カウンタによって示されるキーフレーム抽出方法判断処理タイプ情報を取得する(ステップS193)。取得したキーフレーム抽出方法判断処理タイプ情報が「1」〜「R」の範囲内であるか否かを判別する(ステップS194)。ここで、「R」は、予め設定されているキーフレーム抽出方法判断処理タイプ情報数である。キーフレーム抽出方法判断処理タイプ情報が「1」〜「R」の範囲内でなく、その他であった場合、判断処理で一致しなかったとみなされ、判定結果を「偽」とし(ステップS202)、本処理を終了する。   On the other hand, in step S192, if the value of the determination process counter is not the same as the number of stored key frame extraction method determination process type information acquired in step S191, and the determination process has not ended yet, the key frame indicated by the determination process counter Extraction method determination processing type information is acquired (step S193). It is determined whether or not the acquired key frame extraction method determination processing type information is within a range of “1” to “R” (step S194). Here, “R” is the number of key frame extraction method determination processing type information set in advance. If the key frame extraction method determination processing type information is not within the range of “1” to “R”, but other than that, it is considered that the determination processing does not match, and the determination result is “false” (step S202). This process ends.

一方、ステップS194でキーフレーム抽出方法判断処理タイプ情報が「1」〜「R」の範囲内である場合、ステップS195からステップS200までの処理で、キーフレーム抽出方法判断処理タイプ情報毎の判断処理を行う。具体的に、キーフレーム抽出方法判断処理タイプ情報が「1」であるか否かを判別する(ステップS195)。キーフレーム抽出方法判断処理タイプ情報が「1」であった場合、キーフレーム抽出方法判断処理タイプ情報1に対する判断処理を行う(ステップS196)。ステップS196の判断処理で「真」と判定されたか否かを判別する(ステップS201)。「真」と判別された場合、判断処理カウンタを+1増加させ(ステップS201A)、ステップS192の処理に戻る。一方、ステップS201で「偽」と判別された場合、ステップS202で判定結果を「偽」とし、本処理を終了する。   On the other hand, if the key frame extraction method determination processing type information is in the range of “1” to “R” in step S194, the determination processing for each key frame extraction method determination processing type information is performed in steps S195 to S200. I do. Specifically, it is determined whether or not the key frame extraction method determination processing type information is “1” (step S195). If the key frame extraction method determination process type information is “1”, a determination process is performed on the key frame extraction method determination process type information 1 (step S196). It is determined whether or not “true” is determined in the determination process of step S196 (step S201). If it is determined as “true”, the determination process counter is incremented by +1 (step S201A), and the process returns to step S192. On the other hand, if “false” is determined in step S201, the determination result is “false” in step S202, and the process is terminated.

また、ステップS195でキーフレーム抽出方法判断処理タイプ情報が「1」でない場合、キーフレーム抽出方法判断処理タイプ情報が「2」であるか否かを判別する(ステップS197)。キーフレーム抽出方法判断処理タイプ情報が「2」であった場合、キーフレーム抽出方法判断処理タイプ情報2に対する判断処理を行う(ステップS198)。この後、ステップS201の処理に移行する。ステップS197でキーフレーム抽出判断処理タイプ情報が「2」でない場合、同様の処理がキーフレーム抽出方法判断処理タイプ情報が「R−1」であるまで行われ、さらにキーフレーム抽出方法判断処理タイプ情報が「R−1」でない場合、キーフレーム抽出判断処理タイプ情報が「R」であるか否かを判別する(ステップS199)。キーフレーム抽出方法判断処理タイプ情報が「R」であった場合、キーフレーム抽出方法判断処理タイプ情報Rに対する判断処理を行う(ステップS200)。この後、ステップS201の処理に移行する。一方、キーフレーム抽出方法判断処理タイプ情報が「R」でない場合、ステップS202の処理に移行する。   If the key frame extraction method determination processing type information is not “1” in step S195, it is determined whether or not the key frame extraction method determination processing type information is “2” (step S197). If the key frame extraction method determination process type information is “2”, a determination process is performed on the key frame extraction method determination process type information 2 (step S198). Thereafter, the process proceeds to step S201. If the key frame extraction determination processing type information is not “2” in step S197, the same processing is performed until the key frame extraction method determination processing type information is “R−1”, and further the key frame extraction method determination processing type information. Is not “R−1”, it is determined whether or not the key frame extraction determination processing type information is “R” (step S199). If the key frame extraction method determination process type information is “R”, a determination process for the key frame extraction method determination process type information R is performed (step S200). Thereafter, the process proceeds to step S201. On the other hand, if the key frame extraction method determination process type information is not “R”, the process proceeds to step S202.

ここで、ステップS196におけるキーフレーム抽出方法判断処理タイプ情報1に対する判断処理を示す。図45はステップS196におけるキーフレーム抽出方法判断処理タイプ情報1に対する判断処理手順を示すフローチャートである。まず、キーフレームが変更になった映像区間におけるサブショット情報から開始フレーム番号を取得する(ステップS211)。判定タイプ情報を基に、新規キーフレーム番号と開始フレーム番号とが「=」であるか、つまり同じであるか否かを比較する(ステップS212)。この比較の結果、「同じ」である場合、判定結果を「真(1)」とし(ステップS213)、本処理を終了し、元の処理に戻る。一方、ステップS212の比較の結果、「同じでない」場合、判定結果を偽(0)とし(ステップS214)、本処理を終了し、元の処理に戻る。   Here, the determination process for the key frame extraction method determination process type information 1 in step S196 is shown. FIG. 45 is a flowchart showing the determination processing procedure for the key frame extraction method determination processing type information 1 in step S196. First, the start frame number is acquired from the sub-shot information in the video section where the key frame is changed (step S211). Based on the determination type information, it is compared whether the new key frame number and the start frame number are “=”, that is, the same (step S212). If the result of this comparison is “same”, the determination result is “true (1)” (step S213), the present process is terminated, and the process returns to the original process. On the other hand, if the result of comparison in step S212 is “not the same”, the determination result is false (0) (step S214), the process is terminated, and the process returns to the original process.

また、同様に、キーフレーム抽出方法判断処理タイプ情報14に対する判断処理を示す。図46はキーフレーム抽出方法判断処理タイプ情報14に対する判断処理手順を示すフローチャートである。まず、キーフレームのフレーム番号に対する撮影環境情報のイベント種別を取得する(ステップS221)。取得したイベント種別が「パン継続」であるか否かを判別する(ステップS222)。「パン継続」でない場合、判定結果を「偽(0)」とし(ステップS223)、本処理を終了する。一方、ステップS222で「パン継続」である場合、判定結果を「真(1)」とする(ステップS224)。サブショット情報からパン開始フレーム番号の取得を行い(ステップS225)、パン終了フレーム番号を取得する(ステップS226)。数式(4)にしたがって、パン中のキーフレーム位置の割合を計算して取得する(ステップS227)。   Similarly, a determination process for the key frame extraction method determination process type information 14 is shown. FIG. 46 is a flowchart showing a determination processing procedure for the key frame extraction method determination processing type information 14. First, the event type of the shooting environment information for the frame number of the key frame is acquired (step S221). It is determined whether or not the acquired event type is “pan continuation” (step S222). If it is not “pan continuation”, the determination result is set to “false (0)” (step S223), and this process ends. On the other hand, if “pan continuation” is determined in step S222, the determination result is “true (1)” (step S224). A pan start frame number is acquired from the sub-shot information (step S225), and a pan end frame number is acquired (step S226). According to Equation (4), the ratio of key frame positions during panning is calculated and acquired (step S227).

割合=(キーフレームのフレーム番号―パン開始フレーム番号)/(パン終了フレーム番号―パン開始フレーム番号) …… (4)
つぎに、類似動画区間の変更処理の概要を示す。図47はステップS157における類似動画区間の変更処理手順を示すフローチャートである。まず、類似動画区間を変更するための初期化処理を行う(ステップS232)。この初期化処理では、例えば、サブショット情報リストの先頭に現在処理しているサブショット情報を示すポインタPを移動する。また、キーフレームを変更した映像区間の分類情報を取得する。そして、ステップS233からステップS236までの処理を行い、サブショット情報からキーフレームの変更を行った映像区間の分類情報と一致するサブショット情報を取得する。
Ratio = (frame number of key frame−pan start frame number) / (pan end frame number−pan start frame number) (4)
Next, the outline of the change processing of the similar moving image section is shown. FIG. 47 is a flowchart showing the procedure for changing the similar moving image section in step S157. First, an initialization process for changing a similar moving image section is performed (step S232). In this initialization process, for example, the pointer P indicating the sub-shot information currently being processed is moved to the top of the sub-shot information list. In addition, the classification information of the video section whose key frame has been changed is acquired. Then, the processing from step S233 to step S236 is performed, and sub-shot information that matches the classification information of the video section in which the key frame has been changed is acquired from the sub-shot information.

具体的に、ポインタPがサブショット情報リストの末尾に達したか否かを判別する(ステップS233)。全てのサブショット情報における分類情報との比較が終了していないと判断された場合、サブショット情報リストのポインタPによりサブショット情報の分類情報を取得し(ステップS234)、キーフレームを変更した映像区間の分類情報と一致するか否かを判別する(ステップS235)。一致した場合、類似動画区間としてサブショット情報のアドレスを一時バッファに保持する(ステップS236)。そして、ステップS233の処理に戻り、次のサブショット情報の比較処理を行う。一方、ステップS235で一致しなかった場合、そのまま次のサブショット情報の比較処理に移行する。   Specifically, it is determined whether or not the pointer P has reached the end of the sub-shot information list (step S233). When it is determined that the comparison with the classification information in all the sub-shot information has not been completed, the classification information of the sub-shot information is acquired from the pointer P of the sub-shot information list (step S234), and the video with the key frame changed It is determined whether or not it matches the section classification information (step S235). If they match, the sub-shot information address is held in the temporary buffer as a similar moving image section (step S236). Then, the process returns to the process of step S233, and the next sub-shot information comparison process is performed. On the other hand, if they do not match in step S235, the process proceeds to the next sub-shot information comparison process.

一方、ステップS233で、全てのサブショット情報における分類情報との比較が終了したと判断された場合、サブショット情報リスト中に、キーフレームを変更した映像区間と分類情報が一致するサブショット情報があったか否かを判別する(ステップS237)。分類情報が一致するサブショット情報がなかった場合、本類似動画区間のキーフレーム変更処理を終了する。   On the other hand, if it is determined in step S233 that the comparison with the classification information in all the sub-shot information has been completed, the sub-shot information whose classification information matches the video section whose key frame has been changed is included in the sub-shot information list. It is determined whether or not there is (step S237). If there is no sub-shot information that matches the classification information, the key frame changing process for the similar moving image section is terminated.

一方、ステップS237でキーフレームを変更した映像区間と分類情報が一致するサブショット情報があった場合、キーフレームが変更された映像区間における新規キーフレーム抽出タイプ情報およびキーフレーム抽出関連値を取得する(ステップS238A)。この処理は、キーフレーム抽出履歴情報登録処理(図42参照)におけるステップS162の処理と同一であるので、キーフレーム抽出履歴情報登録処理において、既に新規キーフレームの抽出タイプ情報およびキーフレーム抽出関連値を取得していた場合、キーフレーム抽出履歴情報登録処理で取得した値を使用する。   On the other hand, if there is sub-shot information whose classification information matches the video section whose key frame has been changed in step S237, new key frame extraction type information and key frame extraction related values in the video section whose key frame has been changed are acquired. (Step S238A). Since this process is the same as the process of step S162 in the key frame extraction history information registration process (see FIG. 42), the new key frame extraction type information and the key frame extraction related value are already included in the key frame extraction history information registration process. Is acquired, the value acquired in the key frame extraction history information registration process is used.

そして、取得したキーフレーム抽出方法を基に、ステップS236で類似動画区間として保持された全ての映像区間に対し、キーフレームの抽出を行う(ステップS239A)。抽出されたキーフレームをサブショット情報の要素データKeyframeに追加登録し、要素データNumberOfTimesに値1を格納するとともに、要素NumberOfKeyframeに値1を加算する(ステップS240A)。この後、本処理を終了する。   Then, based on the acquired key frame extraction method, key frames are extracted from all the video sections held as the similar moving image sections in step S236 (step S239A). The extracted key frame is additionally registered in the element data Keyframe of the sub-shot information, the value 1 is stored in the element data NumberOfTimes, and the value 1 is added to the element NumberOfKeyframe (step S240A). Then, this process is complete | finished.

図48はステップS10におけるキーフレーム一覧表示処理手順を示すフローチャートである。まず、初期化処理を行い、サブショット情報リストの先頭にポインタJを移動する(ステップS251)。そして、ポインタJがサブショット情報リストの終了位置まで移動したか否か、つまり分割映像区間のキーフレームの一覧表示処理を終了したか否かを判別する(ステップS252)。終了した場合、ステップS256の処理に移行する。   FIG. 48 is a flowchart showing the key frame list display processing procedure in step S10. First, initialization processing is performed, and the pointer J is moved to the top of the sub-shot information list (step S251). Then, it is determined whether or not the pointer J has moved to the end position of the sub-shot information list, that is, whether or not the key frame list display process of the divided video section has ended (step S252). If completed, the process proceeds to step S256.

一方、分割映像区間のキーフレーム一覧表示処理を終了していない場合、ポインタJ、つまりサブショット情報ポインタによって示されるサブショット情報から、要素データNumberOfTimesを参照し、この分割映像区間における最大使用回数のキーフレームを取得する(ステップS253)。そして、この取得したキーフレームの表示を終えたか否かを判別し(ステップS254)、終えていない場合、このキーフレームの表示を行い(ステップS255)、ステップS254の処理に戻る。一方、このキーフレームの表示を終えた場合、ステップS252の処理に戻る。こうして前述した図49に示すキーフレームの一覧が表示される。   On the other hand, if the key frame list display process for the divided video section has not been completed, the element data NumberOfTimes is referred to from the pointer J, that is, the subshot information indicated by the subshot information pointer, and the maximum number of times of use in this divided video section is determined. A key frame is acquired (step S253). Then, it is determined whether or not the display of the acquired key frame has been finished (step S254). If not, the key frame is displayed (step S255), and the process returns to step S254. On the other hand, when the display of the key frame is finished, the process returns to step S252. In this way, a list of key frames shown in FIG. 49 is displayed.

ステップS252で全ての分割映像区間のキーフレーム一覧表示処理を終了すると、操作者からの指示入力を待つ(ステップS256)。操作者から指示入力があった場合、一覧表示されているキーフレームの選択であるか否かを判別する(ステップS257)。本実施形態では、一覧表示されている、任意のキーフレームを選択することで、その映像区間の再生および編集機能を起動させることが可能である。キーフレームの選択が行われた場合、このキーフレームの要素データNumberOfTimesに値1を加算する(ステップS258)。このとき、この要素データNumberOfTimesが更新された要素データKeyframeをローカルメモリに一時記憶しておく。そして、起動した、映像区間の再生や編集等の処理を行い(ステップS259)、ステップS256に戻って、操作者からの指示入力を待つ。   When the key frame list display processing for all the divided video sections is completed in step S252, an instruction input from the operator is awaited (step S256). If there is an instruction input from the operator, it is determined whether or not the key frame displayed in the list is selected (step S257). In the present embodiment, it is possible to activate the playback and editing functions for the video section by selecting an arbitrary key frame displayed in a list. When the key frame is selected, the value 1 is added to the element data NumberOfTimes of this key frame (step S258). At this time, the element data Keyframe in which the element data NumberOfTimes is updated is temporarily stored in the local memory. Then, processing such as playback and editing of the activated video section is performed (step S259), and the process returns to step S256 to wait for an instruction input from the operator.

一方、ステップS257でキーフレームの選択が行われていない場合、終了指示であるか否かを判別する(ステップS260)。終了指示が行われた場合、ステップS258で一時記憶された要素データNumberOfTimesおよび要素データKeyframeを基に、サブショット情報を更新し(ステップS261)、本処理を終了する。一方、ステップS260で終了指示が行われなかった場合、その他の処理を行い(ステップS262)、ステップS256の処理に戻る。   On the other hand, if no key frame is selected in step S257, it is determined whether or not it is an end instruction (step S260). If an end instruction is given, the sub-shot information is updated based on the element data NumberOfTimes and the element data Keyframe temporarily stored in step S258 (step S261), and this process ends. On the other hand, if the end instruction is not issued in step S260, other processes are performed (step S262), and the process returns to step S256.

図51は新規キーフレームが追加されたキーフレームを一覧表示する操作画面を示す図である。類似映像区間E、Iには、それぞれ新規キーフレームE−3およびI−3が追加されている。操作者が映像区間Bのキーフレームを変更したので、映像区間BのキーフレームはB−1からB−3に変更される。一方、映像区間Eでは、自動的にキーフレームが抽出されたキーフレームE−1と、映像区間Bのキーフレームを変更したときに作成されたキーフレームE−3とがキーフレームとして表示される。   FIG. 51 is a diagram showing an operation screen for displaying a list of key frames to which new key frames are added. New key frames E-3 and I-3 are added to the similar video sections E and I, respectively. Since the operator changes the key frame of the video section B, the key frame of the video section B is changed from B-1 to B-3. On the other hand, in the video section E, a key frame E-1 from which key frames are automatically extracted and a key frame E-3 created when the key frame in the video section B is changed are displayed as key frames. .

図51の操作画面上で、映像区間IのキーフレームI−3が選択され、映像区間Iの編集機能が起動した場合、キーフレームI−3の要素データNumberOfTimesの値は「2」となる。そして、このキーフレーム一覧表示が終了し、次回キーフレームの一覧表示が行われた場合、映像区間Iでは、キーフレームI−1よりキーフレームI−3の要素データNumberOfTimesの値が大きくなるので、キーフレームI−3だけがキーフレームとして表示される。図52は図51の操作画面上で映像区間IのキーフレームI−3が選択された後、次回キーフレームの一覧が表示された操作画面を示す図である。   When the key frame I-3 of the video section I is selected on the operation screen of FIG. 51 and the editing function of the video section I is activated, the value of the element data NumberOfTimes of the key frame I-3 is “2”. Then, when this key frame list display is finished and the next key frame list display is performed, in the video section I, the value of the element data NumberOfTimes of the key frame I-3 is larger than the key frame I-1. Only key frame I-3 is displayed as a key frame. FIG. 52 is a diagram showing an operation screen on which the next key frame list is displayed after the key frame I-3 of the video section I is selected on the operation screen of FIG.

このように、第1の実施形態の撮像装置によれば、映像データを複数の映像区間に分割し、分割された映像区間の中から、キーフレームを自動的に抽出した後、操作者によって抽出されたキーフレームが変更された場合、キーフレームが変更された映像区間におけるキーフレーム抽出方法を取得する。このキーフレームが変更された映像区間と類似する類似映像区間を抽出し、抽出されたキーフレームを、類似映像区間のキーフレームとして、既に抽出されたキーフレームに追加する。したがって、操作者がキーフレームの変更を行った映像区間と類似する類似映像区間のキーフレームを容易に変更することができる。また、操作者の使用頻度が高いキーフレームだけを表示させることができる。   As described above, according to the imaging apparatus of the first embodiment, video data is divided into a plurality of video sections, and keyframes are automatically extracted from the divided video sections, and then extracted by an operator. When the changed key frame is changed, the key frame extraction method in the video section where the key frame is changed is acquired. A similar video section similar to the video section in which the key frame has been changed is extracted, and the extracted key frame is added as a key frame of the similar video section to the already extracted key frame. Therefore, it is possible to easily change a key frame in a similar video section similar to the video section in which the operator has changed the key frame. Further, only key frames that are frequently used by the operator can be displayed.

例えば、花や人物など、ある特定の被写体を集めた映像などを撮影した場合、ズームなどの操作、パンやチルトなどの撮影環境が類似することが多く、撮影者が同じ場合、被写体に対する撮影方法が類似する可能性が高い。したがって、自動的に抽出されたキーフレームが操作者にとって最適なキーフレームでなかった場合、1度の変更操作で、自動的に類似映像区間の抽出およびこれらのキーフレーム変更を行うので、類似映像区間が多くても、変更操作を行う回数を減らすことができ、操作性を向上できる。   For example, when shooting a video of a specific subject such as a flower or a person, the shooting environment such as zooming and panning and tilting are often similar, and if the photographer is the same, the shooting method for the subject Are likely to be similar. Therefore, if the automatically extracted key frame is not the optimum key frame for the operator, similar video sections are automatically extracted and these key frames are changed by one change operation. Even if there are many sections, the number of change operations can be reduced, and operability can be improved.

尚、操作画面上では、この操作画面の上位部分に、各映像区間のキーフレームを1つだけ選択可能に表示し、その下位部分に、選択された類似映像区間のキーフレームとして登録されている複数のキーフレームを表示し、その中から特定のキーフレームだけを上位部分に表示させるように、切り替えるようにしてもよい。   On the operation screen, only one key frame of each video section is selectably displayed on the upper part of the operation screen, and is registered as a key frame of the selected similar video section in the lower part. A plurality of key frames may be displayed, and only a specific key frame may be displayed in the upper part among them.

[第2の実施形態]
前記第1の実施形態では、撮影環境情報、操作情報、フレーム位置情報などの付属情報を主に利用してキーフレーム抽出方法を特定していたが、これらの付属情報のみならず、例えば、被写体情報や音声情報を参照してキーフレーム抽出方法を特定してもよい。従来技術として、特許文献3に記載のカメラでは、被写体の顔を認識するだけでなく、顔の方向(目線がカメラの方向を向いている/向いていない)、被写体の目の状態(目を閉じている/閉じていない)、顔の表情(喜びの顔、悲しみの顔、怒りの顔、驚きの顔など)、被写体の姿勢(認識された人が特定のポーズとなっているかを認識)などが認識可能である。また、特許文献4に記載の人物検出機能搭載装置では、被写体の認識および音声情報から、話者を識別することが可能である。第2の実施形態では、これらの技術を用いて、撮影環境情報や操作情報などと同様、フレーム毎に被写体情報(図54参照)および話者情報(図56参照)を取得して記録するようにする。
[Second Embodiment]
In the first embodiment, the key frame extraction method is specified mainly using the attached information such as the shooting environment information, the operation information, and the frame position information. The key frame extraction method may be specified with reference to information or audio information. As a conventional technique, the camera described in Patent Document 3 not only recognizes the face of the subject, but also determines the direction of the face (the line of sight is facing / not facing the camera) and the state of the subject's eyes (eyes). Closed / not closed), facial expressions (joy face, sad face, angry face, surprise face, etc.), subject posture (recognizes whether a recognized person is in a specific pose) Etc. are recognizable. In the person detection function-equipped device described in Patent Document 4, it is possible to identify a speaker from subject recognition and voice information. In the second embodiment, subject information (see FIG. 54) and speaker information (see FIG. 56) are acquired and recorded for each frame using these techniques, as with shooting environment information and operation information. To.

図53は被写体情報データリストの構造を示す図である。図54は被写体情報データの構造を示す図である。被写体情報データには、特許文献3に記載のカメラにより取得された被写体に関する情報が格納される。作成された被写体情報のフレーム番号が変わる度に、被写体情報の先頭ポインタが被写体情報データリストに格納される。したがって、被写体情報データリストからフレーム番号の先頭ポインタを取得することにより、被写体情報を取得することが可能となる。   FIG. 53 shows the structure of the subject information data list. FIG. 54 shows the structure of subject information data. In the subject information data, information on the subject acquired by the camera described in Patent Document 3 is stored. Each time the frame number of the created subject information changes, the head pointer of the subject information is stored in the subject information data list. Accordingly, it is possible to obtain subject information by obtaining the head pointer of the frame number from the subject information data list.

図54の被写体情報データの各要素データを示す。要素データ「フレーム番号」には、動画ファイルの先頭を基準とするフレーム番号が記述される。要素データ「被写体ID」には、フレーム番号の画像に映っている被写体の識別番号が記述される。要素データ「顔の向き情報」には、被写体の顔の向きが格納される。ここで、「0」は認識不可能を表し、「1」はカメラの方を向いていることを表し、「2」はカメラの方を向いていないことを表す。要素データ「目の状態情報」には、被写体の目の状態が格納される。ここで、「0」は認識不可能を表し、「1」は、目を閉じていることを表し、「2は」目が開いていることを表す。要素データ「顔の表情情報」には、被写体の表情が格納される。ここで、「0」は認識不可能を表し、「1」は無表情を表し、「2」は喜びを表し、「3」は悲しみを表し、「4」は怒りを表し、「5」は驚きを表す。要素データ「姿勢情報」には、被写体の姿勢の状態が格納される。ここで、「0」は認識不可能を表し、「1」は座っていることを表し、「2」は立っていることを表し、「3」は走っていることを表す。   Each element data of the subject information data of FIG. 54 is shown. In the element data “frame number”, a frame number based on the head of the moving image file is described. In the element data “subject ID”, the identification number of the subject shown in the frame number image is described. The element data “face orientation information” stores the face orientation of the subject. Here, “0” indicates that recognition is impossible, “1” indicates that the camera is facing, and “2” indicates that the camera is not facing. The element data “eye state information” stores the eye state of the subject. Here, “0” indicates that recognition is impossible, “1” indicates that the eyes are closed, and “2” indicates that the eyes are open. The element data “facial expression information” stores the facial expression of the subject. Here, “0” represents unrecognizable, “1” represents no expression, “2” represents joy, “3” represents sadness, “4” represents anger, “5” represents Represents surprise. The element data “posture information” stores the posture state of the subject. Here, “0” represents unrecognizable, “1” represents sitting, “2” represents standing, and “3” represents running.

図55は音声情報データリストの構造を示す図である。図56は音声情報データの構造を示す図である。音声情報データには、特許文献4に記載の人物検出機能搭載装置などによって取得された音声に関する情報が格納される。作成された音声情報のフレーム番号が変わる度に、音声情報の先頭ポインタが音声情報データリストに格納される。したがって、音声情報データリストからフレーム番号の先頭ポインタを取得することにより、音声情報を取得することが可能となる。   FIG. 55 shows the structure of the audio information data list. FIG. 56 shows the structure of audio information data. In the audio information data, information related to audio acquired by the person detection function-equipped device described in Patent Document 4 is stored. Each time the frame number of the created audio information changes, the head pointer of the audio information is stored in the audio information data list. Therefore, it is possible to acquire audio information by acquiring the head pointer of the frame number from the audio information data list.

図56の音声情報データの各要素データを示す。要素データ「フレーム番号」には、動画ファイルの先頭を基準とするフレーム番号が記述される。要素データ「音情報」には、音が入っているか入っていないかを示す値が格納される。ここで、「1」は「入っている」ことを表し、「0」は「入っていない」ことを表す。要素データ「被写体格納数」には、フレーム番号の画像に対する被写体IDの格納数が記述される。要素データ「被写体ID」には、フレーム番号で示される画像において話声が認識される場合、その話している人物の被写体IDが格納される。   Each element data of the audio | voice information data of FIG. 56 is shown. In the element data “frame number”, a frame number based on the head of the moving image file is described. The element data “sound information” stores a value indicating whether or not sound is included. Here, “1” represents “entered” and “0” represents “not entered”. The element data “number of stored subjects” describes the number of stored subject IDs for the image of the frame number. The element data “subject ID” stores the subject ID of the person who is speaking when the speech is recognized in the image indicated by the frame number.

これら被写体情報および音声情報の付属情報を、前述した映像区間分類情報データ、キーフレーム抽出履歴情報データ、キーフレーム抽出方法決定情報データにそれぞれ加えることで、操作者によって選択されたキーフレームのキーフレーム抽出方法の精度を向上させることが可能になる。   The key frame of the key frame selected by the operator is added to the above-described video section classification information data, key frame extraction history information data, and key frame extraction method determination information data, respectively, by adding the subject information and audio information additional information. It becomes possible to improve the accuracy of the extraction method.

例えば、被写体情報および音声情報を利用したキーフレーム抽出方法としては、次の「13」〜「15」に示す方法が挙げられる。   For example, as key frame extraction methods using subject information and audio information, the following methods “13” to “15” can be cited.

13.被写体数の一番多いフレームを抽出する。つまり、サブショット情報の開始フレーム番号から終了フレーム番号までの被写体情報を参照し、各フレーム番号の被写体IDの数を取得し、一番数の多いフレームをキーフレームとして抽出する。   13. Extract the frame with the largest number of subjects. That is, the subject information from the start frame number to the end frame number of the sub-shot information is referred to, the number of subject IDs of each frame number is acquired, and the largest number of frames is extracted as a key frame.

14.一番多く映っている被写体が始めて登場するフレームを抽出する。つまり、サブショット情報の開始フレーム番号から終了フレーム番号までの被写体情報を参照し、被写体ID毎の格納フレーム数を取得し、一番数の多い被写体IDにおいて、開始フレーム番号から検索して始めて登場するフレームをキーフレームとして抽出する。   14 Extract the frame in which the most reflected subject appears for the first time. That is, reference is made to the subject information from the start frame number to the end frame number of the sub-shot information, the number of stored frames for each subject ID is acquired, and the search starts from the start frame number for the largest number of subject IDs. The frames to be extracted are extracted as key frames.

15.キーフレーム変更で取得されるキーフレーム抽出方法の例として、パン中間フレームにおける被写体ID(A)が映っているフレームを抽出する。つまり、撮影環境情報を参照し、パン開始フレームおよびパン終了フレームを取得し、そのフレーム番号中における被写体ID(A)が登場するフレームを被写体情報から取得し、キーフレームとして選択されたフレームが何番目かを取得する。   15. As an example of the key frame extraction method acquired by changing the key frame, a frame in which the subject ID (A) is shown in the pan intermediate frame is extracted. That is, referring to the shooting environment information, a pan start frame and a pan end frame are obtained, a frame in which the subject ID (A) appears in the frame number is obtained from the subject information, and what is selected as a key frame. Get the second.

このように、第2の実施形態の撮像装置によれば、被写体情報等を格納することにより、キーフレームの抽出方法を詳細に指定することができるようになる。   As described above, according to the imaging apparatus of the second embodiment, it is possible to specify a key frame extraction method in detail by storing subject information and the like.

以上が本発明の実施の形態の説明であるが、本発明は、これら実施の形態の構成に限られるものではなく、特許請求の範囲で示した機能、または実施の形態の構成が持つ機能が達成できる構成であればどのようなものであっても適用可能である。   The above is the description of the embodiments of the present invention. However, the present invention is not limited to the configurations of these embodiments, and the functions shown in the claims or the functions of the configurations of the embodiments are included. Any configuration that can be achieved is applicable.

例えば、上記実施形態のユーザ識別処理では、指紋センサを用いてユーザを認識していたが、ユーザを認識する処理である限り、どのような処理方法であっても構わない。図57は表示部18に表示された文字表を示す図である。操作者は、表示部18に一覧表示された文字表に対し、カーソルを移動させて文字列を指定し、操作者の名前等の識別情報を入力する。そして、この識別情報の入力により自動的に付与された連番(ユーザID)をユーザ識別データリストに登録することで、ユーザの識別処理を行ってもよい。   For example, in the user identification process of the above embodiment, the user is recognized using the fingerprint sensor. However, any processing method may be used as long as the process recognizes the user. FIG. 57 is a diagram showing a character table displayed on the display unit 18. The operator moves the cursor to the character table displayed as a list on the display unit 18 to specify a character string, and inputs identification information such as the name of the operator. And a user identification process may be performed by registering the serial number (user ID) automatically given by the input of this identification information in a user identification data list.

また、上記実施形態では、撮影環境情報や操作情報などの時刻の単位として、動画ファイルの再生時刻を基準とするフレーム番号を用いたが、映像や音声と同期が取れる限り、どのような単位であってもよい。また、本実施形態では、キーフレームをフレーム番号で示したが、フレームを特定できる限り、どのような単位でキーフレームを示してもよい。また、キーフレームの画像データそのもの、あるいは縮小等の画像処理が施された画像データを別の領域に作成し、その画像データへのポインタ情報やハイパーリンクを記述するようにしてもよい。   In the above embodiment, the frame number based on the playback time of the moving image file is used as the unit of time for shooting environment information, operation information, etc., but in any unit as long as it can be synchronized with video and audio. There may be. In this embodiment, the key frame is indicated by the frame number. However, the key frame may be indicated by any unit as long as the frame can be specified. Alternatively, key frame image data itself or image data that has been subjected to image processing such as reduction may be created in another area, and pointer information or hyperlinks to the image data may be described.

また、上記実施形態では、映像処理装置は、単体の撮像装置で実現されたが、USB2.0等のシリアルインターフェース、IEEE1394、イーサネット(登録商標)、無線LANなどの通信手段により、ネットワークに接続された複数の装置から構成され、同様の機能を実現するようにしてもよい。   In the above embodiment, the video processing apparatus is realized by a single imaging apparatus, but is connected to a network by a communication means such as a serial interface such as USB 2.0, IEEE 1394, Ethernet (registered trademark), or wireless LAN. Alternatively, the same function may be realized.

さらに、サブショット分割やキーフレームの抽出処理は、録画終了時に行われることに限定されるものではなく、例えば、記録メディアの情報をパーソナルコンピュータ(PC)のような外部装置に読み込ませ、PC上で同様の処理を行って付属情報を加工してもよい。   Further, sub-shot division and key frame extraction processing are not limited to being performed at the end of recording. For example, information on a recording medium is read by an external device such as a personal computer (PC), The same process may be performed to process the attached information.

また、本実施形態では、撮影環境情報として、撮像装置の回転を検出する回転検出部(X方向回転検出部21、Y方向回転検出部22)からの情報を例示したが、撮影環境情報の種類によってキーフレームの選択基準が変わるような場合、これに限定されるものではなく、例えば、GPSなどの位置測定システム、温度計、高度計、方位磁石、気圧計、湿度計等の計測器の出力情報や、撮影者の体位、視線、瞳孔の大きさ、皮膚抵抗、脈、脳波などの生体情報を用いてもよい。   Further, in the present embodiment, the information from the rotation detection unit (the X direction rotation detection unit 21 and the Y direction rotation detection unit 22) that detects the rotation of the imaging device is exemplified as the shooting environment information. If the key frame selection criteria changes depending on the case, it is not limited to this. For example, the output information of a measuring device such as a GPS, a position measuring system, a thermometer, an altimeter, a compass, a barometer, a hygrometer, etc. Alternatively, biological information such as a photographer's body position, line of sight, pupil size, skin resistance, pulse, brain waves, and the like may be used.

また、上記実施形態では、サブショットから1つのキーフレームを選択する場合を示したが、1つに限らず、複数であってもよい。また、キーフレームとして適したフレーム画像が無い場合、選択を行わなくてもよい。   Moreover, although the case where one key frame was selected from the sub-shot was shown in the above embodiment, the number is not limited to one and may be plural. Further, when there is no frame image suitable as a key frame, the selection may not be performed.

また、本発明の目的は、実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU等)が記憶媒体に格納されたプログラムコードを読み出して実行することによっても達成される。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。   In addition, an object of the present invention is to supply a storage medium in which a program code of software for realizing the functions of the embodiment is recorded to a system or apparatus, and a computer (or CPU, MPU, etc.) of the system or apparatus as the storage medium. This can also be achieved by reading and executing the stored program code. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention.

また、プログラムコードを供給するための記憶媒体としては、例えば、ROM、フロッピー(登録商標)ディスク、PCMCIAカードやコンパクトフラッシュ(登録商標)等のメモリカード、ハードディスク、マイクロDAT、光磁気ディスク、CD−RやCD−RW等の光ディスク、DVD等の相変化型光ディスク等で構成されてもよい。   Examples of storage media for supplying the program code include ROM, floppy (registered trademark) disk, memory card such as PCMCIA card and compact flash (registered trademark), hard disk, micro DAT, magneto-optical disk, CD- It may be composed of an optical disk such as R or CD-RW, a phase change optical disk such as DVD, or the like.

また、コンピュータが読み出したプログラムコードを実行することにより、上記実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれる。   Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an OS (operating system) or the like running on the computer is actually executed based on the instruction of the program code. This includes a case where part or all of the processing is performed and the functions of the above-described embodiments are realized by the processing.

更に、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行い、その処理によって前述した実施の形態の機能が実現される場合も含まれる。   Further, after the program code read from the storage medium is written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, the function expansion is performed based on the instruction of the program code. This includes the case where the CPU or the like provided in the board or the function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.

第1の実施形態における撮像装置の構成を示すブロック図である。It is a block diagram which shows the structure of the imaging device in 1st Embodiment. システム制御部23の構成を示す図である。3 is a diagram illustrating a configuration of a system control unit 23. FIG. 映像管理部17の構成を示すブロック図である。3 is a block diagram illustrating a configuration of a video management unit 17. FIG. 撮影環境情報データの構造を示す図である。It is a figure which shows the structure of imaging | photography environment information data. 撮影環境情報データリストの構造を示す図である。It is a figure which shows the structure of an imaging | photography environment information data list. 操作情報データの構造を示す図である。It is a figure which shows the structure of operation information data. 操作情報データリストの構造を示す図である。It is a figure which shows the structure of an operation information data list. サブショット情報データの構造を示す図である。It is a figure which shows the structure of subshot information data. サブショット情報データリストの構造を示す図である。It is a figure which shows the structure of a subshot information data list. 映像区間分類情報の構造を示す図である。It is a figure which shows the structure of video area classification | category information. 映像区間分類情報リストを示す図である。It is a figure which shows a video area classification | category information list. 分類条件情報の構造を示す図である。It is a figure which shows the structure of classification condition information. 映像区間分類情報を示す図である。It is a figure which shows video area classification | category information. 映像区間分類情報「1」における分類条件情報を示す図である。It is a figure which shows the classification condition information in video section classification information "1". ユーザキーフレーム抽出履歴情報を示す図である。It is a figure which shows user key frame extraction log | history information. ユーザキーフレーム抽出履歴リストの構造を示す図である。It is a figure which shows the structure of a user key frame extraction log | history list. キーフレーム抽出履歴情報の構造を示す図である。It is a figure which shows the structure of key frame extraction log | history information. キーフレーム抽出履歴情報リストの構造を示す図である。It is a figure which shows the structure of a key frame extraction log | history information list. キーフレーム抽出詳細情報の構造を示す図である。It is a figure which shows the structure of key frame extraction detailed information. キーフレーム抽出詳細情報リストの構造を示す図である。It is a figure which shows the structure of a key frame extraction detailed information list. キーフレーム抽出方法決定情報の構造を示す図である。It is a figure which shows the structure of the key frame extraction method determination information. キーフレーム抽出方法決定情報インデックスリストの構造を示す図である。It is a figure which shows the structure of a key frame extraction method determination information index list. キーフレーム抽出方法条件情報の構造を示す図である。It is a figure which shows the structure of key frame extraction method condition information. キーフレーム抽出方法決定情報の具体例を示す図である。It is a figure which shows the specific example of key frame extraction method determination information. 撮像装置におけるキーフレーム設定処理手順を示すフローチャートである。It is a flowchart which shows the key frame setting process sequence in an imaging device. 図25につづく撮像装置におけるキーフレーム設定処理手順を示すフローチャートである。It is a flowchart which shows the key frame setting process sequence in the imaging device following FIG. ステップS8における映像分割処理手順を示すフローチャートである。It is a flowchart which shows the image | video division | segmentation process procedure in step S8. ステップS9におけるキーフレーム設定処理手順を示すフローチャートである。It is a flowchart which shows the key frame setting process sequence in step S9. ステップS44における分類情報の取得処理手順を示すフローチャートである。It is a flowchart which shows the acquisition processing procedure of the classification information in step S44. 図29につづくステップS44における分類情報の取得処理手順を示すフローチャートである。It is a flowchart which shows the acquisition processing procedure of the classification information in step S44 following FIG. ステップS60における分類判断処理タイプ情報1の判断処理手順を示すフローチャートである。It is a flowchart which shows the judgment processing procedure of the classification judgment processing type information 1 in step S60. ステップS60における分類判断処理タイプ情報2の判断処理手順を示すフローチャートである。It is a flowchart which shows the judgment processing procedure of the classification judgment processing type information 2 in step S60. ステップS60における分類判断処理タイプ情報3の判断処理手順を示すフローチャートである。It is a flowchart which shows the judgment processing procedure of the classification judgment processing type information 3 in step S60. ステップS60における分類判断処理タイプ情報4の判断処理手順を示すフローチャートである。It is a flowchart which shows the judgment processing procedure of the classification judgment processing type information 4 in step S60. ステップS47におけるキーフレーム抽出処理手順を示すフローチャートである。It is a flowchart which shows the key frame extraction process procedure in step S47. 開始フレームをキーフレームとして設定するキーフレーム抽出タイプ情報1のキーフレーム抽出処理手順を示すフローチャートである。It is a flowchart which shows the key frame extraction process procedure of the key frame extraction type information 1 which sets a start frame as a key frame. 終了フレームをキーフレームとして設定するキーフレーム抽出タイプ情報2のキーフレーム抽出処理手順を示すフローチャートである。It is a flowchart which shows the key frame extraction process procedure of the key frame extraction type information 2 which sets an end frame as a key frame. パン中の中間フレームをキーフレームとして設定するキーフレーム抽出タイプ情報3のキーフレーム抽出処理手順を示すフローチャートである。It is a flowchart which shows the key frame extraction process procedure of the key frame extraction type information 3 which sets the intermediate | middle frame in pan as a key frame. ステップS92におけるキーフレーム抽出詳細情報を用いたキーフレーム抽出処理手順を示すフローチャートである。It is a flowchart which shows the key frame extraction process procedure using the key frame extraction detailed information in step S92. キーフレーム抽出詳細情報タイプ情報3のキーフレーム抽出処理手順を示すフローチャートである。It is a flowchart which shows the key frame extraction process procedure of the key frame extraction detailed information type information 3. FIG. ステップS11におけるキーフレーム変更処理手順を示すフローチャートである。It is a flowchart which shows the key frame change process sequence in step S11. ステップS155におけるキーフレーム抽出履歴情報登録処理手順を示すフローチャートである。It is a flowchart which shows the key frame extraction log | history information registration process procedure in step S155. ステップS162における新規設定キーフレーム抽出タイプ情報取得処理手順を示すフローチャートである。It is a flowchart which shows the newly set key frame extraction type information acquisition process procedure in step S162. ステップS177における条件情報判定処理手順を示すフローチャートである。It is a flowchart which shows the condition information determination processing procedure in step S177. ステップS196におけるキーフレーム抽出方法判断処理タイプ情報1に対する判断処理手順を示すフローチャートである。It is a flowchart which shows the judgment processing procedure with respect to the key frame extraction method judgment processing type information 1 in step S196. キーフレーム抽出方法判断処理タイプ情報14に対する判断処理手順を示すフローチャートである。7 is a flowchart showing a determination processing procedure for key frame extraction method determination processing type information 14; ステップS157における類似動画区間の変更処理手順を示すフローチャートである。It is a flowchart which shows the change process sequence of the similar animation area in step S157. ステップS10におけるキーフレーム一覧表示処理手順を示すフローチャートである。It is a flowchart which shows the key frame list display process sequence in step S10. 動画区間毎のキーフレームを一覧表示する操作画面を示す図である。It is a figure which shows the operation screen which displays the key frame for every moving image area as a list. 動画区間におけるキーフレームの変更処理を行う際の操作画面を示す図である。It is a figure which shows the operation screen at the time of performing the change process of the key frame in a moving image area. 新規キーフレームが追加されたキーフレームを一覧表示する操作画面を示す図である。It is a figure which shows the operation screen which displays the key frame to which the new key frame was added as a list. 図51の操作画面上で映像区間IのキーフレームI−3が選択された後、次回キーフレームの一覧が表示された操作画面を示す図である。FIG. 52 is a diagram showing an operation screen on which a list of next key frames is displayed after key frame I-3 of video section I is selected on the operation screen of FIG. 51. 被写体情報データリストの構造を示す図である。It is a figure which shows the structure of a to-be-photographed information data list. 被写体情報データの構造を示す図である。It is a figure which shows the structure of object information data. 音声情報データリストの構造を示す図である。It is a figure which shows the structure of an audio | voice information data list. 音声情報データの構造を示す図である。It is a figure which shows the structure of audio | voice information data. 表示部18に表示された文字表を示す図である。It is a figure which shows the character table displayed on the display part. 映像区間毎に分割された中からキーフレームが抽出される様子を示す図である。It is a figure which shows a mode that a key frame is extracted from the inside divided | segmented for every video area.

符号の説明Explanation of symbols

17 映像管理部
18 表示部
19 レンズ位置検出部
21 X方向回転検出部
22 Y方向回転検出部
23 システム制御部
24 操作入力部
31 指紋検出部
41 CPU
42 ROM
56 映像分割部
57 キーフレーム抽出部
58 類似映像区間抽出部
59 付属情報管理部
DESCRIPTION OF SYMBOLS 17 Image management part 18 Display part 19 Lens position detection part 21 X direction rotation detection part 22 Y direction rotation detection part 23 System control part 24 Operation input part 31 Fingerprint detection part 41 CPU
42 ROM
56 Video segmentation unit 57 Key frame extraction unit 58 Similar video segment extraction unit 59 Attached information management unit

Claims (11)

映像データから抽出された代表画像を変更する代表画像変更手段と、
前記代表画像が変更された映像区間における代表画像抽出方法を取得する代表画像抽出方法取得手段と、
前記代表画像が変更された映像区間と類似する映像区間である類似映像区間を抽出する類似映像区間抽出手段と、
前記代表画像が変更された映像区間における代表画像抽出方法を用いて、前記抽出された類似映像区間の代表画像を抽出し、該抽出された代表画像を、前記類似映像区間の代表画像として、前記代表画像抽出手段によって抽出された前記類似映像区間の代表画像に追加する類似映像区間代表画像追加手段とを備えた映像処理装置。
Representative image changing means for changing the representative image extracted from the video data;
Representative image extraction method acquisition means for acquiring a representative image extraction method in a video section in which the representative image is changed;
A similar video section extraction means for extracting a similar video section that is a video section similar to the video section in which the representative image is changed;
Using the representative image extraction method in the video section in which the representative image is changed, the representative image of the extracted similar video section is extracted, and the extracted representative image is used as the representative image of the similar video section. A video processing apparatus comprising: similar video section representative image adding means for adding to the representative image of the similar video section extracted by the representative image extracting means.
前記映像区間の中から抽出された代表画像を表示する表示手段と、
前記表示された代表画像を含む映像区間を選択する映像区間選択手段とを備え、
前記代表画像変更手段は、前記選択された映像区間に含まれる代表画像を変更することを特徴とする請求項1記載の映像処理装置。
Display means for displaying a representative image extracted from the video section;
Video section selection means for selecting a video section including the displayed representative image,
The video processing apparatus according to claim 1, wherein the representative image changing unit changes a representative image included in the selected video section.
前記表示された代表画像が選択されることで、該代表画像を含む映像区間の再生または編集を起動する起動手段と、
前記再生または編集を起動するために選択された代表画像の使用頻度を示す使用回数情報を更新する使用回数情報更新手段とを備え、
前記表示手段は、前記映像区間の複数の代表画像のうち、使用頻度が最多である代表画像だけを表示することを特徴とする請求項2記載の映像処理装置。
An activation unit that activates playback or editing of a video section including the representative image by selecting the displayed representative image;
Use number information updating means for updating the use number information indicating the use frequency of the representative image selected for starting the reproduction or editing,
The video processing apparatus according to claim 2, wherein the display unit displays only a representative image that is most frequently used among a plurality of representative images in the video section.
前記表示手段によって表示される前記類似映像区間の代表画像を複数の中から切り替える代表画像切替手段を備えたことを特徴とする請求項2または3記載の映像処理装置。   4. The video processing apparatus according to claim 2, further comprising representative image switching means for switching a representative image of the similar video section displayed by the display means from a plurality of images. 前記代表画像抽出方法取得手段は、前記代表画像が変更された映像区間に付与されている付属情報を参照し、前記代表画像抽出方法を決定することを特徴とする請求項1記載の映像処理装置。   The video processing apparatus according to claim 1, wherein the representative image extraction method acquisition unit determines the representative image extraction method with reference to attached information given to a video section in which the representative image is changed. . 前記代表画像抽出方法取得手段は、前記付属情報およびフレーム位置情報を用いた代表画像抽出方法条件情報と、前記代表画像抽出方法条件情報を満足する映像区間の代表画像を設定するための代表画像設定情報とからなる代表画像抽出方法決定情報を保持し、該代表画像抽出方法決定情報を用いて前記代表画像抽出方法を決定することを特徴とする請求項5記載の映像処理装置。   The representative image extraction method acquisition means includes representative image extraction method condition information using the attached information and frame position information, and a representative image setting for setting a representative image of a video section that satisfies the representative image extraction method condition information. 6. The video processing apparatus according to claim 5, wherein representative image extraction method determination information including information is held, and the representative image extraction method is determined using the representative image extraction method determination information. 前記映像区間に付与されている付属情報を基に分類を行って該映像区間の分類情報を取得する分類情報取得手段を備え、
前記類似映像区間抽出手段は、前記取得された映像区間の分類情報と、前記付属情報および前記代表画像のフレーム位置情報を用いた分類条件情報とからなる映像区間分類情報を保持し、前記分類条件情報を満足する分類情報と一致する分類情報を有する映像区間を前記類似映像区間として抽出することを特徴とする請求項1記載の映像処理装置。
Classification information acquisition means for performing classification based on the attached information given to the video section and acquiring the classification information of the video section,
The similar video section extraction means holds video section classification information including classification information of the acquired video section and classification condition information using the attached information and frame position information of the representative image, and the classification condition The video processing apparatus according to claim 1, wherein a video section having classification information that matches classification information satisfying information is extracted as the similar video section.
前記付属情報は、撮影環境情報および操作情報を含むことを特徴とする請求項5乃至7のいずれか記載の映像処理装置。   The video processing apparatus according to claim 5, wherein the attached information includes shooting environment information and operation information. 被写体情報を検出する被写体情報検出手段を備え、
前記付属情報は、前記被写体情報を含むことを特徴とする請求項5乃至7のいずれか記載の映像処理装置。
Subject information detection means for detecting subject information is provided,
The video processing apparatus according to claim 5, wherein the attached information includes the subject information.
話者情報を検出する話者情報検出手段を備え、
前記付属情報は、前記話者情報を含むことを特徴とする請求項5乃至7のいずれか記載の映像処理装置。
Comprising speaker information detecting means for detecting speaker information;
The video processing apparatus according to claim 5, wherein the attached information includes the speaker information.
映像データから抽出された代表画像を変更する代表画像変更ステップと、
前記代表画像が変更された映像区間における代表画像抽出方法を取得する代表画像抽出方法取得ステップと、
前記代表画像が変更された映像区間と類似する映像区間である類似映像区間を抽出する類似映像区間抽出ステップと、
前記代表画像が変更された映像区間における代表画像抽出方法を用いて、前記抽出された類似映像区間の代表画像を抽出し、該抽出された代表画像を、前記類似映像区間の代表画像として、前記代表画像抽出ステップで抽出された前記類似映像区間の代表画像に追加する類似映像区間代表画像追加ステップとを有する代表画像設定方法。
A representative image changing step for changing the representative image extracted from the video data;
A representative image extraction method acquisition step of acquiring a representative image extraction method in a video section in which the representative image is changed;
A similar video segment extraction step for extracting a similar video segment which is a video segment similar to the video segment in which the representative image is changed;
Using the representative image extraction method in the video section in which the representative image is changed, the representative image of the extracted similar video section is extracted, and the extracted representative image is used as the representative image of the similar video section. A representative image setting method comprising: a similar video section representative image adding step of adding to a representative image of the similar video section extracted in the representative image extraction step.
JP2003408072A 2003-12-05 2003-12-05 Video processing apparatus and representative image setting method Withdrawn JP2005175532A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003408072A JP2005175532A (en) 2003-12-05 2003-12-05 Video processing apparatus and representative image setting method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003408072A JP2005175532A (en) 2003-12-05 2003-12-05 Video processing apparatus and representative image setting method

Publications (1)

Publication Number Publication Date
JP2005175532A true JP2005175532A (en) 2005-06-30

Family

ID=34729922

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003408072A Withdrawn JP2005175532A (en) 2003-12-05 2003-12-05 Video processing apparatus and representative image setting method

Country Status (1)

Country Link
JP (1) JP2005175532A (en)

Similar Documents

Publication Publication Date Title
JP4760892B2 (en) Display control apparatus, display control method, and program
JP4618166B2 (en) Image processing apparatus, image processing method, and program
JP4241709B2 (en) Image processing device
EP1816649B1 (en) Imaging device, information processing method, and computer program
EP2741293A1 (en) Video processing apparatus and method
US20100020224A1 (en) Method for selecting desirable images from among a plurality of images and apparatus thereof
CN111294488B (en) Image pickup apparatus, control method thereof, and storage medium
KR20090055516A (en) Recording device and method, program, and reproducing device and method
WO2007126097A1 (en) Image processing device and image processing method
WO2007126096A1 (en) Image processing device and image processing method
JP3636830B2 (en) Intelligent video camera and intelligent still camera
EP1347455A2 (en) Contents recording/playback apparatus and contents edit method
JP4490214B2 (en) Electronic album display system, electronic album display method, and electronic album display program
US20110096994A1 (en) Similar image retrieval system and similar image retrieval method
KR101319544B1 (en) Photographing apparatus for detecting appearance of person and method thereof
JP2004056397A (en) Image processing apparatus and method
JP2005184348A (en) Video image processor and representative image setting method
JP2009267773A (en) Video editing device, photographic device, and video-editing method
JP2008199330A (en) Moving image management apparatus
KR20140072785A (en) Video processing apparatus and method
JP5064173B2 (en) camera
JP4110478B2 (en) Image processing apparatus and method, photographing apparatus, and program
JP2005175533A (en) Video processing apparatus and representative image setting method
JP2005175532A (en) Video processing apparatus and representative image setting method
JP2000083186A (en) Video equipment

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20060418

A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20070206