JP5990903B2 - Image generation device - Google Patents

Image generation device Download PDF

Info

Publication number
JP5990903B2
JP5990903B2 JP2011274894A JP2011274894A JP5990903B2 JP 5990903 B2 JP5990903 B2 JP 5990903B2 JP 2011274894 A JP2011274894 A JP 2011274894A JP 2011274894 A JP2011274894 A JP 2011274894A JP 5990903 B2 JP5990903 B2 JP 5990903B2
Authority
JP
Japan
Prior art keywords
control unit
frame
system control
moving image
flag
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011274894A
Other languages
Japanese (ja)
Other versions
JP2013126175A (en
Inventor
貴志 皆川
貴志 皆川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2011274894A priority Critical patent/JP5990903B2/en
Publication of JP2013126175A publication Critical patent/JP2013126175A/en
Application granted granted Critical
Publication of JP5990903B2 publication Critical patent/JP5990903B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Description

本発明は、画像記録装置、画像生成装置、画像記録装置の制御プログラムおよび画像生成装置の制御プログラムに関する。   The present invention relates to an image recording apparatus, an image generation apparatus, a control program for the image recording apparatus, and a control program for the image generation apparatus.

動画撮影中において、レリーズボタンが押されるごとにダイジェスト動画データを生成する撮像装置が知られている。
[先行技術文献]
[特許文献]
[特許文献1]特開2010−158046号公報
2. Description of the Related Art An imaging device that generates digest movie data every time a release button is pressed during movie shooting is known.
[Prior art documents]
[Patent Literature]
[Patent Document 1] Japanese Patent Application Laid-Open No. 2010-158046

しかしながら、動画撮影後に視聴者ごとの要望に沿ったダイジェスト動画を作成することは困難であった。   However, it has been difficult to create a digest video that meets the demands of each viewer after video shooting.

本発明の第1の態様における画像記録装置は、動画データからダイジェスト動画データを生成するための、ダイジェスト動画の終了を規定する終了フラグを含むフラグ群を生成するフラグ生成部と、フラグ群を動画データに関連付けて記録部に記録する記録制御部とを備える。   An image recording apparatus according to a first aspect of the present invention includes: a flag generation unit that generates a flag group including an end flag that defines the end of a digest video for generating digest video data from the video data; A recording control unit that records the information in the recording unit in association with the data.

また、本発明の第2の態様における画像生成装置は、動画データと、動画データからダイジェスト動画データを生成するための、ダイジェスト動画の終了を規定する終了フラグを含むフラグ群とを取得する取得部と、動画データおよびフラグ群に基づいてダイジェスト動画データを生成する動画生成部とを備える。   In addition, the image generation device according to the second aspect of the present invention acquires the moving image data and a flag group including an end flag that defines the end of the digest moving image for generating the digest moving image data from the moving image data. And a moving image generating unit that generates digest moving image data based on the moving image data and the flag group.

なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。   It should be noted that the above summary of the invention does not enumerate all the necessary features of the present invention. In addition, a sub-combination of these feature groups can also be an invention.

本実施形態に係るカメラのシステム構成図である。1 is a system configuration diagram of a camera according to an embodiment. ダイジェスト動画データを生成するためのフラグ群の生成処理を説明する図である。It is a figure explaining the production | generation process of the flag group for producing | generating digest moving image data. 動画ファイルの一例であるMP4ファイルの構成を示す図である。It is a figure which shows the structure of the MP4 file which is an example of a moving image file. フラグ群の生成処理のフロー図である。It is a flowchart of the production | generation process of a flag group. ダイジェスト動画の作成条件の設定画面を示す図である。It is a figure which shows the setting screen of the preparation conditions of a digest moving image. ダイジェスト動画データの生成処理の第1例を説明する図である。It is a figure explaining the 1st example of the production | generation process of digest moving image data. ダイジェスト動画データの生成処理の第2例を説明する図である。It is a figure explaining the 2nd example of the production | generation process of digest moving image data. ダイジェスト動画データの生成処理のフロー図である。It is a flowchart of the production | generation process of digest moving image data.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。   Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. In addition, not all the combinations of features described in the embodiments are essential for the solving means of the invention.

図1は、本実施形態に係るカメラ10のシステム構成図である。カメラ10は、システム制御部11を備え、カメラ10を構成する各要素を直接的または間接的に制御する。システム制御部11は、システムメモリ12と通信する。システムメモリ12は、電気的に消去・記録可能な不揮発性メモリであり、例えばEEPROM(登録商標)等により構成される。システムメモリ12は、カメラ10の動作時に必要な定数、変数、設定値、プログラム等を、カメラ10の非動作時にも失われないように記憶している。   FIG. 1 is a system configuration diagram of a camera 10 according to the present embodiment. The camera 10 includes a system control unit 11 and directly or indirectly controls each element constituting the camera 10. The system control unit 11 communicates with the system memory 12. The system memory 12 is an electrically erasable / recordable non-volatile memory, and is composed of, for example, an EEPROM (registered trademark). The system memory 12 stores constants, variables, setting values, programs, and the like necessary for the operation of the camera 10 so that they are not lost even when the camera 10 is not operating.

カメラ10は、光学系20を備える。光学系20は、カメラ本体に対して着脱可能に構成されてもよい。光学系20は、主にズームレンズ、フォーカスレンズ等を含むレンズ群21、および、レンズシャッタ22により構成される。被写体像は光軸に沿って光学系20に入射し、撮像素子31の結像面に結像する。撮像部の少なくとも一部である撮像素子31は、光学系20を透過して入射する被写体像である光学像を光電変換する素子である。撮像素子31として、CCD、CMOSセンサ等が用いられる。撮像素子31で光電変換された被写体像は、A/D変換器32でアナログ信号からデジタル信号に変換される。   The camera 10 includes an optical system 20. The optical system 20 may be configured to be detachable from the camera body. The optical system 20 mainly includes a lens group 21 including a zoom lens, a focus lens, and the like, and a lens shutter 22. The subject image enters the optical system 20 along the optical axis and forms an image on the imaging surface of the image sensor 31. The image sensor 31 that is at least a part of the imaging unit is an element that photoelectrically converts an optical image that is a subject image that is incident through the optical system 20. As the image sensor 31, a CCD, a CMOS sensor, or the like is used. The subject image photoelectrically converted by the image sensor 31 is converted from an analog signal to a digital signal by the A / D converter 32.

デジタル信号に変換された被写体像は、画像データとして順次処理される。A/D変換器32によりデジタル信号に変換された画像データは、メモリ制御部33の制御に従い、一旦内部メモリ34に記憶される。内部メモリ34は、高速で読み書きのできるランダムアクセスメモリであり、例えばDRAM、SRAMなどが用いられる。内部メモリ34は、連写撮影、動画撮影において高速に連続して画像データが生成される場合に、画像処理の順番を待つバッファメモリとしての役割を担う。   The subject image converted into the digital signal is sequentially processed as image data. The image data converted into a digital signal by the A / D converter 32 is temporarily stored in the internal memory 34 under the control of the memory control unit 33. The internal memory 34 is a random access memory that can be read and written at high speed, and for example, a DRAM, an SRAM, or the like is used. The internal memory 34 serves as a buffer memory that waits for the order of image processing when image data is continuously generated at high speed in continuous shooting and moving image shooting.

また、内部メモリ34は、画像処理部35が行う画像処理、圧縮処理において、ワークメモリとしての役割も担うと共に、加工処理された画像データを一時的に保管する役割も担う。更に、システムメモリ12に記憶されている定数、変数、設定値、プログラム等が適宜展開されて、カメラ10の制御に利用される。したがって、内部メモリ34は、これらの役割を担うに相当する十分なメモリ容量を備える。メモリ制御部33は、いかなる作業にどれくらいのメモリ容量を割り当てるかを制御する。   The internal memory 34 also serves as a work memory in the image processing and compression processing performed by the image processing unit 35 and also serves to temporarily store the processed image data. Furthermore, constants, variables, setting values, programs, and the like stored in the system memory 12 are appropriately developed and used for controlling the camera 10. Therefore, the internal memory 34 has a sufficient memory capacity corresponding to these roles. The memory control unit 33 controls how much memory capacity is allocated to what work.

画像処理部35は、設定されている撮影モード、ユーザからの指示に則して、画像データを規定の画像フォーマットに従った画像ファイルに変換する。例えば、画像処理部35は、静止画としてJPEGファイルを生成する場合、色変換処理、ガンマ処理、ホワイトバランス処理等の画像処理を行った後に適応離散コサイン変換等を施して圧縮処理を行う。また、画像処理部35は、動画としてMPEGファイルを生成する場合、所定の画素数に縮小されて生成された連続する静止画としてのフレーム画像に対して、フレーム内符号化、フレーム間符号化を施して圧縮処理を行う。また、画像処理部35は、画像データの画像内における人物の顔部を認識する顔認識機能を実行する。   The image processing unit 35 converts the image data into an image file in accordance with a prescribed image format in accordance with the set shooting mode and instructions from the user. For example, when generating a JPEG file as a still image, the image processing unit 35 performs image processing such as color conversion processing, gamma processing, and white balance processing, and then performs adaptive discrete cosine conversion and the like to perform compression processing. In addition, when generating an MPEG file as a moving image, the image processing unit 35 performs intra-frame encoding and inter-frame encoding on a frame image as a continuous still image generated by being reduced to a predetermined number of pixels. To perform compression processing. Further, the image processing unit 35 executes a face recognition function for recognizing a human face in the image of the image data.

画像処理部35によって処理された静止画ファイル、動画ファイルは、メモリ制御部33の制御により、内部メモリ34から記録媒体IF38を介して、記録部50に記録される。記録部50は、フラッシュメモリ等により構成される、カメラ10に対して着脱可能な不揮発性メモリである。ただし、記録部50は、着脱式に限らず、カメラ10に内蔵される例えばSSDなどの記録媒体であっても良い。このとき、記録部50に記録された静止画ファイル、動画ファイルは、有線によるUSB、無線によるLAN等により外部へ出力される。また、記録部50には、焦点距離、フォーカス位置、絞り等の撮影に関連する関連情報が画像データに関連付けて記録される。なお、関連情報は、例えばExif情報に含まれていてもよい。   The still image file and the moving image file processed by the image processing unit 35 are recorded in the recording unit 50 from the internal memory 34 via the recording medium IF 38 under the control of the memory control unit 33. The recording unit 50 is a non-volatile memory that is configured with a flash memory or the like and is detachable from the camera 10. However, the recording unit 50 is not limited to a detachable type, and may be a recording medium such as an SSD built in the camera 10. At this time, the still image file and the moving image file recorded in the recording unit 50 are output to the outside through a wired USB, a wireless LAN, or the like. The recording unit 50 records related information related to photographing such as a focal length, a focus position, and an aperture in association with image data. Note that the related information may be included in, for example, Exif information.

画像処理部35は、記録用に処理される画像データに並行して、表示用画像データを生成する。通常の表示用画像データは、記録用に処理される画像データをコピーして間引き処理された、画素数の少ない画像データである。つまり、記録用に処理される画像データに従って生成される通常の表示用画像データは、記録用の画像データと同様のカラー情報であるRGB情報を有する。このように生成された表示用画像データは、表示制御部36により、赤色信号であるR信号、緑色信号であるG信号および青色信号であるB信号に変換されて表示部37へ出力される。また、同時に、表示制御部36は、表示部37のバックライトの輝度を調整する輝度調整信号を出力する。   The image processing unit 35 generates display image data in parallel with the image data processed for recording. Normal display image data is image data with a small number of pixels, which is obtained by copying and thinning image data to be processed for recording. That is, normal display image data generated according to the image data processed for recording has RGB information that is the same color information as the recording image data. The display image data generated in this way is converted into an R signal that is a red signal, a G signal that is a green signal, and a B signal that is a blue signal by the display control unit 36 and is output to the display unit 37. At the same time, the display control unit 36 outputs a luminance adjustment signal for adjusting the luminance of the backlight of the display unit 37.

表示部37は、LCDパネルとバックライトを備える液晶ディスプレイユニットである。表示部37は、表示制御部36が出力するRGB信号および輝度調整信号を受け取り、LCDパネルの各画素でRGB信号の階調を生成しつつ、バックライトの輝度を調整することにより、表示用画像データをユーザに視認されるように表示する。   The display unit 37 is a liquid crystal display unit including an LCD panel and a backlight. The display unit 37 receives the RGB signal and the luminance adjustment signal output from the display control unit 36, and adjusts the luminance of the backlight while generating the gradation of the RGB signal at each pixel of the LCD panel, thereby displaying the display image. Display the data so that it is visible to the user.

記録の有無に関わらず、画像処理部35が撮像素子31の出力に従って逐次表示用画像データを生成して表示部37へ出力すれば、電子ビューファインダーとしてのライブビュー表示を実現することができる。表示制御部36は、静止画および動画撮影後の再生表示、撮影前および動画撮影中のライブビュー表示を表示部37に実行させる。また、表示制御部36は、メニュー画面等を表示部37に表示させる。   Regardless of the presence or absence of recording, if the image processing unit 35 sequentially generates image data for display according to the output of the image sensor 31 and outputs it to the display unit 37, live view display as an electronic viewfinder can be realized. The display control unit 36 causes the display unit 37 to perform playback display after shooting still images and moving images, and live view display before shooting and during moving image shooting. In addition, the display control unit 36 causes the display unit 37 to display a menu screen or the like.

カメラ10は、ユーザの入力を受け付ける受付部としての操作部材39を複数備えている。操作部材39は、静止画撮影を指示するレリーズボタン、動画撮影を指示する録画ボタン、ズームを指示するシーソースイッチ、メニュー項目等を選択する十字キー、選択した項目を確定させる確定ボタン等で構成される。システム制御部11は、操作部材39で受け付けたユーザの入力に応じて各種処理を実行する。   The camera 10 includes a plurality of operation members 39 as reception units that receive user input. The operation member 39 includes a release button for instructing still image shooting, a recording button for instructing moving image shooting, a seesaw switch for instructing zoom, a cross key for selecting a menu item, a confirmation button for confirming the selected item, and the like. The The system control unit 11 executes various processes according to the user input received through the operation member 39.

レンズ制御部40は、レンズ群21を制御して、被写体像の画角を変更し、被写体像の特定領域を撮像素子31の受光面上で合焦させる。露光制御部41は、レンズシャッタ22を制御して、設定された絞り値およびシャッタ速度を実現する。   The lens control unit 40 controls the lens group 21 to change the angle of view of the subject image, and focuses a specific area of the subject image on the light receiving surface of the image sensor 31. The exposure control unit 41 controls the lens shutter 22 to realize the set aperture value and shutter speed.

まず、本実施形態に係る画像記録装置として機能するカメラ10の動作について説明する。カメラ10は、動画データからダイジェスト動画データを生成するためのフラグ群を生成し、フラグ群を動画データに関連付けて記録部50に記録する。本実施形態において、システム制御部11および画像処理部35は、フラグ群を生成するフラグ生成部として機能する。また、システム制御部11およびメモリ制御部33は、フラグ群を動画データに関連付けて記録部50に記録する記録制御部として機能する。   First, the operation of the camera 10 that functions as the image recording apparatus according to the present embodiment will be described. The camera 10 generates a flag group for generating digest video data from the video data, and records the flag group in the recording unit 50 in association with the video data. In the present embodiment, the system control unit 11 and the image processing unit 35 function as a flag generation unit that generates a flag group. The system control unit 11 and the memory control unit 33 function as a recording control unit that records the flag group in the recording unit 50 in association with the moving image data.

図2は、ダイジェスト動画データを生成するためのフラグ群の生成処理を説明する図である。カメラ10が動画撮影を実行して図2に示すフレーム画像データが取得された場合を想定する。図2の例において、ユーザは、設定画面において、人物A、人物Bを対象被写体として予め指定している。そして、人物A、人物Bを顔認識するためのパターンマッチング用データは、システムメモリ12に予め記録されている。   FIG. 2 is a diagram illustrating a flag group generation process for generating digest video data. Assume that the camera 10 performs moving image shooting and the frame image data shown in FIG. 2 is acquired. In the example of FIG. 2, the user designates the person A and the person B as target subjects in advance on the setting screen. The pattern matching data for recognizing the faces of person A and person B is recorded in the system memory 12 in advance.

本実施形態において、システム制御部11は、画像処理部35と協働して、動画データからダイジェスト動画データを生成するためのフラグ群を生成する。フラグ群には、ダイジェスト動画の開始を規定する開始フラグおよびダイジェスト動画の終了を規定する終了フラグが含まれる。なお、開始フラグおよび終了フラグは、ユーザが予め指定した対象被写体ごとに生成される。   In the present embodiment, the system control unit 11 cooperates with the image processing unit 35 to generate a flag group for generating digest moving image data from moving image data. The flag group includes a start flag that defines the start of the digest movie and an end flag that defines the end of the digest movie. The start flag and the end flag are generated for each target subject designated in advance by the user.

具体的には、画像処理部35は、システムメモリ12内のパターンマッチング用データを参照して、対象被写体について顔認識機能を実行する。そして、システム制御部11は、対象被写体がフレームに入ったときに、当該フレームに対して当該対象被写体の開始フラグを生成する。また、システム制御部11は、対象被写体がフレームの外に出たときに、当該フレームに対して当該対象被写体の終了フラグを生成する。図2の例において、システム制御部11は、第mフレーム、第n+2フレームに対して人物Aの開始フラグを、第m+4フレーム、第n+4フレームに対して人物Aの終了フラグを生成する。同様に、システム制御部11は、第nフレームに対して人物Bの開始フラグ、第n+3フレームに対して人物Bの終了フラグを生成する。   Specifically, the image processing unit 35 refers to the pattern matching data in the system memory 12 and executes the face recognition function for the target subject. Then, when the target subject enters the frame, the system control unit 11 generates a start flag of the target subject for the frame. Further, when the target subject goes out of the frame, the system control unit 11 generates an end flag of the target subject for the frame. In the example of FIG. 2, the system control unit 11 generates a start flag of the person A for the mth frame and the (n + 2) th frame and an end flag of the person A for the (m + 4) th frame and the (n + 4) th frame. Similarly, the system control unit 11 generates a start flag for the person B for the nth frame and an end flag for the person B for the n + 3th frame.

また、画像処理部35は、フレーム内での対象被写体の移動量を算出し、対象被写体の移動量を4段階のレベルに分類する。そして、システム制御部11は、対象被写体の移動量の変化が予め定められたレベル以上、例えば2レベル以上増加したフレームに対して、当該対象被写体の開始フラグを生成する。また、システム制御部11は、対象被写体の移動量の変化が予め定められたレベル以上、例えば2レベル以上減少したフレームに対して、当該対象被写体の終了フラグを生成する。図2の例において、システム制御部11は、第m+2フレームに対して人物Aの開始フラグを、第m+3フレームに対して人物Aの終了フラグを生成する。   The image processing unit 35 calculates the amount of movement of the target subject within the frame, and classifies the amount of movement of the target subject into four levels. Then, the system control unit 11 generates a start flag of the target subject for a frame in which the change in the movement amount of the target subject has increased by a predetermined level or more, for example, two levels or more. In addition, the system control unit 11 generates an end flag of the target subject for a frame in which the change in the movement amount of the target subject has decreased by a predetermined level or more, for example, two levels or more. In the example of FIG. 2, the system control unit 11 generates a start flag for the person A for the m + 2 frame and an end flag for the person A for the m + 3 frame.

また、システム制御部11は、レリーズボタンの押下を検知した時点のフレーム、すなわち静止画撮影時のフレームに対して、当該フレームに登場する対象被写体の開始フラグを生成する。図2の例において、システム制御部11は、第m+1フレームに対して人物Aの開始フラグを生成する。   In addition, the system control unit 11 generates a start flag of a target subject appearing in the frame for the frame at the time when the pressing of the release button is detected, that is, the frame at the time of still image shooting. In the example of FIG. 2, the system control unit 11 generates a start flag for the person A for the (m + 1) th frame.

システム制御部11は、メモリ制御部33と協働して、上述のように生成したフラグ群を動画データに関連付けて記録部50に記録する。このように、本実施形態におけるシステム制御部11は、ダイジェスト動画の1カットの開始、終了の候補となる時点のフレームにフラグを関連付ける。したがって、動画撮影後にユーザの要望に沿ったダイジェスト動画を、フラグ群を参照して自動でかつ容易に作成することができる。フラグ群を用いたダイジェスト動画の作成の詳細については後述する。   The system control unit 11 cooperates with the memory control unit 33 to record the flag group generated as described above in the recording unit 50 in association with the moving image data. As described above, the system control unit 11 according to the present embodiment associates a flag with a frame at a time point that is a candidate for starting and ending one cut of a digest video. Therefore, it is possible to automatically and easily create a digest moving image that meets the user's request after moving image shooting with reference to the flag group. Details of creation of a digest video using the flag group will be described later.

ここで、動画ファイルの構成について説明する。図3は、動画ファイルの一例であるMP4ファイルの構成を示す図である。デジタルビデオカメラ、デジタルスチルカメラ等で撮影されたMPEG4の画像データを記録する汎用フォーマットとしてMP4ファイルフォーマットが用いられている。動画データをMP4ファイルとして記録することにより、他のデジタル機器で再生できるなどの互換性が保証されている。   Here, the structure of the moving image file will be described. FIG. 3 is a diagram illustrating a configuration of an MP4 file that is an example of a moving image file. The MP4 file format is used as a general-purpose format for recording MPEG4 image data shot by a digital video camera, a digital still camera, or the like. By recording moving image data as an MP4 file, compatibility is guaranteed such that it can be played back by other digital devices.

MP4ファイルは、(a)図に示すように、符号化されたストリーム画像データが格納されるmdatボックスと、ストリーム画像データに関連する情報が格納されるMoovボックスとから構成されている。mdatボックスは、(c)図に示すように複数のチャンク(chunk_c1〜chunk_cN)で構成され、それぞれのチャンクは、(d)図に示すように複数のサンプル(sample_s1〜sample_sM)で構成される。各サンプルは、例えば(e)図に示すように、sample_s1、sample_s2、sample_s3、sample_s4、…のそれぞれに対して、I0、B0、B1、P0、…の符号化されたMPEG画像データが対応する。すなわち、チャンクは、フレーム画像データを実質的に包含するMP4ファイルの部分データを構成する。   The MP4 file is composed of an mdat box in which encoded stream image data is stored and a Moov box in which information related to the stream image data is stored, as shown in FIG. The mdat box is composed of a plurality of chunks (chunk_c1 to chunk_cN) as shown in (c), and each chunk is composed of a plurality of samples (sample_s1 to sample_sM) as shown in (d). For example, as shown in FIG. 5E, each sample corresponds to each of sample_s1, sample_s2, sample_s3, sample_s4,... Encoded MPEG image data of I0, B0, B1, P0,. That is, the chunk constitutes partial data of the MP4 file that substantially includes the frame image data.

I0、I1、I2、…、Imはイントラ符号化(フレーム内符号化)されたフレーム画像データであり、B0、B1、B2、…、Bmは双方向から参照して符号化(フレーム間符号化)されるフレーム画像データである。また、P0、P1、P2、…、Pmは一方向(順方向)から参照して符号化(フレーム間符号化)されるフレーム画像データであり、いずれも可変長符号データである。   I 0, I 1, I 2,..., Im are frame image data that has been intra-encoded (intra-frame encoding), and B 0, B 1, B 2,. ) Frame image data. P0, P1, P2,..., Pm are frame image data that is encoded (inter-frame encoded) with reference from one direction (forward direction), and are all variable-length code data.

moovボックスは(b)図に示すように、作成日時等が記録されるヘッダ情報から成るmvhdボックスと、mdatボックスに格納されたストリーム画像データに関する情報を格納するtrakボックスから構成される。trakボックスに格納される情報としては、(f)図に示すように、mdatボックスの各チャンクへのオフセット値の情報を格納するstcoボックス、(g)図に示すように、各チャンク内のサンプル数の情報を格納するstscボックス、および(f)図に示すように、各チャンクにおける各サンプルのサイズ情報を格納するstszボックスが存在する。   As shown in FIG. 5B, the moov box is composed of an mvhd box composed of header information in which the creation date and time are recorded, and a trak box storing information relating to stream image data stored in the mdat box. The information stored in the trak box includes (f) a stco box that stores information on the offset value for each chunk of the mdat box, as shown in the figure, and (g) a sample in each chunk as shown in the figure. There is a stsc box that stores information on the number and a stsz box that stores size information of each sample in each chunk, as shown in FIG.

このMP4ファイルを再生する場合、MP4ファイルのmoovボックスを読み込み、そのmoovボックスからstcoボックス、stscボックス、およびstszボックスを解析することにより、mdatボックス内の各チャンクへアクセスができるようになる。   When playing back this MP4 file, it is possible to access each chunk in the mdat box by reading the moov box of the MP4 file and analyzing the stco box, stsc box, and stsz box from the moov box.

本実施形態において、システム制御部11は、画像処理部35と協働して、mvhdボックスにフラグ群を記述する。具体的には、システム制御部11は、対象被写体のID等の被写体識別情報、フラグの種別を示すコード、対応するフレームのチャンクおよびサンプルの情報をmvhdボックスに記述する。本実施形態において、フラグの種別を示すコードとして、開始フラグを示すコードおよび終了フラグを示すコードのいずれかが記述される。このように動画データのヘッダ情報にフラグ群を記述することにより、フラグ群と動画データとが関連付けられる。   In the present embodiment, the system control unit 11 describes a flag group in the mvhd box in cooperation with the image processing unit 35. Specifically, the system control unit 11 describes subject identification information such as an ID of a target subject, a code indicating a flag type, and information on a corresponding frame chunk and sample in an mvhd box. In the present embodiment, either a code indicating a start flag or a code indicating an end flag is described as a code indicating a flag type. Thus, by describing the flag group in the header information of the moving image data, the flag group and the moving image data are associated with each other.

図4は、フラグ群の生成処理のフロー図である。本フローは、システム制御部11が録画ボタンのオン操作を検知した時点から開始される。なお、本実施形態において、システム制御部11は、画像処理部35と協働し、動画撮影処理と並行して本フローを実行する。ステップS101では、システム制御部11は、初期設定を行う。具体的には、システム制御部11は、ユーザが予め指定した対象被写体の数Nを設定し、各対象被写体に対して、1からNまでの番号を付与する。そして、システム制御部11は、N個の被写体フラグf〜fおよびiをそれぞれ0に設定する。図2の例において、システム制御部11は、Nを2に設定し、人物Aに番号1を、人物Bに番号2を付与する。そして、システム制御部11は、2個の被写体フラグf、fおよびiをそれぞれ0に設定する。 FIG. 4 is a flowchart of flag group generation processing. This flow is started when the system control unit 11 detects an ON operation of the recording button. In the present embodiment, the system control unit 11 cooperates with the image processing unit 35 and executes this flow in parallel with the moving image shooting process. In step S101, the system control unit 11 performs initial setting. Specifically, the system control unit 11 sets the number N of target subjects specified in advance by the user, and assigns a number from 1 to N to each target subject. Then, the system control unit 11 sets N subject flags f 1 to f N and i to 0, respectively. In the example of FIG. 2, the system control unit 11 sets N to 2, assigns number 1 to person A, and assigns number 2 to person B. Then, the system control unit 11 sets the two subject flags f 1 , f 2 and i to 0, respectively.

ステップS102では、システム制御部11は、撮影中の動画のフレームを1つ取得する。なお、システム制御部11は、ステップS102へ移行するごとに、開始フレームから順にフレームを1つ取得する。ステップS103では、システム制御部11は、iをi+1に設定する。ステップS104では、システム制御部11は、番号iに対応する対象被写体がステップS102で取得したフレーム内に存在するか否かを判定する。システム制御部11は、対象被写体がフレーム内に存在する場合にはステップS105へ移行し、対象被写体がフレーム内に存在しない場合にはステップS108へ移行する。ステップS105では、システム制御部11は、f=0であるか否かを判定する。 In step S102, the system control unit 11 acquires one frame of a moving image being shot. The system control unit 11 acquires one frame in order from the start frame every time the process proceeds to step S102. In step S103, the system control unit 11 sets i to i + 1. In step S104, the system control unit 11 determines whether or not the target subject corresponding to the number i is present in the frame acquired in step S102. The system control unit 11 proceeds to step S105 if the target subject exists in the frame, and proceeds to step S108 if the target subject does not exist in the frame. In step S105, the system control unit 11 determines whether or not f i = 0.

本実施形態において、fは0または1の値をとる。そして、fの値は、番号iに対応する対象被写体が前フレーム内に存在していたか否かを示す。fの値0は、番号iに対応する対象被写体が前フレームまで存在していなかったことを示し、fの値1は、番号iに対応する対象被写体が前フレームに既に存在していたことを示す。システム制御部11は、ステップS105において、f=0である場合にはステップS106へ移行し、f=1の場合にはステップS111へ移行する。ステップS106への移行は、これまではフレーム内に存在しなかった対象被写体が、フレーム内に入ってきたことを意味する。そこで、ステップS106では、システム制御部11は、番号iに対応する対象被写体の開始フラグを生成する。この時点で番号iに対応する対象被写体がフレーム内に存在することになるので、ステップS107では、システム制御部11は、fを1に設定する。 In the present embodiment, f i takes a value of 0 or 1. The value of f i indicates whether or not the target subject corresponding to the number i exists in the previous frame. A value 0 of f i indicates that the target subject corresponding to the number i has not existed until the previous frame, and a value 1 of f i has already existed in the previous frame. It shows that. In step S105, the system control unit 11 proceeds to step S106 if f i = 0, and proceeds to step S111 if f i = 1. The transition to step S106 means that a target subject that has not existed in the frame so far has entered the frame. In step S106, the system control unit 11 generates a target subject start flag corresponding to the number i. Since the target subject corresponding to the number i is present in the frame at this time, the system control unit 11 sets fi to 1 in step S107.

一方、ステップS108では、システム制御部11は、f=1であるか否かを判定する。システム制御部11は、f=1であると判定した場合にはステップS109へ移行し、f=1でないと判定した場合にはステップS117へ移行する。ステップS109への移行は、これまではフレーム内に存在していた対象被写体が、フレームの外へ出たことを意味する。そこで、ステップS109では、システム制御部11は、番号iに対応する対象被写体の終了フラグを生成する。この時点で番号iに対応する対象被写体がフレーム内に存在しないことになるので、ステップS110では、システム制御部11は、fを0に設定する。そして、システム制御部11は、ステップS117へ移行する。 On the other hand, in step S108, the system control unit 11 determines whether or not f i = 1. The system control unit 11, when it is determined that f i = 1, the process proceeds to step S109, if it is judged not f i = 1 proceeds to step S117. The transition to step S109 means that the target subject that has existed in the frame so far has moved out of the frame. Therefore, in step S109, the system control unit 11 generates an end flag for the target subject corresponding to the number i. Since the target subject corresponding to the number i does not exist in the frame at this time, the system control unit 11 sets fi to 0 in step S110. Then, the system control unit 11 proceeds to step S117.

ステップS111では、システム制御部11は、番号iに対応する対象被写体の移動量の変化量が、予め定められた閾値より大きいか否かを判定する。システム制御部11は、移動量の変化量が閾値より大きい場合にはステップS112へ移行し、閾値より小さい場合にはステップS115へ移行する。ステップS112では、システム制御部11は、番号iに対応する対象被写体の移動量の変化量が増加したか否かを判定する。システム制御部11は、移動量の変化量が増加したと判定した場合にはステップS113へ移行し、減少したと判定した場合にはステップS114へ移行する。ステップS113では、システム制御部11は、番号iに対応する対象被写体の開始フラグを生成する。一方、ステップS114では、システム制御部11は、番号iに対応する対象被写体の終了フラグを生成する。   In step S111, the system control unit 11 determines whether or not the change amount of the movement amount of the target subject corresponding to the number i is larger than a predetermined threshold value. The system control unit 11 proceeds to step S112 when the change amount of the movement amount is larger than the threshold value, and proceeds to step S115 when smaller than the threshold value. In step S112, the system control unit 11 determines whether or not the change amount of the movement amount of the target subject corresponding to the number i has increased. The system control unit 11 proceeds to step S113 when it is determined that the amount of change in the movement amount has increased, and proceeds to step S114 when it is determined that it has decreased. In step S113, the system control unit 11 generates a start flag for the target subject corresponding to the number i. On the other hand, in step S114, the system control unit 11 generates an end flag of the target subject corresponding to the number i.

ステップS115では、システム制御部11は、レリーズボタンが押されたか否かを判断する。システム制御部11は、レリーズボタンが押されたと判断した場合にはステップS116へ移行し、レリーズボタンが押されていないと判断した場合にはステップS117へ移行する。ステップS116では、システム制御部11は、番号iに対応する対象被写体の開始フラグを生成する。   In step S115, the system control unit 11 determines whether or not the release button has been pressed. If the system control unit 11 determines that the release button has been pressed, the process proceeds to step S116. If the system control unit 11 determines that the release button has not been pressed, the process proceeds to step S117. In step S116, the system control unit 11 generates a target subject start flag corresponding to the number i.

ステップS117では、システム制御部11は、i=Nであるか否かを判定する。システム制御部11は、i=Nでない場合にはステップS103へ戻り、次の対象被写体について上述のフラグ生成処理を実行する。一方、システム制御部11は、i=Nの場合にはステップS118へ移行する。ステップS118では、システム制御部11は、レリーズボタンが押されたか否かを判断する。システム制御部11は、レリーズボタンが押されたと判断した場合にはステップS119へ移行し、レリーズボタンが押されていないと判断した場合にはステップS120へ移行する。なお、システム制御部11は、ステップS115で既にレリーズボタンが押されたと判断している場合には、ステップS118をスキップしてステップS119へ移行する。   In step S117, the system control unit 11 determines whether i = N. If i is not equal to N, the system control unit 11 returns to step S103 and executes the above-described flag generation processing for the next target subject. On the other hand, if i = N, the system control unit 11 proceeds to step S118. In step S118, the system control unit 11 determines whether or not the release button has been pressed. If the system control unit 11 determines that the release button has been pressed, the process proceeds to step S119. If the system control unit 11 determines that the release button has not been pressed, the process proceeds to step S120. If the system control unit 11 determines in step S115 that the release button has already been pressed, the system control unit 11 skips step S118 and proceeds to step S119.

ステップS119では、システム制御部11は、静止画データの取得動作を実行する。具体的には、システム制御部11は、数フレーム分に相当する動画撮影を中断して、静止画撮影シーケンス、画像処理、記録処理を実行する。ステップS120では、システム制御部11は、動画撮影を継続するか否かを判定する。システム制御部11は、動画撮影が継続すると判定した場合にはステップS102へ戻り次のフレームを取得する。一方、システム制御部11は、録画ボタンの押下、電源ボタンのオフ操作等により動画撮影の終了指示を検知した場合には、本フローを終了する。   In step S119, the system control unit 11 executes a still image data acquisition operation. Specifically, the system control unit 11 interrupts moving image shooting corresponding to several frames, and executes a still image shooting sequence, image processing, and recording processing. In step S120, the system control unit 11 determines whether to continue moving image shooting. If the system control unit 11 determines that moving image shooting continues, the system control unit 11 returns to step S102 and acquires the next frame. On the other hand, when the system control unit 11 detects an instruction to end moving image shooting by pressing the recording button, turning off the power button, or the like, this flow ends.

上述の実施形態では、対象被写体がフレームに入ったときに開始フラグが生成されたが、開始フラグの生成タイミングはこれに限らない。システム制御部11は、対象被写体の画面に占める面積の割合が予め定められた値以上、例えば0.1以上になった時点のフレームに対して開始フラグを生成してもよい。また、システム制御部11は、対象被写体がフレームに入ってから予め定められた時間、例えば3秒経過した時点のフレームに対して開始フラグを生成してもよい。   In the above-described embodiment, the start flag is generated when the target subject enters the frame, but the generation timing of the start flag is not limited to this. The system control unit 11 may generate a start flag for a frame at a time when the ratio of the area of the target subject on the screen is equal to or greater than a predetermined value, for example, 0.1 or greater. In addition, the system control unit 11 may generate a start flag for a frame at a time when a predetermined time, for example, 3 seconds elapses after the target subject enters the frame.

同様に、終了フラグの生成タイミングも、対象被写体がフレームの外に出たときに限らない。システム制御部11は、対象被写体の画面に占める面積の割合が予め定められた値、例えば0.1以下になった時点のフレームに対して終了フラグを生成してもよい。また、システム制御部11は、対象被写体がフレームから出てから予め定められた時間、例えば3秒経過した時点のフレームに対して終了フラグを生成してもよい。   Similarly, the end flag generation timing is not limited to when the target subject goes out of the frame. The system control unit 11 may generate an end flag for a frame at a time when the ratio of the area of the target subject to the screen becomes a predetermined value, for example, 0.1 or less. Further, the system control unit 11 may generate an end flag for a frame at a time when a predetermined time, for example, 3 seconds elapses after the target subject leaves the frame.

また、システム制御部11は、対象被写体がフレームに入ってからフレームの外に出るまでの間の各フレームに対して一連の登場フラグを生成するようにしてもよい。そして、システム制御部11は、先頭の登場フラグに対するフレームに開始フラグを生成し、最後の登場フラグに対するフレームの次のフレームに終了フラグを生成してもよい。   In addition, the system control unit 11 may generate a series of appearance flags for each frame from when the target subject enters the frame to when it goes out of the frame. Then, the system control unit 11 may generate a start flag in a frame corresponding to the first appearance flag and generate an end flag in a frame next to the frame corresponding to the last appearance flag.

上述の実施形態では、対象被写体の移動量を対象被写体の変化を示すパラメータとして扱ったが、対象被写体の変化を示すパラメータはこれに限らない。例えば、システム制御部11は、対象被写体の変化を示すパラメータとして音声を用いる。システム制御部11は、対象被写体の変化を示すパラメータとして音声を用いる場合も、対象被写体の移動量の場合と同様に、フレーム内の対象被写体の音声レベルを4段階のレベルに分類する。そして、システム制御部11は、音声レベルの変化が予め定められたレベル以上、例えば2レベル以上増加したフレームに対して、当該対象被写体の開始フラグを生成する。また、システム制御部11は、音声の変化が予め定められたレベル以上、例えば2レベル以上減少したフレームに対して、当該対象被写体の終了フラグを生成する。また、システム制御部11は、対象被写体の表情、対象被写体の画面における占有面積、対象被写体の向きを、対象被写体の変化を示すパラメータとして用いてもよい。   In the above-described embodiment, the movement amount of the target subject is treated as a parameter indicating the change of the target subject, but the parameter indicating the change of the target subject is not limited to this. For example, the system control unit 11 uses sound as a parameter indicating the change of the target subject. The system control unit 11 also classifies the sound level of the target subject in the frame into four levels, as in the case of the amount of movement of the target subject, even when the sound is used as a parameter indicating the change of the target subject. Then, the system control unit 11 generates a start flag for the target subject for a frame in which the change in the audio level is increased by a predetermined level or more, for example, two levels or more. In addition, the system control unit 11 generates an end flag for the target subject for a frame in which a change in sound is reduced by a predetermined level or more, for example, two levels or more. Further, the system control unit 11 may use the expression of the target subject, the area occupied by the target subject on the screen, and the direction of the target subject as parameters indicating the change of the target subject.

また、システム制御部11は、対象被写体の変化量をレベルではなく実測値で扱ってもよい。この場合、システム制御部11は、変化量の大小を判定する閾値を、例えば、移動量の場合には画素単位、音声の場合にはデシベル単位で予めシステムメモリ12に記録しておく。   Further, the system control unit 11 may handle the amount of change of the target subject as an actually measured value instead of a level. In this case, the system control unit 11 records a threshold value for determining the amount of change in the system memory 12 in advance, for example, in units of pixels in the case of movement amounts and in decibels in the case of audio.

上述の実施形態では、レリーズボタンが押されたときに対象被写体がフレームに入ったときに開始フラグが生成されたが、レリーズボタンに応じたフラグ生成はこれに限らない。システム制御部11は、対象被写体の大きさがレリーズボタンの押下時点における対象被写体の大きさに対して予め定められた比率以上、例えば1.3以上になった時点のフレームに対して開始フラグを生成してもよい。また、システム制御部11は、対象被写体の大きさがレリーズボタンの押下時点における対象被写体の大きさに対して予め定められた比率未満、例えば0.7未満になった時点のフレームに対して終了フラグを生成してもよい。   In the above-described embodiment, the start flag is generated when the target subject enters the frame when the release button is pressed. However, the flag generation according to the release button is not limited thereto. The system control unit 11 sets a start flag for a frame when the size of the target subject is equal to or greater than a predetermined ratio with respect to the size of the target subject at the time when the release button is pressed, for example, 1.3 or more. It may be generated. Further, the system control unit 11 terminates the frame when the size of the target subject is less than a predetermined ratio with respect to the size of the target subject when the release button is pressed, for example, less than 0.7. A flag may be generated.

また、音声のレベルが測定されている場合に、システム制御部11は、対象被写体の音声レベルがレリーズボタンの押下時点における音声レベルに対して予め定められた比率以上、例えば1.3以上になった時点のフレームに対して開始フラグを生成してもよい。また、システム制御部11は、対象被写体の音声レベルがレリーズボタンの押下時点における音声レベルに対して予め定められた比率未満、例えば0.7未満になった時点のフレームに対して終了フラグを生成してもよい。   Further, when the sound level is measured, the system control unit 11 determines that the sound level of the target subject is equal to or higher than a predetermined ratio with respect to the sound level at the time when the release button is pressed, for example, 1.3 or more. A start flag may be generated for the frame at the time point. In addition, the system control unit 11 generates an end flag for a frame when the audio level of the target subject is less than a predetermined ratio with respect to the audio level at the time when the release button is pressed, for example, less than 0.7. May be.

上述の実施形態では、システム制御部11は、開始フラグおよび終了フラグを生成したが、開始フラグおよび終了フラグと異なる中立フラグを生成してもよい。具体的には、システム制御部11は、ズームが変更された時点、フォーカスが変更された時点、絞りが変更された時点、パンニング動作を検知した時点、輝度または色が閾値以上変化した時点、動画撮影の一時停止が検知された時点等に中立フラグを生成する。ズーム、フォーカス、絞りの変更については、システム制御部11は、これらのパラメータが閾値以上変更された場合に中立フラグを生成するようにしてもよい。中立フラグは、ダイジェスト画像を生成する場合に、状況に応じて開始フラグまたは終了フラグとして用いられる。なお、中立フラグを示すコードは、開始フラグを示すコードおよび終了フラグを示すコードと異なるコードとして、mvhdボックスに記述される。   In the above-described embodiment, the system control unit 11 generates the start flag and the end flag, but may generate a neutral flag different from the start flag and the end flag. Specifically, the system control unit 11 detects when the zoom is changed, when the focus is changed, when the aperture is changed, when a panning operation is detected, when the luminance or color changes more than a threshold, A neutral flag is generated, for example, at the time when a pause in photographing is detected. Regarding the zoom, focus, and aperture change, the system control unit 11 may generate a neutral flag when these parameters are changed by a threshold value or more. The neutral flag is used as a start flag or an end flag depending on the situation when generating a digest image. The code indicating the neutral flag is described in the mvhd box as a code different from the code indicating the start flag and the code indicating the end flag.

上述の実施形態では、システム制御部11は、動画データのヘッダ情報にフラグ情報を記述したが、これに限らない。システム制御部11は、フラグ群のテーブルを作成し、当該テーブルでフラグ群の各フラグと動画データのフレームとを関連付けてもよい。この場合、システム制御部11は、当該テーブルを動画データとともに記録部50へ記録する。   In the above-described embodiment, the system control unit 11 describes the flag information in the header information of the moving image data, but is not limited thereto. The system control unit 11 may create a flag group table and associate each flag of the flag group with the frame of the moving image data in the table. In this case, the system control unit 11 records the table together with the moving image data in the recording unit 50.

上述の実施形態では、被写体ごとに開始フラグおよび終了フラグが生成されたがこれに限らない。システム制御部11は、被写体を区別することなく開始フラグおよび終了フラグを含むフラグ群を生成する。そして、システム制御部11は、図2に示す顔認識による被写体の登場判定結果、被写体の移動量等の被写体の変化を示す変化情報を、フラグ群と対応付けて記録部50に記録する。したがって、システム制御部11は、フラグ群を生成した後に、フラグ群の各フラグが開始フラグであるか、それとも終了フラグであるか、およびどの被写体フラグであるかを、変化情報で判別できる。   In the above-described embodiment, the start flag and the end flag are generated for each subject, but the present invention is not limited to this. The system control unit 11 generates a flag group including a start flag and an end flag without distinguishing subjects. Then, the system control unit 11 records the change information indicating the change of the subject such as the subject appearance determination result by the face recognition shown in FIG. 2 and the movement amount of the subject in the recording unit 50 in association with the flag group. Therefore, after generating the flag group, the system control unit 11 can determine from the change information whether each flag of the flag group is a start flag, an end flag, and which subject flag.

上述の実施形態において、システム制御部11は、動画撮影後にユーザの選択を受け付け、ユーザが選択した被写体に対するフラグのみ残すようにしてもよい。具体的には、まず、システム制御部11は、動画撮影後に、表示制御部36を制御して、動画に登場する被写体若しくは予め登録されている被写体を表示部37に表示させ、ユーザの選択を受け付ける。そして、システム制御部11は、動画撮影後にユーザが選択した被写体に対するフラグ以外のフラグを記録部50から削除する。この構成によれば、ユーザの要望に沿ったフラグ群のみを動画データと関連付けることができる。   In the above-described embodiment, the system control unit 11 may accept a user's selection after moving image shooting and leave only the flag for the subject selected by the user. Specifically, first, the system control unit 11 controls the display control unit 36 after shooting a moving image to display a subject appearing in the moving image or a pre-registered subject on the display unit 37, and the user's selection is made. Accept. Then, the system control unit 11 deletes flags other than the flag for the subject selected by the user after moving image shooting from the recording unit 50. According to this configuration, it is possible to associate only the flag group according to the user's request with the moving image data.

上述の実施形態では、システム制御部11は、動画撮影時にフラグ群を生成したが、これに限らない。システム制御部11は、画像処理部35と協働して、動画撮影後に動画データを解析してフラグ群を生成してもよい。具体的には、まず、システム制御部11は、動画撮影後に、表示制御部36を制御して、動画に登場する被写体若しくは予め登録されている被写体を表示部37に表示させ、ユーザの選択を受け付ける。そして、システム制御部11は、撮影開始フレームから撮影終了フレームまで順次フレーム解析を実行することにより、ユーザが選択した被写体に対するフラグ群を生成し、当該フラグ群を動画データと関連付けて記録する。また、システム制御部11は、動画撮影時に生成されたフラグ群と動画撮影後に生成されたフラグ群とが共存する場合、動画撮影後に生成されたフラグ群を動画撮影時に生成されたフラグ群より優先度の高いフラグとして設定してもよい。   In the above-described embodiment, the system control unit 11 generates a flag group at the time of moving image shooting, but the present invention is not limited to this. The system control unit 11 may collaborate with the image processing unit 35 to generate a flag group by analyzing moving image data after moving image shooting. Specifically, first, the system control unit 11 controls the display control unit 36 after shooting a moving image to display a subject appearing in the moving image or a pre-registered subject on the display unit 37, and the user's selection is made. Accept. Then, the system control unit 11 sequentially performs frame analysis from the shooting start frame to the shooting end frame to generate a flag group for the subject selected by the user, and records the flag group in association with the moving image data. In addition, when the flag group generated during moving image shooting coexists with the flag group generated after moving image shooting, the system control unit 11 prioritizes the flag group generated after moving image shooting over the flag group generated during moving image shooting. You may set as a flag with high degree.

次に、本実施形態に係る画像生成装置として機能するカメラ10の動作について説明する。カメラ10は、動画データと、動画データからダイジェスト動画データを生成するための上述したフラグ群とを記録部50から取得し、フラグ群を用いてダイジェスト動画データを生成する。本実施形態において、システム制御部11は、動画データとフラグ群とを記録部50から取得する取得部として機能する。また、システム制御部11および画像処理部35は、フラグ群を用いてダイジェスト動画データを生成する動画生成部として機能する。   Next, the operation of the camera 10 that functions as the image generation apparatus according to the present embodiment will be described. The camera 10 acquires the moving image data and the above-described flag group for generating the digest moving image data from the moving image data from the recording unit 50, and generates the digest moving image data using the flag group. In the present embodiment, the system control unit 11 functions as an acquisition unit that acquires moving image data and a flag group from the recording unit 50. In addition, the system control unit 11 and the image processing unit 35 function as a moving image generation unit that generates digest moving image data using a flag group.

図5は、ダイジェスト動画の作成条件の設定画面を示す図である。ユーザがダイジェスト動画作成のメニュー項目を選択し、ダイジェスト動画を作成する動画を選択すると、表示制御部36は、図5に示すようなダイジェスト動画の作成条件の設定画面を表示部37に表示させる。作成条件の設定画面には、時間条件項目101、注目人物項目102、優先度項目103の3つの設定項目が含まれている。   FIG. 5 is a diagram showing a setting screen for a digest movie creation condition. When the user selects a digest movie creation menu item and selects a movie for creating a digest movie, the display control unit 36 causes the display unit 37 to display a digest movie creation condition setting screen as shown in FIG. The creation condition setting screen includes three setting items: a time condition item 101, a person of interest item 102, and a priority item 103.

時間条件項目101は、ダイジェスト動画の全体の時間を設定するための項目である。注目人物項目102は、ダイジェスト動画で登場させる注目人物を設定するための項目である。注目人物項目102で複数の注目人物が選択された場合、システム制御部11は、優先度項目103をアクティブにする。優先度項目103は、ダイジェスト動画において選択された複数の人物の登場比率を設定するための項目である。   The time condition item 101 is an item for setting the entire time of the digest video. The notable person item 102 is an item for setting a notable person to appear in the digest video. When a plurality of attention persons are selected in the attention person item 102, the system control unit 11 activates the priority item 103. The priority item 103 is an item for setting the appearance ratio of a plurality of persons selected in the digest video.

ユーザは、操作部材39を操作してこれらの項目にダイジェスト動画の作成条件を入力する。ユーザが作成条件を入力して画面右下のOKボタン104を押すと、システム制御部11は、画像処理部35と協働して、ダイジェスト動画データの生成を開始する。なお、システム制御部11は、一度設定した条件をシステムメモリ12に記録し、別のダイジェスト動画の作成条件の設定時に、以前の設定条件の選択をユーザから受け付けてもよい。ユーザが以前の設定条件を選択した場合、システム制御部11は、ユーザが選択した設定条件をシステムメモリ12から読み出す。   The user operates the operation member 39 to input digest movie creation conditions in these items. When the user inputs creation conditions and presses an OK button 104 at the lower right of the screen, the system control unit 11 starts generating digest video data in cooperation with the image processing unit 35. Note that the system control unit 11 may record once set conditions in the system memory 12 and accept selection of previous setting conditions from the user when setting another digest video creation condition. When the user selects a previous setting condition, the system control unit 11 reads the setting condition selected by the user from the system memory 12.

ここで、ダイジェスト動画の生成処理について説明する。図6は、ダイジェスト動画データの生成処理の第1例を説明する図である。第1例におけるダイジェスト動画の生成処理は、図2で示す動画データが選択され、かつ人物Aが注目人物として選択された場合の処理である。まず、システム制御部11は、動画データと、当該動画データに関連付けられたフラグ群データを記録部50から取得する。次に、システム制御部11は、取得したフラグ群のうちから人物Aのフラグ群を抽出する。   Here, digest video generation processing will be described. FIG. 6 is a diagram illustrating a first example of digest video data generation processing. The digest moving image generation process in the first example is a process when the moving image data shown in FIG. 2 is selected and the person A is selected as the person of interest. First, the system control unit 11 acquires moving image data and flag group data associated with the moving image data from the recording unit 50. Next, the system control unit 11 extracts the flag group of the person A from the acquired flag group.

図6に示すとおり、人物Aのフラグ群には、第mフレーム、第m+1フレーム、第m+2フレーム、第n+2フレームにそれぞれ関連付けられた開始フラグ201、202、203、206が含まれている。また、人物Aのフラグ群には、第m+3フレーム、第m+4フレーム、第n+4フレームにそれぞれ関連付けられた終了フラグ204、205、207が含まれている。   As illustrated in FIG. 6, the flag group of the person A includes start flags 201, 202, 203, and 206 that are associated with the mth frame, the m + 1th frame, the m + 2 frame, and the n + 2 frame, respectively. The flag group of the person A includes end flags 204, 205, and 207 associated with the m + 3 frame, the m + 4 frame, and the n + 4 frame, respectively.

システム制御部11は、人物Aのフラグ群を参照して、人物Aが登場しているフレームを用いてダイジェスト動画像データを生成する。具体的には、システム制御部11は、開始フラグに関連付けられたフレームから、終了フラグに関連付けられたフレームの1つ前のフレームまでのフレーム画像データを1カットの画像データとして抽出する。そして、画像処理部35は、システム制御部11の制御に従い、抽出したカットを順に並べたダイジェスト動画データを生成する。ただし、複数の開始フラグが終了フラグを挟むことなく並んでいる場合には、システム制御部11は、それら複数の開始フラグのうちの最初の開始フラグだけを採用する。同様に、複数の終了フラグが開始フラグを挟むことなく並んでいる場合には、システム制御部11は、それら複数の終了フラグのうち最後の終了フラグだけを採用する。   The system control unit 11 refers to the flag group of the person A and generates digest moving image data using the frame in which the person A appears. Specifically, the system control unit 11 extracts frame image data from a frame associated with the start flag to a frame immediately before the frame associated with the end flag as one-cut image data. Then, the image processing unit 35 generates digest video data in which the extracted cuts are arranged in order under the control of the system control unit 11. However, when a plurality of start flags are arranged without sandwiching the end flag, the system control unit 11 employs only the first start flag among the plurality of start flags. Similarly, when a plurality of end flags are arranged without interposing a start flag, the system control unit 11 adopts only the last end flag among the plurality of end flags.

図6の例において、システム制御部11は、終了フラグを挟むことなく並んでいる3つの開始フラグ201、202、203のうち最初の開始フラグ201を採用する。また、システム制御部11は、開始フラグを挟むことなく並んでいる2つの終了フラグのうち最後の終了フラグ205を採用する。そして、システム制御部11は、開始フラグ201に関連付けられた第mフレームから、終了フラグ205に関連付けられた第m+4フレームの1つ前の第m+3フレームまでのフレーム画像データを1カットの画像データとして抽出する。また、システム制御部11は、開始フラグ206に関連付けられた第n+2フレームから、終了フラグ207に関連付けられた第n+4フレームの1つ前の第n+3フレームまでのフレーム画像データを1カットの画像データとして抽出する。   In the example of FIG. 6, the system control unit 11 employs the first start flag 201 among the three start flags 201, 202, and 203 that are arranged without sandwiching the end flag. In addition, the system control unit 11 employs the last end flag 205 among the two end flags arranged side by side with no start flag interposed therebetween. Then, the system control unit 11 sets frame image data from the m-th frame associated with the start flag 201 to the m + 3 frame immediately before the m + 4 frame associated with the end flag 205 as one-cut image data. Extract. Further, the system control unit 11 sets the frame image data from the (n + 2) th frame associated with the start flag 206 to the (n + 3) th frame immediately before the (n + 4) th frame associated with the end flag 207 as one-cut image data. Extract.

その後、画像処理部35は、これら抽出されたカットを並べて、図6に示すように、第mフレーム〜第m+3フレーム、第n+2フレーム〜第n+3フレームが順に配置されたダイジェスト動画Aのデータを生成する。この手法によれば、人物Aが登場する全てのフレームを含むダイジェスト動画データが生成される。   Thereafter, the image processing unit 35 arranges the extracted cuts, and generates data of the digest video A in which the mth frame to m + 3 frame, the n + 2 frame to the n + 3 frame are sequentially arranged as shown in FIG. To do. According to this method, digest video data including all frames in which the person A appears is generated.

ダイジェスト動画の作成条件の設定画面でユーザが時間を予め指定したときに、人物Aが登場する全てのフレームを含むダイジェスト動画の時間がユーザによって予め指定された時間を超えてしまう場合がある。この場合に、システム制御部11は、ダイジェスト動画で採用するフレームを絞り込んでダイジェスト動画の時間を短縮する。   When the user predesignates the time on the digest movie creation condition setting screen, the digest movie including all frames in which the person A appears may exceed the time predesignated by the user. In this case, the system control unit 11 narrows down the frames used in the digest video to shorten the digest video time.

具体的には、システム制御部11は、ユーザが指定した時間に対してダイジェスト動画の時間が長くなると判断した場合に、終了フラグを挟むことなく並んでいる複数の開始フラグのうち最初の開始フラグより降順の開始フラグを採用する。図6の例において、システム制御部11は、ダイジェスト動画Aに対して、3つの開始フラグ201、202、203のうちダイジェスト動画に採用する開始フラグを開始フラグ202に変更する。そして、画像処理部35は、図6に示すダイジェスト動画Bのデータを生成する。ダイジェスト動画Bには、第m+1フレーム〜第m+3フレーム、第n+2フレーム〜第n+3フレームが順に配置されている。   Specifically, when the system control unit 11 determines that the digest video time is longer than the time specified by the user, the first start flag among the plurality of start flags arranged without the end flag interposed therebetween. A descending order start flag is adopted. In the example of FIG. 6, the system control unit 11 changes the start flag used for the digest movie among the three start flags 201, 202, 203 to the start flag 202 for the digest movie A. Then, the image processing unit 35 generates the data of the digest video B shown in FIG. In the digest video B, the (m + 1) th frame to the (m + 3) th frame and the (n + 2) th frame to the (n + 3) th frame are sequentially arranged.

また、システム制御部11は、ユーザが指定した時間に対してダイジェスト動画の時間が長くなると判断した場合に、開始フラグを挟むことなく並んでいる複数の終了フラグのうち最後の終了フラグより昇順の終了フラグを採用してもよい。図6の例において、システム制御部11は、ダイジェスト動画Bに対して、2つの終了フラグ204、205のうちダイジェスト動画に採用する終了フラグを終了フラグ204に変更する。そして、画像処理部35は、図6に示すダイジェスト動画Cのデータを生成する。ダイジェスト動画Cには、第m+1フレーム〜第m+2フレーム、第n+2フレーム〜第n+3フレームが順に配置されている。   In addition, when the system control unit 11 determines that the digest video time is longer than the time specified by the user, the system control unit 11 is in ascending order from the last end flag among the plurality of end flags arranged without sandwiching the start flag. An end flag may be adopted. In the example of FIG. 6, the system control unit 11 changes the end flag adopted for the digest video out of the two end flags 204 and 205 to the end video 204 for the digest video B. Then, the image processing unit 35 generates data of the digest video C shown in FIG. In the digest video C, the (m + 1) th frame to the (m + 2) th frame and the (n + 2) th frame to the (n + 3) th frame are sequentially arranged.

一方、システム制御部11は、ユーザが指定した時間に対してダイジェスト動画の時間が短くなると判断した場合には、人物Aが登場する全てのフレームに人物Aが登場していないフレームを加えて全体の時間を延ばす。例えば、システム制御部11は、開始フラグの前の一連のフレーム、終了フラグの後の一連のフレームを1カットのフレームに組み込んで1カットの時間を延ばす。   On the other hand, if the system control unit 11 determines that the digest video time is shorter than the time specified by the user, the system control unit 11 adds all the frames in which the person A appears to the frames in which the person A does not appear, Extend the time. For example, the system control unit 11 incorporates a series of frames before the start flag and a series of frames after the end flag into one cut frame to extend the time of one cut.

また、システム制御部11は、ユーザが指定した時間に対してダイジェスト動画の時間が短くなると判断した場合に、上述した中立フラグを開始フラグまたは終了フラグとして用いてもよい。具体的には、システム制御部11は、中立フラグで形成される新たなカットを作成する。そして、システム制御部11は、新たなカットのフレームを人物Aが登場する全てのフレームに加えて、ダイジェスト動画の時間を延ばす。   Further, the system control unit 11 may use the above-described neutral flag as a start flag or an end flag when it is determined that the digest video time is shorter than the time specified by the user. Specifically, the system control unit 11 creates a new cut formed by the neutral flag. Then, the system control unit 11 adds a new cut frame to all frames in which the person A appears, and extends the time of the digest video.

図7は、ダイジェスト動画データの生成処理の第2例を説明する図である。第1例におけるダイジェスト動画の生成処理は、図2で示す動画データが選択され、かつ人物Aおよび人物Bが注目人物として選択された場合の処理である。まず、システム制御部11は、動画データと、当該動画データに関連付けられたフラグ群データを記録部50から取得する。次に、システム制御部11は、取得したフラグ群のうちから人物Aのフラグ群および人物Bのフラグ群を抽出する。   FIG. 7 is a diagram illustrating a second example of digest video data generation processing. The digest video generation process in the first example is a process when the video data shown in FIG. 2 is selected and the person A and the person B are selected as the attention person. First, the system control unit 11 acquires moving image data and flag group data associated with the moving image data from the recording unit 50. Next, the system control unit 11 extracts the flag group of the person A and the flag group of the person B from the acquired flag group.

図7に示すとおり、人物Aのフラグ群には、図6を用いて説明したように、開始フラグ201、202、203、206および終了フラグ204、205、207が含まれている。また、人物Bのフラグ群には、第nフレームに関連付けられた開始フラグ301および第n+3フレームに関連付けられた終了フラグ302が含まれている。   As shown in FIG. 7, the flag group of the person A includes start flags 201, 202, 203, and 206 and end flags 204, 205, and 207 as described with reference to FIG. The flag group of the person B includes a start flag 301 associated with the nth frame and an end flag 302 associated with the (n + 3) th frame.

システム制御部11は、人物Aのフラグ群および人物Bのフラグ群を参照して、人物Aおよび人物Bが登場しているフレームを抽出する。そして、画像処理部35は、システム制御部11の制御に従い、ダイジェスト動画像データを生成する。具体的には、システム制御部11は、上述と同様の手法で、人物Aが登場する全てのフレームの画像データと、人物Bが登場する全てのフレームの画像データとを動画データから抽出する。そして、画像処理部35は、システム制御部11が抽出したフレーム画像データを合成して、人物Aおよび人物Bが登場する全てのフレームを含むダイジェスト動画データを生成する。図7の例において、画像処理部35は、第mフレーム〜第m+3フレーム、第nフレーム〜第n+3フレームが順に配置されたダイジェスト動画Dのデータを生成する。   The system control unit 11 refers to the flag group of the person A and the flag group of the person B, and extracts a frame in which the person A and the person B appear. Then, the image processing unit 35 generates digest moving image data under the control of the system control unit 11. Specifically, the system control unit 11 extracts, from the moving image data, image data of all frames in which the person A appears and image data of all frames in which the person B appears by the same method as described above. Then, the image processing unit 35 synthesizes the frame image data extracted by the system control unit 11 and generates digest moving image data including all frames in which the person A and the person B appear. In the example of FIG. 7, the image processing unit 35 generates data of a digest video D in which the mth frame to m + 3 frame and the nth frame to n + 3 frame are sequentially arranged.

ダイジェスト動画の作成条件の設定画面でユーザが優先度を予め指定したときに、人物Aおよび人物Bの登場比率がユーザによって指定された比率と異なる場合がある。この場合に、システム制御部11は、ダイジェスト動画で採用するフレームを変更してダイジェスト動画に登場する人物の登場比率を調整する。   When the user designates the priority in advance on the digest movie creation condition setting screen, the appearance ratio of the person A and the person B may be different from the ratio designated by the user. In this case, the system control unit 11 adjusts the appearance ratio of the person appearing in the digest video by changing the frame adopted in the digest video.

具体的には、まず、システム制御部11は、登場比率が一番高く設定されている人物Bのフラグ群を参照して、人物Bが登場する全てのフレームを抽出する。次に、システム制御部11は、人物Aのフラグ群を参照して、人物Bが登場する全てのフレームにおいて人物Aが登場するフレームを検出する。そして、システム制御部11は、人物Bが登場する全てのフレームにおける人物Aおよび人物Bの登場比率を算出し、予め設定された比率と比較する。   Specifically, first, the system control unit 11 refers to the flag group of the person B set with the highest appearance ratio, and extracts all frames in which the person B appears. Next, the system control unit 11 refers to the flag group of the person A and detects a frame in which the person A appears in all the frames in which the person B appears. Then, the system control unit 11 calculates the appearance ratios of the person A and the person B in all frames in which the person B appears, and compares it with a preset ratio.

システム制御部11は、ユーザが指定した比率に対して人物Bに対する人物Aの登場比率が高くなると判断した場合に、人物Bが登場する全てのフレームから、人物Aが登場する幾らかのフレームをダイジェスト動画の対象から外して比率を調整する。この場合、システム制御部11は、人物Aのフラグ群を参照して、人物Aが登場するフレームを判別する。なお、人物Aおよび人物Bの登場比率が予め設定された比率に完全一致しなくても、両者の差が予め定められた範囲内、例えば0.1未満であればよい。   When the system control unit 11 determines that the appearance ratio of the person A with respect to the person B is higher than the ratio specified by the user, the system control unit 11 selects some frames in which the person A appears from all the frames in which the person B appears. Adjust the ratio by removing it from the digest video. In this case, the system control unit 11 refers to the flag group of the person A and determines a frame in which the person A appears. Even if the appearance ratios of the person A and the person B do not completely match the preset ratio, the difference between them may be within a predetermined range, for example, less than 0.1.

一方、システム制御部11は、ユーザが指定した比率に対して人物Bに対する人物Aの登場比率が低くなると判断した場合に、人物Bが登場する全てのフレームから幾らかのフレームをダイジェスト動画の対象から外して比率を調整する。また、システム制御部11は、人物Aが登場する他のフレームを人物Bが登場する全てのフレームに追加して比率を調整してもよい。なお、人物Aおよび人物Bの登場比率が予め設定された比率に完全一致しなくても、両者の差が予め定められた範囲内、例えば0.1未満であればよい。   On the other hand, when the system control unit 11 determines that the appearance ratio of the person A with respect to the person B is lower than the ratio specified by the user, some frames from all the frames in which the person B appears are subject to the digest video. To adjust the ratio. Further, the system control unit 11 may adjust the ratio by adding other frames in which the person A appears to all the frames in which the person B appears. Even if the appearance ratios of the person A and the person B do not completely match the preset ratio, the difference between them may be within a predetermined range, for example, less than 0.1.

図7の例において、人物Aおよび人物Bの登場比率が3:7に予め設定されている場合、まず、システム制御部11は、人物Bのフラグ群を参照して、人物Bが登場する全てのフレームである第nフレーム〜第n+2フレームを抽出する。次に、システム制御部11は、人物Aのフラグ群を参照して、第nフレーム〜第n+2フレームのうち人物Aが登場するフレームである第n+2を検出する。そして、システム制御部11は、人物Aおよび人物Bの登場比率1:3を算出する。人物Bに対する人物Aの登場比率1/3と予め設定された比率3/7との差が0.1未満であるので、画像処理部35は、対象フレームを変更せず、第nフレーム〜第n+2フレームが順に配置されたダイジェスト動画Eのデータを生成する。   In the example of FIG. 7, when the appearance ratio of the person A and the person B is preset to 3: 7, the system control unit 11 first refers to the flag group of the person B, and all the persons B appear. Frames n to n + 2 are extracted. Next, the system control unit 11 refers to the flag group of the person A and detects the n + 2 that is the frame in which the person A appears from the nth frame to the n + 2 frame. Then, the system control unit 11 calculates the appearance ratio 1: 3 of the person A and the person B. Since the difference between the appearance ratio 1/3 of the person A with respect to the person B and the preset ratio 3/7 is less than 0.1, the image processing unit 35 does not change the target frame, and does not change the target frame. Digest video E data in which n + 2 frames are arranged in order is generated.

このように、本実施形態におけるシステム制御部11は、動画データに関連付けられた開始フラグ、終了フラグを用いて、ダイジェスト動画全体の時間および注目人物の登場比率を調整する。したがって、動画撮影後にユーザの要望に沿ったダイジェスト動画を、フラグ群を参照して自動でかつ容易に作成することができる。また、注目人物の選択に応じてダイジェスト動画を作成することにより、ユーザの要望に沿ったダイジェスト動画を容易に作成することができる。例えば、新郎および新婦は、結婚式の動画データを関係者に配布する場合、新郎の関係者に対して、新郎を中心としたダイジェスト動画データが関連付けられた動画データを配布することができる。同様に、新郎および新婦は、新婦の関係者に対して、新婦を中心としたダイジェスト動画が関連付けられた動画データを配布することができる。   As described above, the system control unit 11 in this embodiment adjusts the time of the entire digest video and the appearance ratio of the person of interest using the start flag and the end flag associated with the video data. Therefore, it is possible to automatically and easily create a digest moving image that meets the user's request after moving image shooting with reference to the flag group. Also, by creating a digest video according to the selection of the person of interest, it is possible to easily create a digest video according to the user's request. For example, when the groom and the bride distribute the wedding video data to the related parties, the groom and the bride can distribute the video data associated with the digest video data centered on the groom to the related parties of the groom. Similarly, the groom and the bride can distribute the moving image data associated with the digest video centered on the bride to the bride concerned.

なお、本実施形態において、システム制御部11は、少なくとも終了フラグを含むフラグ群を生成すればよい。終了フラグおよび動画データの撮影終了フレームを用いることにより、ユーザの要望に応じて終了位置の異なる様々なダイジェスト動画を作成することができる。   In the present embodiment, the system control unit 11 may generate a flag group including at least an end flag. By using the end flag and the shooting end frame of the moving image data, various digest moving images having different end positions can be created according to the user's request.

図8は、ダイジェスト動画データの生成処理のフロー図である。本フローは、ユーザによるダイジェスト動画作成のメニュー項目の選択を、検知した時点から開始される。なお、本実施形態において、システム制御部11は、画像処理部35と協働して本フローを実行する。ステップS201では、システム制御部11は、図5を用いて説明したように、対象動画の選択およびダイジェスト動画の作成条件の設定を受け付ける。ステップS202では、システム制御部11は、対象動画の動画データと、当該動画データに関連付けられたフラグ群とを記録部50から取得する。   FIG. 8 is a flowchart of digest video data generation processing. This flow starts from the point in time when the selection of the menu item for creating a digest video by the user is detected. In the present embodiment, the system control unit 11 executes this flow in cooperation with the image processing unit 35. In step S201, the system control unit 11 accepts selection of a target moving image and setting of a digest moving image creation condition as described with reference to FIG. In step S202, the system control unit 11 acquires the moving image data of the target moving image and the flag group associated with the moving image data from the recording unit 50.

ステップS203では、システム制御部11は、図6および図7を用いて説明したように、注目人物が登場する全てのフレームをダイジェスト動画の対象フレームとして抽出する。ステップS204では、システム制御部11は、図7を用いて説明したように、ダイジェスト動画の対象フレームがステップS201で受け付けた優先度条件を満たしているか否かを判断する。システム制御部11は、優先度条件を満たしていないと判断した場合にはステップS205へ移行し、優先度条件を満たしていると判断した場合にはステップS206へ移行する。なお、優先度条件が設定されていない場合、システム制御部11は、ステップS206へ移行する。ステップS205では、システム制御部11は、図7を用いて説明したように、ダイジェスト動画の対象フレームを変更して、ダイジェスト動画における対象被写体の登場比率を調整する。   In step S203, as described with reference to FIGS. 6 and 7, the system control unit 11 extracts all frames in which the person of interest appears as target frames of the digest video. In step S204, as described with reference to FIG. 7, the system control unit 11 determines whether the target frame of the digest video satisfies the priority condition received in step S201. If the system control unit 11 determines that the priority condition is not satisfied, the system control unit 11 proceeds to step S205. If the system control unit 11 determines that the priority condition is satisfied, the process proceeds to step S206. If the priority condition is not set, the system control unit 11 proceeds to step S206. In step S <b> 205, the system control unit 11 adjusts the appearance ratio of the target subject in the digest video by changing the target frame of the digest video as described with reference to FIG. 7.

ステップS206では、システム制御部11は、図6を用いて説明したように、ダイジェスト動画の対象フレームがステップS101で受け付けた時間条件を満たしているか否かを判断する。システム制御部11は、時間条件を満たしていないと判断した場合にはステップS207へ移行し、時間条件を満たしている場合にはステップS208へ移行する。なお、次官条件が設定されていない場合、システム制御部11は、ステップS208へ移行する。ステップS207では、システム制御部11は、図6を用いて説明したように、ダイジェスト動画の対象フレームを変更して、ダイジェスト動画の時間を調整する。   In step S206, as described with reference to FIG. 6, the system control unit 11 determines whether the target frame of the digest video satisfies the time condition received in step S101. If the system control unit 11 determines that the time condition is not satisfied, the system control unit 11 proceeds to step S207. If the time condition is satisfied, the system control unit 11 proceeds to step S208. Note that if the undersecretary condition is not set, the system control unit 11 proceeds to step S208. In step S207, as described with reference to FIG. 6, the system control unit 11 changes the target frame of the digest video and adjusts the time of the digest video.

ステップS208では、画像処理部35は、システム制御部11の制御に従い、ダイジェスト動画の対象フレームを並べたダイジェスト動画データを生成する。ステップS209では、システム制御部11は、ダイジェスト動画データを記録部50に記録して本フローを終了する。なお、システム制御部11は、ダイジェスト動画データを元の動画データと関連付けて記録する。   In step S <b> 208, the image processing unit 35 generates digest video data in which target frames of the digest video are arranged according to the control of the system control unit 11. In step S209, the system control unit 11 records the digest moving image data in the recording unit 50 and ends this flow. The system control unit 11 records the digest video data in association with the original video data.

上述の実施形態において、システム制御部11は、被写体の移動量、音声等の被写体の変化量を加味してダイジェスト動画データの対象フレームを抽出してもよい。例えば、システム制御部11は、ダイジェスト動画全体の時間を短縮する場合に、被写体の移動量が閾値より大きいフレーム、音声レベルが閾値より高いフレームを抽出する。この場合、システム制御部11は、短縮すべき時間に応じて移動量の閾値、音声レベルの閾値を変更してもよい。   In the above-described embodiment, the system control unit 11 may extract the target frame of the digest video data in consideration of the amount of movement of the subject and the amount of change of the subject such as sound. For example, when the time of the entire digest video is shortened, the system control unit 11 extracts a frame in which the moving amount of the subject is larger than the threshold and a frame in which the audio level is higher than the threshold. In this case, the system control unit 11 may change the movement amount threshold and the voice level threshold according to the time to be shortened.

上述の実施形態において、システム制御部11は、被写体の移動量、音声レベル等の設定を設定画面で受け付けるようにしてもよい。また、システム制御部11は、優先度の代わりに注目人物の優先順位の設定を設定画面で受け付けてもよい。優先順位が設定された場合、システム制御部11は、優先順位の高い注目人物が登場するフレームの表示順序を、優先順位の低い注目人物が登場するフレームよりも先に設定してもよい。   In the above-described embodiment, the system control unit 11 may accept settings such as the amount of movement of the subject and the sound level on the setting screen. Further, the system control unit 11 may accept the setting of the priority order of the person of interest on the setting screen instead of the priority. When the priority order is set, the system control unit 11 may set the display order of the frames in which the target person with high priority appears before the frames in which the target person with low priority appears.

上述の実施形態において、画像処理部35は、ダイジェスト動画の対象動画データの動画撮影時に静止画が撮影されている場合に、当該静止画を組み込んだダイジェスト動画データを生成してもよい。具体的には、まず、システム制御部11は、対象動画データを記録部50から取得するときに、当該動画データに関連付けられた静止画データもあわせて取得する。そして、画像処理部35は、上述のように作成したダイジェスト動画に静止画を組み込んだダイジェスト動画データを生成する。   In the above-described embodiment, the image processing unit 35 may generate digest moving image data incorporating a still image when a still image is captured at the time of moving image capturing of the target moving image data of the digest moving image. Specifically, first, when acquiring the target moving image data from the recording unit 50, the system control unit 11 also acquires still image data associated with the moving image data. Then, the image processing unit 35 generates digest movie data in which a still image is incorporated into the digest movie created as described above.

例えば、画像処理部35は、静止画が撮影された時点のフレームのところで静止画を予め定められた時間、例えば5秒間再生するダイジェスト動画データを生成する。また、画像処理部35は、冒頭に静止画を再生し、その後にダイジェスト動画を再生するダイジェスト動画データを生成してもよい。また、画像処理部35は、ダイジェスト動画を再生した後に静止画を再生するダイジェスト動画データを生成してもよい。   For example, the image processing unit 35 generates digest moving image data for reproducing a still image for a predetermined time, for example, 5 seconds at a frame at the time when the still image was captured. Further, the image processing unit 35 may generate digest moving image data that reproduces a still image at the beginning and then reproduces a digest moving image. Further, the image processing unit 35 may generate digest moving image data for reproducing a still image after reproducing the digest moving image.

上述の実施形態では、1つの動画データに対してダイジェスト動画データが生成されたが、これに限らない。画像処理部35は、複数の動画データを跨いだダイジェスト動画データを生成してもよい。具体的には、まず、システム制御部11は、対象となる複数の動画の選択をユーザから受け付ける。次に、システム制御部11は、対象となる複数の動画データと、複数の動画データにそれぞれ関連付けられた複数のフラグ群とを記録部50から取得する。   In the above-described embodiment, digest movie data is generated for one movie data, but the present invention is not limited to this. The image processing unit 35 may generate digest video data straddling a plurality of video data. Specifically, first, the system control unit 11 accepts selection of a plurality of target moving images from the user. Next, the system control unit 11 acquires a plurality of target moving image data and a plurality of flag groups respectively associated with the plurality of moving image data from the recording unit 50.

システム制御部11は、上述と同様の手法で、複数の動画データの各々からフレーム画像データを抽出する。そして、画像処理部35は、システム制御部11が抽出したフレーム画像データを繋ぎ合せて1つのダイジェスト動画データを生成する。このように複数の動画データから1つのダイジェスト動画データを生成することにより、ユーザは、例えば、旅行のときに複数回動画撮影し、これら複数の動画データから当該旅行のダイジェスト動画データを生成することができる。   The system control unit 11 extracts frame image data from each of the plurality of moving image data by the same method as described above. Then, the image processing unit 35 combines the frame image data extracted by the system control unit 11 to generate one digest moving image data. By generating one digest movie data from a plurality of movie data in this way, the user can, for example, shoot a movie a plurality of times during a trip, and generate digest movie data for the trip from the plurality of movie data. Can do.

上述の実施形態に係る画像記録装置および画像生成装置において、ダイジェスト動画で注目する対象被写体として人物が用いられたが、これに限らない。システム制御部11は、山、花、料理等のシーンを認識し、これらを対象被写体として上述のフラグ群を生成してもよい。そして、システム制御部11は、当該フラグ群を参照してダイジェスト動画データの対象フレームを抽出してもよい。   In the image recording apparatus and the image generation apparatus according to the above-described embodiment, a person is used as a target subject to be noted in a digest video, but the present invention is not limited to this. The system control unit 11 may recognize scenes such as mountains, flowers, and dishes, and generate the above-described flag group using these as target subjects. And the system control part 11 may extract the object flame | frame of digest moving image data with reference to the said flag group.

上述の実施形態に係る画像記録装置としてカメラ10を例に説明したが、PC等の電子機器が上述の画像記録装置として機能してもよい。例えば、PCが、カメラ10の記録部50から動画データを取得し、当該動画データを解析して上述のフラグ群を生成し、フラグ群を動画データに関連付けてPCに接続されている記録媒体に記録する。そして、当該PCが、画像生成装置として、当該記録媒体の動画データとフラグ群とを用いてダイジェスト動画データを生成してもよい。   Although the camera 10 has been described as an example of the image recording apparatus according to the above-described embodiment, an electronic device such as a PC may function as the above-described image recording apparatus. For example, the PC acquires moving image data from the recording unit 50 of the camera 10, analyzes the moving image data, generates the above-described flag group, and associates the flag group with the moving image data on a recording medium connected to the PC. Record. Then, the PC may generate digest moving image data using the moving image data and flag group of the recording medium as an image generating device.

また、上述の実施形態に係る画像生成装置としてカメラ10を例に説明したが、PC等の電子機器が上述の画像生成装置として機能してもよい。例えば、PCが、動画データと、フラグ群とをカメラ10の記録部50から取得し、動画データとフラグ群とを用いて上述のようにダイジェスト動画データを生成する。   Moreover, although the camera 10 has been described as an example of the image generation apparatus according to the above-described embodiment, an electronic device such as a PC may function as the above-described image generation apparatus. For example, the PC acquires the moving image data and the flag group from the recording unit 50 of the camera 10, and generates the digest moving image data as described above using the moving image data and the flag group.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記の実施形態に記載の範囲には限定されない。上記の実施形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in said embodiment. It will be apparent to those skilled in the art that various modifications and improvements can be made to the above embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.

特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。   The order of execution of each process such as operations, procedures, steps, and stages in the apparatus, system, program, and method shown in the claims, the description, and the drawings is particularly “before” or “prior to”. It should be noted that the output can be realized in any order unless the output of the previous process is used in the subsequent process. Regarding the operation flow in the claims, the description, and the drawings, even if it is described using “first”, “next”, etc. for convenience, it means that it is essential to carry out in this order. It is not a thing.

10 カメラ、11 システム制御部、12 システムメモリ、20 光学系、21 レンズ群、22 レンズシャッタ、31 撮像素子、32 A/D変換器、33 メモリ制御部、34 内部メモリ、35 画像処理部、36 表示制御部、37 表示部、38 記録媒体IF、39 操作部材、40 レンズ制御部、41 露光制御部、50 記録部、101 時間条件項目、102 注目人物項目、103 優先度項目、104 OKボタン、201、202、203、206、301 開始フラグ、204、205、207、302 終了フラグ DESCRIPTION OF SYMBOLS 10 Camera, 11 System control part, 12 System memory, 20 Optical system, 21 Lens group, 22 Lens shutter, 31 Image pick-up element, 32 A / D converter, 33 Memory control part, 34 Internal memory, 35 Image processing part, 36 Display control unit, 37 Display unit, 38 Recording medium IF, 39 Operation member, 40 Lens control unit, 41 Exposure control unit, 50 Recording unit, 101 Time condition item, 102 Attention person item, 103 Priority item, 104 OK button, 201, 202, 203, 206, 301 Start flag, 204, 205, 207, 302 End flag

Claims (3)

複数のフレームを有する動画において第1の被写体が写っているフレームに関する第1の情報と第2の被写体が写っているフレームに関する第2の情報とに基づいて前記動画のダイジェスト動画を生成する画像生成装置において、
前記第1の被写体と前記第2の被写体のうちの一方を選択する選択部と、
前記選択部により前記第1の被写体が選択された場合に、前記第1の情報に基づいて前記動画から前記第1の被写体だけが写っている複数の第1フレームを抽出し、前記第1の情報と前記第2の情報とに基づいて抽出された前記第1の被写体と前記第2の被写体との両方が写っている複数の第2のフレームから一部の第2のフレームを抽出し、前記複数の第1フレームと前記一部の第2のフレームとによりダイジェスト動画を生成する動画生成部と
を備える画像生成装置。
Image generation for generating a digest video of the video based on first information regarding a frame in which the first subject is captured in a video having a plurality of frames and second information regarding a frame in which the second subject is captured In the device
A selector for selecting one of the first subject and the second subject;
When the first subject is selected by the selection unit, a plurality of first frames in which only the first subject is shown are extracted from the video based on the first information, and the first subject is extracted. Extracting a portion of the second frame from a plurality of second frames in which both the first subject and the second subject are extracted based on the information and the second information; An image generation apparatus comprising: a moving image generation unit configured to generate a digest moving image using the plurality of first frames and the partial second frame.
複数のフレームを有する動画に対象被写体が写り始めたフレームに関する第1の情報と、前記対象被写体が写り終えたフレームに関する第2の情報とに基づいて前記動画のダイジェスト動画を生成する画像生成装置において、
前記第1の情報と前記第2の情報とに基づいて前記動画のダイジェスト動画を生成する動画生成部と、
前記生成されたダイジェスト動画の時間が設定された時間よりも長い場合に、前記第1の情報と前記第2の情報とのうちの少なくとも一方に基づいて前記生成されたダイジェスト動画の複数のフレームから一部のフレームを削除して、前記生成されたダイジェスト動画の時間を短くする処理部と
を備え
前記処理部は、
前記複数のフレームを有する動画のうちの前記第1の情報と前記第2の情報とが設定されている第1の部分動画と、前記第1の部分動画とは異なる前記第1の情報と前記第2の情報とが設定されている第2の部分動画とから生成された第1のダイジェスト動画が前記設定された時間よりも長いと、
前記第1の部分動画のうちの前記第1の情報が関連付けられているフレームと前記第2の情報が関連付けられているフレームと、前記第2の部分動画のうちの前記第1の情報が関連付けられているフレームと前記第2の情報が関連付けられているフレームとのうちの少なくとも一部のフレームを削除して第2のダイジェスト動画を生成する画像生成装置。
In an image generation device that generates a digest video of the video based on first information about a frame in which a target subject has started to be captured in a video having a plurality of frames and second information about a frame in which the target subject has been captured ,
A moving image generating unit that generates a digest moving image of the moving image based on the first information and the second information;
When a time of the generated digest video is longer than a set time, from a plurality of frames of the generated digest video based on at least one of the first information and the second information A processing unit that deletes some frames and shortens the time of the generated digest video ,
The processor is
Of the moving image having the plurality of frames, the first partial moving image in which the first information and the second information are set, the first information different from the first partial moving image, and the When the first digest video generated from the second partial video for which the second information is set is longer than the set time,
The frame associated with the first information of the first partial moving image and the frame associated with the second information are associated with the first information of the second partial moving image. An image generation apparatus that generates a second digest video by deleting at least a part of a frame that is associated with the second information and a frame that is associated with the second information.
前記処理部は、The processor is
前記第1の部分動画のうちの前記第1の情報が関連付けられているフレームと前記第2の情報が関連付けられているフレームと、前記第2の部分動画のうちの前記第1の情報が関連付けられているフレームと前記第2の情報が関連付けられているフレームとを削除して第2のダイジェスト動画を生成する請求項2記載の画像生成装置。The frame associated with the first information of the first partial moving image and the frame associated with the second information are associated with the first information of the second partial moving image. The image generation apparatus according to claim 2, wherein a second digest moving image is generated by deleting a frame that is associated with the second information and a frame associated with the second information.
JP2011274894A 2011-12-15 2011-12-15 Image generation device Active JP5990903B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011274894A JP5990903B2 (en) 2011-12-15 2011-12-15 Image generation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011274894A JP5990903B2 (en) 2011-12-15 2011-12-15 Image generation device

Publications (2)

Publication Number Publication Date
JP2013126175A JP2013126175A (en) 2013-06-24
JP5990903B2 true JP5990903B2 (en) 2016-09-14

Family

ID=48777167

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011274894A Active JP5990903B2 (en) 2011-12-15 2011-12-15 Image generation device

Country Status (1)

Country Link
JP (1) JP5990903B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020116960A1 (en) * 2018-12-05 2020-06-11 Samsung Electronics Co., Ltd. Electronic device for generating video comprising character and method thereof

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019155695A1 (en) * 2018-02-06 2019-08-15 株式会社Nttドコモ Information processing device and information processing method
JP7154024B2 (en) * 2018-03-27 2022-10-17 東京電力ホールディングス株式会社 Pet video analysis device, pet video analysis system, pet video analysis method, and program
CN115053513A (en) * 2020-02-14 2022-09-13 索尼集团公司 Content processing device, content processing method, and content processing program

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007336086A (en) * 2006-06-13 2007-12-27 Toshiba Corp Content recorder, content reproducing device, and content network system
JP2008078713A (en) * 2006-09-19 2008-04-03 Sony Corp Recording apparatus and method, program, and reproducing apparatus and method
JP4999589B2 (en) * 2007-07-25 2012-08-15 キヤノン株式会社 Image processing apparatus and method
JP5106271B2 (en) * 2008-06-27 2012-12-26 キヤノン株式会社 Image processing apparatus, image processing method, and computer program
JP4366439B1 (en) * 2008-12-16 2009-11-18 克己 井上 Video content editing method, editing apparatus using the same, and remote editing apparatus
JP2011082915A (en) * 2009-10-09 2011-04-21 Sony Corp Information processor, image extraction method and image extraction program

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020116960A1 (en) * 2018-12-05 2020-06-11 Samsung Electronics Co., Ltd. Electronic device for generating video comprising character and method thereof
CN111276168A (en) * 2018-12-05 2020-06-12 三星电子株式会社 Electronic device for generating video including character and method thereof
KR20200068391A (en) * 2018-12-05 2020-06-15 삼성전자주식회사 Electronic device for generating video comprising character and method thereof
US11132398B2 (en) 2018-12-05 2021-09-28 Samsung Electronics Co., Ltd. Electronic device for generating video comprising character and method thereof
CN111276168B (en) * 2018-12-05 2021-12-21 三星电子株式会社 Electronic device for generating video including character and method thereof
US11531702B2 (en) 2018-12-05 2022-12-20 Samsung Electronics Co., Ltd. Electronic device for generating video comprising character and method thereof
KR102604937B1 (en) * 2018-12-05 2023-11-23 삼성전자주식회사 Electronic device for generating video comprising character and method thereof

Also Published As

Publication number Publication date
JP2013126175A (en) 2013-06-24

Similar Documents

Publication Publication Date Title
US7483061B2 (en) Image and audio capture with mode selection
US7725015B2 (en) Image pickup apparatus, image recording apparatus and image recording method
US9124860B2 (en) Storing a video summary as metadata
US8260090B2 (en) Information processing apparatus, imaging apparatus, image display control method and computer program
US8432965B2 (en) Efficient method for assembling key video snippets to form a video summary
US20110007187A1 (en) Imaging Device And Image Playback Device
US8471919B2 (en) Image pickup apparatus, method, and program with improved moving and still image handling
EP2573758B1 (en) Method and apparatus for displaying summary video
US20130236161A1 (en) Image processing device and image processing method
JP5990903B2 (en) Image generation device
JP2009194770A (en) Imaging device, moving image reproducing apparatus, and program thereof
KR101909126B1 (en) Method and apparatus for displaying a summary video
JP4683337B2 (en) Image display device and image display method
JP2007266659A (en) Imaging reproducing apparatus
US8363128B2 (en) Image processing apparatus and image processing method
US20130063621A1 (en) Imaging device
US20120093483A1 (en) Image processing apparatus and image processing method
JP2007325152A (en) Imaging device, and program thereof
KR101476650B1 (en) Apparatus and method for processing continuously photographed image data in digital image processing device
JP5369776B2 (en) Imaging apparatus, imaging method, and imaging program
JP5533241B2 (en) Movie playback device, movie playback method and program
JP2010050784A (en) Digital camera
JP2008205953A (en) Imaging device and image reproducing device
JP2008172395A (en) Imaging apparatus and image processing apparatus, method, and program
JP2018074523A (en) Imaging device, control method thereof, program, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150824

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150901

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151102

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160411

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160719

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160801

R150 Certificate of patent or registration of utility model

Ref document number: 5990903

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250