JP2011119936A - Photographing device and reproducing method - Google Patents

Photographing device and reproducing method Download PDF

Info

Publication number
JP2011119936A
JP2011119936A JP2009274909A JP2009274909A JP2011119936A JP 2011119936 A JP2011119936 A JP 2011119936A JP 2009274909 A JP2009274909 A JP 2009274909A JP 2009274909 A JP2009274909 A JP 2009274909A JP 2011119936 A JP2011119936 A JP 2011119936A
Authority
JP
Japan
Prior art keywords
still image
unit
attribute information
information
instruction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009274909A
Other languages
Japanese (ja)
Inventor
Sunako Asayama
砂子 朝山
Yoshihiro Morioka
芳宏 森岡
Hiroyuki Kamezawa
裕之 亀澤
Masashi Nosaka
昌史 野阪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2009274909A priority Critical patent/JP2011119936A/en
Publication of JP2011119936A publication Critical patent/JP2011119936A/en
Pending legal-status Critical Current

Links

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To efficiently select and reproduce a desired still image when automatically photographed still images are reproduced. <P>SOLUTION: A video camera 100 is an example of a photographing device which photographs the still images during photographing of moving images to reproduce the photographed still images, and is provided with: an imaging part 110 which photographs the moving images, and photographs the still images during photographing of the moving images; an attribute information generation part 120 which generates one or more kinds of attribute information showing a photographing state of at least one of the moving images and the still images photographed by the imaging part 110; a recording part 130 which associates the still images photographed by the imaging part 110 with the attribute information generated by the attribute information generation part 120 to be recorded in a memory 160; an acceptance part 140 which accepts an instruction for selecting a kind of the attribute information; and a playback part 150 which reads the still images associated with the attribute information of the kind corresponding to the instruction accepted by the acceptance part 140 from the memory 160 to be played back. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、動画と静止画との両方を撮影する撮影装置に関するものであり、特に、動画撮影中に撮影した静止画を再生する技術に関するものである。   The present invention relates to an imaging device that captures both a moving image and a still image, and more particularly to a technique for reproducing a still image captured during moving image shooting.

ビデオカメラ等の撮影装置において、動画撮影中に並行して静止画を撮影する機能が実現されている。このような撮影装置では、ユーザーが動画撮影中に静止画撮影ボタン等を押すことで、動画と共に静止画も同時に撮影、及び記録することができる。   In a photographing apparatus such as a video camera, a function of photographing a still image in parallel with moving image photographing is realized. In such a photographing apparatus, a user can simultaneously photograph and record a still image together with a moving image by pressing a still image photographing button or the like during moving image photographing.

また、動画撮影中に、静止画を自動的に撮影する機能も考案されている。
例えば、特許文献1には、連続して撮像された複数の画像を評価し、評価結果に基づいて画像を記録するか否かを判断する撮像装置が開示されている。特許文献1に記載の撮像装置によれば、例えば、外部の閃光等の影響を受けた画像を自動的に除外して、残りの画像を記録することができる。
Also, a function has been devised that automatically captures still images during moving image shooting.
For example, Patent Document 1 discloses an imaging apparatus that evaluates a plurality of images that are continuously captured and determines whether to record an image based on the evaluation result. According to the imaging device described in Patent Document 1, for example, an image affected by an external flash or the like can be automatically excluded and the remaining image can be recorded.

また、特許文献2には、動画像の撮影時に実行されるズーム操作情報、加速度センサによる検出情報によって解析されるパン・ティルト処理情報、入力音声信号のレベル情報、GPS(Global Positioning System)から入力する位置情報、クロック情報に基づいて識別される特定の記念日などの情報、又は、静止画撮影情報などの情報に基づいて重要シーン部分を判定し、重要シーン部分を識別可能なハイライトポイント情報を生成して、撮影画像データに対応付けて記録する撮像装置が開示されている。特許文献2に記載の撮像装置によれば、撮影後にハイライトポイント情報を利用して、重要シーン部分の再生を容易に行うことができる。   Also, Patent Document 2 discloses zoom operation information executed at the time of capturing a moving image, pan / tilt processing information analyzed based on detection information by an acceleration sensor, input audio signal level information, and input from GPS (Global Positioning System). Highlight point information that can identify important scene parts by identifying important scene parts based on information such as specific anniversary dates identified based on location information, clock information, or information such as still image shooting information An image pickup apparatus that generates and records in association with photographed image data is disclosed. According to the imaging device described in Patent Literature 2, it is possible to easily reproduce the important scene portion using highlight point information after shooting.

特開2007−306225号公報JP 2007-306225 A 特開2007−134770号公報JP 2007-134770 A

しかしながら、上記従来技術によって動画撮影中に自動的に撮影された静止画を再生する場合、必ずしも視聴者が見たい静止画ばかりを再生することができるとは限らないという課題がある。   However, when playing back still images automatically shot during moving image shooting according to the above-described prior art, there is a problem that it is not always possible to play back only the still images that the viewer wants to see.

例えば、特許文献1及び2に記載の撮像装置によれば、様々な要因に基づいて画像を記録している。したがって、自動撮影された全ての静止画を順に再生する場合、撮影した静止画にはカメラワークが優れていて撮影されたカテゴリーの静止画、及び、笑顔認識されて撮影されたカテゴリーの静止画等が混在しているため、視聴者が見たいと考えるカテゴリーの静止画ばかりとは限らない。また、撮影した静止画の枚数が多い場合には、視聴者が所望する以上に再生時間が長くなってしまう場合もある。こういう状況は、自動撮影で保存したい静止画と、再生したい静止画とは必ずしも一致しないために起こるものである。   For example, according to the imaging devices described in Patent Documents 1 and 2, images are recorded based on various factors. Therefore, when playing back all the still images that were automatically shot in order, the still images that were shot with excellent camera work and still images in the category that were shot with smile recognition, etc. Are mixed, so it is not always the still image of the category that the viewer wants to see. Also, if the number of still images taken is large, the playback time may be longer than desired by the viewer. Such a situation occurs because a still image desired to be saved by automatic shooting and a still image desired to be reproduced do not always match.

また、視聴者が、所望する静止画のみを見ようとして、従来実現されている静止画一覧等から再生したい静止画を選択して再生する再生方法を用いることもできる。しかしながら、視聴者は見たい静止画を静止画一覧から1枚ずつ選択する必要があるため使い勝手が良くない。   In addition, it is also possible to use a playback method in which a viewer selects and plays back a still image to be played back from a still image list or the like that has been realized in the past in order to view only a desired still image. However, since the viewer needs to select one still image to be viewed from the still image list, it is not convenient.

そこで、本発明は、上記課題を解決するためになされたものであって、所望する静止画像を効率良く選択して再生することができる撮影装置を提供することを目的とする。   Accordingly, the present invention has been made to solve the above-described problems, and an object of the present invention is to provide a photographing apparatus that can efficiently select and reproduce a desired still image.

上記課題を解決するために、本発明に係る撮影装置は、動画像の撮影中に静止画像を撮影し、撮影した静止画像を再生する撮影装置であって、前記動画像を撮影するとともに、当該動画像の撮影中に静止画像を撮影する撮像部と、前記撮像部によって撮影された動画像及び静止画像の少なくとも一方の撮影状況を示す1種類以上の属性情報を生成する属性情報生成部と、前記撮像部によって撮影された静止画像と、前記属性情報生成部によって生成された属性情報とを対応付けてメモリに記録する記録部と、前記属性情報の種類を選択するための指示を受け付ける受付部と、前記受付部によって受け付けられた指示に対応する種類の属性情報に対応付けられた静止画像を前記メモリから読み出して再生する再生部とを備える。   In order to solve the above-described problem, a photographing apparatus according to the present invention is a photographing apparatus that captures a still image while capturing a moving image, and reproduces the captured still image. An image capturing unit that captures a still image while capturing a moving image; an attribute information generating unit that generates at least one type of attribute information indicating a shooting state of at least one of the moving image and the still image captured by the image capturing unit; A recording unit that records the still image captured by the imaging unit and the attribute information generated by the attribute information generation unit in association with each other, and a reception unit that receives an instruction for selecting the type of the attribute information And a reproduction unit that reads out and reproduces a still image associated with attribute information of a type corresponding to the instruction received by the reception unit from the memory.

これにより、ユーザーが所望する属性情報の種類の選択を受け付け、該当する属性情報に対応付けられた静止画像を再生するので、ユーザーが所望する静止画像を効率良く再生することができる。したがって、ユーザーが所望する静止画像を1枚ずつ選択させることを強いることなく、ユーザーが所望する静止画像を効率良く再生することができる。   Thus, the selection of the type of attribute information desired by the user is received and the still image associated with the corresponding attribute information is reproduced, so that the still image desired by the user can be efficiently reproduced. Therefore, it is possible to efficiently reproduce the still image desired by the user without forcing the user to select the still images desired by the user one by one.

また、前記属性情報生成部は、前記撮像部によって撮影された静止画像の撮影状況を示す属性情報をフレーム毎に生成してもよい。   The attribute information generation unit may generate attribute information indicating a shooting state of a still image captured by the imaging unit for each frame.

これにより、静止画像1枚1枚に属性情報を対応付けて記録することができるので、ユーザーが所望する静止画像を的確に選択することができる。   As a result, attribute information can be recorded in association with each still image, so that a still image desired by the user can be accurately selected.

また、前記属性情報は、前記動画像及び前記静止画像の少なくとも一方の撮影中における、前記撮影装置の動作を示す動作情報と、被写体の特徴を示す被写体情報と、前記動作情報及び前記被写体情報の評価値との少なくとも1つを含み、前記受付部は、前記動作情報と前記被写体情報と前記評価値との少なくとも1つを選択するための指示を受け付けてもよい。   In addition, the attribute information includes operation information indicating the operation of the image capturing apparatus, object information indicating the characteristics of the object, operation information, and the object information, during shooting of at least one of the moving image and the still image. The receiving unit may receive an instruction for selecting at least one of the motion information, the subject information, and the evaluation value.

これにより、撮影装置の動作、被写体の特徴、及びこれらの評価が静止画像に対応付けられるので、より多くの情報に基づいて静止画像の選択を行うことが可能となり、よりユーザーが所望する静止画像を的確に選択することができる。   As a result, since the operation of the photographing apparatus, the characteristics of the subject, and the evaluation thereof are associated with the still image, the still image can be selected based on more information, and the still image desired by the user can be selected. Can be selected accurately.

また、前記受付部は、前記評価値が予め定められた閾値より高い静止画像を選択するための第1指示を受け付け、前記再生部は、前記受付部が前記第1指示を受け付けた場合、前記閾値より高い評価値が対応付けられた静止画像を再生してもよい。   In addition, the reception unit receives a first instruction for selecting a still image whose evaluation value is higher than a predetermined threshold, and the reproduction unit receives the first instruction when the reception unit receives the first instruction, Still images associated with evaluation values higher than the threshold may be reproduced.

これにより、評価値が高い静止画像を選択することができるので、よりユーザーが所望する静止画像を選択することができる。   Thereby, since a still image with a high evaluation value can be selected, a still image desired by the user can be selected.

また、前記属性情報は、前記被写体情報として、対応付けられた静止画像に人物が写っていることを示す人物情報を含み、前記受付部は、人物が写っている静止画像を選択するための第2指示を受け付け、前記再生部は、前記受付部が前記第2指示を受け付けた場合、前記人物情報が対応付けられた静止画像を再生してもよい。   The attribute information includes, as the subject information, personal information indicating that a person is shown in the associated still image, and the reception unit selects a still image in which the person is shown. 2 instructions are received, and the playback unit may play back a still image associated with the person information when the receiving unit receives the second instruction.

これにより、人物が写っている静止画像を選択することができるので、よりユーザーが所望する静止画像を選択することができる。   Thereby, since the still image in which the person is reflected can be selected, the still image desired by the user can be selected.

また、前記記録部は、さらに、前記撮像部によって撮影された静止画像に、予め定められた人物を示す特定人物情報を対応付けて、前記メモリに記録し、前記受付部は、前記第2指示を受け付けた場合、さらに、予め定められた1人の人物を選択するための第3指示を受け付け、前記再生部は、前記人物情報が対応付けられた静止画像のうち、前記受付部によって受け付けられた第3指示に対応する特定人物情報が対応付けられた静止画像を再生してもよい。   In addition, the recording unit further records, in the memory, specific person information indicating a predetermined person in association with a still image captured by the imaging unit, and the reception unit records the second instruction. Is received, a third instruction for selecting a predetermined person is further received, and the playback unit is received by the receiving unit from among the still images associated with the person information. The still image associated with the specific person information corresponding to the third instruction may be reproduced.

これにより、特定の人物が写っている静止画像を選択することができるので、よりユーザーが所望する静止画像を選択することができる。   Thereby, since the still image in which a specific person is reflected can be selected, the still image desired by the user can be selected.

また、前記記録部は、さらに、前記撮像部によって撮影された静止画像に、予め定められた複数の人物を示す複数の特定人物情報を対応付けて、前記メモリに記録し、前記受付部は、前記第2指示を受け付けた場合、さらに、予め定められた複数の人物を選択するための第4指示を受け付け、前記再生部は、前記人物情報に対応付けられた静止画像のうち、前記受付部によって受け付けられた第3指示に対応する特定人物情報が対応付けられた静止画像を再生してもよい。   Further, the recording unit further records a plurality of specific person information indicating a plurality of predetermined persons in association with the still image captured by the imaging unit, and records the information in the memory. When the second instruction is received, a fourth instruction for selecting a plurality of predetermined persons is further received, and the playback unit includes the receiving unit among the still images associated with the person information. The still image associated with the specific person information corresponding to the third instruction received by may be reproduced.

これにより、複数の特定の人物が写っている静止画像を選択することができるので、よりユーザーが所望する静止画像を選択することができる。   As a result, a still image in which a plurality of specific persons are captured can be selected, and thus a still image desired by the user can be selected.

また、前記再生部は、前記受付部によって受け付けられた第4指示に対応する特定人物情報が対応付けられた静止画像のうち、複数の人物間の距離が所定の距離より小さい静止画像を再生してもよい。   The reproduction unit reproduces a still image in which the distance between a plurality of persons is smaller than a predetermined distance among the still images associated with the specific person information corresponding to the fourth instruction received by the reception unit. May be.

これにより、写っている人物の距離が近い静止画像を選択することができるので、よりユーザーが所望する静止画像を選択することができる。人物間の距離が近い静止画像は、例えば、集合写真などのユーザーにとって重要度の高い画像である可能性が高いためである。   As a result, a still image that is close to the person in the image can be selected, so that a still image desired by the user can be selected. This is because a still image with a close distance between persons is likely to be an image having high importance for a user, such as a group photo.

また、前記再生部は、前記受付部によって受け付けられた第3指示に対応する特定人物情報が対応付けられた静止画像のうち、前記予め定められた人物が予め定められた表情である静止画像を再生してもよい。   In addition, the reproduction unit may include a still image in which the predetermined person is a predetermined facial expression among the still images associated with the specific person information corresponding to the third instruction received by the reception unit. You may replay it.

これにより、写っている人物が特定の表情(例えば、笑顔、又は目蓋が閉じられていない顔)である静止画像を選択することができるので、よりユーザーが所望する静止画像を選択することができる。   Thus, a still image in which the person in the image has a specific facial expression (for example, a smile or a face whose eyelids are not closed) can be selected, so that the user can select a still image desired by the user. it can.

また、前記受付部は、前記動画像の属性情報に基づいて静止画像を選択するための第5指示を受け付け、前記再生部は、前記受付部が前記第5指示を受け付けた場合、前記動画像の属性情報が予め定められた条件を満たしている期間に撮影された静止画像を抽出してもよい。   In addition, the reception unit receives a fifth instruction for selecting a still image based on attribute information of the moving image, and the playback unit receives the fifth instruction when the reception unit receives the fifth instruction. Still images taken during a period in which the attribute information satisfies a predetermined condition may be extracted.

これにより、静止画像の属性情報だけでなく、当該静止画像が含まれる動画像の属性情報も所定の条件を満たす静止画像を選択することができるので、よりユーザーが所望する静止画像を選択することができる。   Thus, not only the still image attribute information but also the moving image attribute information including the still image can select a still image that satisfies a predetermined condition, so that the user can select a still image desired by the user. Can do.

また、前記撮影装置は、さらに、前記属性情報が対応付けられた1つ以上のメニュー項目を表示する表示部を備え、前記受付部は、前記表示部に表示された1つ以上のメニュー項目の選択を前記指示として受け付けてもよい。   In addition, the photographing apparatus further includes a display unit that displays one or more menu items associated with the attribute information, and the reception unit includes one or more menu items displayed on the display unit. The selection may be accepted as the instruction.

これにより、選択のためのメニュー項目を表示することで、ユーザーが属性情報を容易に選択することができ、利便性が向上する。   Thus, by displaying the menu item for selection, the user can easily select attribute information, and convenience is improved.

また、本発明に係る再生方法は、動画像の撮影中に撮影した静止画像をメモリから読み出して再生する再生方法であって、前記メモリには、前記動画像の撮影中撮影された静止画像と、前記動画像及び前記静止画像の少なくとも一方の撮影状況を示す1種類以上の属性情報とが対応付けて記憶され、前記再生方法は、前記属性情報の種類を選択するための指示を受け付ける受付ステップと、前記受付ステップにおいて受け付けられた指示に対応する種類の属性情報に対応付けられた静止画像を前記メモリから読み出して再生する再生ステップとを含む。   The playback method according to the present invention is a playback method for reading out and playing back a still image taken during moving image shooting from a memory, and storing the still image shot during shooting of the moving image in the memory. One or more types of attribute information indicating at least one of the moving image and the still image is stored in association with each other, and the reproduction method receives an instruction for selecting the type of the attribute information. And a playback step of reading out and playing back a still image associated with the attribute information of the type corresponding to the instruction received in the receiving step.

本発明に係る撮影装置によれば、自動的に撮影された静止画像を再生する場合に、ユーザーが所望する静止画像を効率的に選択して再生することができる。   According to the photographing apparatus of the present invention, when a still image that has been automatically photographed is reproduced, it is possible to efficiently select and reproduce the still image desired by the user.

動画及び静止画像を撮影する撮影装置の一例であるビデオカメラの外観図である。1 is an external view of a video camera that is an example of an imaging device that captures moving images and still images. FIG. 本発明の実施の形態に係るビデオカメラ内部のハードウェア構成の概略を示す図である。It is a figure which shows the outline of the hardware constitutions inside the video camera which concerns on embodiment of this invention. 本発明の実施の形態に係るビデオカメラの機能構成の一例を示すブロック図である。It is a block diagram which shows an example of a function structure of the video camera which concerns on embodiment of this invention. 本発明の実施の形態に係るビデオカメラの詳細な機能構成の一例を示すブロック図である。It is a block diagram which shows an example of the detailed functional structure of the video camera which concerns on embodiment of this invention. 本発明の実施の形態に係るビデオカメラが撮影した動画の構成を示す図である。It is a figure which shows the structure of the moving image image | photographed with the video camera which concerns on embodiment of this invention. 本発明の実施の形態に係るシーンを識別する情報の一例を示す図である。It is a figure which shows an example of the information which identifies the scene which concerns on embodiment of this invention. 本発明の実施の形態に係る属性情報と評価との関係の一例を示す図である。It is a figure which shows an example of the relationship between the attribute information which concerns on embodiment of this invention, and evaluation. 本発明の実施の形態に係るシーン解析部が各シーンに評価を割り当てた結果を示す図である。It is a figure which shows the result of the scene analysis part which concerns on embodiment of this invention assigning evaluation to each scene. 本発明の実施の形態に係る再生情報の情報内容の一例を示す図である。It is a figure which shows an example of the information content of the reproduction | regeneration information which concerns on embodiment of this invention. 本発明の実施の形態に係る静止画像抽出用の属性情報と評価との関係の一例を示す図である。It is a figure which shows an example of the relationship between the attribute information for still image extraction which concerns on embodiment of this invention, and evaluation. 本発明の実施の形態に係るビデオカメラの動作のうち、動画像の撮影中に静止画像を撮影する動作の一例を示すフローチャートである。It is a flowchart which shows an example of the operation | movement which image | photographs a still image during imaging | photography of a moving image among operation | movement of the video camera which concerns on embodiment of this invention. 本発明の実施の形態に係る静止画像抽出の観点から撮影したフレームを評価した結果を示す図である。It is a figure which shows the result of having evaluated the flame | frame image | photographed from the viewpoint of the still image extraction which concerns on embodiment of this invention. 本発明の実施の形態に係る静止画像の評価に用いられた属性情報のうち評価点が高かった属性情報の一覧を示す図である。It is a figure which shows the list of the attribute information with high evaluation score among the attribute information used for evaluation of the still image which concerns on embodiment of this invention. 本発明の実施の形態に係る撮影された静止画像を再生する際の操作メニュー画面の一例を示す図である。It is a figure which shows an example of the operation menu screen at the time of reproducing | regenerating the picked-up still image which concerns on embodiment of this invention. 本発明の実施の形態に係る各メニュー項目に対応する選択条件の一例を示す図である。It is a figure which shows an example of the selection conditions corresponding to each menu item which concerns on embodiment of this invention. 本発明の実施の形態に係る特定人物を選択する際の操作メニュー画面の一例を示す図である。It is a figure which shows an example of the operation menu screen at the time of selecting the specific person which concerns on embodiment of this invention. 本発明の実施の形態に係る撮影された静止画像と人物フラグとを対応付けた表の一例を示す図である。It is a figure which shows an example of the table | surface which matched the image | photographed still image and person flag which concern on embodiment of this invention. 本発明の実施の形態に係る特定の人物が写っている静止画像を選択するための操作メニューの画面遷移の一例を示す図である。It is a figure which shows an example of the screen transition of the operation menu for selecting the still image in which the specific person which concerns on embodiment of this invention is reflected. 本発明の実施の形態に係る特定人物、人物間の距離、表情の指定を選択するための操作メニュー画面の一例を示す図である。It is a figure which shows an example of the operation menu screen for selecting the designation | designated of the specific person based on embodiment of this invention, the distance between persons, and a facial expression. 本発明の実施の形態に係る静止画像抽出の観点からフレームを評価した結果に閾値の一例を追記した図である。It is the figure which added an example of the threshold value to the result of having evaluated the frame from the viewpoint of still image extraction concerning an embodiment of the invention. 本発明の実施の形態に係る静止画像抽出の観点からフレームを評価した結果に動画の再生情報の一例を追記した図である。It is the figure which added the example of the reproduction | regeneration information of a moving image to the result of having evaluated the frame from the viewpoint of the still image extraction which concerns on embodiment of this invention. 本発明の実施の形態に係るビデオカメラの動作のうち、静止画像を再生する動作の一例を示すフローチャートである。It is a flowchart which shows an example of the operation | movement which reproduces | regenerates a still image among the operation | movement of the video camera which concerns on embodiment of this invention.

以下では、本発明に係る撮影装置の実施の形態について、図面を用いて詳細に説明する。   Hereinafter, an embodiment of a photographing apparatus according to the present invention will be described in detail with reference to the drawings.

本実施の形態に係る撮影装置は、動画像の撮影中に静止画像を撮影し、撮影した静止画像を再生する撮影装置であって、動画像を撮影するとともに、当該動画像の撮影中に静止画像を撮影する撮像部と、撮像部によって撮影された動画像及び静止画像の少なくとも一方の撮影状況を示す1種類以上の属性情報を生成する属性情報生成部と、撮像部によって撮影された静止画像と属性情報生成部によって生成された属性情報とを対応付けてメモリに記録する記録部と、属性情報の種類を選択するための指示を受け付ける受付部と、受付部によって受け付けられた指示に対応する種類の属性情報に対応付けられた静止画像を前記メモリから読み出して再生する再生部とを備えることを特徴とする。   The image capturing apparatus according to the present embodiment is an image capturing apparatus that captures a still image while capturing a moving image, and reproduces the captured still image. An image capturing unit that captures an image, an attribute information generating unit that generates one or more types of attribute information indicating a shooting situation of at least one of a moving image and a still image captured by the image capturing unit, and a still image captured by the image capturing unit Corresponding to the instruction received by the receiving unit, the recording unit that records in the memory in association with the attribute information generated by the attribute information generating unit, the receiving unit that receives an instruction for selecting the type of attribute information And a reproducing unit that reads out and reproduces a still image associated with the type of attribute information from the memory.

これにより、ユーザーが所望する属性情報の種類の選択を受け付け、該当する属性情報に対応付けられた静止画像を再生するので、本実施の形態に係る撮影装置は、ユーザーが所望する静止画像を効率良く再生することができる。したがって、ユーザーに所望の静止画像を1枚ずつ選択させることを強いることなく、ユーザーが所望する静止画像を効率良く再生することができる。   Thus, since the selection of the type of attribute information desired by the user is received and the still image associated with the corresponding attribute information is reproduced, the imaging apparatus according to the present embodiment efficiently converts the still image desired by the user. Can play well. Therefore, it is possible to efficiently reproduce the still image desired by the user without forcing the user to select a desired still image one by one.

<撮影装置の構成>
まず、本実施の形態に係る撮影装置の構成について説明する。
<Configuration of photographing apparatus>
First, the configuration of the photographing apparatus according to the present embodiment will be described.

図1は、動画像及び静止画像を撮影する撮影装置の一例であるムービーカメラ又はビデオカメラ100の外観図である。本実施の形態では、このビデオカメラ100を用いて説明を行う。   FIG. 1 is an external view of a movie camera or video camera 100 that is an example of a photographing apparatus that captures moving images and still images. In this embodiment, the video camera 100 is used for description.

図2は、ビデオカメラ100内部のハードウェア構成の概略を示す図である。
ビデオカメラ100は、レンズ群200と、撮像素子201と、映像ADC(Analog Digital Converter)202と、映像信号変換回路203と、CPU(Central Processing Unit)204と、クロック205と、レンズ制御モジュール206と、姿勢検出センサ207と、入力ボタン208と、ディスプレイ209と、スピーカー210と、出力I/F(Interface)211と、圧縮伸張回路212と、ROM(Read Only Memory)213と、RAM(Random Access Memory)214と、HDD(Hard Disk Drive)215と、音声ADC(Analog Digital Converter)216と、マイクロフォン217とを構成要素として備える。
FIG. 2 is a diagram showing an outline of the hardware configuration inside the video camera 100.
The video camera 100 includes a lens group 200, an image sensor 201, a video ADC (Analog Digital Converter) 202, a video signal conversion circuit 203, a CPU (Central Processing Unit) 204, a clock 205, a lens control module 206, and the like. , Attitude detection sensor 207, input button 208, display 209, speaker 210, output I / F (Interface) 211, compression / decompression circuit 212, ROM (Read Only Memory) 213, RAM (Random Access Memory) ) 214, HDD (Hard Disk Drive) 215, audio ADC (Analog Digital Converter) 216, and microphone 217. It provided as a source.

レンズ群200は、撮像素子201上で被写体像を形成するために、被写体から入射する光を調整する1つ以上のレンズの集合である。具体的には、レンズ群200は、焦点距離及びズーム(動画の拡大倍率)を、様々な特性を持つ複数のレンズ間の距離を変化させることで、調整する。これらの調整は、ビデオカメラ100の撮影者が手動で調整してもよく、あるいは、後述するレンズ制御モジュール206を通じてCPU204等からの制御により自動的に調整してもよい。   The lens group 200 is a set of one or more lenses that adjust light incident from a subject in order to form a subject image on the image sensor 201. Specifically, the lens group 200 adjusts the focal length and zoom (moving image magnification) by changing the distance between a plurality of lenses having various characteristics. These adjustments may be made manually by the photographer of the video camera 100 or automatically by control from the CPU 204 or the like through the lens control module 206 described later.

撮像素子201は、レンズ群200を通して入射する光を電気信号に変換する光電変換部である。撮像素子201には、CCD(Charge Coupled Device)、及びC−MOS(Complementary Metal Oxide Semiconductor)等のイメージセンサを利用することが可能である。   The image sensor 201 is a photoelectric conversion unit that converts light incident through the lens group 200 into an electrical signal. An image sensor such as a CCD (Charge Coupled Device) and a C-MOS (Complementary Metal Oxide Semiconductor) can be used for the image sensor 201.

映像ADC202は、撮像素子201が出力するアナログの電気信号をデジタルの電気信号(デジタル信号)に変換する。デジタル信号は、映像信号変換回路203へ出力される。   The video ADC 202 converts an analog electrical signal output from the image sensor 201 into a digital electrical signal (digital signal). The digital signal is output to the video signal conversion circuit 203.

映像信号変換回路203は、映像ADC202が出力するデジタル信号を、NTSC(National Television System Committee)又はPAL(Phase Alternating Line)などの所定の規格の動画信号に変換する。   The video signal conversion circuit 203 converts a digital signal output from the video ADC 202 into a moving image signal of a predetermined standard such as NTSC (National Television System Committee) or PAL (Phase Alternating Line).

CPU204は、ビデオカメラ100全体を制御する制御部である。制御の種類としては、例えば、レンズ制御モジュール206を介して前述のレンズの焦点距離及びズームの制御を行うことで、撮像素子201への入射光を制御するレンズ制御がある。また、入力ボタン208及び姿勢検出センサ207等からの外部入力に対する入力制御、あるいは、圧縮伸張回路212の動作制御等がある。CPU204は、これらの制御アルゴリズムをソフトウェア等で実行する。   The CPU 204 is a control unit that controls the entire video camera 100. As the type of control, for example, there is lens control for controlling the incident light to the image sensor 201 by controlling the focal length and zoom of the lens via the lens control module 206. Further, there are input control for external input from the input button 208 and the posture detection sensor 207, operation control of the compression / decompression circuit 212, and the like. The CPU 204 executes these control algorithms with software or the like.

クロック205は、ビデオカメラ100内で動作するCPU204等の回路に処理動作の基準となるクロック信号を出力する。なお、クロック205は、利用する集積回路又は扱うデータによって、単一又は複数のクロック信号を出力することも可能である。また、クロック205は、1つの発振子のクロック信号を任意の倍数に乗ずることで、単一又は複数のクロック信号を出力してもよい。   The clock 205 outputs a clock signal serving as a reference for processing operation to a circuit such as the CPU 204 operating in the video camera 100. Note that the clock 205 can output a single or a plurality of clock signals depending on an integrated circuit to be used or data to be handled. The clock 205 may output a single clock signal or a plurality of clock signals by multiplying a clock signal of one oscillator by an arbitrary multiple.

レンズ制御モジュール206は、レンズ群200の状態を検出し、CPU204からの制御に基づいて、レンズ群200に含まれる1つ以上のレンズを動作させる。レンズ制御モジュール206は、レンズ制御用モータ206aとレンズ位置センサ206bとを備える。   The lens control module 206 detects the state of the lens group 200 and operates one or more lenses included in the lens group 200 based on the control from the CPU 204. The lens control module 206 includes a lens control motor 206a and a lens position sensor 206b.

レンズ位置センサ206bは、レンズ群200を構成する複数のレンズ間の距離又は位置関係等を検出する。レンズ位置センサ206bが検出した複数のレンズ間の位置情報等は、CPU204に送信される。CPU204は、レンズ位置センサ206bからの情報、及び撮像素子201等の他の構成要素からの情報に基づいて、複数のレンズを適正に配置させるための信号をレンズ制御用モータ206aに送信する。   The lens position sensor 206b detects a distance or a positional relationship between a plurality of lenses constituting the lens group 200. Position information between the plurality of lenses detected by the lens position sensor 206b is transmitted to the CPU 204. The CPU 204 transmits a signal for properly arranging a plurality of lenses to the lens control motor 206a based on information from the lens position sensor 206b and information from other components such as the image sensor 201.

レンズ制御用モータ206aは、CPU204から送信された制御信号に基づいてレンズを動作させるモータを駆動する。この結果、レンズ群200の複数のレンズ間の距離が変更され、レンズの焦点距離、及びズームを調整することができる。これにより、レンズ制御モジュール206は、レンズ群200を通過した入射光を撮像素子201上に集光させ、正確に被写体像を結ぶことができる。   The lens control motor 206 a drives a motor that operates the lens based on the control signal transmitted from the CPU 204. As a result, the distance between the plurality of lenses of the lens group 200 is changed, and the focal length and zoom of the lens can be adjusted. As a result, the lens control module 206 can collect the incident light that has passed through the lens group 200 on the image sensor 201 and form a subject image accurately.

なお、CPU204は、上記以外にも、ビデオカメラ100で動画撮影時の手振れをレンズ位置センサ206b又は後述する姿勢検出センサ207等で検出し、レンズ制御用モータ206aを駆動する制御を行ってもよい。これにより、CPU204は、手振れ防止の動作を、レンズ制御モジュール206を介して実行させることも可能である。   In addition to the above, the CPU 204 may detect a camera shake at the time of moving image shooting with the video camera 100 with a lens position sensor 206b or a posture detection sensor 207, which will be described later, and drive the lens control motor 206a. . Thereby, the CPU 204 can also execute an operation for preventing camera shake via the lens control module 206.

姿勢検出センサ207は、ビデオカメラ100の姿勢の状態を検出する。姿勢検出センサ207は、加速度センサ207a、角速度センサ207b、及び仰角・俯角センサ207c等を備える。これらの各種センサにより、ビデオカメラ100がどのような状態で撮影を行っているかを、CPU204は検出する。なお、これらのセンサは、好ましくはビデオカメラ100の姿勢を詳細に検出するために、3軸方向(垂直方向(z軸)、水平方向(x軸、y軸)等)についてそれぞれ検出できることが望ましい。   The posture detection sensor 207 detects the posture state of the video camera 100. The posture detection sensor 207 includes an acceleration sensor 207a, an angular velocity sensor 207b, and an elevation angle / decline angle sensor 207c. With these various sensors, the CPU 204 detects in what state the video camera 100 is shooting. Note that these sensors are preferably capable of detecting in three axial directions (vertical direction (z axis), horizontal direction (x axis, y axis, etc.)) in order to detect the attitude of the video camera 100 in detail. .

入力ボタン208は、ビデオカメラ100の撮影者が使用する入力インタフェースの1つである。これにより、撮影者が撮影の開始及び終了、並びに、ビデオ撮影中の動画にマーキングを挿入する等、各種要求をビデオカメラ100に伝えることが可能となる。また、入力ボタン208は、ビデオカメラ100で撮影した動画像又は静止画像を再生する際に、動画像又は静止画像を再生するための情報を入力し、あるいは、動画像又は静止画像を選択することが可能である。   The input button 208 is one of input interfaces used by the photographer of the video camera 100. Accordingly, the photographer can transmit various requests to the video camera 100, such as the start and end of shooting, and the insertion of a marking into a moving image during video shooting. The input button 208 is used to input information for reproducing a moving image or a still image or to select a moving image or a still image when reproducing a moving image or a still image captured by the video camera 100. Is possible.

ディスプレイ209は、ビデオカメラ100が撮影した動画を見るため、及び、撮影ファインダー等として利用するために設けられた表示部である。これにより、撮影者は、撮影した動画をその場で確認することが可能となる。また、上記以外にも、ディスプレイ209は、ビデオカメラ100の各種情報を表示することで、撮影情報等、及び機器情報等のより詳細な情報を撮影者に伝えることが可能となる。   The display 209 is a display unit provided to view a moving image shot by the video camera 100 and to be used as a shooting finder or the like. As a result, the photographer can check the captured video on the spot. In addition to the above, the display 209 displays various information of the video camera 100, so that more detailed information such as shooting information and device information can be transmitted to the photographer.

スピーカー210は、撮影した動画を再生する際の音声出力に使用される。これ以外にも、スピーカー210は、ビデオカメラ100が出力する警告を音で撮影者へ伝えることも可能である。   The speaker 210 is used for audio output when playing back a captured moving image. In addition, the speaker 210 can transmit a warning output from the video camera 100 to the photographer with sound.

出力I/F211は、ビデオカメラ100が撮影した動画を外部機器へ出力するために用いられる。具体的には、出力I/F211は、外部機器とビデオカメラ100とをケーブルで接続する場合のケーブルインタフェースである。あるいは、出力I/F211は、撮影した動画をメモリカードに記録する場合のメモリカードインタフェース等などである。これにより、撮影した動画をビデオカメラ100に備え付けのディスプレイ209よりも大きな外部のディスプレイを用いて視聴等することが可能となる。   The output I / F 211 is used to output a moving image shot by the video camera 100 to an external device. Specifically, the output I / F 211 is a cable interface when the external device and the video camera 100 are connected by a cable. Alternatively, the output I / F 211 is a memory card interface or the like for recording a captured moving image on a memory card. As a result, the captured moving image can be viewed using an external display larger than the display 209 provided in the video camera 100.

圧縮伸張回路212は、撮影した動画又は音声を所定のデジタルデータ形式に変更する符号化処理を行う回路である。具体的には、撮影した動画及び音声データに、MPEG(Moving Picture Experts Group)又はH.264等の規格に従って符号化処理を行い、所定のデジタルデータ方式に変換(圧縮)する。また、圧縮伸張回路212は、撮影したデータの再生時には、所定のデジタルデータ形式の動画データを伸張してディスプレイ209等に表示する復号処理を行う回路である。   The compression / decompression circuit 212 is a circuit that performs an encoding process for changing a captured moving image or sound into a predetermined digital data format. Specifically, moving picture experts group (MPEG) or H.264 is used for captured moving image and audio data. An encoding process is performed in accordance with a standard such as H.264, and converted (compressed) into a predetermined digital data system. The compression / decompression circuit 212 is a circuit that performs a decoding process of decompressing moving image data in a predetermined digital data format and displaying it on the display 209 or the like when reproducing the captured data.

ROM213は、CPU204が処理するソフトウェアのプログラム、及び、プログラムを動作させるための各種データを記録するメモリの一例である。   The ROM 213 is an example of a memory that records software programs processed by the CPU 204 and various data for operating the programs.

RAM214は、CPU204が処理するソフトウェアのプログラム実行時に使用するメモリ領域等として使用されるメモリの一例である。また、CPU204は、圧縮伸張回路212と共用でRAM214を使用してもよい。   The RAM 214 is an example of a memory used as a memory area or the like used when executing a software program processed by the CPU 204. Further, the CPU 204 may use the RAM 214 in common with the compression / decompression circuit 212.

HDD215は、圧縮伸張回路212が符号化した動画像データ、及びその他撮影した静止画像データを蓄積等する目的で利用される記録媒体の一例である。なお、HDD215は、動画像データ及び静止画像データ以外にも、後述する再生情報のデータ等を記録することも可能である。   The HDD 215 is an example of a recording medium used for the purpose of storing moving image data encoded by the compression / decompression circuit 212 and other captured still image data. In addition to the moving image data and the still image data, the HDD 215 can also record reproduction information data, which will be described later.

音声ADC216は、マイクロフォン217が外部から取得した音声のアナログの電気信号をデジタルの電気信号に変換する。   The audio ADC 216 converts an audio analog electric signal acquired from the outside by the microphone 217 into a digital electric signal.

マイクロフォン217は、ビデオカメラ100外部の音声をアナログの電気信号に変換して出力する。   The microphone 217 converts audio outside the video camera 100 into an analog electrical signal and outputs the analog electrical signal.

上記の通り、図2を用いてビデオカメラ100のハードウェア構成について説明したが、本発明では、上記の構成に限定されるものではない。例えば、映像ADC202及び映像信号変換回路203等を単一の集積回路として実現することも可能である。あるいは、CPU204が実行するソフトウェアプログラムの一部を別途、FPGA(Field Programmable Gate Array)を用いてハードウェアとして実現することも可能である。   As described above, the hardware configuration of the video camera 100 has been described with reference to FIG. 2, but the present invention is not limited to the above configuration. For example, the video ADC 202 and the video signal conversion circuit 203 can be realized as a single integrated circuit. Alternatively, a part of the software program executed by the CPU 204 can be separately realized as hardware by using an FPGA (Field Programmable Gate Array).

次に、ビデオカメラ100の機能構成について図3A及び図3Bを用いて説明する。図3Aは、ビデオカメラ100の機能構成の一例を示すブロック図である。   Next, the functional configuration of the video camera 100 will be described with reference to FIGS. 3A and 3B. FIG. 3A is a block diagram illustrating an example of a functional configuration of the video camera 100.

図3Aに示すように、ビデオカメラ100は、撮像部110と、属性情報生成部120と、記録部130と、受付部140と、再生部150とを備える。   As illustrated in FIG. 3A, the video camera 100 includes an imaging unit 110, an attribute information generation unit 120, a recording unit 130, a reception unit 140, and a playback unit 150.

撮像部110は、動画像を撮影するとともに、当該動画像の撮影中に静止画像を撮影する。撮像部110は、図2のレンズ群200と、撮像素子201と、映像ADC202と、映像信号変換回路203となどに相当する。   The imaging unit 110 captures a moving image and also captures a still image while capturing the moving image. The imaging unit 110 corresponds to the lens group 200, the imaging element 201, the video ADC 202, the video signal conversion circuit 203, and the like in FIG.

属性情報生成部120は、撮像部110によって撮影された動画像及び静止画像の少なくとも一方の撮影状況を示す1種類以上の属性情報を生成する。属性情報生成部120は、図2のCPU204でソフトウェア処理されるアルゴリズムに相当する。   The attribute information generation unit 120 generates one or more types of attribute information indicating a shooting situation of at least one of a moving image and a still image shot by the imaging unit 110. The attribute information generation unit 120 corresponds to an algorithm that is software processed by the CPU 204 of FIG.

記録部130は、撮像部110によって撮影された動画像及び静止画像と、属性情報生成部120によって生成された属性情報とを対応付けてメモリ160に記録する。具体的には、記録部130は、属性情報生成部120によって生成された静止画像の撮影状況を示す属性情報と、当該静止画像とを対応付けて記録する。   The recording unit 130 records the moving image and the still image captured by the imaging unit 110 in association with the attribute information generated by the attribute information generation unit 120 in the memory 160. Specifically, the recording unit 130 records attribute information indicating the shooting state of the still image generated by the attribute information generating unit 120 and the still image in association with each other.

また、記録部130は、属性情報生成部120によって生成された動画像の撮影状況を示す属性情報と、当該動画像とを対応付けて記録する。あるいは、記録部130は、属性情報生成部120によって生成された動画像の撮影状況を示す属性情報と、当該動画像に含まれる静止画像とを対応付けて記録してもよい。記録部130は、図2のCPU204でソフトウェア処理されるアルゴリズムに相当する。   Further, the recording unit 130 records attribute information indicating the shooting state of the moving image generated by the attribute information generating unit 120 and the moving image in association with each other. Alternatively, the recording unit 130 may record attribute information indicating the shooting state of the moving image generated by the attribute information generating unit 120 and a still image included in the moving image in association with each other. The recording unit 130 corresponds to an algorithm that is software-processed by the CPU 204 in FIG.

なお、メモリ160は、図3Aに示すように、ビデオカメラ100が備えていなくてもよい。ビデオカメラ100がメモリ160を備えている場合は、メモリ160は、図2のRAM214及びHDD215に相当する。   Note that the memory 160 may not be included in the video camera 100 as shown in FIG. 3A. When the video camera 100 includes the memory 160, the memory 160 corresponds to the RAM 214 and the HDD 215 in FIG.

受付部140は、属性情報の種類を選択するための指示を受け付ける。受付部140は、図2の入力ボタン208に相当する。   The accepting unit 140 accepts an instruction for selecting the type of attribute information. The accepting unit 140 corresponds to the input button 208 in FIG.

再生部150は、受付部140によって受け付けられた指示に対応する種類の属性情報に対応付けられた静止画像をメモリ160から読み出して再生する。また、再生部150は、受付部140によって受け付けられた指示に対応する種類の属性情報に対応付けられた動画像に含まれる静止画像をメモリ160から読み出して再生してもよい。再生部150は、図2に示すCPU204でソフトウェア処理されるアルゴリズム、圧縮伸張回路212、ディスプレイ209、スピーカー210及び出力I/F211に相当する。   The reproduction unit 150 reads out and reproduces a still image associated with the type of attribute information corresponding to the instruction received by the reception unit 140 from the memory 160. Further, the reproduction unit 150 may read out and reproduce the still image included in the moving image associated with the type of attribute information corresponding to the instruction received by the reception unit 140 from the memory 160. The playback unit 150 corresponds to an algorithm processed by the CPU 204 shown in FIG. 2, a compression / decompression circuit 212, a display 209, a speaker 210, and an output I / F 211.

以下では、ビデオカメラ100のより詳細な機能構成について図3Bを用いて説明する。図3Bは、ビデオカメラ100の詳細な機能構成の一例を示すブロック図である。   Hereinafter, a more detailed functional configuration of the video camera 100 will be described with reference to FIG. 3B. FIG. 3B is a block diagram illustrating an example of a detailed functional configuration of the video camera 100.

ビデオカメラ100は、機能的な構成要素として、レンズ部300と、撮像部301と、映像AD変換部302と、信号処理部303と、映像信号圧縮部304と、撮像制御部305と、映像解析部306と、レンズ制御部307と、姿勢検出部308と、属性情報生成部309と、シーン解析部310と、再生情報生成部311と、音声解析部312と、音声信号圧縮部313と、多重化部314と、記憶部315と、表示部318と、音声AD変換部321と、マイク部322と、外部入力部323と、静止画像解析部324と、静止画像信号伸張部325と、静止画像抽出部326とを備える。   The video camera 100 includes, as functional components, a lens unit 300, an imaging unit 301, a video AD conversion unit 302, a signal processing unit 303, a video signal compression unit 304, an imaging control unit 305, and video analysis. Unit 306, lens control unit 307, posture detection unit 308, attribute information generation unit 309, scene analysis unit 310, reproduction information generation unit 311, audio analysis unit 312, audio signal compression unit 313, and multiplexing Conversion unit 314, storage unit 315, display unit 318, audio AD conversion unit 321, microphone unit 322, external input unit 323, still image analysis unit 324, still image signal expansion unit 325, still image And an extraction unit 326.

レンズ部300は、被写体から入射した光の焦点距離、ズーム倍率(動画の拡大倍率)を調整する。この調整は、レンズ制御部307からの制御により行われる。レンズ部300は、図2のレンズ群200に相当する。   The lens unit 300 adjusts the focal length of the light incident from the subject and the zoom magnification (magnification magnification of the moving image). This adjustment is performed under the control of the lens control unit 307. The lens unit 300 corresponds to the lens group 200 in FIG.

撮像部301は、レンズ部300を透過した光を電気信号に変換する。撮像部301は、撮像制御部305の制御により、撮像素子上の任意の範囲のデータを動画データとして出力する。また、撮像部301は、動画データ以外にも、3原色点の色空間情報、白色の座標、3原色のうち少なくとも2つのゲイン情報、色温度情報、Δuv(デルタuv)、及び、3原色又は輝度信号のガンマ情報等の情報も出力することが可能である。これらの情報は、撮像制御部305を介して属性情報生成部309へ出力する。撮像部301は、図2の撮像素子201に相当する。   The imaging unit 301 converts the light transmitted through the lens unit 300 into an electrical signal. The imaging unit 301 outputs data in an arbitrary range on the imaging element as moving image data under the control of the imaging control unit 305. In addition to the moving image data, the imaging unit 301 also includes color space information of three primary colors, white coordinates, gain information of at least two of the three primary colors, color temperature information, Δuv (delta uv), and three primary colors or It is also possible to output information such as gamma information of the luminance signal. These pieces of information are output to the attribute information generation unit 309 via the imaging control unit 305. The imaging unit 301 corresponds to the imaging element 201 in FIG.

映像AD変換部302は、撮像部301からの動画データを示す電気信号を、所定の処理内容に従ってアナログ・デジタル変換を行う。映像AD変換部302は、図2の映像ADC202に相当する。   The video AD conversion unit 302 performs analog / digital conversion on the electrical signal indicating the moving image data from the imaging unit 301 according to predetermined processing content. The video AD conversion unit 302 corresponds to the video ADC 202 in FIG.

信号処理部303は、映像AD変換部302が出力したデジタル信号を所定のフォーマットの動画信号に変換する。例えば、所定のフォーマットの動画信号は、NTSCで規定された水平線の数、走査線の数、フレームレートに準拠したフォーマットの動画信号である。信号処理部303は、図2の映像信号変換回路203に相当する。   The signal processing unit 303 converts the digital signal output from the video AD conversion unit 302 into a moving image signal having a predetermined format. For example, the moving image signal in a predetermined format is a moving image signal in a format conforming to the number of horizontal lines, the number of scanning lines, and the frame rate specified by NTSC. The signal processing unit 303 corresponds to the video signal conversion circuit 203 in FIG.

映像信号圧縮部304は、信号処理部303が出力したデジタル動画信号に所定の符号化処理を行い、データ量の圧縮等を実現する。具体例としては、MPEG2、MPEG4、H.264の符号化方式がある。映像信号圧縮部304は、図2の圧縮伸張回路212の圧縮機能に相当する。   The video signal compression unit 304 performs a predetermined encoding process on the digital moving image signal output from the signal processing unit 303, thereby realizing data compression and the like. Specific examples include MPEG2, MPEG4, H.264. There are H.264 encoding schemes. The video signal compression unit 304 corresponds to the compression function of the compression / decompression circuit 212 of FIG.

撮像制御部305は、撮像部301の動作を制御する。具体的には、撮像制御部305は、撮像部301に対して、撮影時の露出量、撮影速度、及び感度等を制御する。また、これらの制御情報は、属性情報生成部309へも併せて出力される。撮像制御部305は、図2のCPU204でソフトウェア処理される制御アルゴリズムの1つである。   The imaging control unit 305 controls the operation of the imaging unit 301. Specifically, the imaging control unit 305 controls the imaging unit 301 such as an exposure amount at the time of shooting, a shooting speed, and sensitivity. These control information are also output to the attribute information generation unit 309. The imaging control unit 305 is one of control algorithms that are software processed by the CPU 204 of FIG.

映像解析部306は、撮影された動画信号から動画の特徴を抽出する。本実施の形態では、映像解析部306は、色情報(例えば、動画に含まれる色の分布を検出する)、及びホワイトバランス等の情報を抽出する。また、映像解析部306は、動画に人物の顔が含まれている場合には、顔検出を行う等、動画信号を解析することで、動画の特徴を抽出する。なお、色分布の検出は、動画信号を形成するデータに含まれる色情報を確認することで実現可能である。また、顔検出については、パターンマッチング等を用いることにより実現可能である。映像解析部306は、図2のCPU204でソフトウェア処理されるアルゴリズムの1つである。   The video analysis unit 306 extracts the feature of the moving image from the captured moving image signal. In the present embodiment, the video analysis unit 306 extracts color information (for example, detection of a color distribution included in a moving image) and information such as white balance. In addition, when the moving image includes a human face, the video analysis unit 306 extracts the feature of the moving image by analyzing the moving image signal such as performing face detection. The color distribution can be detected by confirming color information included in the data forming the moving image signal. Further, face detection can be realized by using pattern matching or the like. The video analysis unit 306 is one of algorithms processed by the CPU 204 in FIG.

レンズ制御部307は、レンズ部300の動作を制御する。レンズ制御部307には、ズーム制御部307a、フォーカス制御部307b、及び手振れ補正制御部307c等を有する。レンズ制御部307は、レンズ部300を制御するとともに、レンズ部300の制御に関する制御情報を属性情報生成部309へ出力する。レンズ制御部307は、図2のレンズ制御モジュール206に相当する。   The lens control unit 307 controls the operation of the lens unit 300. The lens control unit 307 includes a zoom control unit 307a, a focus control unit 307b, a camera shake correction control unit 307c, and the like. The lens control unit 307 controls the lens unit 300 and outputs control information related to the control of the lens unit 300 to the attribute information generation unit 309. The lens control unit 307 corresponds to the lens control module 206 in FIG.

姿勢検出部308は、加速度センサ308a、角速度センサ308b、及び仰角・俯角センサ308cを備え、ビデオカメラ100の加速度、角速度、仰角・俯角等を検出する。検出した情報は、ビデオカメラ100の姿勢及びその変化状況を検出する目的等に用いられる情報である。なお、加速度及び角速度については、垂直(z軸)及び水平(x軸及びy軸の2方向)の3方向について検出できることが望ましい。姿勢検出部308は、図2の姿勢検出センサ207に相当する。   The posture detection unit 308 includes an acceleration sensor 308a, an angular velocity sensor 308b, and an elevation angle / decline angle sensor 308c, and detects the acceleration, angular velocity, elevation angle, depression angle, and the like of the video camera 100. The detected information is information used for the purpose of detecting the attitude of the video camera 100 and its change state. Note that it is desirable that acceleration and angular velocity can be detected in three directions, vertical (z-axis) and horizontal (two directions of x-axis and y-axis). The posture detection unit 308 corresponds to the posture detection sensor 207 in FIG.

マイク部322は、周囲の音を電気信号に変換して音声信号として出力する。マイク部322は、図2のマイクロフォン217に相当する。   The microphone unit 322 converts ambient sounds into electrical signals and outputs them as audio signals. The microphone unit 322 corresponds to the microphone 217 in FIG.

音声AD変換部321は、マイク部322が出力したアナログの音声信号をデジタル形式の音声データに変換する。音声AD変換部321は、図2の音声ADC216に相当する。   The audio AD conversion unit 321 converts the analog audio signal output from the microphone unit 322 into digital audio data. The audio AD conversion unit 321 corresponds to the audio ADC 216 in FIG.

音声解析部312は、音声データから特徴のある音を抽出する。ここで、特徴のある音とは、例えば、撮影者の声、特定の単語の発音、歓声、銃声等である。これらの音の識別は、これらの音(音声)が持つ特有の周波数を予め登録しておき、登録しておいた周波数との比較結果で判別するなどの方法を用いることで行われる。これにより、音声解析部312は、特徴のある音を抽出することができる。また、音声解析部312は、マイク部322が捕捉した音の入力レベル等の特徴も検出する。音声解析部312は、図2のCPU204でソフトウェア処理されるアルゴリズムの1つである。   The voice analysis unit 312 extracts a characteristic sound from the voice data. Here, the characteristic sounds are, for example, a photographer's voice, pronunciation of a specific word, cheers, gunshots, and the like. The identification of these sounds is performed by using a method in which specific frequencies of these sounds (speech) are registered in advance and discriminated based on a comparison result with the registered frequencies. Thereby, the voice analysis unit 312 can extract a characteristic sound. The voice analysis unit 312 also detects characteristics such as the input level of the sound captured by the microphone unit 322. The voice analysis unit 312 is one of the algorithms processed by the CPU 204 in FIG.

音声信号圧縮部313は、音声AD変換部321が出力した音声データを所定の符号化アルゴリズムで変換する。音声の符号化アルゴリズムには、MP3(MPEG Audio Layer−3)及びAAC(Advanced Audio Coding)等の方法がある。音声信号圧縮部313は、図2の圧縮伸張回路212での圧縮機能の1つである。   The audio signal compression unit 313 converts the audio data output from the audio AD conversion unit 321 using a predetermined encoding algorithm. Examples of audio encoding algorithms include MP3 (MPEG Audio Layer-3) and AAC (Advanced Audio Coding). The audio signal compression unit 313 is one of the compression functions in the compression / decompression circuit 212 of FIG.

外部入力部323は、動画撮影時に外部から受信した各種の情報、例えば、撮影者によるボタン入力、及び、外部から通信経由で受信した撮影インデックス情報等を出力するインタフェースである。なお、撮影インデックス情報とは、例えば、映画撮影時における、撮影場面を識別する番号、及び、撮影回数を示す番号等のそれぞれの撮影を識別するために用いられる識別番号などである。   The external input unit 323 is an interface that outputs various types of information received from the outside at the time of moving image shooting, for example, button input by a photographer, shooting index information received from the outside via communication, and the like. Note that the shooting index information is, for example, an identification number used for identifying each shooting such as a number for identifying a shooting scene and a number indicating the number of shooting times during movie shooting.

また、外部入力部323は、動画像又は静止画像を再生する際に、動画像又は静止画像を選択するための情報の入力や、動画像又は静止画像を選択するためのボタン入力等を受け付けるインタフェースでもある。外部入力部323は、図2の入力ボタン208等に相当する。   The external input unit 323 is an interface that accepts input of information for selecting a moving image or still image, button input for selecting a moving image or still image, and the like when reproducing a moving image or still image. But there is. The external input unit 323 corresponds to the input button 208 in FIG.

属性情報生成部309は、動画像又は静止画像撮影時の撮影情報、外部入力情報及びその他の情報を属性情報(メタデータ)として生成する。属性情報の一例として、以下のような情報が考えられる。   The attribute information generation unit 309 generates shooting information at the time of shooting a moving image or a still image, external input information, and other information as attribute information (metadata). The following information can be considered as an example of attribute information.

・ ホワイトバランス情報
・ 露出情報
・ 焦点距離情報
・ 撮影速度情報
・ ズーム倍率情報
・ 感度情報
・ 3原色点の色空間情報
・ 3原色のうち少なくとも2つのゲイン情報
・ 色温度情報
・ 色分布情報
・ 顔検出情報、顔認識情報
・ カメラ姿勢情報(加速度、角速度、仰角・俯角等)
・ 撮影時刻情報(撮影開始時刻、終了時刻)
・ 撮影インデックス情報
・ ユーザー入力情報
・ フレームレート情報
・ サンプリング周波数情報
-White balance information-Exposure information-Focal length information-Shooting speed information-Zoom magnification information-Sensitivity information-Color space information for the three primary colors-Gain information for at least two of the three primary colors-Color temperature information-Color distribution information-Face Detection information, face recognition information ・ Camera posture information (acceleration, angular velocity, elevation angle, depression angle, etc.)
・ Shooting time information (shooting start time, end time)
・ Shooting index information ・ User input information ・ Frame rate information ・ Sampling frequency information

なお、属性情報には、上記の撮影時の各種情報から算出される動画シーンを特徴づける新たな情報(撮影時の各種情報等を組み合わせ、組み合わせた情報を分析等することで算出される情報等)も含まれる。例えば、属性情報生成部309は、カメラ姿勢(加速度、角速度、仰角・俯角等)の情報から、ビデオカメラ100の撮影時におけるパン、ティルト等のカメラワークを算出することが可能となる。また、属性情報生成部309は、焦点距離、及びズーム倍率の情報をそのまま、属性情報として出力することが可能である。属性情報生成部309は、撮影時の各種情報からシーン評価に有用な情報を抽出、及び算出等して属性情報を生成する。   The attribute information includes new information characterizing the moving image scene calculated from the various information at the time of shooting (information calculated by combining various information at the time of shooting and analyzing the combined information, etc. ) Is also included. For example, the attribute information generation unit 309 can calculate camera work such as panning and tilting at the time of shooting by the video camera 100 from information on the camera posture (acceleration, angular velocity, elevation angle, depression angle, etc.). Further, the attribute information generation unit 309 can output the focal length and zoom magnification information as attribute information as it is. The attribute information generation unit 309 generates attribute information by extracting and calculating information useful for scene evaluation from various types of information at the time of shooting.

シーン解析部310は、属性情報生成部309が生成した属性情報に基づいて、動画を構成する複数のシーンのそれぞれを評価する。つまり、シーン解析部310は、シーン毎に、該当する1つ以上の属性情報を割り当て、割り当てた1つ以上の属性情報に基づいて対象シーンを評価する。そして、シーン解析部310は、評価結果に基づいて再生すべきシーンを選択する。シーンの評価及び選択方法等について後に詳細に説明する。   The scene analysis unit 310 evaluates each of a plurality of scenes constituting the moving image based on the attribute information generated by the attribute information generation unit 309. That is, the scene analysis unit 310 assigns one or more corresponding attribute information for each scene, and evaluates the target scene based on the one or more assigned attribute information. Then, the scene analysis unit 310 selects a scene to be reproduced based on the evaluation result. The scene evaluation and selection method will be described in detail later.

再生情報生成部311は、シーン解析部310が選択した再生すべきシーンを示す再生情報を生成する。再生情報の生成についても後述する。   The reproduction information generation unit 311 generates reproduction information indicating the scene to be reproduced selected by the scene analysis unit 310. The generation of reproduction information will also be described later.

属性情報生成部309、シーン解析部310、及び再生情報生成部311は、図2のCPU204においてソフトウェアとして処理される。   The attribute information generation unit 309, the scene analysis unit 310, and the reproduction information generation unit 311 are processed as software in the CPU 204 in FIG.

多重化部314は、映像信号圧縮部304からの符号化動画データ、音声信号圧縮部313からの符号化音声データ、及び、再生情報生成部311からの再生情報を多重化して出力する。多重化部314は、図2のCPU204で実行されるソフトウェアであってもよく、あるいは、圧縮伸張回路212で、処理されてもよい。   The multiplexing unit 314 multiplexes and outputs the encoded moving image data from the video signal compression unit 304, the encoded audio data from the audio signal compression unit 313, and the reproduction information from the reproduction information generation unit 311. The multiplexing unit 314 may be software executed by the CPU 204 in FIG. 2, or may be processed by the compression / decompression circuit 212.

記憶部315は、多重化部314から出力された符号化動画データ、符号化音声データ及び再生情報が多重化されたデータ、並びに静止画像のデータを一時的に保持又は長期的に保持する。記憶部315は、図2のHDD215又はRAM214等に相当する。   The storage unit 315 temporarily or long-term retains the encoded moving image data, the encoded audio data, the data multiplexed with the reproduction information, and the still image data output from the multiplexing unit 314. The storage unit 315 corresponds to the HDD 215 or the RAM 214 in FIG.

静止画像解析部324は、属性情報生成部309が生成等した情報又はシーン解析部310が解析したシーン情報に基づいて、撮影した動画から好適な画面を静止画像として抽出する。具体的な抽出方法等については後述する。抽出した静止画像は、必要に応じて画像圧縮等の処理を行い、記憶部315に記録される。静止画像解析部324は、図2のCPU204でソフトウェア処理されるアルゴリズムの1つである。   The still image analysis unit 324 extracts a suitable screen from the captured moving image as a still image based on the information generated by the attribute information generation unit 309 or the scene information analyzed by the scene analysis unit 310. A specific extraction method will be described later. The extracted still image is subjected to processing such as image compression as necessary, and is recorded in the storage unit 315. The still image analysis unit 324 is one of algorithms processed by the CPU 204 in FIG.

静止画像信号伸張部325は、記憶部315に記録されている静止画像のデータを読み出し、読み出した画像を表示部318に表示する。なお、記憶部315に記録されている静止画像は、必ずしも画像圧縮等の処理を施されてなくてもよい。記憶部315に記録されている静止画像が圧縮されている場合、静止画像信号伸張部325は、静止画像のデータを読み出し、読み出した静止画像のデータを伸張して表示部318に出力する。静止画像信号伸張部325は、図2の圧縮伸張回路212の機能の1つである。   The still image signal expansion unit 325 reads out still image data recorded in the storage unit 315 and displays the read image on the display unit 318. Note that the still image recorded in the storage unit 315 is not necessarily subjected to processing such as image compression. When the still image recorded in the storage unit 315 is compressed, the still image signal decompressing unit 325 reads the still image data, decompresses the read still image data, and outputs the decompressed data to the display unit 318. The still image signal expansion unit 325 is one of the functions of the compression / expansion circuit 212 of FIG.

静止画像抽出部326は、静止画像の再生時に、外部入力部323から出力された情報に基づいて再生する静止画像を選択し、選択された静止画像を記憶部315から読み出して静止画像信号伸張部325へ出力する。外部入力部323から入力された情報とは、1つ又は複数の静止画像を特定する情報であり、静止画像抽出部326は、外部入力部323から入力された情報に基づいて、該当する静止画像を記憶部315から読み出して表示部318に出力する。静止画像抽出部326は、図2のCPU204でソフトウェア処理されるアルゴリズムの1つである。   The still image extraction unit 326 selects a still image to be reproduced based on information output from the external input unit 323 during reproduction of the still image, reads the selected still image from the storage unit 315, and extracts a still image signal expansion unit. To 325. The information input from the external input unit 323 is information for specifying one or a plurality of still images, and the still image extraction unit 326 is based on the information input from the external input unit 323 and corresponds to the still image. Is read from the storage unit 315 and output to the display unit 318. The still image extraction unit 326 is one of algorithms processed by the CPU 204 in FIG.

表示部318は、静止画像及び動画像を表示する。表示部318は、図2のディスプレイ209に相当する。   The display unit 318 displays still images and moving images. The display unit 318 corresponds to the display 209 in FIG.

上記の構成により、ビデオカメラ100で動画撮影中に撮影された静止画像は、ユーザーが入力した情報に応じて好適な静止画像を選択して再生することが可能となる。   With the above configuration, it is possible to select and reproduce a still image captured during moving image shooting by the video camera 100 according to information input by the user.

なお、図3Aに示す撮像部110は、例えば、図3Bに示すレンズ部300、撮像部301、映像AD変換部302、及び信号処理部303に相当する。属性情報生成部120は、例えば、属性情報生成部309、シーン解析部310及び静止画像解析部324の一部に相当する。また、記録部130は、例えば、静止画像解析部324の一部に相当する。受付部140は、例えば、外部入力部323に相当する。再生部150は、例えば、静止画像抽出部326及び静止画像信号伸張部325に相当する。なお、以上の対応関係は、これに限定するものではない。   Note that the imaging unit 110 illustrated in FIG. 3A corresponds to, for example, the lens unit 300, the imaging unit 301, the video AD conversion unit 302, and the signal processing unit 303 illustrated in FIG. 3B. The attribute information generation unit 120 corresponds to, for example, a part of the attribute information generation unit 309, the scene analysis unit 310, and the still image analysis unit 324. The recording unit 130 corresponds to a part of the still image analysis unit 324, for example. The reception unit 140 corresponds to the external input unit 323, for example. The reproduction unit 150 corresponds to, for example, the still image extraction unit 326 and the still image signal expansion unit 325. Note that the above correspondence is not limited to this.

また、図2のハードウェア構成図、並びに、図3A及び図3Bの機能ブロック図は、本発明に係る撮影装置を実施するための一態様であり、これに限定されるものではない。例えば、図3Bにおいて、シーン解析部310及び再生情報生成部311は、記憶部315にデータを記録する前に処理されているが、記憶部315に圧縮された動画信号と、圧縮された音声信号と、撮影時の属性情報とを多重化して一度記録し、記録したデータを記憶部315から読み出した後にシーン解析、及び再生情報の生成等を行うものであってもよい。   Also, the hardware configuration diagram of FIG. 2 and the functional block diagrams of FIG. 3A and FIG. 3B are one mode for implementing the photographing apparatus according to the present invention, and the present invention is not limited to this. For example, in FIG. 3B, the scene analysis unit 310 and the reproduction information generation unit 311 are processed before recording data in the storage unit 315, but are compressed into a moving image signal and a compressed audio signal in the storage unit 315. And attribute information at the time of shooting may be multiplexed and recorded once, and the recorded data may be read from the storage unit 315 and then subjected to scene analysis, generation of reproduction information, and the like.

また、図2のハードウェア構成と図3A及び図3Bの機能構成との対応関係は、上記記載に限定するものではない。上記の説明は、本発明に係る撮影装置を実施するための一形態として示すものであって、機能構成とハードウェア構成とが異なる関係であってもよい。   The correspondence relationship between the hardware configuration in FIG. 2 and the functional configuration in FIGS. 3A and 3B is not limited to the above description. The above description is shown as one form for implementing the imaging device according to the present invention, and the functional configuration and the hardware configuration may be different.

<撮影したシーンの解析、及び再生情報の生成>
続いて、撮影した動画像のシーンの解析、及び、再生情報の生成処理について説明する。
<Analysis of shot scenes and generation of playback information>
Next, the scene analysis of the captured moving image and the reproduction information generation process will be described.

図4は、ビデオカメラ100が撮影する動画の構成を示す図である。撮影者が撮影開始を指示し、撮影の終了又は撮影の一時停止を指示するまでに撮影された動画の単位を「クリップ(Clip)」とする。撮影者が撮影の開始、撮影の終了又は一時停止を何度も繰り返すと、クリップが複数生成される。この場合、図4に示すように、各クリップには、クリップ番号(Clip#1〜#n)が付与される。   FIG. 4 is a diagram illustrating a configuration of a moving image captured by the video camera 100. The unit of the moving image that is taken until the photographer instructs to start shooting and instructs the end of shooting or pause of shooting is referred to as “clip”. When the photographer repeats the start of shooting, the end of shooting, or the pause repeatedly, a plurality of clips are generated. In this case, as shown in FIG. 4, a clip number (Clip # 1 to #n) is assigned to each clip.

1つのクリップは1つ又は複数の「シーン(Scene)」から構成される。シーンは、論理的につながりのある一続きの動画である。シーンは、シーン解析部310が任意に設定することが可能である。例えば、1つのクリップを1つのシーンとして、すなわち、「1クリップ」=「1シーン」と設定してもよい。また、画面が大きく変わることを境としてシーンを設定してもよい。この場合には、映像解析部306がフレーム間の動きベクトルを算出し、「動き」の大きさ(変化)が所定の値より大きい場合を、シーンの切り替え部分としてもよい。   One clip is composed of one or a plurality of “scenes”. A scene is a series of videos that are logically connected. The scene can be arbitrarily set by the scene analysis unit 310. For example, one clip may be set as one scene, that is, “1 clip” = “1 scene”. Further, a scene may be set on the boundary of a large screen change. In this case, when the video analysis unit 306 calculates a motion vector between frames and the magnitude (change) of “motion” is larger than a predetermined value, the scene switching portion may be used.

また、その他の撮影情報等に基づいてシーンを区切ってもよい。例えば、撮影者からのボタン入力によりシーンを区切ってもよい。この場合に、撮影者の明確な意図でクリップ内のシーンを構成することが可能となる。1つのクリップに複数のシーンが含まれる場合、図4に示すように、各シーンには、シーン番号(Scene#1〜#n)が付与される。   Further, the scene may be divided based on other shooting information or the like. For example, the scene may be divided by a button input from the photographer. In this case, the scene in the clip can be configured with the clear intention of the photographer. When a plurality of scenes are included in one clip, as shown in FIG. 4, scene numbers (Scene # 1 to #n) are assigned to each scene.

シーンは、1つ又は複数の「フレーム(Frame)」から構成される。フレームは、動画を構成する個々の静止画像である。図4に示すように、各フレームには、フレーム番号(Frame#1〜#n)が付与される。   A scene is composed of one or more “frames”. A frame is an individual still image constituting a moving image. As shown in FIG. 4, frame numbers (Frame # 1 to #n) are assigned to each frame.

図5は、シーン解析部310が、クリップ内を複数のシーンに分割した場合の例を示す図である。シーン解析部310は、上述の通り属性情報等に基づいてクリップを分割する。図5では、それぞれのシーンを「開始時刻」と「終了時刻」とで定めているが、フレーム番号等でシーンの開始と終了とを定めてもよい。   FIG. 5 is a diagram illustrating an example in which the scene analysis unit 310 divides the clip into a plurality of scenes. The scene analysis unit 310 divides the clip based on the attribute information and the like as described above. In FIG. 5, each scene is defined by a “start time” and an “end time”, but the start and end of the scene may be defined by a frame number or the like.

なお、図5に示す「代表時刻」は、各シーンに含まれる複数のフレームのうち、代表的なフレームの時刻を示している。例えば、シーンをサムネイル表示する場合などに、代表時刻のフレームが表示される。   The “representative time” shown in FIG. 5 indicates the time of a representative frame among a plurality of frames included in each scene. For example, the frame of the representative time is displayed when the scene is displayed as a thumbnail.

図6は、シーン解析部310が、それぞれのシーンを評価する際に用いる属性情報と評価との関係例を示した図である。例えば、クリップイン(撮影の開始部分)及びクリップアウト(撮影の終了前部分)部分については、動画の導入部分及び重要部分と考えることができ、撮影された動画が持つ論理的な意味が高いと推論される。したがって、図6に示す例では、「クリップイン」の“A”及び「クリップアウト」の“F”は、評価点が100となっている。   FIG. 6 is a diagram illustrating an example of a relationship between the attribute information used when the scene analysis unit 310 evaluates each scene and the evaluation. For example, the clip-in (shooting start part) and the clip-out (pre-shooting end part) part can be considered as the introduction part and the important part of the movie, and the taken movie has a high logical meaning. Inferred. Therefore, in the example shown in FIG. 6, “A” in “Clip In” and “F” in “Clip Out” have an evaluation score of 100.

その他にも、撮影時のカメラワークとして「ズームアップ」の“D”及び「ズームダウン」の“G”についても、特定の被写体への注目度を高めるとの観点から評価点が30として定められている。このように、シーン解析部310は、予め属性情報それぞれに対する数値化された評価を記憶している。   In addition, “D” for “zoom up” and “G” for “zoom down” as camera work at the time of shooting are also set as 30 from the viewpoint of increasing the degree of attention to a specific subject. ing. As described above, the scene analysis unit 310 stores a numerical evaluation for each attribute information in advance.

なお、図6の例では、評価点が高いほど高い評価(好ましい)として表現している。シーン解析部310は、このような図6の属性情報と評価との関係に基づいて各シーンを評価する。   In the example of FIG. 6, the higher the evaluation score, the higher the evaluation (preferred). The scene analysis unit 310 evaluates each scene based on the relationship between the attribute information and evaluation in FIG.

なお、1つのシーンに複数の属性情報が与えられている場合は、それぞれの属性情報に割り当てられている評価(評価点)を加算してもよい。また、1つのシーンに複数の属性情報が与えられている場合、その属性情報の中から最も評価の高い属性が持つ評価(評価点)を当該シーンの評価点としてもよい。さらに、シーン内に含まれる種々の属性を考慮するのであれば、複数の属性の評価点の平均値を評価としてもよい。さらに、より詳細に評価を行う場合には、シーンに含まれるフレーム毎に評価をしてもよい。   When a plurality of pieces of attribute information are given to one scene, evaluations (evaluation points) assigned to the respective attribute information may be added. Further, when a plurality of pieces of attribute information are given to one scene, an evaluation (evaluation point) of the attribute having the highest evaluation among the attribute information may be used as the evaluation point of the scene. Furthermore, if various attributes included in the scene are taken into consideration, an average value of evaluation points of a plurality of attributes may be evaluated. Furthermore, when evaluating in more detail, you may evaluate for every flame | frame contained in a scene.

なお、評価は好ましいシーンだけに行う必要はない。例えば、撮影時の手振れは、動画の視聴者に見づらい動画となる可能性があるので、こういった属性を持つシーンには減点(マイナス点)の評価を行ってもよい。図6の例では、「手振れ」の“I”に対する評価は−20、「地面(垂直下方向)撮影」の“J”に対する評価は−10として定められている。   Note that the evaluation need not be performed only on a preferable scene. For example, camera shake at the time of shooting may result in a movie that is difficult for the viewer of the movie to see, so a deduction (minus point) may be evaluated for a scene having such attributes. In the example of FIG. 6, the evaluation for “I” of “hand shake” is set as −20, and the evaluation for “J” of “shooting the ground (vertically downward)” is set as −10.

なお、図6の属性情報と評価との関係は、1つに限定するものではない。例えば、複数の属性情報と評価との組み合わせデータを、ビデオカメラ100の撮影者が撮影するモード(例えば、風景の撮影、人物(ポートレート)撮影、静物撮影等)によって切り換えてもよい。また、予め複数の組み合わせデータを備えておき、撮影モードによって、複数のデータを合成(それぞれの評価の値を一定の比率で加算等)してもよい。この場合には、合成の比率を変えることで、動的に属性情報と評価との組み合わせデータを変更することが可能となる。   Note that the relationship between the attribute information and the evaluation in FIG. 6 is not limited to one. For example, the combination data of a plurality of attribute information and evaluation may be switched depending on a mode (for example, landscape shooting, person (portrait) shooting, still life shooting, etc.) taken by the photographer of the video camera 100. Also, a plurality of combination data may be provided in advance, and a plurality of data may be combined (addition of respective evaluation values at a certain ratio, etc.) depending on the shooting mode. In this case, the combination data of the attribute information and the evaluation can be dynamically changed by changing the composition ratio.

さらには、ユーザーが、外部入力部323などを利用して、属性情報の項目及び評価点を変更してもよい。これにより、ユーザーがより重要と考えている属性に対する評価を高めることができるので、シーン解析部310は、よりユーザーの意向に沿った評価を行うことができる。   Furthermore, the user may change the item of attribute information and the evaluation score using the external input unit 323 or the like. Thereby, since the evaluation with respect to the attribute which the user considers more important can be enhanced, the scene analysis unit 310 can perform the evaluation more in line with the user's intention.

なお、シーンの評価は、優先度を示している。すなわち、評価点が高いシーンは、ユーザー又はビデオカメラ100が重要であると判断したシーンであり、評価点が低いシーンより優先してユーザーが再生を望むシーンである。   The scene evaluation indicates the priority. In other words, a scene with a high evaluation score is a scene that the user or the video camera 100 determines is important, and is a scene that the user desires to reproduce over a scene with a low evaluation score.

図7は、シーン解析部310が、各シーンに評価(優先度)を割り当てた結果を示す図である。図7は、横軸に時間(シーン)を、縦軸に各シーンの評価(優先度)を示している。   FIG. 7 is a diagram illustrating a result of assigning an evaluation (priority) to each scene by the scene analysis unit 310. FIG. 7 shows time (scene) on the horizontal axis and evaluation (priority) of each scene on the vertical axis.

図7の時間0付近にある“A”の符号が付けられているシーンは、撮影を開始した直後であるため「クリップイン」の属性を持つ。図6に従えば、「クリップイン」の属性は、評価(優先度)100を持つ。   The scene with the symbol “A” in the vicinity of time 0 in FIG. 7 has an attribute of “clip-in” since it is immediately after the start of shooting. According to FIG. 6, the attribute of “clip-in” has an evaluation (priority) of 100.

“B”の符号が付けられているシーンは、「特定音声の抽出」の属性を持つ。「特定音声の抽出」の属性は、上述の音声解析部312等により得られた音声情報に基づいてシーン解析部310によって、対象シーンに割り当てられる。図6に従えば、「特定音声の抽出」の属性は、評価(優先度)70を持つ。   A scene to which “B” is attached has an attribute of “extraction of specific sound”. The attribute of “extraction of specific audio” is assigned to the target scene by the scene analysis unit 310 based on the audio information obtained by the audio analysis unit 312 and the like. According to FIG. 6, the attribute of “specific voice extraction” has an evaluation (priority) 70.

“C”の符号が付けられているシーンは、「(カメラワーク後に)静止して撮影」の属性を持つ。つまり、“C”のシーンは、撮影者がパン、ティルト等のビデオカメラ100本体を動かして撮影した後に、静止して撮影することを意味する属性を示す。“C”のシーンは、静止して撮影する際の被写体に動画としての価値が高いと判断できることが考えられる。図6に従えば、「(カメラワーク後に)静止して撮影」の属性は、評価(優先度)40を持つ。   A scene to which “C” is attached has an attribute of “photographed still (after camera work)”. That is, the “C” scene indicates an attribute that means that the photographer takes a picture after moving the main body of the video camera 100 such as pan and tilt, and then takes a picture. It is conceivable that the “C” scene can be determined to have a high value as a moving image for a subject when shooting still. According to FIG. 6, the attribute of “shooting still after camera work” has an evaluation (priority) 40.

“D”の符号が付けられているシーンは、「ズームアップ」の属性を持つ。つまり、“D”のシーンは、ビデオカメラをズームアップして撮影しているシーンである。図6では、「ズームアップ」の属性は、評価(優先度)30を持つ。   A scene labeled “D” has a “zoom-up” attribute. That is, the “D” scene is a scene in which the video camera is zoomed in and photographed. In FIG. 6, the “zoom-up” attribute has an evaluation (priority) 30.

なお、図6に示すように「ズームダウン」の属性も、評価(優先度)30を持つ。ただし、ズームアップとズームダウンとで評価の値を異ならせることも可能である。例えば、ズームアップ“D”をズームダウン“G”よりも評価を高く設定することで、ズームアップで撮影されるシーン、つまり、動画の拡大倍率が大きくなるシーン(拡大されて撮影される被写体があるシーン)について高い評価(優先度)を割り当てることができる。逆に、動画の拡大倍率が小さくなるシーンについては、比較的低い評価(優先度)を割り当てることも可能である。   As shown in FIG. 6, the “zoom-down” attribute also has an evaluation (priority) 30. However, it is possible to vary the evaluation value between zoom-up and zoom-down. For example, by setting the zoom-up “D” to a higher evaluation than the zoom-down “G”, a scene that is shot with zoom-up, that is, a scene in which the enlargement magnification of the movie is large (a subject that is shot with an enlarged zoom A high evaluation (priority) can be assigned to a certain scene. On the other hand, a relatively low evaluation (priority) can be assigned to a scene with a small moving image magnification.

“E”の符号が付けられているシーンは、「パン、ティルト」の属性を持つ。つまり、“E”のシーンは、ビデオカメラ100がパン、ティルト等の動きを伴った撮影(カメラワーク)を行ったシーンである。図6では、「パン、ティルト」の属性は、評価(優先度)25を持つ。   A scene labeled “E” has an attribute of “pan, tilt”. In other words, the “E” scene is a scene in which the video camera 100 has performed shooting (camera work) with movement such as panning and tilting. In FIG. 6, the attribute of “pan, tilt” has an evaluation (priority) of 25.

“I”の符号が付けられているシーンは、「手振れ」の属性を持つ。つまり、“I”のシーンは、撮影時に手振れを伴って撮影されているシーンを示している。図6では、「手振れ」の属性は、評価(優先度)−20を持つ。これは、“I”のシーンについては、動画を視聴した際に画面が揺れる等、見づらいシーンとなっている可能性があり、減点したためである。   A scene with the symbol “I” has a “hand shake” attribute. That is, the “I” scene indicates a scene that is shot with camera shake at the time of shooting. In FIG. 6, the “shake” attribute has an evaluation (priority) of −20. This is because the “I” scene may be difficult to see, such as a screen shaking when viewing a moving image, and is deducted.

“J”の符号が付けられているシーンは、「地面(垂直下方向)撮影」の属性を持つ。つまり、“J”のシーンは、撮影者が、撮影を停止又は一時中断せずに誤ってビデオカメラ100を持ったまま移動等している場合に起こりやすい、地面を撮影し続けているようなシーンを示す。図6では、「地面(垂直下方向)撮影」の属性は、評価(優先度)−10を持つ。   A scene to which “J” is attached has an attribute of “shooting the ground (vertically downward)”. In other words, the scene of “J” seems to continue to shoot the ground, which is likely to occur when the photographer accidentally moves while holding the video camera 100 without stopping or temporarily stopping shooting. Indicates a scene. In FIG. 6, the attribute of “ground (vertical downward direction) shooting” has evaluation (priority) −10.

以上のように、シーン解析部310は、各シーンについて評価(優先度)を割り当てる。なお、図7の例では、シーンを単位として評価を割り当てたが、シーン解析部310はクリップ単位、又は、フレーム単位で上記の評価割り当てを行ってもよい。   As described above, the scene analysis unit 310 assigns an evaluation (priority) for each scene. In the example of FIG. 7, the evaluation is assigned in units of scenes. However, the scene analysis unit 310 may perform the above-described evaluation assignment in units of clips or frames.

シーン解析部310は、さらに、各シーンに割り当てた評価に基づいて、好ましいシーンのみを抽出する。具体的には、シーン解析部310は、評価の高いシーンのみを抽出する。図7の例では、シーン解析部310は、(i)〜(v)の部分のシーンのみを抽出する。   The scene analysis unit 310 further extracts only a preferable scene based on the evaluation assigned to each scene. Specifically, the scene analysis unit 310 extracts only highly evaluated scenes. In the example of FIG. 7, the scene analysis unit 310 extracts only the scenes of the portions (i) to (v).

なお、抽出方法については、抽出されたシーンの合計再生時間が所定の時間以内であること、又は、シーンの評価が一定以上であること等、様々な観点で抽出をすることが可能である。   As for the extraction method, extraction can be performed from various viewpoints such as that the total playback time of the extracted scenes is within a predetermined time, or that the evaluation of the scene is more than a certain level.

再生情報生成部311は、シーン解析部310が抽出したシーンに従って、動画再生の手順及び方法を記した再生情報を生成する。再生情報は、抽出したシーンを特定するための情報であり、再生時に再生情報を参照することで、容易に、かつ、素早く所望のシーンのみをダイジェスト再生することができる。   The reproduction information generation unit 311 generates reproduction information describing a moving image reproduction procedure and method according to the scene extracted by the scene analysis unit 310. The reproduction information is information for specifying the extracted scene, and by referring to the reproduction information at the time of reproduction, it is possible to easily and quickly reproduce only a desired scene.

再生情報は、例えば、図8に示すような、再生対象となるシーンの開始時刻と終了時刻とで示されてもよい。この場合、各シーンにおける代表的な動画画面(シーン中における最も評価の高い動画画面等)の時刻を代表時刻として別途記録しておくと、参照用画面の検索にも有効である。   For example, the reproduction information may be indicated by a start time and an end time of a scene to be reproduced as shown in FIG. In this case, if the time of a representative moving picture screen in each scene (such as a moving picture screen having the highest evaluation in the scene) is recorded separately as the representative time, it is also effective for searching the reference screen.

また、シーンを特定するための別の方法として、動画を記録した記憶部315の記憶方法に従ったシーン特定方法であってもよい。具体的には、各シーンが記憶部315にファイル単位で記録されている場合等は、このファイルを識別することで、特定のシーンのみを選択して再生することが可能となる。   As another method for specifying a scene, a scene specifying method according to the storage method of the storage unit 315 in which a moving image is recorded may be used. Specifically, when each scene is recorded in the storage unit 315 in units of files, it is possible to select and reproduce only a specific scene by identifying this file.

なお、再生情報の管理は上記の内容に限られず、他の方法であってもよい。例えば、フレーム番号での指定などでも可能である。また、再生情報生成部311が生成した再生情報を、MPEG等のTS(Transport Stream)として多重化部314で多重化する場合等には、多重化時に用いられる時刻情報(例えば、PTS(Presentation Time Stamp)又はDTS(Decoding Time Stamp)の時刻情報)等を用いて再生情報を記録することも可能である。H.264の場合にも同様に所定の多重化時の時刻情報を用いてもよい。   Note that the management of reproduction information is not limited to the above contents, and other methods may be used. For example, designation by a frame number is also possible. In addition, when the reproduction information generated by the reproduction information generation unit 311 is multiplexed by the multiplexing unit 314 as a TS (Transport Stream) such as MPEG, time information (for example, PTS (Presentation Time), for example) is used. It is also possible to record reproduction information by using (Stamp) or DTS (Decoding Time Stamp) time information). H. Similarly, in the case of H.264, time information at the time of predetermined multiplexing may be used.

さらに、一部のビデオカメラのデータ記録方式として用いられているAVCHD(Advanced Video Codec High Definition)等の規格を用いて動画データを記録する場合には、PlayListファイル等に再生情報を記録する方法を用いてもよい。   Furthermore, when recording moving image data using a standard such as AVCHD (Advanced Video Code High Definition), which is used as a data recording method of some video cameras, a method of recording reproduction information in a PlayList file or the like. It may be used.

以上により、撮影した動画からダイジェスト動画(要約された動画)を自動的に生成することが可能となる。   As described above, a digest video (summarized video) can be automatically generated from the captured video.

<静止画像の自動抽出について>
続いて、本発明に係るビデオカメラ100の特徴である静止画像の自動抽出について説明する。まず、撮影した動画をダイジェスト再生するために用いる評価を利用して、静止画像を自動的に抽出する技術について説明する。
<Automatic extraction of still images>
Next, the automatic extraction of still images, which is a feature of the video camera 100 according to the present invention, will be described. First, a technique for automatically extracting still images using evaluation used for digest reproduction of captured moving images will be described.

静止画像解析部324は、シーン解析部310からシーン毎の評価を取得し、その評価に基づいて静止画像を決定する。具体的には、まず、静止画像解析部324は、シーン解析部310がシーン毎に行った図7の評価を取得する。静止画像解析部324は、シーン解析部310が評価するシーン毎の評価結果に基づいて、評価が所定の値より大きいシーンを静止画像取得対象のシーンとして決定する。   The still image analysis unit 324 acquires an evaluation for each scene from the scene analysis unit 310 and determines a still image based on the evaluation. Specifically, first, the still image analysis unit 324 acquires the evaluation of FIG. 7 performed by the scene analysis unit 310 for each scene. The still image analysis unit 324 determines a scene whose evaluation is larger than a predetermined value as a still image acquisition target scene based on the evaluation result for each scene evaluated by the scene analysis unit 310.

図7の例では、例えば、評価50以上のシーンを静止画像取得の対象シーンとすると、“A”又は“B”の符号が付されたシーンが対象となる。この場合、静止画像解析部324は、これらのシーンの中から、“A”又は“B”の符号が付されたフレームを特定し、特定したフレームを静止画像として抽出する。静止画像解析部324は、抽出した静止画像を記憶部315に静止画像データとして記録する。   In the example of FIG. 7, for example, if a scene with an evaluation of 50 or more is a target scene for acquiring a still image, a scene with a symbol “A” or “B” is a target. In this case, the still image analysis unit 324 identifies a frame to which “A” or “B” is attached from these scenes, and extracts the identified frame as a still image. The still image analysis unit 324 records the extracted still image in the storage unit 315 as still image data.

なお、静止画像解析部324は、抽出対象となる静止画像のデータを信号処理部303が出力したデータ又は映像信号圧縮部304が出力したデータのいずれからも取得することが可能である。しかし、静止画像解析部324が、映像信号圧縮部304が出力したデータ、すなわち、符号化した後の映像データから静止画像データを抽出した場合、符号化の際に一部のデータ(画像に関わるデータ)が削除される場合がある。このため、好ましくは、符号化される前のデータである、信号処理部303が出力したデータから静止画像データを抽出することが望ましい。   Note that the still image analysis unit 324 can acquire still image data to be extracted from either data output from the signal processing unit 303 or data output from the video signal compression unit 304. However, when the still image analysis unit 324 extracts still image data from the data output from the video signal compression unit 304, that is, the encoded video data, some data (related to the image) is encoded. Data) may be deleted. For this reason, it is preferable to extract still image data from data output from the signal processing unit 303, which is data before encoding.

また、静止画像解析部324は、抽出した静止画像データをJPEG(Joint Photographics Experts Group)等の静止画像圧縮技術を用いて記憶部315に記録してもよい。この場合には、非圧縮の場合と比較してデータ量を削減できるため、記憶部315に比較的高速に記録処理を行うことが可能となる。   Still image analysis unit 324 may record the extracted still image data in storage unit 315 using a still image compression technique such as JPEG (Joint Photographics Experts Group). In this case, since the amount of data can be reduced compared to the case of non-compression, recording processing can be performed in the storage unit 315 at a relatively high speed.

静止画像信号伸張部325は、記憶部315に記録された静止画像データを読み出し、JPEG等の圧縮処理が施されている場合は、読み出した静止画像データを伸張処理して表示部318に出力する。   The still image signal decompressing unit 325 reads the still image data recorded in the storage unit 315, and when compression processing such as JPEG is performed, decompresses the read still image data and outputs it to the display unit 318. .

以上により、本実施の形態に示した構成により、ビデオカメラ100は映像を撮影しながら、シーン毎の評価を行い、ダイジェスト(要約)再生用の再生情報を生成するとともに、好適なシーンの自動抽出も行うことが可能となる。   As described above, with the configuration shown in the present embodiment, the video camera 100 performs evaluation for each scene while generating video, generates reproduction information for digest reproduction, and automatically extracts a suitable scene. Can also be performed.

続いて、ダイジェスト再生用などの動画用の評価とは独立した評価を行うことで、静止画像を抽出する技術について説明する。   Next, a technique for extracting a still image by performing evaluation independent of evaluation for moving images such as digest playback will be described.

つまり、静止画像解析部324は、静止画像の抽出に、シーン解析部310がシーン毎に評価した評価結果を用いていたが、シーン解析部310とは独立した評価を行ってもよい。   That is, the still image analysis unit 324 uses the evaluation result evaluated for each scene by the scene analysis unit 310 for the extraction of the still image, but may perform evaluation independent of the scene analysis unit 310.

例えば、図6の“B”「特定音声の抽出」は、動画には有効な情報であるが、静止画像の抽出には有効であるとは限らない。このような場合には、静止画像解析部324は、シーン解析部310とは異なる方法で静止画像を評価する。静止画像解析部324が、シーン解析部310とは異なる方法で静止画像を評価した場合、属性情報の種類と評価点との関係は図9のようになる。   For example, “B” and “specific audio extraction” in FIG. 6 are effective information for moving images, but are not always effective for extracting still images. In such a case, the still image analysis unit 324 evaluates the still image by a method different from that of the scene analysis unit 310. When the still image analysis unit 324 evaluates a still image by a method different from that of the scene analysis unit 310, the relationship between the type of attribute information and the evaluation point is as shown in FIG.

例えば、“B”「特定音声の抽出」に対する評価点は、図6では70としていたが、図9では10としている。   For example, the evaluation score for “B” “extraction of specific speech” is 70 in FIG. 6, but is 10 in FIG.

静止画像解析部324は、静止画像を評価する際は、図6に示した属性情報の種類と評価点との関係を用いる代わりに、図9の属性情報の種類と評価点との関係を用いてもよい。   When evaluating a still image, the still image analysis unit 324 uses the relationship between the type of attribute information and the evaluation point shown in FIG. 9 instead of using the relationship between the type of attribute information and the evaluation point shown in FIG. May be.

図10は、本実施の形態に係るビデオカメラ100の動作のうち、動画像の撮影中に静止画像を撮影する動作の一例を示すフローチャートである。   FIG. 10 is a flowchart illustrating an example of an operation of capturing a still image during capturing of a moving image, among the operations of the video camera 100 according to the present embodiment.

まず、ビデオカメラ100は、動画像の撮影を開始する(S101)。具体的には、外部入力部323が、ユーザーから動画像の撮影開始の指示を受け付けた場合、撮像制御部305の制御に基づいて撮像部301は、動画像を撮影する。   First, the video camera 100 starts shooting a moving image (S101). Specifically, when the external input unit 323 receives an instruction to start capturing a moving image from the user, the imaging unit 301 captures a moving image based on the control of the imaging control unit 305.

動画像の撮影が開始されると、属性情報生成部309は、シーン又はフレーム毎に属性情報を生成する(S102)。そして、属性情報生成部309が生成した属性情報に基づいて、シーン解析部310は動画像のシーン解析を行うとともに、静止画像解析部324は、静止画像の評価を行う。例えば、シーン解析部310は、図6に示す表を参照して動画像のシーン解析を行い、静止画像解析部324は、図9に示す表を参照して静止画像の解析を行う。   When shooting of a moving image is started, the attribute information generation unit 309 generates attribute information for each scene or frame (S102). Then, based on the attribute information generated by the attribute information generation unit 309, the scene analysis unit 310 performs scene analysis of the moving image, and the still image analysis unit 324 performs evaluation of the still image. For example, the scene analysis unit 310 performs scene analysis of a moving image with reference to the table illustrated in FIG. 6, and the still image analysis unit 324 performs analysis of a still image with reference to the table illustrated in FIG.

次に、静止画像解析部324は、静止画像又は動画像の解析の結果が所定の条件を満たすか否かを判定する(S103)。例えば、静止画像解析部324は、静止画像又は動画像に対応付けられた属性情報の評価が所定の閾値を超えているか否かを判定する。   Next, the still image analysis unit 324 determines whether or not the result of the still image or moving image analysis satisfies a predetermined condition (S103). For example, the still image analysis unit 324 determines whether or not the evaluation of the attribute information associated with the still image or the moving image exceeds a predetermined threshold value.

属性情報の評価が所定の閾値を超えている場合(S103でYes)、静止画像解析部324は、対応する静止画像を、属性情報及び属性情報の評価値と対応付けて記憶部315に記録する(S104)。属性情報の評価が所定の閾値を超えていない場合(S103でNo)、属性情報の生成処理(S102)から繰り返す。   When the evaluation of the attribute information exceeds the predetermined threshold (Yes in S103), the still image analysis unit 324 records the corresponding still image in the storage unit 315 in association with the attribute information and the evaluation value of the attribute information. (S104). If the evaluation of the attribute information does not exceed the predetermined threshold (No in S103), the process is repeated from the attribute information generation process (S102).

以上の処理を、ビデオカメラ100は、動画像の撮影を終了するまで、繰り返す(S105)。   The video camera 100 repeats the above processing until it finishes shooting the moving image (S105).

以上のようにして、本実施の形態に係るビデオカメラ100は、動画像を撮影するとともに、当該動画像の撮影中に静止画像を撮影する。   As described above, video camera 100 according to the present embodiment captures a moving image and also captures a still image while capturing the moving image.

<静止画像の再生について>
以下では、具体的にビデオカメラ100で撮影された静止画像を再生する際の操作について説明する。
<About still image playback>
Hereinafter, an operation for reproducing a still image taken by the video camera 100 will be described in detail.

ビデオカメラ100で撮影したフレームを静止画像抽出の観点から評価した結果を図11に示す。   FIG. 11 shows the results of evaluating the frames shot by the video camera 100 from the viewpoint of still image extraction.

図11において、静止画像解析部324は、評価が閾値(40)より大きいシーンから静止画像を抽出している。静止画像を抽出する対象となるシーンは、図11の期間(a)、期間(b)、期間(c)となり、静止画像解析部324は、それぞれの期間から所定の条件に基づいて静止画像を抽出している。   In FIG. 11, the still image analysis unit 324 extracts a still image from a scene whose evaluation is greater than a threshold value (40). The scenes from which still images are extracted are the periods (a), (b), and (c) in FIG. 11, and the still image analysis unit 324 extracts still images based on predetermined conditions from each period. Extracting.

実際に、図11のシーンで静止画像が抽出された時点を丸記号で表す。図11に示した例では、期間(a)からは、P1からP4の4枚、期間(b)からはP5からP9の5枚、期間(c)からはP10からP26の17枚、合計26枚の静止画像が抽出されたことになる。これらの静止画像は、ビデオカメラ100で動画が撮影されたときに同時に作成され、記憶部315に記憶されている。   Actually, the point in time when the still image is extracted in the scene of FIG. In the example shown in FIG. 11, four sheets from P1 to P4 from period (a), five sheets from P5 to P9 from period (b), and 17 sheets from P10 to P26 from period (c), a total of 26 This means that still images have been extracted. These still images are created at the same time when a video is shot by the video camera 100 and stored in the storage unit 315.

次に、ビデオカメラ100で撮影されたP1からP26の26枚の各静止画像について、評価に用いられた属性情報のうち評価点が高かった属性情報の一覧を図12に示す。図12は、静止画像の評価に用いられた属性情報のうち評価点が高かった属性情報の一覧を示す図である。図12に示すように、静止画像毎に、評価点と属性情報とを示している。   Next, FIG. 12 shows a list of attribute information having a high evaluation score among the attribute information used for evaluation for each of the 26 still images P1 to P26 taken by the video camera 100. FIG. FIG. 12 is a diagram illustrating a list of attribute information having a high evaluation score among the attribute information used for evaluating the still image. As shown in FIG. 12, evaluation points and attribute information are shown for each still image.

例えば、静止画像P2、P4、P8、P12、P25など、属性情報に“C”と書かれている静止画像は、カメラワーク後に静止して撮影されて抽出されている。また、静止画像P4、P8、P25など、属性情報に“Z”と書かれている静止画像は、さらに、顔検出されて抽出されたことになる。   For example, still images having “C” written in the attribute information, such as still images P2, P4, P8, P12, and P25, are taken and extracted after camera work. Further, still images such as the still images P4, P8, and P25, in which “Z” is written in the attribute information, are further detected by face detection and extracted.

なお、図12に示す属性情報は、静止画像の評価に用いられた属性情報のうち評価点が高かった属性情報のみを示している。このため、図12に示す属性情報と評価点との関係と、図9に示す属性情報と評価点との関係とは一致していない(例えば、図12ではP1について評価点が57となっているが、図9では属性情報“G”の評価点は20)。つまり、図12に示す評価点は、図12に示す属性情報以外の属性情報の評価点なども考慮に入れて算出された点数である。   Note that the attribute information shown in FIG. 12 shows only attribute information having a high evaluation score among the attribute information used for evaluating the still image. For this reason, the relationship between the attribute information and the evaluation score shown in FIG. 12 does not match the relationship between the attribute information and the evaluation score shown in FIG. 9 (for example, the evaluation score is 57 for P1 in FIG. 12). However, in FIG. 9, the evaluation score of the attribute information “G” is 20). That is, the evaluation score shown in FIG. 12 is a score calculated in consideration of the evaluation score of attribute information other than the attribute information shown in FIG.

図12に示した静止画像と、評価点と、評価点が高かった属性情報との一覧は、例えば図12に示したような表として記憶部315に記憶されていてもよい。あるいは、静止画像の再生時に作成され、一時的に参照できてもよい。   The list of the still images, the evaluation points, and the attribute information with the high evaluation points shown in FIG. 12 may be stored in the storage unit 315 as a table as shown in FIG. 12, for example. Alternatively, it may be created when a still image is reproduced and temporarily referred to.

次に、ビデオカメラ100で撮影された静止画像を再生する際の操作メニュー画面の一例を図13Aに示す。   Next, FIG. 13A shows an example of an operation menu screen for reproducing a still image taken by the video camera 100.

操作メニューM500は、例えば、ビデオカメラ100の表示部318に表示されるメニュー画面の一例である。   The operation menu M500 is an example of a menu screen displayed on the display unit 318 of the video camera 100, for example.

操作メニューM500は、メニュー項目M501、M502、M503、M504、M505、M521及びM522から構成されている。メニュー項目M501、M502、M503、M504、M505は、ユーザーが再生したい静止画像を選択する条件に対応するアイコンや文字が表示されている。ユーザーは、これらのメニュー項目の1つ又は複数を選択することにより、再生したい静止画像を選択することが可能である。   The operation menu M500 includes menu items M501, M502, M503, M504, M505, M521, and M522. Menu items M501, M502, M503, M504, and M505 display icons and characters corresponding to conditions for selecting a still image that the user wants to reproduce. The user can select a still image to be reproduced by selecting one or more of these menu items.

図13Aでは、静止画像を選択する条件に対応するアイコンを表示させたが、メニューのデザインはこの限りではない。メニュー項目M521は、選択すると、静止画像の選択を取り消すことができる。メニュー項目M522は、選択すると、静止画像の選択を決定し再生を開始することができる。   In FIG. 13A, an icon corresponding to a condition for selecting a still image is displayed, but the menu design is not limited to this. When the menu item M521 is selected, the selection of the still image can be canceled. When the menu item M522 is selected, selection of a still image can be determined and reproduction can be started.

操作メニューM500は、カーソルを具備し、ユーザーが上下左右決定等の入力が可能な入力手段(図示せず)を用いて選択可能であってもよい。あるいは、表示部318がタッチパネル画面になっており、ユーザーが選択したいメニューに直接触れることで選択可能であってもよい。ユーザーは、外部入力部323から選択に必要な情報を入力することができる。   The operation menu M500 may be selectable by using an input means (not shown) that includes a cursor and allows the user to make an input such as determination of up / down / left / right. Alternatively, the display unit 318 may be a touch panel screen, and selection may be made by directly touching a menu that the user wants to select. The user can input information necessary for selection from the external input unit 323.

図13Bは、各メニュー項目の静止画像選択条件の一例を示す図である。
メニュー項目M501は、1人の人物が写っている静止画像を選択するための指示を示している。メニュー項目M501が選択された場合、静止画像抽出部326は、図12に示す静止画像と属性情報との対応関係を示す一覧表を参照して、属性情報が“Z”「顔検出」を含む静止画像を選択する。なお、属性情報“Z”は、顔が検出されたために撮影された静止画像に対応付けられる人物情報の一例である。
FIG. 13B is a diagram illustrating an example of still image selection conditions for each menu item.
Menu item M501 indicates an instruction for selecting a still image in which one person is shown. When the menu item M501 is selected, the still image extraction unit 326 refers to the list showing the correspondence between the still image and the attribute information shown in FIG. 12, and the attribute information includes “Z” and “face detection”. Select a still image. Note that the attribute information “Z” is an example of person information associated with a still image that is captured because a face is detected.

さらに、静止画像抽出部326は、外部入力部323を介して入力されるユーザーからの指示に基づいて、選択された静止画像の中から、特定の人物が検出された静止画像を選択する。したがって、図13Aに示すメニュー項目M501は、選択すると、記憶部315に記憶された静止画像から、特定の人物の顔が検出された静止画像を選択することができる。   Furthermore, the still image extraction unit 326 selects a still image in which a specific person is detected from the selected still images based on an instruction from the user input via the external input unit 323. Therefore, when the menu item M501 shown in FIG. 13A is selected, a still image in which a face of a specific person is detected can be selected from the still images stored in the storage unit 315.

メニュー項目M502は、複数の人物が写っている静止画像を選択するための指示を示している。メニュー項目M502が選択された場合、静止画像抽出部326は、図12に示す静止画像と属性情報との対応関係を示す一覧表を参照して、属性情報が“Z”「顔検出/顔識別」を含む静止画像を選択する。   A menu item M502 indicates an instruction for selecting a still image in which a plurality of persons are shown. When the menu item M502 is selected, the still image extraction unit 326 refers to the list showing the correspondence between the still image and the attribute information shown in FIG. 12, and the attribute information is “Z” “face detection / face identification”. ”Is selected.

さらに、静止画像抽出部326は、外部入力部323を介して入力されるユーザーからの指示に基づいて、選択された静止画像の中から、複数の特定の人物が検出された静止画像を選択する。したがって、図13Aに示すメニュー項目M502は、選択すると、記憶部315に記憶された静止画像から、特定の複数の人物の顔が検出された静止画像を選択することができる。   Furthermore, the still image extraction unit 326 selects a still image in which a plurality of specific persons are detected from the selected still images based on an instruction from the user input via the external input unit 323. . Therefore, when the menu item M502 shown in FIG. 13A is selected, a still image in which a plurality of specific human faces are detected can be selected from the still images stored in the storage unit 315.

メニュー項目M503は、カメラワーク後に静止して撮影された静止画像を選択するための指示を示している。メニュー項目M503が選択された場合、静止画像抽出部326は、図12に示す静止画像と属性情報との対応関係を示す一覧表を参照して、属性情報が“C”「(カメラワーク後に)静止して撮影」を含む静止画像を選択する。したがって、図13Aに示すメニュー項目M503は、選択すると、記憶部315に記憶された静止画像から、カメラワーク後に静止して撮影された静止画像を選択することができる。   A menu item M503 indicates an instruction for selecting a still image that is photographed still after camera work. When the menu item M503 is selected, the still image extraction unit 326 refers to the list showing the correspondence between the still image and the attribute information shown in FIG. 12, and the attribute information is “C” (after camera work). Select a still image that includes “Still and Capture”. Accordingly, when the menu item M503 shown in FIG. 13A is selected, a still image captured after camera work can be selected from the still images stored in the storage unit 315.

メニュー項目M504は、パン、ティルトなどのカメラワーク中に撮影された静止画像を選択するための指示を示している。メニュー項目M504が選択された場合、静止画像抽出部326は、図12に示す静止画像と属性情報との対応関係を示す一覧表を参照して、属性情報が“E”「パン、ティルト」を含む静止画像を選択する。したがって、図13Aに示すメニュー項目M504は、選択すると、動画撮影時に、パン、ティルト操作がされた時刻に撮影された静止画像を選択することができる。   A menu item M504 indicates an instruction for selecting a still image taken during camera work such as panning and tilting. When the menu item M504 is selected, the still image extraction unit 326 refers to the list showing the correspondence between the still image and the attribute information shown in FIG. 12, and the attribute information is “E”, “Pan, Tilt”. Select a still image to include. Therefore, when the menu item M504 shown in FIG. 13A is selected, it is possible to select a still image taken at the time when the pan / tilt operation is performed during moving image shooting.

メニュー項目M505は、ズームアップして撮影された静止画像を選択するための指示を示している。メニュー項目M505が選択された場合、静止画像抽出部326は、図12に示す静止画像と属性情報との対応関係を示す一覧表を参照して、属性情報が“D”「ズームアップ」を含む静止画像を選択する。したがって、図13Aに示すメニュー項目M505は、選択すると、ズームアップして撮影された静止画像を選択することができる。   A menu item M505 indicates an instruction for selecting a still image photographed with zooming up. When the menu item M505 is selected, the still image extraction unit 326 refers to the list showing the correspondence between the still image and the attribute information shown in FIG. 12, and the attribute information includes “D” and “zoom up”. Select a still image. Therefore, when the menu item M505 shown in FIG. 13A is selected, it is possible to select a still image that has been zoomed up.

メニュー項目M506は、評価値が予め定められた閾値より高い静止画像を選択するための指示を示している。メニュー項目M506が選択された場合、静止画像抽出部326は、図12に示す静止画像と属性情報との対応関係を示す一覧表を参照して、評価点が所定の閾値以上の静止画像を選択する。   Menu item M506 indicates an instruction for selecting a still image having an evaluation value higher than a predetermined threshold. When the menu item M506 is selected, the still image extraction unit 326 selects a still image whose evaluation score is equal to or higher than a predetermined threshold with reference to the list showing the correspondence between the still image and the attribute information shown in FIG. To do.

したがって、図13Aに示すメニュー項目M506は、選択すると、動画撮影時に撮影された静止画像の評価点を解析し、予め定められた評価点以上の静止画像を抽出して選択することができる。例えば、撮影時は、評価点が40以上のシーンから静止画像を抽出していたが、再生するときには評価点が80以上のシーンから抽出した静止画像のみを再生することができる。   Therefore, when the menu item M506 shown in FIG. 13A is selected, evaluation points of still images taken during moving image shooting can be analyzed, and still images with a predetermined evaluation point or more can be extracted and selected. For example, at the time of shooting, a still image is extracted from a scene with an evaluation score of 40 or more, but when reproducing, only a still image extracted from a scene with an evaluation score of 80 or more can be reproduced.

メニュー項目M507は、動画像の属性情報に基づいて静止画像を選択するための指示を示している。具体的には、メニュー項目M507は、動画像の属性情報が予め定められた条件を満たしている期間に撮影された静止画像を選択するための指示である。例えば、メニュー項目M507は、動画像の評価値が所定の閾値より高い期間に撮影された静止画像を選択するための指示である。   A menu item M507 indicates an instruction for selecting a still image based on the attribute information of the moving image. Specifically, the menu item M507 is an instruction for selecting a still image shot during a period in which the attribute information of the moving image satisfies a predetermined condition. For example, the menu item M507 is an instruction for selecting a still image shot during a period in which the evaluation value of the moving image is higher than a predetermined threshold.

メニュー項目M507が選択された場合、静止画像抽出部326は、メニュー項目M507は、選択すると、撮影された静止画像の撮影時間に対応する動画撮影時間が、動画の代表区間に含まれている場合にその静止画像を抽出して選択することができる。ここで、代表区間は、動画像の属性情報の評価値が所定の閾値より高い期間であり、例えば、図8に示す再生情報の開始時刻と終了時刻とで定められる動画像のダイジェスト再生期間である。   When the menu item M507 is selected, the still image extraction unit 326, when the menu item M507 is selected, the moving image shooting time corresponding to the shooting time of the shot still image is included in the representative section of the moving image. The still image can be extracted and selected. Here, the representative section is a period in which the evaluation value of the attribute information of the moving image is higher than a predetermined threshold. For example, the representative section is a digest reproduction period of the moving image determined by the start time and end time of the reproduction information shown in FIG. is there.

以上のように、静止画像抽出部326は、ユーザーに提示するメニュー項目と、属性情報、評価点及び撮影時刻などの撮影情報の少なくとも1つとを対応付けて記憶しておく。これにより、静止画像抽出部326は、外部入力部323を介して入力されるユーザーからの指示に基づいて、ユーザーが選択したメニュー項目に対応付けられた属性情報などを有する静止画像を選択することができる。   As described above, the still image extraction unit 326 associates and stores the menu items presented to the user and at least one of shooting information such as attribute information, evaluation points, and shooting time. Accordingly, the still image extraction unit 326 selects a still image having attribute information associated with the menu item selected by the user based on an instruction from the user input via the external input unit 323. Can do.

以下では、ユーザーが動画撮影時に撮影された静止画像を再生する際のビデオカメラ100の動作について、メニュー項目毎に説明する。   Hereinafter, the operation of the video camera 100 when the user reproduces a still image shot during moving image shooting will be described for each menu item.

<特定の人物の顔が検出された静止画像の再生>
まず、ユーザーが動画撮影時に撮影された静止画像を再生する際、特定の人物の顔が検出された静止画像のみを選択して再生する手順を説明する。
<Reproduction of a still image in which the face of a specific person is detected>
First, a procedure for selecting and playing back only a still image in which a specific person's face is detected when a user plays back a still image taken during moving image shooting will be described.

まず、ユーザーは、表示部318に再生する静止画像を選択するための操作メニューM500を表示させる。具体的には、操作メニュー画面を表示させる旨のユーザーからの指示を外部入力部323が受け付けた場合、制御部(図3Bには示していない。CPU204に相当)は、当該指示に従って、メニュー画面を表示部318に表示させる。   First, the user displays an operation menu M500 for selecting a still image to be reproduced on the display unit 318. Specifically, when the external input unit 323 accepts an instruction from the user to display the operation menu screen, the control unit (not shown in FIG. 3B, corresponding to the CPU 204), the menu screen according to the instruction. Is displayed on the display unit 318.

次に、ユーザーは、特定の人物の顔が検出された静止画像を選択するために、外部入力部323から必要な情報を入力してメニュー項目M501を選択する。例えば、ユーザーは、操作メニューM500に表示されたフォーカスを上下左右決定ボタン等で選択してもよく、あるいは、表示部318がタッチパネル画面である場合には、メニュー項目M501をタッチして選択してもよい。   Next, in order to select a still image in which the face of a specific person is detected, the user inputs necessary information from the external input unit 323 and selects the menu item M501. For example, the user may select the focus displayed on the operation menu M500 with the up / down / left / right decision buttons or the like, or when the display unit 318 is a touch panel screen, the user touches and selects the menu item M501. Also good.

外部入力部323へメニュー項目M501を選択する情報が入力されると、外部入力部323は、メニュー項目M501が選択されたことを示す情報を静止画像抽出部326へ出力する。   When information for selecting the menu item M501 is input to the external input unit 323, the external input unit 323 outputs information indicating that the menu item M501 is selected to the still image extraction unit 326.

静止画像抽出部326は、外部入力部323から、メニュー項目M501が選択されたことを示す情報が入力されると、図12に示された静止画像と評価点が高かった属性情報との一覧表を参照し、選択されたメニュー項目M501に対応する属性情報を持つ静止画像を選択する。メニュー項目M501が選択された場合、属性情報の「顔検出/顔識別」の“Z”の評価点が高かった静止画像が該当するので、静止画像抽出部326は、“Z”が付されている静止画像を選択することになる。図12の場合、P4、P8、P9、P16、P22、P25、P26の7枚が該当することになる。   When the information indicating that the menu item M501 is selected is input from the external input unit 323, the still image extraction unit 326 is a list of the still image illustrated in FIG. 12 and the attribute information having a high evaluation score. The still image having the attribute information corresponding to the selected menu item M501 is selected. When the menu item M501 is selected, a still image having a high evaluation score of “Z” in “Face detection / face identification” of the attribute information is applicable, so the still image extraction unit 326 is assigned “Z”. Still image is selected. In the case of FIG. 12, seven sheets of P4, P8, P9, P16, P22, P25, and P26 are applicable.

静止画像抽出部326は、再生する静止画像を特定すると、該当する静止画像を記憶部315から読み出して、静止画像信号伸張部325へ出力する。静止画像信号伸張部325は、入力された静止画像を伸張して表示部318へ出力する。そして、表示部318は、静止画像信号伸張部325から入力された静止画像を表示する。   When the still image extraction unit 326 specifies a still image to be reproduced, the still image extraction unit 326 reads out the corresponding still image from the storage unit 315 and outputs it to the still image signal decompression unit 325. The still image signal expansion unit 325 expands the input still image and outputs it to the display unit 318. The display unit 318 displays the still image input from the still image signal expansion unit 325.

これにより、ユーザーは、選択した条件に該当する静止画像のみ、すなわち、特定の人物の顔が映っている静止画像のみを見ることができる。   As a result, the user can view only the still image that meets the selected condition, that is, only the still image in which the face of a specific person is shown.

<特定の人物の顔をズームアップして撮影された静止画像の再生>
次に、複数の条件を選択して再生する場合の例として、ビデオカメラ100において、ユーザーが動画撮影時に撮影された静止画像を再生する際、特定の人物の顔が検出され、さらに、ズームアップして撮影された静止画像のみを選択して再生する手順を説明する。
<Playing back still images taken by zooming in on a specific person's face>
Next, as an example in which a plurality of conditions are selected and played back, when a user plays back a still image taken at the time of shooting a video, the video camera 100 detects a face of a specific person and zooms in further. A procedure for selecting and playing back only still images taken in this manner will be described.

まず、ユーザーは、表示部318に再生する静止画像を選択するための操作メニューM500を表示させる。   First, the user displays an operation menu M500 for selecting a still image to be reproduced on the display unit 318.

次に、ユーザーは、外部入力部323から必要な情報を入力してメニュー項目M501及びメニュー項目M504を選択する。例えば、ユーザーは、操作メニューM500に表示されたフォーカスを上下左右決定ボタン等で選択してもよく、あるいは、表示部318がタッチパネル画面である場合には、メニュー項目M501及びメニュー項目M504をタッチして選択してもよい。   Next, the user inputs necessary information from the external input unit 323 and selects the menu item M501 and the menu item M504. For example, the user may select the focus displayed on the operation menu M500 with the up / down / left / right decision buttons or the like, or when the display unit 318 is a touch panel screen, the user touches the menu item M501 and the menu item M504. May be selected.

外部入力部323へメニュー項目M501及びメニュー項目M504を選択する情報が入力されると、外部入力部323は、メニュー項目M501、及び、メニュー項目M504が選択されたことを示す情報を静止画像抽出部326へ出力する。   When information for selecting the menu item M501 and the menu item M504 is input to the external input unit 323, the external input unit 323 displays information indicating that the menu item M501 and the menu item M504 are selected as a still image extraction unit. To 326.

静止画像抽出部326は、外部入力部323から、メニュー項目M501及びメニュー項目M504が選択されたことを示す情報が入力されると、図12に示された静止画像と評価点が高かった属性情報との一覧表を参照し、選択されたメニュー項目M501及びM504に対応する属性情報を持つ静止画像を選択する。メニュー項目M501が選択された場合、属性情報の「顔検出/顔識別」の“Z”の評価点が高かった静止画像が該当し、また、メニュー項目M504が選択された場合は、属性情報の「ズームアップ」の“D”の評価点が高かった静止画像が該当する。このため、静止画像抽出部326は、“D”及び“Z”が記述されている静止画像を選択する。図12の場合、P3、P16、P25の3枚が該当することになる。   When the information indicating that the menu item M501 and the menu item M504 are selected is input from the external input unit 323, the still image extraction unit 326 is attribute information that has a high evaluation score with the still image illustrated in FIG. The still image having the attribute information corresponding to the selected menu items M501 and M504 is selected. When the menu item M501 is selected, a still image having a high “Z” evaluation score of “face detection / face identification” of the attribute information is applicable, and when the menu item M504 is selected, the attribute information This corresponds to a still image having a high “D” evaluation score for “zoom up”. Therefore, the still image extraction unit 326 selects a still image in which “D” and “Z” are described. In the case of FIG. 12, three sheets of P3, P16, and P25 are applicable.

静止画像抽出部326は、再生する静止画像を特定すると、該当する静止画像を記憶部315から読み出して静止画像信号伸張部325へ出力する。静止画像信号伸張部325は、入力された静止画像を伸張して表示部318へ出力する。そして、表示部318は、静止画像信号伸張部325から入力された静止画像を表示する。   When the still image extraction unit 326 specifies a still image to be reproduced, the still image extraction unit 326 reads out the corresponding still image from the storage unit 315 and outputs it to the still image signal decompression unit 325. The still image signal expansion unit 325 expands the input still image and outputs it to the display unit 318. The display unit 318 displays the still image input from the still image signal expansion unit 325.

これにより、ユーザーは、選択した条件に該当する静止画像のみ、すなわち、特定の人物の顔が写っていて、さらにズームアップで撮影された静止画像のみを見ることができる。   As a result, the user can view only the still images that meet the selected conditions, that is, only the still images that are captured with the zoom-up in which the face of a specific person is captured.

以下では、特定の人物が写っている静止画像を選択するためのメニュー画面と、静止画像に対応付けられている情報とについて説明する。   Hereinafter, a menu screen for selecting a still image in which a specific person is captured and information associated with the still image will be described.

図14Aは、特定人物を選択する際の操作メニュー画面の一例を示す図である。図14Bは、撮影された静止画像と人物フラグとを対応付けた表の一例を示す図である。   FIG. 14A is a diagram illustrating an example of an operation menu screen when a specific person is selected. FIG. 14B is a diagram illustrating an example of a table in which captured still images are associated with person flags.

図14Aに示す操作メニューM610は、メニュー項目M611、M612、M613、M614、M615、M616及びM617から構成される。メニュー項目M611、M612、M613、M614、M615及びM616は、予め定められた1人又は複数の人物を選択するための指示を示しており、予め登録しておいた人物を特定するためのアイコン、静止画像及び人物の名前などが表示されている。これらのメニュー項目は、予め登録している人数に応じて増減する。   The operation menu M610 illustrated in FIG. 14A includes menu items M611, M612, M613, M614, M615, M616, and M617. Menu items M611, M612, M613, M614, M615, and M616 indicate instructions for selecting one or more predetermined persons, and icons for specifying the registered persons. Still images and names of people are displayed. These menu items increase or decrease according to the number of people registered in advance.

図14Aに示す例では、愛子ちゃん、里奈ちゃん、あゆみちゃん、一郎くん、健太郎くん、裕子ちゃんの6人が予め登録されており、6人のそれぞれに相当するメニュー項目M611〜M616が表示されている。なお、メニュー項目M617は、選択すると、人物の選択を決定し、再生を開始することができる。   In the example shown in FIG. 14A, Aiko-chan, Rina-chan, Ayumi-chan, Ichiro-kun, Kentaro-kun, and Yuko-chan are registered in advance, and menu items M611 to M616 corresponding to each of the six persons are displayed. Yes. When menu item M617 is selected, selection of a person can be determined, and reproduction can be started.

また、記憶部315に記録されている静止画像には、図14Bに示すように、登録されている人物が写っているか否かを示す特定人物情報(人物フラグ)が各静止画像に対応付けられている。なお、記憶部315は、静止画像の全てに人物フラグを対応付けていてもよく、あるいは、“Z”の属性情報を有する静止画像のみに人物フラグを対応付けて記憶してもよい。   Further, as shown in FIG. 14B, specific person information (person flag) indicating whether or not a registered person is captured is associated with each still image in the still image recorded in the storage unit 315. ing. Note that the storage unit 315 may associate the person flag with all of the still images, or store the person flag in association with only the still image having the attribute information “Z”.

例えば、図14Bに示す例では、静止画像P3には、愛子ちゃんとあゆみちゃんとが写っていることを示している。また、静止画像P9には、登録されている特定人物の全員が写っていることを示している。   For example, in the example shown in FIG. 14B, it is shown that Aiko and Ayumi are reflected in the still image P3. The still image P9 shows that all of the registered specific persons are shown.

人物フラグの対応付けは、例えば、静止画像を撮像する際に行われる顔検出及び顔識別機能を利用する。例えば、静止画像解析部324は、撮像された静止画像に、楕円検出又はテンプレートマッチングなどを行うことで、人物の顔を検出する。さらに、静止画像解析部324は、検出された顔に、より精度の高いテンプレートマッチングなどを行うことで、検出された顔が、それぞれ予め登録された人物に該当するか否かと、該当する場合はどの人物であるかとを検出する。   The association of the person flag uses, for example, a face detection and face identification function performed when a still image is captured. For example, the still image analysis unit 324 detects a human face by performing ellipse detection or template matching on the captured still image. Further, the still image analysis unit 324 performs template matching with higher accuracy on the detected face, and whether or not each detected face corresponds to a person registered in advance. It detects which person it is.

以下では、具体的に特定の人物が写っている静止画像を選択する手順について説明する。図15は、特定の人物が写っている静止画像を選択するための操作メニューの画面遷移の一例を示す図である。   Hereinafter, a procedure for selecting a still image in which a specific person is shown will be specifically described. FIG. 15 is a diagram illustrating an example of screen transition of an operation menu for selecting a still image in which a specific person is shown.

例えば、図13Aの操作メニューM500でメニュー項目M501又はメニュー項目M502が選択された場合などに、図15に示したような操作メニューを表示させて、ユーザーが操作することで人物を選択することが可能である。   For example, when the menu item M501 or the menu item M502 is selected on the operation menu M500 in FIG. 13A, the operation menu as shown in FIG. 15 is displayed, and the user can select a person by operating. Is possible.

特定の人物が写っている静止画像を選択する場合、操作メニューM600において、ユーザーは、メニュー項目M601の「顔の指定あり」を選択し、メニュー項目M603の「決定」を選択する。なお、メニュー項目M601は、予め定められた1人又は複数の特定人物の選択を開始するための指示を示している。   When selecting a still image in which a specific person is shown, in the operation menu M600, the user selects “face designation” in the menu item M601 and selects “decision” in the menu item M603. The menu item M601 indicates an instruction for starting selection of one or more predetermined specific persons.

操作メニューM600において、メニュー項目M603「決定」が選択されると、図14Aにも示した操作メニューM610が表示部318に表示される。   When menu item M603 “OK” is selected in operation menu M600, operation menu M610 shown in FIG. 14A is also displayed on display unit 318.

操作メニューM610では、実際に静止画像に撮影された人物の代表的な顔写真又は画像、及び/又は、人物の名前又はあだ名などの文字列が表示される。例えば、メニュー項目M611は、愛子ちゃんを示す顔写真又は画像と、名前又はあだ名とが表示されている。   In the operation menu M610, a representative face photograph or image of a person actually captured as a still image and / or a character string such as a person's name or nickname is displayed. For example, the menu item M611 displays a face photo or image showing Aiko-chan and a name or nickname.

愛子ちゃんと健太郎くんとが写っている静止画像を再生したい場合、ユーザーは、愛子ちゃんに相当するメニュー項目M611と健太郎くんに相当するメニュー項目M615とを選択し、メニュー項目M617の「決定」を選択する。外部入力部323は、メニュー項目M611、M615及びM617が選択されたことを受け付け、メニュー項目M611及びM615が選択されたことを示す情報を、静止画像抽出部326に出力する。   When playing back a still image in which Aiko-chan and Kentaro-kun are reflected, the user selects menu item M611 corresponding to Aiko-chan and menu item M615 corresponding to Kentaro-kun, and selects “OK” in menu item M617. . The external input unit 323 accepts that the menu items M611, M615, and M617 are selected, and outputs information indicating that the menu items M611 and M615 are selected to the still image extraction unit 326.

操作メニューM610で、再生したい人物が指定されて決定が選択されると、静止画像抽出部326は、該当する静止画像を記憶部315から読み出して、静止画像の枚数及び予め設定されている1枚の静止画像あたりの再生時間等を基に、選択された静止画像の再生時間を算出する。   When the person to be reproduced is specified and selected in the operation menu M610, the still image extraction unit 326 reads the corresponding still image from the storage unit 315, and determines the number of still images and one preset image. The playback time of the selected still image is calculated based on the playback time per still image.

操作メニューM610で、再生したい人物が指定されてメニュー項目M617の「決定」が選択されると、操作メニューM620が表示部318に表示される。   When the person to be reproduced is designated in the operation menu M610 and the menu item M617 “OK” is selected, the operation menu M620 is displayed on the display unit 318.

操作メニューM620は、操作メニューM610で選択された人物の静止画像を記憶部315から抽出するまでの待ち時間に表示される。   The operation menu M620 is displayed in a waiting time until the still image of the person selected by the operation menu M610 is extracted from the storage unit 315.

静止画像抽出部326が、選択された静止画像の再生時間を算出すると、操作メニューM630が表示部318に表示される。   When the still image extraction unit 326 calculates the playback time of the selected still image, an operation menu M630 is displayed on the display unit 318.

操作メニューM630では、操作メニューM620で選択された人物が写っている静止画像の再生時間を表示される。なお、ここでは1枚の静止画像は4秒間再生されるとする。   In the operation menu M630, the playback time of a still image in which the person selected in the operation menu M620 is captured is displayed. Here, it is assumed that one still image is reproduced for 4 seconds.

例えば、愛子ちゃんが写っている静止画像の再生時間は、メニュー項目M631に示すように2分30秒、また、健太郎くんが写っている静止画像の再生時間は、メニュー項目M632に示すように1分20秒である。そして、愛子ちゃんと健太郎くんとのいずれか、又は、両方が写っている静止画像の合計の再生時間は、メニュー項目M633に示すように3分10秒となる。メニュー項目M633が示す合計の再生時間が、愛子ちゃん、及び健太郎くんのそれぞれが写っている静止画像の再生時間(メニュー項目M631が示す2分30秒とメニュー項目M632が示す1分20秒)の合計よりも短くなっているのは、愛子ちゃんと健太郎くんの両方が1枚の静止画像に写っている場合も含まれるためである。   For example, the playback time of a still image in which Aiko is shown is 2 minutes 30 seconds as shown in the menu item M631, and the playback time of a still image in which Kentaro is shown is 1 as shown in the menu item M632. 20 minutes. The total playback time of a still image in which one or both of Aiko and Kentaro-kun is shown is 3 minutes and 10 seconds as shown in the menu item M633. The total playback time indicated by the menu item M633 is the playback time of the still images in which Aiko and Kentaro are reflected (2 minutes 30 seconds indicated by the menu item M631 and 1 minute 20 seconds indicated by the menu item M632). The reason why it is shorter than the total is that it includes the case where both Aiko and Kentaro are reflected in one still image.

以上の操作により、特定の人物を選択して再生することが可能になる。
なお、静止画像解析部324は、顔検出及び顔識別を行う際に、複数の顔が検出された場合は、複数の顔のそれぞれの距離を算出してもよい。そして、静止画像解析部324は、算出した距離情報も人物フラグと同様に静止画像に対応付けて記憶部315に記録する。
Through the above operation, a specific person can be selected and reproduced.
Note that the still image analysis unit 324 may calculate the distances of a plurality of faces when a plurality of faces are detected when performing face detection and face identification. Then, the still image analysis unit 324 records the calculated distance information in the storage unit 315 in association with the still image, similarly to the person flag.

再生時には、外部入力部323は、例えば、図16のメニュー項目M604及びM605に示すような距離の指定の有無の選択を受け付ける。メニュー項目M604の「距離の指定あり」が選択された場合、静止画像抽出部326は、複数の人物が検出された静止画像の中から、静止画像に写っている人物間の距離が所定の閾値より小さい静止画像を選択する。   At the time of reproduction, the external input unit 323 accepts selection of whether or not a distance is specified, for example, as shown in menu items M604 and M605 in FIG. When “with distance designation” is selected in the menu item M604, the still image extraction unit 326 determines that the distance between the persons shown in the still image is a predetermined threshold from among the still images from which a plurality of persons are detected. Select a smaller still image.

また、静止画像解析部324は、顔検出及び顔識別を行う際に、複数の顔が検出された場合は、複数の顔のそれぞれの表情も検出してもよい。例えば、静止画像解析部324は、目が開いているか否か、すなわち、目蓋が閉じられていないかを検出する。あるいは、静止画像解析部324は、口元又は目尻などの傾き具合などから顔が笑顔であるか否かを検出する。そして、静止画像解析部324は、検出した表情を示す情報も人物フラグと同様に静止画像に対応付けて記憶部315に記録する。   Still image analysis unit 324 may also detect the facial expressions of a plurality of faces when a plurality of faces are detected when performing face detection and face identification. For example, the still image analysis unit 324 detects whether or not the eyes are open, that is, whether or not the eye lid is closed. Alternatively, the still image analysis unit 324 detects whether or not the face is smiling based on the inclination of the mouth or the corners of the eyes. Then, the still image analysis unit 324 records information indicating the detected facial expression in the storage unit 315 in association with the still image, similarly to the person flag.

再生時には、外部入力部323は、例えば、図16のメニュー項目M606及びM607に示すような表情の指定の有無の選択を受け付ける。メニュー項目M606の「表情の指定あり」が選択された場合、静止画像抽出部326は、複数の人物が検出された静止画像の中から、静止画像に写っている人物の表情が所定の条件(例えば、目蓋が閉じられていない、又は笑顔)に該当する静止画像を選択する。   At the time of reproduction, the external input unit 323 accepts selection of whether or not a facial expression is specified, for example, as shown in menu items M606 and M607 in FIG. When the menu item M606 “Expression of expression” is selected, the still image extraction unit 326 selects a facial expression of a person appearing in the still image from a predetermined number of still images from which a plurality of persons are detected (a predetermined condition ( For example, the still image corresponding to “the eyelid is not closed or a smile” is selected.

<評価点が予め定めた閾値より高い静止画像の再生>
次に、ビデオカメラ100において、ユーザーが動画撮影時に撮影された静止画像を再生する際、撮影した静止画像のうち、評価点の高い静止画像のみを選択して再生する手順を説明する。
<Reproduction of still image whose evaluation score is higher than a predetermined threshold>
Next, in the video camera 100, when a user plays back a still image taken during moving image shooting, a procedure for selecting and playing back only a still image with a high evaluation score among the shot still images will be described.

まず、ユーザーは、表示部318に再生する静止画像を選択するための操作メニューM500を表示させる。   First, the user displays an operation menu M500 for selecting a still image to be reproduced on the display unit 318.

次に、外部入力部323から必要な情報を入力してメニュー項目M506を選択する。例えば、ユーザーは、操作メニューM500に表示されたフォーカスを上下左右決定ボタン等で選択してもよく、あるいは、表示部318がタッチパネル画面である場合には、メニュー項目M506をタッチして選択してもよい。   Next, necessary information is input from the external input unit 323 and the menu item M506 is selected. For example, the user may select the focus displayed on the operation menu M500 with the up / down / left / right decision buttons or the like, or when the display unit 318 is a touch panel screen, the user touches and selects the menu item M506. Also good.

外部入力部323へメニュー項目M506を選択する情報が入力されると、外部入力部323は、メニュー項目M506が選択されたことを示す情報を静止画像抽出部326へ出力する。   When information for selecting the menu item M506 is input to the external input unit 323, the external input unit 323 outputs information indicating that the menu item M506 has been selected to the still image extraction unit 326.

静止画像抽出部326は、外部入力部323から、メニュー項目M506が選択されたことを示す情報が入力されると、図12に示された静止画像と静止画像の評価点との一覧表を参照し、予め定められた閾値以上の評価値を有する静止画像を選択する。例えば、メニュー項目M506が選択された場合には、評価点が閾値(80)以上の静止画像が再生されるとした場合の静止画像の評価点と閾値とを図17に示す。図17の場合、P3、P4、P9、P12、P13、P14、P15、P16、P17、P21、P22の11枚が該当することになる。   When information indicating that the menu item M506 has been selected is input from the external input unit 323, the still image extraction unit 326 refers to the list of still images and still image evaluation points illustrated in FIG. A still image having an evaluation value equal to or higher than a predetermined threshold is selected. For example, when the menu item M506 is selected, still image evaluation points and threshold values when a still image having an evaluation score equal to or higher than the threshold value (80) is reproduced are shown in FIG. In the case of FIG. 17, 11 sheets of P3, P4, P9, P12, P13, P14, P15, P16, P17, P21, and P22 are applicable.

静止画像抽出部326は、再生する静止画像を特定すると、該当する静止画像を記憶部315から読み出して、静止画像信号伸張部325へ出力する。静止画像信号伸張部325は、入力された静止画像を伸張して表示部318へ出力する。そして、表示部318は、静止画像信号伸張部325から入力された静止画像を表示する。   When the still image extraction unit 326 specifies a still image to be reproduced, the still image extraction unit 326 reads out the corresponding still image from the storage unit 315 and outputs it to the still image signal decompression unit 325. The still image signal expansion unit 325 expands the input still image and outputs it to the display unit 318. The display unit 318 displays the still image input from the still image signal expansion unit 325.

これにより、ユーザーは、選択した条件に該当する静止画像のみ、すなわち、撮影された静止画像のうち、評価点が予め定めた閾値以上の値を持つ静止画像のみを視聴することができる。   As a result, the user can view only the still images that meet the selected condition, that is, only the still images having the evaluation score equal to or greater than a predetermined threshold among the captured still images.

なお、本実施の形態では、メニュー項目M506は、選択すると、動画撮影時に撮影された静止画像の評価点を解析し、予め定められた評価点以上の静止画像を抽出して選択するとしたが、予め再生する枚数を定めておき、その枚数に対応するように再生する静止画像の評価点の下限を決めてもよい。例えば、静止画像抽出部326は、評価点の高い静止画像から順に選択し、選択した静止画像の枚数が予め定められた枚数に達した場合に、選択を終了する。   In this embodiment, when the menu item M506 is selected, the evaluation point of the still image taken at the time of moving image shooting is analyzed, and a still image equal to or higher than a predetermined evaluation point is extracted and selected. The number of images to be reproduced may be determined in advance, and the lower limit of the evaluation points of still images to be reproduced may be determined so as to correspond to the number of images. For example, the still image extraction unit 326 sequentially selects still images with the highest evaluation score, and ends the selection when the number of selected still images reaches a predetermined number.

また、予め再生する時間と1枚を表示する時間とを定めておき、これらから算出される合計時間に対応するように、再生する静止画像の評価点の下限を決めてもよい。もちろん、上記の手順で静止画像を選択するためのメニュー項目をメニュー項目M506と別に設けてもよい。   Alternatively, the time for reproducing and the time for displaying one image may be determined in advance, and the lower limit of the evaluation point of the still image to be reproduced may be determined so as to correspond to the total time calculated from these. Of course, a menu item for selecting a still image by the above procedure may be provided separately from the menu item M506.

<動画の再生区間に撮影された静止画像の再生>
次に、ビデオカメラ100において、ユーザーが動画撮影時に撮影された静止画像を再生する際、動画の再生区間に撮影された静止画像のみを選択して再生する手順を説明する。
<Playing back still images taken during the movie playback section>
Next, in the video camera 100, when a user plays back a still image taken during moving image shooting, a procedure for selecting and playing back only a still image shot during a moving image playback section will be described.

まず、ユーザーは、表示部318に再生する静止画像を選択するための操作メニューM500を表示させる。   First, the user displays an operation menu M500 for selecting a still image to be reproduced on the display unit 318.

次に、ユーザーは、外部入力部323から必要な情報を入力してメニュー項目M507を選択する。例えば、ユーザーは、操作メニューM500に表示されたフォーカスを上下左右決定ボタン等で選択してもよく、あるいは、表示部318がタッチパネル画面である場合には、メニュー項目M507をタッチして選択してもよい。   Next, the user inputs necessary information from the external input unit 323 and selects the menu item M507. For example, the user may select the focus displayed on the operation menu M500 with the up / down / left / right decision buttons or the like, or when the display unit 318 is a touch panel screen, the user touches and selects the menu item M507. Also good.

外部入力部323へメニュー項目M507を選択する情報が入力されると、外部入力部323は、メニュー項目M507が選択されたことを示す情報を静止画像抽出部326へ出力する。   When information for selecting the menu item M507 is input to the external input unit 323, the external input unit 323 outputs information indicating that the menu item M507 is selected to the still image extraction unit 326.

静止画像抽出部326は、外部入力部323から、メニュー項目M507が選択されたことを示す情報が入力されると、図8に示したシーンの開始時刻、及び終了時刻と、図11に示した各静止画像の撮影時刻とを参照し、静止画像の撮影時刻が図8に示されたシーンのいずれかに含まれる静止画像を抽出する。   When the information indicating that the menu item M507 has been selected is input from the external input unit 323, the still image extraction unit 326 receives the scene start time and end time shown in FIG. With reference to the shooting time of each still image, a still image in which the shooting time of the still image is included in any of the scenes shown in FIG. 8 is extracted.

撮影フレームを静止画像の観点で評価した図11のグラフに、図8で示した動画の再生区間を記入した図を図18に示す。図18に示したように、動画の再生区間に含まれる静止画像を抽出すると、P1、P5、P6、P8が該当する。   FIG. 18 is a diagram in which the reproduction section of the moving image shown in FIG. 8 is entered in the graph of FIG. As shown in FIG. 18, when still images included in the moving image playback section are extracted, P1, P5, P6, and P8 are applicable.

静止画像抽出部326は、再生する静止画像を特定すると、該当する静止画像を記憶部315から読み出して静止画像信号伸張部325へ出力する。静止画像信号伸張部325は、入力された静止画像を伸張して表示部318へ出力する。そして、表示部318は、静止画像信号伸張部325から入力された静止画像を表示する。   When the still image extraction unit 326 specifies a still image to be reproduced, the still image extraction unit 326 reads out the corresponding still image from the storage unit 315 and outputs it to the still image signal decompression unit 325. The still image signal expansion unit 325 expands the input still image and outputs it to the display unit 318. The display unit 318 displays the still image input from the still image signal expansion unit 325.

これにより、ユーザーは、動画の再生区間に含まれる静止画像のみを視聴することができる。   Thereby, the user can view only the still image included in the playback section of the moving image.

なお、操作メニューM500は、ユーザーが外部入力部323からメニューを表示させる何らかのコマンドが入力された場合に表示部318に表示されてもよい。あるいは、操作メニューM500は、ビデオカメラ100が、撮影モードと再生モードとを具備し、何らかの入力によって撮影モードから再生モードに切り換えられたときに表示部318に自動的に表示されてもよい。   Note that the operation menu M500 may be displayed on the display unit 318 when a user inputs a command for displaying a menu from the external input unit 323. Alternatively, the operation menu M500 may be automatically displayed on the display unit 318 when the video camera 100 has a shooting mode and a playback mode and is switched from the shooting mode to the playback mode by some input.

また、再生する静止画像を選択する情報は、実施例では再生の際に入力したが、予め再生用の設定項目等で優先的に行いたい再生条件が設定できるようになっていてもよい。その場合は、静止画像の再生を実行すると、予め定められた設定内容に応じて、自動的に該当する静止画像が選択されて再生される。   In addition, in the embodiment, information for selecting a still image to be reproduced is input at the time of reproduction. However, a reproduction condition to be preferentially set by a setting item for reproduction or the like may be set in advance. In that case, when the reproduction of the still image is executed, the corresponding still image is automatically selected and reproduced in accordance with predetermined setting contents.

図19は、本実施の形態に係るビデオカメラ100の動作のうち、静止画像を再生する動作の一例を示すフローチャートである。   FIG. 19 is a flowchart illustrating an example of an operation for reproducing a still image among the operations of the video camera 100 according to the present embodiment.

まず、外部入力部323は、ユーザーからの指示を受け付ける(S201)。具体的には、表示部318は、再生処理が開始されると、図13Aに示すような操作メニューM500を表示し、外部入力部323は、メニュー項目の選択をユーザーからの指示として受け付ける。   First, the external input unit 323 receives an instruction from the user (S201). Specifically, when the reproduction process is started, the display unit 318 displays an operation menu M500 as shown in FIG. 13A, and the external input unit 323 accepts selection of a menu item as an instruction from the user.

次に、静止画像抽出部326は、外部入力部323によって受け付けられた指示に基づいて、静止画像を抽出する(S202)。つまり、静止画像抽出部326は、外部入力部323によって受け付けられた指示に対応する種類の属性情報に対応付けられた静止画像を抽出する。静止画像の抽出の具体例については、上述した通りである。抽出された静止画像は、静止画像信号伸張部325によって必要に応じて伸張される。   Next, the still image extraction unit 326 extracts a still image based on the instruction received by the external input unit 323 (S202). That is, the still image extraction unit 326 extracts a still image associated with the type of attribute information corresponding to the instruction received by the external input unit 323. A specific example of the still image extraction is as described above. The extracted still image is expanded by the still image signal expansion unit 325 as necessary.

そして、表示部318は、抽出された静止画像のみを表示する(S203)。
以上のようにして、本実施の形態に係るビデオカメラ100は、ユーザーが所望する属性情報の種類の選択を受け付け、該当する属性情報に対応付けられた静止画像を再生するので、ユーザーが所望する静止画像を効率良く再生することができる。したがって、ユーザーに所望の静止画像を1枚ずつ選択させることを強いることなく、ユーザーが所望する静止画像を効率良く再生することができる。
Then, the display unit 318 displays only the extracted still image (S203).
As described above, the video camera 100 according to the present embodiment accepts selection of the type of attribute information desired by the user and reproduces a still image associated with the corresponding attribute information. Still images can be efficiently reproduced. Therefore, it is possible to efficiently reproduce the still image desired by the user without forcing the user to select a desired still image one by one.

以上、本発明に係る撮影装置及び再生方法について、実施の形態に基づいて説明したが、本発明は、これらの実施の形態に限定されるものではない。本発明の趣旨を逸脱しない限り、当業者が思いつく各種変形を当該実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、本発明の範囲内に含まれる。   As mentioned above, although the imaging device and the reproduction method according to the present invention have been described based on the embodiments, the present invention is not limited to these embodiments. Unless it deviates from the meaning of this invention, the form which carried out the various deformation | transformation which those skilled in the art can think to the said embodiment, and the form constructed | assembled combining the component in a different embodiment is also contained in the scope of the present invention. .

なお、本発明は、上述したように、撮影装置及び再生方法として実現できるだけではなく、本実施の形態の再生方法をコンピュータに実行させるためのプログラムとして実現してもよい。また、当該プログラムを記録するコンピュータ読み取り可能なCD−ROMなどの記録媒体として実現してもよい。さらに、当該プログラムを示す情報、データ又は信号として実現してもよい。そして、これらプログラム、情報、データ及び信号は、インターネットなどの通信ネットワークを介して配信されてもよい。   As described above, the present invention can be realized not only as a photographing apparatus and a reproduction method, but also as a program for causing a computer to execute the reproduction method of the present embodiment. Moreover, you may implement | achieve as recording media, such as computer-readable CD-ROM which records the said program. Furthermore, it may be realized as information, data, or a signal indicating the program. These programs, information, data, and signals may be distributed via a communication network such as the Internet.

また、本発明は、撮影装置を構成する構成要素の一部又は全部を、1個のシステムLSI(Large Scale Integration)から構成してもよい。システムLSIは、複数の構成部を1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM及びRAMなどを含んで構成されるコンピュータシステムである。   In the present invention, some or all of the components constituting the photographing apparatus may be configured by one system LSI (Large Scale Integration). The system LSI is an ultra-multifunctional LSI manufactured by integrating a plurality of components on a single chip. Specifically, the system LSI is a computer system including a microprocessor, a ROM, a RAM, and the like. .

本発明に係る撮影装置及び再生方法は、自動的に撮影された静止画像から再生したい静止画像を効率良く選択することが可能となるという効果を奏し、ビデオカメラなどに利用することができる。   The photographing apparatus and the reproduction method according to the present invention have an effect that it is possible to efficiently select a still image to be reproduced from automatically photographed still images, and can be used for a video camera or the like.

100 ビデオカメラ
110、301 撮像部
120、309 属性情報生成部
130 記録部
140 受付部
150 再生部
160 メモリ
200 レンズ群
201 撮像素子
202 映像ADC
203 映像信号変換回路
204 CPU
205 クロック
206 レンズ制御モジュール
206a レンズ制御用モータ
206b レンズ位置センサ
207 姿勢検出センサ
207a、308a 加速度センサ
207b、308b 角速度センサ
207c、308c 仰角・俯角センサ
208 入力ボタン
209 ディスプレイ
210 スピーカー
211 出力I/F
212 圧縮伸張回路
213 ROM
214 RAM
215 HDD
216 音声ADC
217 マイクロフォン
300 レンズ部
302 映像AD変換部
303 信号処理部
304 映像信号圧縮部
305 撮像制御部
306 映像解析部
307 レンズ制御部
307a ズーム制御部
307b フォーカス制御部
307c 手振れ補正制御部
308 姿勢検出部
310 シーン解析部
311 再生情報生成部
312 音声解析部
313 音声信号圧縮部
314 多重化部
315 記憶部
318 表示部
321 音声AD変換部
322 マイク部
323 外部入力部
324 静止画像解析部
325 静止画像信号伸張部
326 静止画像抽出部
M500、M600、M610、M620、M630 操作メニュー
M501、M502、M503、M504、M505、M506、M507、M521、M522、M601、M602、M603、M604、M605、M606、M607、M611、M612、M613、M614、M615、M616、M617、M631、M632、M633 メニュー項目
DESCRIPTION OF SYMBOLS 100 Video camera 110, 301 Image pick-up part 120, 309 Attribute information generation part 130 Recording part 140 Reception part 150 Playback part 160 Memory 200 Lens group 201 Image pick-up element 202 Image | video ADC
203 Video signal conversion circuit 204 CPU
205 Clock 206 Lens control module 206a Lens control motor 206b Lens position sensor 207 Posture detection sensors 207a and 308a Acceleration sensors 207b and 308b Angular velocity sensors 207c and 308c Elevation and depression angle sensors 208 Input button 209 Display 210 Speaker 211 Output I / F
212 Compression / decompression circuit 213 ROM
214 RAM
215 HDD
216 Audio ADC
217 Microphone 300 Lens unit 302 Video AD conversion unit 303 Signal processing unit 304 Video signal compression unit 305 Imaging control unit 306 Video analysis unit 307 Lens control unit 307a Zoom control unit 307b Focus control unit 307c Camera shake correction control unit 308 Attitude detection unit 310 Scene Analysis unit 311 Playback information generation unit 312 Audio analysis unit 313 Audio signal compression unit 314 Multiplexing unit 315 Storage unit 318 Display unit 321 Audio AD conversion unit 322 Microphone unit 323 External input unit 324 Still image analysis unit 325 Still image signal expansion unit 326 Still image extraction unit M500, M600, M610, M620, M630 Operation menu M501, M502, M503, M504, M505, M506, M507, M521, M522, M601, M602, M603, M604, M605 M606, M607, M611, M612, M613, M614, M615, M616, M617, M631, M632, M633 menu item

Claims (12)

動画像の撮影中に静止画像を撮影し、撮影した静止画像を再生する撮影装置であって、
前記動画像を撮影するとともに、当該動画像の撮影中に静止画像を撮影する撮像部と、
前記撮像部によって撮影された動画像及び静止画像の少なくとも一方の撮影状況を示す1種類以上の属性情報を生成する属性情報生成部と、
前記撮像部によって撮影された静止画像と、前記属性情報生成部によって生成された属性情報とを対応付けてメモリに記録する記録部と、
前記属性情報の種類を選択するための指示を受け付ける受付部と、
前記受付部によって受け付けられた指示に対応する種類の属性情報に対応付けられた静止画像を前記メモリから読み出して再生する再生部とを備える
撮影装置。
A shooting device that takes a still image while shooting a moving image and plays back the shot still image,
An imaging unit that captures the moving image and captures a still image while capturing the moving image;
An attribute information generation unit that generates one or more types of attribute information indicating a shooting situation of at least one of a moving image and a still image captured by the imaging unit;
A recording unit that records a still image captured by the imaging unit in association with attribute information generated by the attribute information generation unit in a memory;
A reception unit that receives an instruction to select a type of the attribute information;
An imaging apparatus comprising: a reproduction unit that reads out and reproduces a still image associated with attribute information of a type corresponding to an instruction received by the reception unit from the memory.
前記属性情報生成部は、前記撮像部によって撮影された静止画像の撮影状況を示す属性情報をフレーム毎に生成する
請求項1記載の撮影装置。
The imaging apparatus according to claim 1, wherein the attribute information generation unit generates attribute information indicating a shooting state of a still image captured by the imaging unit for each frame.
前記属性情報は、前記動画像及び前記静止画像の少なくとも一方の撮影中における、前記撮影装置の動作を示す動作情報と、被写体の特徴を示す被写体情報と、前記動作情報及び前記被写体情報の評価値との少なくとも1つを含み、
前記受付部は、前記動作情報と前記被写体情報と前記評価値との少なくとも1つを選択するための指示を受け付ける
請求項2記載の撮影装置。
The attribute information includes operation information indicating an operation of the image capturing apparatus, object information indicating a feature of the object, and evaluation values of the operation information and the object information during at least one of the moving image and the still image. And at least one of
The imaging device according to claim 2, wherein the reception unit receives an instruction for selecting at least one of the operation information, the subject information, and the evaluation value.
前記受付部は、前記評価値が予め定められた閾値より高い静止画像を選択するための第1指示を受け付け、
前記再生部は、前記受付部が前記第1指示を受け付けた場合、前記閾値より高い評価値が対応付けられた静止画像を再生する
請求項3記載の撮影装置。
The accepting unit accepts a first instruction for selecting a still image having the evaluation value higher than a predetermined threshold,
The imaging device according to claim 3, wherein the reproduction unit reproduces a still image associated with an evaluation value higher than the threshold when the reception unit receives the first instruction.
前記属性情報は、前記被写体情報として、対応付けられた静止画像に人物が写っていることを示す人物情報を含み、
前記受付部は、人物が写っている静止画像を選択するための第2指示を受け付け、
前記再生部は、前記受付部が前記第2指示を受け付けた場合、前記人物情報が対応付けられた静止画像を再生する
請求項3記載の撮影装置。
The attribute information includes person information indicating that a person is shown in the associated still image as the subject information,
The reception unit receives a second instruction for selecting a still image in which a person is shown,
The imaging device according to claim 3, wherein the reproduction unit reproduces a still image associated with the person information when the reception unit receives the second instruction.
前記記録部は、さらに、前記撮像部によって撮影された静止画像に、予め定められた人物を示す特定人物情報を対応付けて、前記メモリに記録し、
前記受付部は、前記第2指示を受け付けた場合、さらに、予め定められた1人の人物を選択するための第3指示を受け付け、
前記再生部は、前記人物情報が対応付けられた静止画像のうち、前記受付部によって受け付けられた第3指示に対応する特定人物情報が対応付けられた静止画像を再生する
請求項5記載の撮影装置。
The recording unit further associates the still image captured by the imaging unit with specific person information indicating a predetermined person and records it in the memory,
When the reception unit receives the second instruction, the reception unit further receives a third instruction for selecting one predetermined person,
The photographing unit according to claim 5, wherein the reproduction unit reproduces a still image associated with specific person information corresponding to the third instruction received by the reception unit among the still images associated with the person information. apparatus.
前記記録部は、さらに、前記撮像部によって撮影された静止画像に、予め定められた複数の人物を示す複数の特定人物情報を対応付けて、前記メモリに記録し、
前記受付部は、前記第2指示を受け付けた場合、さらに、予め定められた複数の人物を選択するための第4指示を受け付け、
前記再生部は、前記人物情報に対応付けられた静止画像のうち、前記受付部によって受け付けられた第3指示に対応する特定人物情報が対応付けられた静止画像を再生する
請求項5記載の撮影装置。
The recording unit further associates a plurality of specific person information indicating a plurality of predetermined persons with the still image taken by the imaging unit, and records the information in the memory.
When the receiving unit receives the second instruction, the receiving unit further receives a fourth instruction for selecting a plurality of predetermined persons,
The photographing unit according to claim 5, wherein the reproduction unit reproduces a still image associated with specific person information corresponding to the third instruction received by the reception unit among the still images associated with the person information. apparatus.
前記再生部は、前記受付部によって受け付けられた第4指示に対応する特定人物情報が対応付けられた静止画像のうち、複数の人物間の距離が所定の距離より小さい静止画像を再生する
請求項7記載の撮影装置。
The reproduction unit reproduces a still image in which a distance between a plurality of persons is smaller than a predetermined distance among still images associated with specific person information corresponding to a fourth instruction received by the reception unit. 8. The photographing apparatus according to 7.
前記再生部は、前記受付部によって受け付けられた第3指示に対応する特定人物情報が対応付けられた静止画像のうち、前記予め定められた人物が予め定められた表情である静止画像を再生する
請求項6記載の撮影装置。
The reproduction unit reproduces a still image in which the predetermined person is a predetermined facial expression among the still images associated with the specific person information corresponding to the third instruction received by the reception unit. The imaging device according to claim 6.
前記受付部は、前記動画像の属性情報に基づいて静止画像を選択するための第5指示を受け付け、
前記再生部は、前記受付部が前記第5指示を受け付けた場合、前記動画像の属性情報が予め定められた条件を満たしている期間に撮影された静止画像を抽出する
請求項1記載の撮影装置。
The receiving unit receives a fifth instruction for selecting a still image based on the attribute information of the moving image;
The photographing unit according to claim 1, wherein, when the reception unit receives the fifth instruction, the reproduction unit extracts a still image that is captured during a period in which attribute information of the moving image satisfies a predetermined condition. apparatus.
前記撮影装置は、さらに、
前記属性情報が対応付けられた1つ以上のメニュー項目を表示する表示部を備え、
前記受付部は、前記表示部に表示された1つ以上のメニュー項目の選択を前記指示として受け付ける
請求項1記載の撮影装置。
The imaging device further includes:
A display unit that displays one or more menu items associated with the attribute information;
The imaging device according to claim 1, wherein the reception unit receives selection of one or more menu items displayed on the display unit as the instruction.
動画像の撮影中に撮影した静止画像をメモリから読み出して再生する再生方法であって、
前記メモリには、前記動画像の撮影中撮影された静止画像と、前記動画像及び前記静止画像の少なくとも一方の撮影状況を示す1種類以上の属性情報とが対応付けて記憶され、
前記再生方法は、
前記属性情報の種類を選択するための指示を受け付ける受付ステップと、
前記受付ステップにおいて受け付けられた指示に対応する種類の属性情報に対応付けられた静止画像を前記メモリから読み出して再生する再生ステップとを含む
再生方法。
A playback method for reading and playing back still images taken during moving image shooting from a memory,
In the memory, a still image taken during shooting of the moving image and one or more types of attribute information indicating a shooting situation of at least one of the moving image and the still image are stored in association with each other,
The playback method is:
A reception step of receiving an instruction for selecting the type of the attribute information;
A reproduction method comprising: a reproduction step of reading out and reproducing a still image associated with attribute information of a type corresponding to the instruction received in the reception step from the memory.
JP2009274909A 2009-12-02 2009-12-02 Photographing device and reproducing method Pending JP2011119936A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009274909A JP2011119936A (en) 2009-12-02 2009-12-02 Photographing device and reproducing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009274909A JP2011119936A (en) 2009-12-02 2009-12-02 Photographing device and reproducing method

Publications (1)

Publication Number Publication Date
JP2011119936A true JP2011119936A (en) 2011-06-16

Family

ID=44284736

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009274909A Pending JP2011119936A (en) 2009-12-02 2009-12-02 Photographing device and reproducing method

Country Status (1)

Country Link
JP (1) JP2011119936A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015126517A (en) * 2013-12-27 2015-07-06 キヤノン株式会社 Image processing system, image processing method, and program
JP2016151619A (en) * 2015-02-16 2016-08-22 キヤノン株式会社 Shake correction device and control method thereof
JP2017185847A (en) * 2016-04-01 2017-10-12 株式会社ユピテル Device and program
DE102019118751A1 (en) * 2019-07-10 2021-01-14 Schölly Fiberoptic GmbH Method for the synthesis of still images from a video image data stream recorded with a medical image recording system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015126517A (en) * 2013-12-27 2015-07-06 キヤノン株式会社 Image processing system, image processing method, and program
JP2016151619A (en) * 2015-02-16 2016-08-22 キヤノン株式会社 Shake correction device and control method thereof
JP2017185847A (en) * 2016-04-01 2017-10-12 株式会社ユピテル Device and program
DE102019118751A1 (en) * 2019-07-10 2021-01-14 Schölly Fiberoptic GmbH Method for the synthesis of still images from a video image data stream recorded with a medical image recording system

Similar Documents

Publication Publication Date Title
JP5685732B2 (en) Video extraction device, program, and recording medium
JP5456023B2 (en) Image photographing apparatus, image photographing method, program, and integrated circuit
US7417668B2 (en) Digital camera
US20070159533A1 (en) Image filing method, digital camera, image filing program and video recording player
JP5837922B2 (en) Ranking key video frames based on camera position
EP2710795A1 (en) Video summary including a particular person
EP2710594A1 (en) Video summary including a feature of interest
JP2011082966A (en) Imaging apparatus
KR20120068078A (en) Image photographing apparatus and method for connecting audio data to image data thereof
US8582948B2 (en) Scenario editing apparatus and scenario editing method, image capturing apparatus and control method thereof, and scenario editing system
KR101737086B1 (en) Digital photographing apparatus and control method thereof
KR20150032165A (en) Moving image selection apparatus for selecting moving image to be combined, moving image selection method, and storage medium
KR20150141059A (en) Apparatus and method for providing thumbnail image of moving picture
JP2010245856A (en) Video editing device
JP2011119936A (en) Photographing device and reproducing method
JP4595832B2 (en) Imaging apparatus, program, and storage medium
JP5064173B2 (en) camera
JP6355333B2 (en) Imaging apparatus, image processing apparatus, image processing method, and program
JP4948014B2 (en) Electronic camera
JP2011119934A (en) Image shooting device and image shooting method
JP4636024B2 (en) Imaging device
JP2010171849A (en) Image reproducing apparatus and electronic camera
JP2014072642A (en) Moving image data processing system, moving image data transmission device, and moving image data reception device
JP5045792B2 (en) Imaging apparatus and program
JP6249771B2 (en) Image processing apparatus, image processing method, and program