JP5655668B2 - Imaging apparatus, image processing method, and program - Google Patents

Imaging apparatus, image processing method, and program Download PDF

Info

Publication number
JP5655668B2
JP5655668B2 JP2011079272A JP2011079272A JP5655668B2 JP 5655668 B2 JP5655668 B2 JP 5655668B2 JP 2011079272 A JP2011079272 A JP 2011079272A JP 2011079272 A JP2011079272 A JP 2011079272A JP 5655668 B2 JP5655668 B2 JP 5655668B2
Authority
JP
Japan
Prior art keywords
image
information
frame
selection information
moving image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011079272A
Other languages
Japanese (ja)
Other versions
JP2012216918A (en
Inventor
悦也 高見
悦也 高見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2011079272A priority Critical patent/JP5655668B2/en
Publication of JP2012216918A publication Critical patent/JP2012216918A/en
Application granted granted Critical
Publication of JP5655668B2 publication Critical patent/JP5655668B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、ビデオカメラ等の撮影機能を有する撮像装置、並びにその撮像装置における画像処理方法及びプログラムに関し、特に、静止画や動画から所望の品質の静止画を選別するための技術に関する。   The present invention relates to an imaging device having a photographing function such as a video camera, and an image processing method and program in the imaging device, and more particularly to a technique for selecting a still image of a desired quality from still images and moving images.

特定の被写体が撮影された動画又は静止画を探す場合に、目視による探索は動画等の量が大量になると作業も膨大となり、現実的ではない。そこで、従来から、特定の被写体が撮影された動画等を自動的に検索する技術が提案されている。例えば、特許文献1には、多数の動画、静止画の中から、所望のオブジェクト(例えば、人物、顔、ペットなど)を含む動画あるいは静止画を検索するに先立って、各オブジェクトを検索するための情報を動画(データ)あるいは静止画(データ)に自動的に付加するようにした画像情報処理装置が開示されている。   When searching for a moving image or a still image in which a specific subject is photographed, a visual search is not practical because the amount of moving images increases and the work becomes enormous. Therefore, conventionally, a technique for automatically searching for a moving image or the like in which a specific subject is photographed has been proposed. For example, Patent Document 1 discloses a method for searching for each object prior to searching for a moving image or a still image including a desired object (for example, a person, a face, a pet, etc.) from a large number of moving images and still images. An image information processing apparatus is disclosed in which the information is automatically added to a moving image (data) or a still image (data).

この画像情報処理装置は、動画あるいは静止画に含まれる一のオブジェクトに対し、動画あるいは静止画に予め関連づけられた関連コンテンツからオブジェクトに関連する情報であるオブジェクト関連情報を抽出し、動画に対応する動画データあるいは静止画に対応する静止画データと対応づけて、抽出されたオブジェクト関連情報に対応するオブジェクト関連情報データを記憶するものである。   This image information processing apparatus extracts object related information, which is information related to an object, from related content previously associated with a moving image or a still image for one object included in the moving image or the still image, and corresponds to the moving image Object-related information data corresponding to the extracted object-related information is stored in association with moving image data or still image data corresponding to a still image.

特開2008−160408号公報JP 2008-160408 A

しかしながら、特許文献1に記載の画像情報処理装置においては、記録された動画又は静止画に対し、これらの画像に含まれるオブジェクトを検出し、オブジェクト関連情報を抽出し、抽出されたオブジェクト関連情報に対応するオブジェクト関連情報データを記憶する等の解析処理を実行しないと所望の画像を抽出することができない。すなわち、検索に先立って、記録された動画等の解析処理が必要になり、速やかな検索や画像の抽出をすることができない。   However, in the image information processing apparatus described in Patent Literature 1, for a recorded moving image or still image, an object included in these images is detected, object related information is extracted, and the extracted object related information is extracted. A desired image cannot be extracted unless analysis processing such as storing corresponding object-related information data is executed. In other words, prior to the search, analysis processing of the recorded moving image or the like is necessary, and a quick search or image extraction cannot be performed.

本発明は、このような問題点を解決するためになされたものであり、画像を撮影して記録する前までに、動画を構成するフレーム画像、又は静止画の品質に関する情報を生成しておくことで、速やかに画像の自動選別が可能な撮像装置、画像処理方法及びプログラムを提供することを目的とする。   The present invention has been made to solve such problems, and generates information about the quality of frame images or still images constituting a moving image before the image is captured and recorded. Accordingly, an object of the present invention is to provide an imaging apparatus, an image processing method, and a program capable of automatically selecting images quickly.

また、本発明は、所望の品質を有する撮像画像を自動選別するための情報を生成することで、一定の品質を有する撮像画像を自動で取得することが可能となる可能な撮像装置、画像処理方法及びプログラムを提供することを目的とする。   The present invention also provides an imaging device and image processing capable of automatically acquiring a captured image having a certain quality by generating information for automatically selecting a captured image having a desired quality. An object is to provide a method and a program.

本発明に係る撮像装置は、動画を取得する撮像部と、前記動画を撮影する間に、記動画を構成するフレーム画像の品質に関する情報を取得する選別情報取得部と、前記選別情報取得部が取得した情報に基づき、前記動画をその品質に応じて選別するための情報である画像選別情報を生成する選別情報生成部と、前記選別情報生成部が生成した前記画像選別情報に基づき、前記動画を構成する各フレーム画像が抽出対象となる対象静止画として適切か否かを判定する画像判定部と、前記画像選別情報を前記動画と共に記録する記録部と、を有し、前記画像判定部は、前記撮像部が前記動画を取得している間の撮像条件に基づき、前記動画を構成する各フレーム画像毎にそれらのフレーム画像が前記対象静止画として不適か否かを示す第1の判定情報を生成し、前記動画を構成する各フレーム画像毎にそれらのフレーム画像が前記対象静止画として適するか否かを示す第2の判定情報を生成し、前記記録部は、前記第1及び第2の判定情報、又は前記第1及び第2の判定情報から得られる総合判定情報を前記画像選別情報の一部又は全部として前記動画と共に記録することを特徴とするものである。 Imaging device according to the present invention includes an imaging unit for acquiring moving image, while shooting a moving picture, a selection information acquiring unit for acquiring information on the quality of a frame picture image constituting the front kidou image, the sorting information based on the acquisition unit has acquired the information, and the selection information generating unit that generates an information image selection information is for sorting according to the video to its quality, based on the image selection information the screened information generating unit has generated An image determination unit that determines whether each frame image constituting the moving image is appropriate as a target still image to be extracted, and a recording unit that records the image selection information together with the moving image, The determination unit indicates whether or not each frame image constituting the moving image is inappropriate as the target still image based on an imaging condition while the imaging unit acquires the moving image. Size Information is generated, and for each frame image constituting the moving image, second determination information indicating whether or not the frame image is suitable as the target still image is generated, and the recording unit includes the first and the second Second determination information or comprehensive determination information obtained from the first and second determination information is recorded together with the moving image as part or all of the image selection information .

本発明においては、選別情報生成部が、撮像画像である動画を構成するフレーム画像、又は静止画の品質に関する情報である画像選別情報を生成するため、動画から静止画を抽出する際に、ユーザの望む品質の画像を選別することができる。また、画像選別情報は、撮像画像を撮影している間乃至撮影した撮像画像を記録する前までに生成する。すなわち、動画データの圧縮処理前に生成されるため、例えば動画データとは別に保存すれば、圧縮動画データを伸張処理することなく自動選別することが可能となる。また、第1及び第2の判定情報を使用することで、ユーザはより品質の高いフレーム画像を絞り込むことができる。 In the present invention, since the selection information generation unit generates image selection information that is information related to the quality of the frame image or still image constituting the moving image that is the captured image, the user can extract the still image from the moving image. The desired quality image can be selected. Further, the image selection information is generated while the captured image is captured and before the captured captured image is recorded. That is, since it is generated before the compression processing of the moving image data, for example, if it is stored separately from the moving image data, it is possible to automatically select the compressed moving image data without decompression processing. Further, by using the first and second determination information, the user can narrow down frame images with higher quality.

本発明に係る画像処理方法は、動画を撮影する間に、前記動画を構成するフレーム画像の品質に関する情報を取得する選別情報取得工程と、前記選別情報取得工程にて取得された情報に基づき、前記動画をその品質に応じて選別するための情報である画像選別情報を生成する選別情報生成工程と、前記選別情報生成工程にて生成された前記画像選別情報に基づき、前記動画を構成する各フレーム画像が抽出対象となる対象静止画として適切か否かを判定する画像判定工程と、前記画像選別情報を前記動画と共に記録する記録工程と、を有し、前記画像判定工程は、前記動画を取得している間の撮像条件に基づき、前記動画を構成する各フレーム画像毎にそれらのフレーム画像が前記対象静止画として不適か否かを示す第1の判定情報を生成する工程と、前記動画を構成する各フレーム画像毎にそれらのフレーム画像が前記対象静止画として適するか否かを示す第2の判定情報を生成する工程とを含み、前記記録工程は、前記第1及び第2の判定情報、又は前記第1及び第2の判定情報から得られる総合判定情報を前記画像選別情報の一部又は全部として前記動画と共に記録する工程を含むことを特徴とするものである。 Image processing method according to the present invention, during the shooting a video, and selection information acquisition step of acquiring information about the quality of the frame picture images constituting the moving image based on the information acquired by the selection information acquiring step The moving image is configured based on a selection information generating step for generating image selection information, which is information for selecting the moving image according to its quality, and the image selection information generated in the selection information generating step. An image determining step for determining whether each frame image is appropriate as a target still image to be extracted; and a recording step for recording the image selection information together with the moving image , wherein the image determining step includes the moving image First determination information indicating whether or not each frame image constituting the moving image is inappropriate as the target still image is generated based on an imaging condition while acquiring And a step of generating, for each frame image constituting the moving image, second determination information indicating whether or not the frame image is suitable as the target still image, and the recording step includes the first step And the second determination information, or the comprehensive determination information obtained from the first and second determination information, as a part or all of the image selection information, is recorded together with the moving image. .

本発明に係るプログラムは、動画を撮影する間に、前記動画を構成するフレーム画像の品質に関する情報を取得する選別情報取得処理と、前記選別情報取得処理にて取得された情報に基づき、前記動画をその品質に応じて選別するための情報である画像選別情報を生成する選別情報生成処理と、前記選別情報生成処理にて生成された前記画像選別情報に基づき、前記動画を構成する各フレーム画像が抽出対象となる対象静止画として適切か否かを判定する画像判定処理と、前記画像選別情報を前記動画と共に記録する記録処理とをコンピュータに実行させるためのプログラムであって、前記画像判定処理は、前記動画を取得している間の撮像条件に基づき、前記動画を構成する各フレーム画像毎にそれらのフレーム画像が前記対象静止画として不適か否かを示す第1の判定情報を生成する処理と、前記動画を構成する各フレーム画像毎にそれらのフレーム画像が前記対象静止画として適するか否かを示す第2の判定情報を生成する処理とを含み、前記記録処理は、前記第1及び第2の判定情報、又は前記第1及び第2の判定情報から得られる総合判定情報を前記画像選別情報の一部又は全部として前記動画と共に記録する処理を含むことを特徴とするものである。

Program according to the present invention, during the shooting a video, and selection information acquisition processing for acquiring information on the quality of the frame picture images constituting the moving image based on the information acquired by the selection information acquiring process, the A selection information generation process for generating image selection information, which is information for selecting a moving image according to its quality, and each frame constituting the moving image based on the image selection information generated in the selection information generation process A program for causing a computer to execute an image determination process for determining whether an image is appropriate as a target still image to be extracted, and a recording process for recording the image selection information together with the moving image , the image determination The processing is based on imaging conditions while acquiring the moving image, and for each frame image constituting the moving image, the frame image is set as the target still image. Processing for generating first determination information indicating whether or not the image is inappropriate, and generation of second determination information indicating whether or not each frame image constituting the moving image is suitable as the target still image The recording process includes the first and second determination information or the comprehensive determination information obtained from the first and second determination information as part or all of the image selection information. And a process of recording together .

本発明によれば、画像を撮影して記録する前までに当該画像を自動選別するための情報を生成しておくことで、速やかに画像の自動選別が可能な撮像装置、画像処理方法及びプログラムを提供することができる。   According to the present invention, an image pickup apparatus, an image processing method, and a program capable of quickly automatically selecting an image by generating information for automatically selecting the image before capturing and recording the image. Can be provided.

また、本発明によれば、所望の品質を有する撮像画像を自動選別するための情報を生成することで、一定の品質を有する撮像画像を自動で取得することが可能となる可能な撮像装置、画像処理方法及びプログラムを提供することができる。   In addition, according to the present invention, an imaging device capable of automatically acquiring a captured image having a certain quality by generating information for automatically selecting a captured image having a desired quality, An image processing method and program can be provided.

本発明の実施形態1に係る撮像装置(デジタルビデオカメラ)1の全体構成を示すブロック図である。1 is a block diagram showing an overall configuration of an imaging apparatus (digital video camera) 1 according to Embodiment 1 of the present invention. 本発明の実施の形態1にかかる画像選別情報付き動画データの生成方法を示すフローチャートである。It is a flowchart which shows the production | generation method of the moving image data with image selection information concerning Embodiment 1 of this invention. 本発明の実施の形態2にかかる撮像装置を示すブロック図である。It is a block diagram which shows the imaging device concerning Embodiment 2 of this invention. あるフレーム画像に含まれる被写体情報を示す図である。It is a figure which shows the to-be-photographed object information contained in a certain frame image. 図4に示すフレーム画像より時間的に1枚後のフレーム画像に含まれる被写体情報を示す図である。FIG. 5 is a diagram showing subject information included in a frame image that is temporally one after the frame image shown in FIG. 4. 本発明の実施の形態2にかかる画像選別情報付き動画データの生成方法を示すフローチャートである。It is a flowchart which shows the production | generation method of the moving image data with image selection information concerning Embodiment 2 of this invention. 本発明の実施の形態3にかかる撮像装置を示すブロック図である。It is a block diagram which shows the imaging device concerning Embodiment 3 of this invention.

以下に図面を参照しながら、本発明に係る撮像装置の好適な実施形態を説明する。かかる実施形態に示す具体的な数値等は、発明の理解を容易とするための例示にすぎず、特に断る場合を除き、本発明を限定するものではない。なお、本明細書及び図面において、実質的に同一の機能、構成を有する要素については、同一の符号を付することにより重複説明を省略し、また本発明に直接関係のない要素は図示を省略する。   A preferred embodiment of an imaging apparatus according to the present invention will be described below with reference to the drawings. Specific numerical values and the like shown in the embodiment are merely examples for facilitating understanding of the invention, and do not limit the present invention unless otherwise specified. In the present specification and drawings, elements having substantially the same function and configuration are denoted by the same reference numerals, and redundant description is omitted, and elements not directly related to the present invention are not illustrated. To do.

<本発明の実施の形態1.>
本実施の形態においては、撮像画像である動画を構成するフレーム画像又は静止画の品質に関する情報である画像選別情報を生成し、その撮像画像に付加する等する。ここで、この画像選別情報を使用することで、典型的には、動画データから所望の品質の静止画を選別することが可能となる。
<Embodiment 1 of the present invention>>
In the present embodiment, image selection information that is information relating to the quality of a frame image or still image constituting a moving image that is a captured image is generated and added to the captured image. Here, by using this image selection information, it is typically possible to select a still image of a desired quality from the moving image data.

動画データは多数のフレーム画像から構成され、これら全フレーム画像が静止画として抽出可能であるが、例えばズーム倍率の変更中であるとか、撮影状態が不安定なタイミングのフレーム画像は、静止画として抽出するには不向きである。しかしながら、これをユーザが選別するには、ユーザが動画を再生しながら、被写体の動き等を監察して選別のタイミングを調節する必要が生じる。また、ユーザがタイミングを調整して静止画を抽出した場合であっても、撮影条件等に応じては必ずしも所望の品質の静止画を得られるとは限らない。   The video data is composed of a large number of frame images, and all the frame images can be extracted as still images.For example, a frame image at a time when the zoom magnification is being changed or the shooting state is unstable is regarded as a still image. Not suitable for extraction. However, in order for the user to select this, it is necessary for the user to monitor the movement of the subject and adjust the selection timing while reproducing the moving image. Even if the user adjusts the timing and extracts a still image, a still image with a desired quality is not always obtained depending on the shooting conditions and the like.

なお、本明細書において、「品質」とは、撮影条件による画質の美しさ、鮮明さ等のみならず、所望の被写体が含まれているか、被写体の大きさ・位置・向き、被写体の笑顔の度合い等、画像に含まれる被写体がユーザの望む形で写っているかも「品質」に含まれるものとする。すなわち、画像に含まれる被写体がユーザの望む形で写っていれば、品質が高いと評価できるものとする。   In this specification, “quality” refers not only to the beauty of image quality and sharpness depending on the shooting conditions, but also to whether the desired subject is included, the size / position / direction of the subject, the smile of the subject. It is assumed that “quality” also includes whether the subject included in the image, such as the degree, is reflected in the form desired by the user. That is, if the subject included in the image is captured in the form desired by the user, it can be evaluated that the quality is high.

また、例えば自分の顔や家族の顔を登録しておく等し、登録した人物が映っているフレーム画像を自動的に選別又はピックアップすることができれば、ユーザによる静止画抽出処理が容易となる。更には、撮影時の撮影条件や撮影画像の被写体情報等に基づき、各フレーム画像が静止画抽出に適さないフレーム画像であるか否か、適したフレーム画像であるか否かなどが予め判断してあれば、ユーザが静止画を抽出する際の補助となり得る。   Further, for example, if a person's face or family face is registered and a frame image showing the registered person can be automatically selected or picked up, the still image extraction process by the user is facilitated. Further, based on the shooting conditions at the time of shooting, subject information of the shot image, etc., it is determined in advance whether each frame image is a frame image that is not suitable for still image extraction or whether it is a suitable frame image. If it exists, it can assist the user in extracting a still image.

そこで、本実施の形態1においては、動画の撮影時に撮影条件に関する情報を取得し、これに基づき画像選別情報を生成し、動画データと共に記録する。画像選別情報を動画データと共に記録することで、動画データから静止画を抽出する際に、静止画として抽出するには品質が不十分なフレーム画像を取り除く自動選別処理を実行することができる。ここでは、本実施の形態における撮像装置の特徴的な構成を説明するのに先立ち、本発明の理解を容易とするため、先ず、本実施の形態にかかる撮像装置の全体構成について説明する。   Therefore, in the first embodiment, information related to shooting conditions is acquired at the time of shooting a moving image, and image selection information is generated based on the acquired information and recorded together with moving image data. By recording the image selection information together with the moving image data, when extracting a still image from the moving image data, it is possible to execute an automatic selection process for removing a frame image having insufficient quality for extraction as a still image. Here, prior to describing the characteristic configuration of the imaging apparatus according to the present embodiment, first, the overall configuration of the imaging apparatus according to the present embodiment will be described in order to facilitate understanding of the present invention.

図1は、本発明の実施形態に係る撮像装置(デジタルビデオカメラ)1の全体構成を示すブロック図である。撮像装置1は動画及び静止画を撮像することができる。   FIG. 1 is a block diagram showing an overall configuration of an imaging apparatus (digital video camera) 1 according to an embodiment of the present invention. The imaging device 1 can capture moving images and still images.

なお、本発明は、動画を撮像できるものであれば、デジタルスチルカメラをはじめ、携帯電話、PHS(Personal Handyphone System)、PDA(Personal Digital Assistant)等、その他の電子機器においても採用することができる。   The present invention can be used in other electronic devices such as a digital still camera, a mobile phone, a PHS (Personal Handyphone System), and a PDA (Personal Digital Assistant) as long as it can capture a moving image. .

撮像装置1は、ズームレンズ101、フォーカスレンズ102、絞り103、及び撮像素子104で構成される撮像部100を有する。ズームレンズ101は図示しないズームアクチュエータによって光軸LAに沿って移動する。同様に、フォーカスレンズ102は、図示しないフォーカスアクチュエータによって光軸LAに沿って移動する。絞り103は、図示しない絞りアクチュエータに駆動されて動作する。   The imaging apparatus 1 includes an imaging unit 100 including a zoom lens 101, a focus lens 102, a diaphragm 103, and an imaging element 104. The zoom lens 101 is moved along the optical axis LA by a zoom actuator (not shown). Similarly, the focus lens 102 moves along the optical axis LA by a focus actuator (not shown). The diaphragm 103 operates by being driven by a diaphragm actuator (not shown).

撮像装置1を用いた撮像は以下の手順で行われる。撮像素子104はズームレンズ101、フォーカスレンズ102、及び絞り103を通過した光を光電変換して、被写体のアナログ画像信号を生成する。   Imaging using the imaging apparatus 1 is performed according to the following procedure. The image sensor 104 photoelectrically converts light that has passed through the zoom lens 101, the focus lens 102, and the aperture 103 to generate an analog image signal of the subject.

アナログ画像信号処理部105が、このアナログ画像信号を増幅した後、A/D変換部106が、その増幅された信号をデジタル画像データに変換する。画像入力コントローラ107は、A/D変換部106から出力された画像デジタルデータを取り込んで、バス200を介してラインメモリ203やメインメモリ204に格納する。   After the analog image signal processing unit 105 amplifies the analog image signal, the A / D conversion unit 106 converts the amplified signal into digital image data. The image input controller 107 takes in the image digital data output from the A / D conversion unit 106 and stores it in the line memory 203 or the main memory 204 via the bus 200.

撮像装置1が動画を撮像する場合は、A/D変換部106から出力されたデジタル画像データはバス200を介して、メインメモリ204に格納される。以下、動画のデジタル画像データを動画データと呼ぶ。   When the imaging apparatus 1 captures a moving image, the digital image data output from the A / D conversion unit 106 is stored in the main memory 204 via the bus 200. Hereinafter, moving image digital image data is referred to as moving image data.

静止画像を取得する場合は、撮像素子104で取得されたデジタル画像データから任意のタイミングで静止画フレーム(フレーム画像)を取得し、ラインメモリ203にそのフレーム画像の一部であるフレームデータを格納し、所定の圧縮処理等を施しデジタル画像データを生成した後、メインメモリ204がそのデジタル画像データを格納する。   When acquiring a still image, a still image frame (frame image) is acquired from the digital image data acquired by the image sensor 104 at an arbitrary timing, and frame data that is a part of the frame image is stored in the line memory 203. Then, after performing predetermined compression processing and the like to generate digital image data, the main memory 204 stores the digital image data.

上記のように処理することで、撮像装置1が動画と静止画を同時に撮像する場合等に、静止画データが直接ラインメモリ203により圧縮処理されたのち、その圧縮後の静止画データがメインメモリ204に格納されるため、メインメモリ204へのデータの格納量を削減することができる。これにより、メインメモリ204のバス帯域を確保することができ、例えば、毎秒60枚取得される静止画フレーム等の圧縮後の静止画データのメインメモリ204への書き込みが可能となるのである。   By processing as described above, when the imaging apparatus 1 captures a moving image and a still image at the same time, after the still image data is directly compressed by the line memory 203, the compressed still image data is stored in the main memory. Therefore, the amount of data stored in the main memory 204 can be reduced. As a result, the bus bandwidth of the main memory 204 can be ensured, and for example, compressed still image data such as still image frames acquired 60 frames per second can be written to the main memory 204.

デジタル信号処理部108は、バス200を介して中央制御部400からの指令に基づき、メインメモリ204に格納されたデジタル画像データを取り込み、所定の信号処理を施して輝度信号と色差信号とからなるデータを生成する。   The digital signal processing unit 108 takes in the digital image data stored in the main memory 204 based on a command from the central control unit 400 via the bus 200, performs predetermined signal processing, and includes a luminance signal and a color difference signal. Generate data.

デジタル信号処理部108はまた、撮像素子104等から出力される撮像時の感度情報、例えば、AGC(Automatic Gain Control)ゲイン又はISO(International Organization for Standardization:国際標準化機構)感度等から、オフセット処理、ホワイトバランス調整処理、ガンマ補正処理、RGB補完処理、ノイズ低減処理、輪郭補正処理、色調補正処理、光源種別判定処理等の各種デジタル補正を行う。   The digital signal processing unit 108 also performs offset processing from sensitivity information at the time of imaging output from the imaging device 104 or the like, for example, AGC (Automatic Gain Control) gain or ISO (International Organization for Standardization) sensitivity. Various digital corrections such as white balance adjustment processing, gamma correction processing, RGB interpolation processing, noise reduction processing, contour correction processing, color tone correction processing, and light source type determination processing are performed.

多重化部109は、メインメモリ204に格納されたデジタル画像データを多重化しストリームデータを生成する。   The multiplexing unit 109 multiplexes the digital image data stored in the main memory 204 to generate stream data.

圧縮・伸長処理部201は、バス200を介して中央制御部400からの指示に従い、ラインメモリ203やメインメモリ204に格納されたデジタル画像データに所定の圧縮処理を施し、圧縮データを生成する。また、中央制御部400からの指令に従い、カード型記録媒体302等に格納された圧縮データに所定形式の伸張処理を施し、非圧縮データを生成する。   The compression / decompression processing unit 201 performs predetermined compression processing on the digital image data stored in the line memory 203 or the main memory 204 in accordance with an instruction from the central control unit 400 via the bus 200 to generate compressed data. Further, in accordance with a command from the central control unit 400, the compressed data stored in the card-type recording medium 302 or the like is subjected to decompression processing in a predetermined format to generate uncompressed data.

なお、本実施の形態の撮像装置1では、静止画データに対してはJPEG規格に準拠した圧縮方式が、動画データに対してはMPEG(Moving Picture Experts Group)2規格やAVC/H.264規格に準拠した圧縮方式が採用される。   In the imaging apparatus 1 according to the present embodiment, the compression method based on the JPEG standard is used for still image data, and the moving picture experts group (MPEG) 2 standard or AVC / H. A compression method conforming to the H.264 standard is adopted.

音声・画像処理部202は、バス200を介して中央制御部400の指示に従い、メインメモリ204から読み出したデジタル画像データに所定の画像処理を施す。例えばメニュー画像やOSD画像等、各種処理のための画像データを生成し、その画像データをメインメモリ204から読み出されたオリジナルの画像デジタルデータに重畳させて液晶モニタ304に出力する。この出力によって、液晶モニタ304に表示される画像は各種画像データが合成されたものとなる。   The sound / image processing unit 202 performs predetermined image processing on the digital image data read from the main memory 204 in accordance with an instruction from the central control unit 400 via the bus 200. For example, image data for various processing such as a menu image and an OSD image is generated, and the image data is superimposed on the original image digital data read from the main memory 204 and output to the liquid crystal monitor 304. With this output, the image displayed on the liquid crystal monitor 304 is a combination of various image data.

フラッシュROM205は、ユーザの設定情報等、撮像装置1の動作に関する各種設定情報を格納している。メインメモリ204は、上述の各処理に加え、中央制御部100の演算作業領域として使用されるとともに、各種データの一時記憶領域としても使用される。VRAM206は、表示用の画像データの一時記憶領域として使用される。   The flash ROM 205 stores various setting information related to the operation of the imaging apparatus 1, such as user setting information. In addition to the above-described processes, the main memory 204 is used as a calculation work area for the central control unit 100 and also as a temporary storage area for various data. The VRAM 206 is used as a temporary storage area for image data for display.

メディア制御部207は、中央制御部400の指令に従い、カードI/F301を通じてカード型記録媒体302へのデータの書き込みやデータの読み出しを制御する。   The media control unit 207 controls data writing to and data reading from the card-type recording medium 302 through the card I / F 301 in accordance with instructions from the central control unit 400.

液晶モニタ304、スピーカ305、操作部306及び入出力端子307は入出力I/F303に接続されている。液晶モニタ304は、例えばメインメモリ204に一時記録された画像データや各種メニュー画像等、各種画像を表示する。スピーカ305は、例えばメインメモリ204に一時記録された音声を出力する。操作部306は、図示しないリレーズ・スイッチや電源スイッチを含む操作キー、十字キー、ジョイスティック、又は液晶モニタ304上に重畳されたタッチパネル等から構成されており、ユーザの撮像装置1への操作入力を受け付ける。   The liquid crystal monitor 304, the speaker 305, the operation unit 306, and the input / output terminal 307 are connected to the input / output I / F 303. The liquid crystal monitor 304 displays various images such as image data and various menu images temporarily recorded in the main memory 204, for example. The speaker 305 outputs sound temporarily recorded in the main memory 204, for example. The operation unit 306 includes an operation key including a relay switch and a power switch (not shown), a cross key, a joystick, a touch panel superimposed on the liquid crystal monitor 304, and the like. Accept.

入出力端子307は、図示しないテレビモニタやPC(Personal Computer)等に接続される。   The input / output terminal 307 is connected to a television monitor (not shown), a PC (Personal Computer), or the like.

中央制御部400はCPU(Central Processing Unit)、各種プログラムが格納されたROM、及びワークエリアとしてのRAM等を含む半導体集積回路により構成され、撮像部100等による撮像処理、液晶モニタ304への各種画像の表示処理、及びカード型記録媒体302への各種データの記録処理、並びに後述する選別情報抽出処理、選別情報生成処理、画像判定処理、及び画像自動選別処理等の全体の動作を統括的に制御する。   The central control unit 400 is configured by a semiconductor integrated circuit including a CPU (Central Processing Unit), a ROM storing various programs, a RAM as a work area, and the like. Overall operations such as image display processing, various data recording processing to the card-type recording medium 302, selection information extraction processing, selection information generation processing, image determination processing, and automatic image selection processing described later. Control.

<実施の形態1の構成詳細>
次に、本実施の形態にかかる撮像装置の詳細に説明する。上述したように、本実施の形態においては、動画データから静止画を切り出す際に、当該静止画が所望の品質を有するか否かで自動選別を可能とするための画像選別情報を生成して撮像画像と共に記録する。この画像選別情報を使用することで、撮影した画像を自動選別することが可能となる。
<Detailed Configuration of Embodiment 1>
Next, the imaging apparatus according to the present embodiment will be described in detail. As described above, in this embodiment, when a still image is cut out from moving image data, image selection information is generated to enable automatic selection based on whether or not the still image has a desired quality. Record along with the captured image. By using this image selection information, it is possible to automatically select a captured image.

なお、本実施の形態においては、例えば、一の動画ファイルから、一定以上の品質のフレーム画像を静止画抽出候補として自動選別することを可能とする場合について説明するが、例えば、複数の動画ファイルから、一定以上の品質のフレーム画像が一定以上含まれる動画ファイルを自動選別する場合等にも適用することができることは言うまでもない。以下の説明においては、動画データから、静止画として抽出する対象となり得るフレーム画像(対象静止画)を、キャプチャフレームともいう。   In the present embodiment, for example, a case will be described in which it is possible to automatically select a frame image of a certain quality or more as a still image extraction candidate from one moving image file. Therefore, it goes without saying that the present invention can also be applied to a case of automatically selecting a moving image file including frame images of a certain quality or more. In the following description, a frame image (target still image) that can be extracted as a still image from moving image data is also referred to as a capture frame.

本実施の形態においては、中央制御部400は、選別情報取得部401、選別情報生成部402、画像判定部403及び画像自動選別部404を有している。選別情報取得部401は、撮像画像である動画を構成するフレーム画像の品質に関する情報を取得する。選別情報生成部402は、選別情報取得部401が取得した情報に基づき、画像をその品質に応じて選別するための情報である画像選別情報を生成する。この選別情報生成部402は、撮像部100が動画を取得している間に取得された品質に関する情報として撮像条件情報を、選別情報取得部401から取得して、取得した撮影条件情報に基づき、動画を構成する各フレーム画像毎に、画像選別情報を生成する。   In the present embodiment, the central control unit 400 includes a selection information acquisition unit 401, a selection information generation unit 402, an image determination unit 403, and an automatic image selection unit 404. The sorting information acquisition unit 401 acquires information related to the quality of the frame image constituting the moving image that is the captured image. Based on the information acquired by the selection information acquisition unit 401, the selection information generation unit 402 generates image selection information that is information for selecting an image according to its quality. The selection information generation unit 402 acquires imaging condition information as quality-related information acquired while the imaging unit 100 acquires a moving image from the selection information acquisition unit 401, and based on the acquired imaging condition information, Image selection information is generated for each frame image constituting the moving image.

ここで、選別情報取得部401は、撮影条件として、例えば撮影時の焦点距離情報、シャッタースピード、絞り情報、及び感度情報のいずれか1以上の情報を、フレーム画像毎又は一定間隔で取得する。焦点情報としては、上述のズームレンズ102の図示しないズームアクチュエータから撮像時の焦点距離情報がフレーム画像毎又は一定のタイミング毎に取得される。シャッタースピード情報としては、撮像素子104の備えるイメージセンサの露光期間が取得される。絞り情報としては、上述の絞り103の図示しない絞りアクチュエータから絞りの大きさが取得される。感度情報は、撮像素子104のAGCゲイン等の感度の値が取得される。なお、静止画の抽出に適した情報であれば、上述の例に限定はされない。   Here, the selection information acquisition unit 401 acquires, as a shooting condition, for example, at least one of focal length information, shutter speed, aperture information, and sensitivity information at the time of shooting for each frame image or at regular intervals. As the focus information, focal length information at the time of imaging is acquired from a zoom actuator (not shown) of the zoom lens 102 described above for each frame image or at a certain timing. As the shutter speed information, the exposure period of the image sensor included in the image sensor 104 is acquired. As the aperture information, the aperture size is acquired from the aperture actuator (not shown) of the aperture 103 described above. As the sensitivity information, a sensitivity value such as an AGC gain of the image sensor 104 is acquired. Note that the information is not limited to the above example as long as the information is suitable for still image extraction.

選別情報生成部402は、選別情報取得部401から上記のような撮影条件情報を受け取り、これに基づき前記画像選別情報を生成する。ここで、選別情報生成部402は、簡単には、撮影条件情報をそのまま画像選別情報とすることができる。画像を自動選別するためには、撮影条件情報を後述するように評価する必要があるが、これは選別情報生成部402が行ってもよく、画像判定部403が行ってもよく、また、画像判定部403を設けない場合などにおいては、画像自動選別部404が行ってもよい。すなわち、画像自動選別部404の選別の段階前までに撮影条件情報の評価を行えばよい。   The selection information generation unit 402 receives the above-described shooting condition information from the selection information acquisition unit 401, and generates the image selection information based on this. Here, the selection information generation unit 402 can simply use the imaging condition information as image selection information as it is. In order to automatically select images, it is necessary to evaluate the shooting condition information as described later. This may be performed by the selection information generation unit 402, the image determination unit 403, or the image. When the determination unit 403 is not provided, the image automatic selection unit 404 may perform the determination. In other words, the imaging condition information may be evaluated before the selection stage of the automatic image selection unit 404.

選別情報生成部402が、後述するように、例えば圧縮・伸張処理部201で動画データが圧縮処理されるまでに、画像選別情報を生成すれば、動画データと共に圧縮処理されることができる。また、動画データと別ファイルとすれば、圧縮処理された動画データの伸張処理をすることなく、画像選別情報が参照できるため、例えば圧縮処理された動画データを再生することなく、画像の自動選別が可能となる。   As will be described later, if the selection information generation unit 402 generates image selection information before the compression / decompression processing unit 201 compresses the moving image data, for example, it can be compressed together with the moving image data. Also, if the video data is separate from the video data, the image selection information can be referred to without decompressing the compressed video data. For example, without automatically reproducing the compressed video data, the image can be automatically selected. Is possible.

また、選別情報生成部402で撮影条件情報からそれぞれの評価値を求めておき、これを画像選別情報とし、画像判定部403や画像自動選別部404により、その評価値に基づき、各フレーム画像がキャプチャフレームとして不適か否かを判断してもよい。なお、さらに、選別情報生成部402により、撮影条件情報の評価値を求め、更に、キャプチャフレームとして不適か否かを判定し、この判定結果を画像選別情報としてもよい。この場合は、画像判定部403は不要となり、画像自動選別部404においての処理が高速化する。   The selection information generation unit 402 obtains each evaluation value from the photographing condition information, which is used as image selection information. The image determination unit 403 and the image automatic selection unit 404 determine each frame image based on the evaluation value. You may determine whether it is unsuitable as a capture frame. In addition, the selection information generation unit 402 may obtain an evaluation value of the shooting condition information, determine whether or not it is inappropriate as a capture frame, and use the determination result as image selection information. In this case, the image determination unit 403 is unnecessary, and the processing in the image automatic selection unit 404 is accelerated.

画像判定部403は、選別情報生成部402が生成した画像選別情報に基づき、動画を構成する各フレーム画像の抽出すべき抽出静止画としての適否を判定する。本実施の形態においては、画像判定部403は、撮像条件に基づき、動画を構成する各フレーム画像毎に当該フレーム画像が抽出静止画として不適か否かを示す第1の判定情報を生成する。上述のように選別情報生成部402は、画像選別情報を各フレーム画像毎に生成するため、画像判定部403は、各フレーム画像毎に、当該フレーム画像が静止画としての抽出に耐えうる品質を有しないか否か、すなわちキャプチャフレームとして不適か否かを判断することができ、その結果である第1の判定情報を画像選別情報として動画データに付与することができる。   Based on the image selection information generated by the selection information generation unit 402, the image determination unit 403 determines whether each frame image constituting the moving image is appropriate as an extracted still image to be extracted. In the present embodiment, the image determination unit 403 generates first determination information indicating whether or not the frame image is inappropriate as an extracted still image for each frame image constituting the moving image based on the imaging conditions. As described above, since the selection information generation unit 402 generates image selection information for each frame image, the image determination unit 403 has a quality that the frame image can withstand extraction as a still image for each frame image. It is possible to determine whether or not it is present, that is, whether or not it is inappropriate as a capture frame, and the first determination information as a result can be added to the moving image data as image selection information.

この第1の判定情報は、簡単には、当該フレーム画像が静止画として抽出するフレーム画像として不適か否かを、例えば1又は0の1ビットのフラグで表わすことができる。動画データから静止画を抽出する際に、画像自動選別部404により、予めこのフラグが1(静止画として抽出するフレーム画像として不適)であるフレーム画像を自動で除去することができ、ユーザには、動画データの中から、少なくとも静止画としては抽出が不向きなフレーム画像を除いたフレーム画像の中から、所望の静止画を抽出させることができる。   The first determination information can simply represent whether or not the frame image is inappropriate as a frame image to be extracted as a still image, for example, by a 1-bit flag of 1 or 0. When extracting a still image from moving image data, a frame image whose flag is 1 (unsuitable as a frame image to be extracted as a still image) can be automatically removed by the image automatic selection unit 404 in advance. The desired still image can be extracted from the moving image data from the frame image excluding the frame image that is not suitable for extraction as a still image.

ここで、本実施の形態においては、選別情報生成部402で生成された画像選別情報及び画像判定部403で生成された第1の判定情報は、中央制御部400から多重化部109に送られる。多重化部109は、圧縮・伸張処理部201が圧縮処理した動画データと共に、画像選別情報、第1の判定情報を多重化して、メディア制御部207に送り、カードI/F301を介してカード型記録媒体302へ記録する等する。   Here, in the present embodiment, the image selection information generated by the selection information generation unit 402 and the first determination information generated by the image determination unit 403 are sent from the central control unit 400 to the multiplexing unit 109. . The multiplexing unit 109 multiplexes the image selection information and the first determination information together with the moving image data compressed by the compression / decompression processing unit 201, sends the multiplexed information to the media control unit 207, and the card type via the card I / F 301. Recording on the recording medium 302 is performed.

また、第1の判定情報を含む画像選別情報は、動画データとは別のファイル(隠しファイルであってもよい)に格納し、動画データのヘッダーを介し、当該動画データと、画像選別情報とを結びつけるようにしてもよい。或は、画像データと画像選別情報を同一ファイルに格納し、動画データのヘッダーを介し、動画データと画像選別情報を結びつけるようにしてもよい。   The image selection information including the first determination information is stored in a file (may be a hidden file) different from the moving image data, and the moving image data, the image selection information, May be tied together. Alternatively, the image data and the image selection information may be stored in the same file, and the moving image data and the image selection information may be linked through the moving image data header.

少なくとも、動画データと画像選別情報とは、時間的に結び付けられるように格納する。例えば00:01:00〜00:03:00はフォーカス=合焦、焦点距離=5.2、F=3.0、シャッタースピード=1/60等のように記録してもよい。または、フレーム120〜140はフォーカス=合唱、焦点距離=5.2、F=3.0、シャッタースピード=1/60のように記録してもよい。   At least the moving image data and the image selection information are stored so as to be temporally linked. For example, 00:01:00 to 00:03:00 may be recorded such that focus = focus, focal length = 5.2, F = 3.0, shutter speed = 1/60, and the like. Alternatively, the frames 120 to 140 may be recorded such that focus = chorus, focal length = 5.2, F = 3.0, and shutter speed = 1/60.

画像自動選別部404は、ユーザによる要請等に応じて、画像選別情報を使用して、動画を構成する各フレーム画像のうち、静止画として抽出するには不適なフレーム画像を自動的に取り除く選別処理を実行する。抽出するには不適なフレーム画像とは、撮影条件値又は撮影条件情報から算出した評価値が、当該フレーム画像が所定の品質を有していないと判断されるような値を示しているものである。撮像条件値が、所定の品質を有していないと判断される値であった場合には、自動的にそのフレーム画像を静止画抽出対象外と設定することができる。また、第1の判定情報のようなフラグを有していれば、当該フラグの値に応じて自動選別処理を行うことができ、極めて高速に選別処理を行うことが可能となる。   The automatic image sorting unit 404 uses image sorting information to automatically remove a frame image that is inappropriate for extraction as a still image from each frame image constituting a moving image in response to a user request or the like. Execute the process. A frame image unsuitable for extraction refers to a value at which an evaluation value calculated from a shooting condition value or shooting condition information is determined that the frame image does not have a predetermined quality. is there. When the imaging condition value is a value determined not to have a predetermined quality, the frame image can be automatically set as a still image extraction target. Further, if the flag such as the first determination information is provided, the automatic sorting process can be performed according to the value of the flag, and the sorting process can be performed at a very high speed.

<撮影条件情報及びその評価>
選別情報取得部401は、撮影条件情報として、上述したように、撮影時の、例えば、焦点距離情報、シャッタースピード(イメージセンサの露光期間)情報、絞り(アイリス)情報、及び感度(AGCゲインまたはISO感度)情報等のうちいずれか1つ以上を、撮像部100よりフレーム画像毎、又は一定間隔で取得する。
<Photographing condition information and evaluation>
As described above, the selection information acquisition unit 401 includes, for example, focal length information, shutter speed (image sensor exposure period) information, aperture (iris) information, and sensitivity (AGC gain or AGC gain) as shooting condition information. Any one or more of (ISO sensitivity) information and the like are acquired from the imaging unit 100 for each frame image or at regular intervals.

焦点距離、シャッタースピード、絞り、感度等の撮影条件を示す各種パラメータが変動している場合、つまり、ズーム移動や照度変化等の撮影環境に変化が生じている場合は、フォーカスやゲイン、ホワイトバランス等の制御の変化中でもあり、画像の状態は不安定であるので静止画として抽出するには適したフレーム画像ではないと判断することが可能である。   If various parameters indicating shooting conditions such as focal length, shutter speed, aperture, and sensitivity are fluctuating, that is, if there is a change in the shooting environment such as zoom movement or illuminance change, focus, gain, white balance, etc. Since the state of the image is unstable, it is possible to determine that the frame image is not suitable for extraction as a still image.

以下、撮影条件情報の具体的な利用方法の一例について説明する。
焦点距離:
焦点距離が、フレーム画像間で一定値以上、すなわち所定の閾値以上の変動をしている場合は、ズーム中又はフォーカシング中と判別することができ、キャプチャフレームから除外することができる。
Hereinafter, an example of a specific method for using the shooting condition information will be described.
Focal length:
When the focal length fluctuates by a certain value or more between frame images, that is, a predetermined threshold value or more, it can be determined that zooming or focusing is in progress and can be excluded from the capture frame.

シャッタースピード:
シャッタースピード(イメージセンサの露光期間)が、1/60又は1/50より長い場合は、同一画像が数フレーム連続する。例えば、シャッタースピード1/30の場合は2フレームごとに画像が更新される。したがって、そのような場合は、連続する画像の中から1つのフレーム画像のみをキャプチャフレームとして抽出することができ、他のフレーム画像をキャプチャフレームから除外することができる。例えば、NTSCの1/15シャッタの場合、「画像1、画像1、画像1、画像1、画像2、画像2、画像2、画像2、…」と4フレーム毎に画像が更新されるため、例えば、その4フレームの先頭のフレーム画像のみキャプチャフレームとし、その他のフレーム画像をキャプチャフレームから除外することができる。これにより、同一シーン(画像)のキャプチャを防止することができる。
shutter speed:
When the shutter speed (the exposure period of the image sensor) is longer than 1/60 or 1/50, the same image continues several frames. For example, when the shutter speed is 1/30, the image is updated every two frames. Therefore, in such a case, only one frame image can be extracted as a capture frame from consecutive images, and other frame images can be excluded from the capture frame. For example, in the case of NTSC 1/15 shutter, the image is updated every 4 frames, such as “Image 1, Image 1, Image 1, Image 1, Image 2, Image 2, Image 2, Image 2,. For example, only the first frame image of the four frames can be used as a capture frame, and other frame images can be excluded from the capture frame. Thereby, capture of the same scene (image) can be prevented.

絞り:
絞り(アイリス)が、フレーム間で一定値以上の変動をしている場合は、ズーム、フォーカシング等のレンズ制御の変化や、ゲイン調整、ホワイトバランス等の画像処理に変化が生じ、被写体の照度の変化やズーム動作の可能性があると判断することができる。よって、絞り(アイリス)が、フレーム間で一定値以上の変動をしている場合は、当該フレーム画像をキャプチャフレームから除外することができる。
Aperture:
When the iris (iris) fluctuates by more than a certain value between frames, changes in lens control such as zoom and focusing, and image processing such as gain adjustment and white balance change. It can be determined that there is a possibility of a change or zoom operation. Therefore, when the aperture (iris) fluctuates more than a certain value between frames, the frame image can be excluded from the capture frame.

感度:
感度(AGCゲインまたはISO感度)が、フレーム間で一定値以上の変動をしている場合は、フォーカシング、絞り等のレンズ制御の変化や、ホワイトバランス等の画像処理の変化が生じ、被写体の照度の変化があると判断することができる。よって、フレーム間で一定値以上の変動をしている場合は、当該フレーム画像をキャプチャフレームから除外することができる。
sensitivity:
If the sensitivity (AGC gain or ISO sensitivity) fluctuates by more than a certain value between frames, changes in lens control such as focusing and aperture, and changes in image processing such as white balance occur, and the illuminance of the subject It can be determined that there is a change. Therefore, when there is a fluctuation of a certain value or more between frames, the frame image can be excluded from the capture frame.

なお、撮影条件情報は、これらの値に限らず、動画撮影時の撮影条件を判断することができるものであればよい。すなわち、静止画抽出の自動選別の際に使用できるような値であればよい。ただし、これら焦点距離、シャッタースピード、絞り及び感度のような情報は、撮影時に取得することが最も好ましい情報であり、動画撮影後に解析により取得しようとしても取得困難であったり、正確な値を得られなかったりするものである。このような、後の動画解析等により得ることができない、得ることが困難、又は得るために複雑な解析処理が必要となるような情報を、予め撮影時に取得することで、静止画抽出に不適なフレーム画像を自動選別する際に極めて有効に利用することができる。   Note that the shooting condition information is not limited to these values, and any information can be used as long as the shooting conditions at the time of moving image shooting can be determined. That is, any value that can be used for automatic selection of still image extraction may be used. However, information such as the focal length, shutter speed, aperture, and sensitivity is the most preferable information to be acquired at the time of shooting, and it is difficult to acquire by analysis after moving image shooting, or an accurate value is obtained. It is something that cannot be done. Such information that cannot be obtained later by moving image analysis or the like, is difficult to obtain, or requires complicated analysis processing to be obtained in advance, is not suitable for still image extraction. Can be used very effectively when automatically selecting a frame image.

また、これらの撮影条件情報は、フレーム画像毎又は一定間隔で取得されるため、フレーム画像間で焦点距離等がどのくらい変化しているかを算出することができる。したがって、選別情報生成部402は、各フレーム画像間での変化量を算出し、撮影条件情報と共に、又は撮影条件情報に替えて当該変化量を画像選別情報として生成してもよい。この変化量を画像選別情報とすることで、画像判定部403や、画像自動選別部404においては、上述したように、例えばある一定値以上焦点距離が変化していたら、当該フレーム画像は、ピントが合っていないと考えられ、キャプチャフレームとしては不適なフレーム画像であると瞬時に判断することができる。   In addition, since these shooting condition information is acquired for each frame image or at regular intervals, it is possible to calculate how much the focal length or the like changes between the frame images. Therefore, the selection information generation unit 402 may calculate the amount of change between the frame images and generate the amount of change as image selection information together with the shooting condition information or instead of the shooting condition information. By using the amount of change as the image selection information, the image determination unit 403 and the automatic image selection unit 404, as described above, for example, if the focal length has changed by a certain value or more, the frame image is in focus. Therefore, it can be instantly determined that the frame image is inappropriate as a capture frame.

画像判定部403は、撮影条件情報に基づき、各フレーム画像がキャプチャフレームに不適か否かを判定し、その結果として第1の判定情報を生成する。ここで、画像判定部403は、各撮影条件情報について、その撮影条件情報値又はそのフレーム画像間における変化量に対して閾値を定める等の基準を設け、各撮影条件情報のいずれか1つでも基準に満たない場合、すなわち、例えば焦点距離、シャッタースピード、絞り及び感度等においては、その変化量が所定の閾値を上回った場合に、当該フレーム画像はキャプチャフレームとしては不適である旨を示す第1の判定情報を生成することができる。   The image determination unit 403 determines whether or not each frame image is unsuitable for the capture frame based on the shooting condition information, and generates first determination information as a result. Here, the image determination unit 403 provides a reference for setting a threshold for each shooting condition information with respect to the shooting condition information value or the amount of change between the frame images, and any one of the shooting condition information can be set. When the standard is not satisfied, that is, for example, in the case of the focal length, shutter speed, aperture, sensitivity, etc., when the amount of change exceeds a predetermined threshold, it is indicated that the frame image is not suitable as a capture frame. 1 determination information can be generated.

また、各撮影条件情報値のいずれか2以上乃至全部が閾値を上回ったら、キャプチャフレームとしては不適であると判定してもよい。さらには、ユーザが抽出したい静止画の品質を指定し、その品質を下回るようなフレーム画像を全部キャプチャフレームとしては不適であると判定してもよい。画像判定部403で、撮影条件情報に基づき予め画像判定しておくことで、ユーザが動画データから静止画を抽出する段階になって、画像自動選別部404による自動選別処理を高速化することができる。   Further, if any two or more or all of the photographing condition information values exceed the threshold value, it may be determined that it is not suitable as a capture frame. Furthermore, the user may specify the quality of the still image that the user wants to extract, and determine that all the frame images that are lower than the quality are not suitable as capture frames. The image determination unit 403 determines the image in advance based on the shooting condition information, so that the user can extract the still image from the moving image data, and the automatic selection process by the image automatic selection unit 404 can be accelerated. it can.

一方で、画像判定部403を設けず、又は画像判別情報として第1の判定情報と共に撮影条件情報も記録しておくことで、画像自動選別部404は、画像自動選別処理に撮影条件情報を利用することができる。つまり、画像自動選別部404は、撮影条件情報に基づき、画像判定部403と同様の判定方法により、動画を構成する各フレーム画像がキャプチャフレームに適さないか否かを判定し、自動選別することができる他、例えば、ユーザが動画を構成するフレーム画像のうち3割程度は抽出対象から削減したいと考えた場合、画像自動選別部404が各撮影条件値の閾値を動的に変更し、キャプチャに不適と判断されるフレーム画像が全フレーム画像の3割となるように設定することができる。これにより、ユーザは撮影条件上、品質が高い所望の枚数のフレーム画像を自動選別させることができる。   On the other hand, by not providing the image determination unit 403 or by recording the shooting condition information together with the first determination information as the image determination information, the image automatic selection unit 404 uses the shooting condition information for the image automatic selection process. can do. That is, the image automatic selection unit 404 determines whether each frame image constituting the moving image is not suitable for the capture frame by the same determination method as the image determination unit 403 based on the shooting condition information, and automatically selects it. In addition, for example, when the user wants to reduce about 30% of the frame images constituting the moving image from the extraction target, the image automatic selection unit 404 dynamically changes the threshold value of each shooting condition value, and captures it. It is possible to set so that the number of frame images that are determined to be unsuitable for 30% of all frame images. Accordingly, the user can automatically select a desired number of frame images with high quality under the shooting conditions.

なお、本実施の形態においては、画像判定部403が第1の判定情報を生成するものとして説明しているが、上述したように選別情報生成部402が判定機能を有するものとし、画像判定部403を省略してもよい。   In the present embodiment, the image determination unit 403 is described as generating the first determination information. However, as described above, the selection information generation unit 402 has a determination function, and the image determination unit 403 may be omitted.

<画像選別情報付き動画データ生成方法>
次に、本実施の形態における画像選別情報(第1の判定情報)付き動画データの生成方法について説明する。図2は、本実施の形態にかかる画像選別情報付き動画データの生成方法を示すフローチャートである。図2に示すように、ユーザが操作部306の図示しない録画ボタンを押したとき、動画の撮像が開始され、本処理は、中央制御部400の統括制御によりプログラムに従い実行される。
<Video data generation method with image selection information>
Next, a method for generating moving image data with image selection information (first determination information) in the present embodiment will be described. FIG. 2 is a flowchart showing a method for generating moving image data with image selection information according to the present embodiment. As shown in FIG. 2, when the user presses a recording button (not shown) of the operation unit 306, moving image capturing is started, and this processing is executed according to a program by the central control of the central control unit 400.

上述の通り、撮像部100及びアナログ画像信号処理部105を介して、動画データがメインメモリ204に一時記憶される(ステップS101)。   As described above, the moving image data is temporarily stored in the main memory 204 via the imaging unit 100 and the analog image signal processing unit 105 (step S101).

この間、すなわち撮影開始時から撮影終了時までの間、撮像部100により撮影条件情報を取得し、選別情報取得部401には、撮像部100より撮影条件情報が送られる(ステップS102)。そして、本実施の形態においては、選別情報生成部402は、選別情報取得部401から撮影条件情報を受け取り、これを画像選別情報とし、画像判定部403に送る。画像判定部403は、撮影条件情報の値、又は各フレーム画像間の撮影条件値の変化量等から、各フレーム画像がキャプチャフレームに不適か否かを示す第1の判定情報を生成する(ステップS103)。画像判定部403は、この第1の判定情報を含む画像選別情報を多重化部109に送り、多重化部109は、この画像選別情報を圧縮動画データと共に多重化し(ステップS104)、例えばカード型記録媒体302に、画像選別情報付き動画データとして記録する(ステップS105)。   During this period, that is, from the start of shooting to the end of shooting, shooting condition information is acquired by the imaging unit 100, and shooting condition information is sent from the imaging unit 100 to the selection information acquisition unit 401 (step S102). In this exemplary embodiment, the selection information generation unit 402 receives the shooting condition information from the selection information acquisition unit 401, uses this as image selection information, and sends it to the image determination unit 403. The image determination unit 403 generates first determination information indicating whether or not each frame image is unsuitable for a capture frame from the value of the shooting condition information or the amount of change in the shooting condition value between the frame images (step S1). S103). The image determination unit 403 sends the image selection information including the first determination information to the multiplexing unit 109, and the multiplexing unit 109 multiplexes the image selection information together with the compressed moving image data (step S104). The moving image data with image selection information is recorded on the recording medium 302 (step S105).

<実施の形態1の効果>
以上、本発明の実施の形態1においては、撮影時に撮影条件情報を各フレーム画像毎等に取得することで、その撮影条件情報や、そのフレーム画像間の変化量を画像選別情報(タグ)として生成し、動画データと共に記録することができる。従って、当該動画データから静止画を抽出する際に、各フレーム画像が静止画として抽出するに足る品質を有していないか否、すなわちキャプチャフレームとして不適か否かを自動選別することができ、ユーザが所望の静止画を抽出する際に必要な時間を短縮化することができる。
<Effect of Embodiment 1>
As described above, in the first embodiment of the present invention, the shooting condition information and the amount of change between the frame images are obtained as image selection information (tag) by acquiring the shooting condition information for each frame image at the time of shooting. It can be generated and recorded with moving image data. Therefore, when extracting still images from the moving image data, it is possible to automatically select whether each frame image does not have enough quality to be extracted as a still image, that is, whether it is inappropriate as a capture frame, The time required for the user to extract a desired still image can be shortened.

特に従来の技術では、撮影時に取得される静止画に対しては、シャッタを押されたとき、又はシャッタを半押しされたときに、フォーカス、絞り、露光、シャッタスピード(=センサーの露光期間)等の調整をすることができるが、再生時のキャプチャ画像に対してはそのような調整をすることはできない。よって、再生時のキャプチャにおいて、より良いシーンを特定するためには、撮影時の撮影条件がよいことが必須条件となる。しかし、すでに記録された動画データからは、正確な撮影条件情報を直接知ることができない。   In particular, in the conventional technique, for a still image acquired at the time of shooting, focus, aperture, exposure, and shutter speed (= sensor exposure period) when the shutter is pressed or when the shutter is pressed halfway. However, it is not possible to make such adjustments for captured images during playback. Therefore, in order to specify a better scene in the capture at the time of reproduction, it is an essential condition that the shooting conditions at the time of shooting are good. However, accurate shooting condition information cannot be directly known from already recorded moving image data.

例えば、フォーカスは、特定エリアのエッジレベルを検出することで合焦しているかを判断することができる。被写体の検出もフォーカス同様に再度検出させることで可能になる。しかし、絞り、露光、シャッタースピード、ゲイン等の相互的に関与する撮影情報は個別に抽出することが困難であり、その精度も低くなる。すなわち、再生動画から撮影情報を検出することは不可能ではないものの、検出精度が得られなかったり、処理の負荷(時間や電力)が大きくなったりする。したがって、従来は、動画データから静止画をキャプチャする場合は、ユーザがキャプチャシーンを指定する方法が一般的な方法となっている。   For example, the focus can be determined by detecting the edge level of a specific area. The subject can also be detected by detecting again like the focus. However, it is difficult to individually extract photographing information that is mutually related such as aperture, exposure, shutter speed, gain, and the like, and the accuracy is also low. That is, although it is not impossible to detect shooting information from a reproduced moving image, detection accuracy cannot be obtained, and processing load (time and power) increases. Therefore, conventionally, when a still image is captured from moving image data, a method in which a user designates a capture scene is a general method.

これに対し、本実施の形態においては、撮影時に撮影情報を取得し、画像選別情報として動画データと共に記録する。したがって、フレーム画像の自動選別や、静止画抽出の際にこの画像選別情報を利用すれば、当該撮影条件情報に基づき、より品質が高いフレーム画像を、記録された動画データから抽出することができ、言いかえれば、撮影時のキャプチャのように最適な撮影条件のフレーム画像を選別することができる。   On the other hand, in this embodiment, shooting information is acquired at the time of shooting, and is recorded together with moving image data as image selection information. Therefore, if this image selection information is used when automatically selecting frame images or extracting still images, a higher quality frame image can be extracted from the recorded moving image data based on the shooting condition information. In other words, it is possible to select a frame image with an optimal shooting condition such as capture at the time of shooting.

また、画像選別情報は、動画データの圧縮処理前に取得することができるため、この動画データと共に圧縮処理することで、圧縮動画の利便性が向上する。   Further, since the image selection information can be acquired before the compression processing of the moving image data, the convenience of the compressed moving image is improved by performing the compression processing together with the moving image data.

さらに、この画像選別情報を動画データと共に圧縮処理せず、又は一旦圧縮された動画データを伸張処理せずとも参照できる態様で保存することで、この画像選別情報を参照するのに動画データを伸張処理する必要がなくなり、よってユーザは、動画データを再生することなく、自動選別処理を極めて高速に実行させることができる。   Furthermore, the image selection information is not compressed with the moving image data, or the compressed moving image data is stored in a manner that can be referred to without being expanded, so that the moving image data is expanded to refer to the image selection information. This eliminates the need for processing, so that the user can execute the automatic sorting process at a very high speed without reproducing the moving image data.

さらに、静止画として抽出するに足る品質を有さないフレーム画像を抽出対象から除外することができるため、次に説明する、動画データの各フレーム画像に含まれる被写体の顔検出や顔認証等の識別処理において、予め本実施の形態における画像選別情報を使用してそのようなフレーム画像を除外しておけば、同一シーンの処理や静止画抽出するには品質が劣っているようなフレーム画像の処理を、処理対象から除外することができて処理速度を向上させることができる。   Furthermore, since frame images that do not have enough quality to be extracted as still images can be excluded from the extraction target, face detection and face authentication of the subject included in each frame image of moving image data, which will be described below, are performed. In the identification process, if such a frame image is excluded in advance using the image selection information in the present embodiment, a frame image that is inferior in quality for processing the same scene or extracting a still image. The processing can be excluded from the processing target, and the processing speed can be improved.

<実施の形態1の変形例>
ところで、本実施の形態においては、動画を構成する各フレーム画像について撮影条件情報を取得する。ここでは、上記の格納情報を利用したキャプチャ静止画データへのExif(Exchangeable image file format)情報の付加について説明する。通常、静止画には、Exif情報が付加される。Exif情報には、カメラの機種や撮影時の条件情報を画像に埋め込んでいて、ビューワやフォトレタッチソフト等で応用することができる。例えば、Exif2.2ではExif Printという規格を組み込み、撮影時の条件情報を元に自動的に最適化を行って、的確な状態でプリント出力を可能とする。プリンタによっては、撮影条件に応じて、コントラスト補正や暗部や明部の補正、ホワイトバランス補正等を行うことができる。
<Modification of Embodiment 1>
By the way, in this embodiment, shooting condition information is acquired for each frame image constituting a moving image. Here, the addition of Exif (Exchangeable image file format) information to captured still image data using the stored information will be described. Normally, Exif information is added to a still image. In the Exif information, the camera model and shooting condition information are embedded in the image, and can be applied by a viewer, photo retouching software, or the like. For example, in Exif 2.2, a standard called Exif Print is incorporated, and optimization is automatically performed based on condition information at the time of shooting, thereby enabling print output in an accurate state. Depending on the printer, it is possible to perform contrast correction, dark / bright correction, white balance correction, and the like according to the shooting conditions.

ただし、記録された動画データからキャプチャした静止画には、動画データにカメラ情報がないため、Exif情報を付加することができない。これに対し、本実施の形態においては、画像選別情報を作成するに当たり、撮影条件情報を取得する。よって、撮影条件情報を加工して画像選別情報を生成する場合でも、撮影条件情報も合わせて記録するようにすれば、これらは動画データの各フレーム単位に用意される情報であるため、キャプチャしたフレーム画像(静止画)も撮像条件情報を有する。したがって、これを利用することで、キャプチャフレームにもExif情報を付加することが可能となる。   However, Exif information cannot be added to still images captured from recorded moving image data because there is no camera information in the moving image data. In contrast, in the present embodiment, shooting condition information is acquired when creating image selection information. Therefore, even if the shooting condition information is processed to generate image selection information, if the shooting condition information is also recorded, these are information prepared for each frame of the moving image data, and thus captured. A frame image (still image) also has imaging condition information. Therefore, using this makes it possible to add Exif information to a capture frame.

<本発明の実施の形態2.>
次に、本発明の実施の形態2について説明する。上述の実施の形態1は、画像選別情報として撮影条件情報を使用するものであったが、本実施の形態においては、画像選別情報として、画像内に含まれる被写体の情報を使用する場合について説明する。
<Embodiment 2 of the present invention>>
Next, a second embodiment of the present invention will be described. In the first embodiment described above, the shooting condition information is used as the image selection information. However, in the present embodiment, a case where information on a subject included in the image is used as the image selection information will be described. To do.

本実施の形態にかかる撮像装置の構成は、図1に示す実施の形態1の構成と同様であるが、中央制御部410における選別情報取得部411、選別情報生成部412、画像判定部413、画像自動選別部414が、それぞれ被写体情報に基づき機能する点が実施の形態1と異なる。   The configuration of the imaging apparatus according to the present embodiment is the same as that of the first embodiment shown in FIG. 1, but the selection information acquisition unit 411, the selection information generation unit 412, the image determination unit 413 in the central control unit 410, The automatic image selection unit 414 is different from the first embodiment in that each image automatic selection unit 414 functions based on subject information.

なお、実施の形態においても、動画データから静止画を抽出する際の自動選別を可能とするための画像選別情報を生成して撮像画像と共に記録する撮像装置について説明する。つまり、本実施の形態にかかる撮像装置を、一の動画ファイルから、一定以上の基準を満たすフレーム画像を静止画抽出候補として自動選別することを可能とする場合について説明するが、複数の動画ファイルから、一定以上の基準を満たすフレーム画像が一定以上含まれる動画ファイルを自動選別する場合等や、複数の静止画から一定以上の基準を満たす静止画を自動選別する場合にも適用することができることは言うまでもない。   In the embodiment, an imaging apparatus that generates image selection information for enabling automatic selection when extracting a still image from moving image data and records it together with the captured image will be described. That is, the case where the imaging apparatus according to the present embodiment can automatically select, as a still image extraction candidate, a frame image that satisfies a certain criterion from one moving image file will be described. Therefore, it can also be applied to the case of automatically selecting a moving image file that includes a certain number of frame images that satisfy a certain standard, or the case of automatically selecting a still image that satisfies a certain standard from a plurality of still images. Needless to say.

図3は、本発明の実施の形態2にかかる撮像装置を示すブロック図である。図3に示すように、中央制御部410は、選別情報生成部412、画像判定部413、画像自動選別部414、及び登録画像DB415を有する。   FIG. 3 is a block diagram illustrating an imaging apparatus according to the second embodiment of the present invention. As illustrated in FIG. 3, the central control unit 410 includes a selection information generation unit 412, an image determination unit 413, an automatic image selection unit 414, and a registered image DB 415.

本実施の形態における選別情報取得部411は、動画データに含まれる被写体を、動画を構成するフレーム画像の品質に関する情報として検出し、登録画像DB415の登録画像のいずれに一致するか否かを検出する。そして、一致した被写体があった場合には、その登録画像に一致した被写体の数、大きさ、角度若しくは方角、画面上の位置、及び笑顔レベルのいずれか1以上を検出する。この被写体情報は、動画を撮影する間に取得される。   The selection information acquisition unit 411 according to the present embodiment detects a subject included in the moving image data as information on the quality of the frame image constituting the moving image, and detects which of the registered images in the registered image DB 415 matches. To do. If there is a matching subject, one or more of the number, size, angle or direction, position on the screen, and smile level of the subject that matches the registered image is detected. This subject information is acquired while shooting a moving image.

ここで、本明細書における「動画を撮影する間」とは、撮影開始時から動画データ(生データ)がメインメモリ204に書き込まれ、これが読み出されて圧縮・伸張処理部201で圧縮処理される前までを意味する。動画データは圧縮処理されると、伸張処理しない限り、被写体に関する情報を得ることができないが、本実施の形態においては、フレーム画像の品質の良否判定に使用可能な被写体に関する情報を、圧縮処理される前までに取得しておく。これにより、もし動画が圧縮処理されても、この被写体に関する情報を評価し、フレーム画像の良否を判断することができ、すなわち、動画データを伸張処理することなく、フレーム画像の自動選別が可能となる。   Here, “while shooting a moving image” in this specification means that moving image data (raw data) is written into the main memory 204 from the start of shooting, and is read and compressed by the compression / decompression processing unit 201. Means until before. When video data is compressed, information about the subject cannot be obtained unless decompression is performed. However, in the present embodiment, information about the subject that can be used to determine the quality of the frame image is compressed. Get it before As a result, even if the moving image is compressed, the information about the subject can be evaluated and the quality of the frame image can be judged, that is, the frame image can be automatically selected without decompressing the moving image data. Become.

選別情報生成部412は選別情報取得部411が検出した被写体に関する情報に基づき、当該動画を構成する各フレーム画像毎に画像選別情報を生成する。具体的には、選別情報生成部412は、登録画像に一致した被写体の数、大きさ、角度若しくは方角、画面上の位置、及び笑顔レベルのいずれか1以上の検出結果、この検出結果をランク付けした優先度、及びその被写体が一致した登録画像に設定される優先度のいずれか1以上を、フレーム画像毎又は一定間隔毎に取得し、その取得結果に基づき画像選別情報を生成する。この画像選別情報も、動画データと別ファイルとすれば、動画データが圧縮処理された後であっても、この画像選別情報のみを読み出し、画像の僭越処理を行うことができる。   The selection information generation unit 412 generates image selection information for each frame image constituting the moving image based on the information about the subject detected by the selection information acquisition unit 411. Specifically, the selection information generation unit 412 detects at least one of the number, size, angle or direction of the subject that matches the registered image, the position on the screen, and the smile level, and ranks this detection result. Any one or more of the assigned priority and the priority set for the registered image matching the subject is acquired for each frame image or at regular intervals, and image selection information is generated based on the acquisition result. If this image selection information is also a separate file from the moving image data, even after the moving image data is compressed, only this image selection information can be read out and the image passover process can be performed.

そして、本実施の形態においては、登録画像DB415を有する。登録画像DB415は、登録画像が登録された画像データベースであるが、例えば、本人や家族、友達等の画像をID(識別番号)別に登録画像として登録しておくことができる。   And in this Embodiment, it has registration image DB415. The registered image DB 415 is an image database in which registered images are registered. For example, images of the person, family, friends, and the like can be registered as registered images by ID (identification number).

そして、選別情報取得部411が、フレーム画像に含まれる被写体が、登録画像のいずれに一致するか否かを検出する。そして、フレーム画像に含まれる被写体が登録画像に一致した場合、登録画像に一致した被写体の数、大きさ、角度若しくは方角、画面上の位置、及び笑顔レベルのいずれか1以上を検出する。選別情報生成部412は、その検出結果、この検出結果をランク付けした優先度、及び被写体が一致した登録画像に設定される優先度のいずれか1以上を、フレーム画像毎又は一定間隔で取得し、当該取得結果に基づき画像選別情報を生成する。   Then, the selection information acquisition unit 411 detects which of the registered images the subject included in the frame image matches. When the subject included in the frame image matches the registered image, one or more of the number, size, angle or direction of the subject matching the registered image, the position on the screen, and the smile level are detected. The selection information generation unit 412 acquires any one or more of the detection result, the priority ranking the detection result, and the priority set for the registered image with the matching subject for each frame image or at regular intervals. Then, image selection information is generated based on the acquisition result.

画像判定部413は、画像判定部403と同様に、選別情報生成部412により生成された画像選別情報に基づき、動画を構成する各フレーム画像がキャプチャフレームとしての品質を有するか否かを判定する。ここで、画像判定部413は、被写体に関する情報に基づき生成された画像選別情報を使用し、各フレーム画像がキャプチャフレームとして適しているか否かを判定する。実施の形態1では、キャプチャフレームとして不適か否かを判定したのに対し、本実施の形態においては、適しているか否かを判定する。   Similar to the image determination unit 403, the image determination unit 413 determines whether each frame image constituting the moving image has a quality as a capture frame based on the image selection information generated by the selection information generation unit 412. . Here, the image determination unit 413 determines whether each frame image is suitable as a capture frame by using image selection information generated based on information on the subject. In the first embodiment, it is determined whether or not it is unsuitable as a capture frame. In the present embodiment, it is determined whether or not it is suitable.

すなわち、本実施の形態においては、画像選別情報として被写体に関する情報を使用する。よって、ユーザが取りたいと思っている所望の被写体が所望の大きさ、位置で撮影されていると判断できる場合は、当該フレーム画像はキャプチャフレームとして適していると判断することができるのである。よって、画像判定部413は、このような画像選別情報に基づき、各フレーム画像について、当該フレーム画像がキャプチャフレームに適しているか否かを示す第2の判断情報(フラグ等)を生成する。   That is, in the present embodiment, information about the subject is used as the image selection information. Therefore, when it can be determined that a desired subject that the user wants to take is captured at a desired size and position, the frame image can be determined to be suitable as a capture frame. Therefore, the image determination unit 413 generates, for each frame image, second determination information (such as a flag) indicating whether or not the frame image is suitable for a capture frame based on such image selection information.

選別情報生成部412が生成した画像選別情報や画像判定部413が生成した第2の判定情報は、多重化部109に送られ、圧縮・伸張処理部201にて圧縮処理された動画データと共に多重化され、カード型記録媒体302等に記録される。   The image selection information generated by the selection information generation unit 412 and the second determination information generated by the image determination unit 413 are sent to the multiplexing unit 109 and multiplexed together with the moving image data compressed by the compression / decompression processing unit 201. And recorded on the card-type recording medium 302 or the like.

画像自動選別部414は、記録後の動画データから静止画抽出に好ましいフレーム画像のみを自動選別する。本実施の形態においては、動画データは、第2の判定情報を含む画像選別情報を有するため、当該画像選別情報に基づき自動選別が可能である。例えば、ユーザがある動画データについて静止画抽出を行いたい場合に、その静止画抽出に先立ち、画像自動選別部414は、動画データから画像選別情報を読み出し、全フレーム画像のうち、例えば、第2の判定情報を参照して、キャプチャフレームとして適すると判断されるフレーム画像のみ自動選別する。または、ユーザが例えば10分の動画データから、100枚のフレームを自動選別したい場合には、画像選別情報を参照し、最適と判断されるフレーム画像100枚を自動で選別することができる。ユーザは例えば選ばれた100枚のフレーム画像から更に所望の10枚のフレーム画像を抽出したりすることができる。   The automatic image selection unit 414 automatically selects only frame images that are preferable for still image extraction from the recorded moving image data. In the present embodiment, since the moving image data has image selection information including the second determination information, automatic selection is possible based on the image selection information. For example, when a user wants to perform still image extraction for a certain moving image data, prior to the still image extraction, the image automatic selection unit 414 reads image selection information from the moving image data, and for example, the second frame image includes, for example, a second image. Only the frame image determined to be suitable as the capture frame is automatically selected. Alternatively, when the user wants to automatically select 100 frames from, for example, 10 minutes of moving image data, 100 frame images determined to be optimal can be automatically selected with reference to the image selection information. For example, the user can further extract desired 10 frame images from the selected 100 frame images.

<被写体に関する情報>
次に、被写体に関する情報について詳細に説明する。
登録画像:
事前に登録された登録画像には、登録画像毎にIDを有する。このID(識別情報)には、優先度を設定しておいてもよい。そして、撮影時に顔認証等の認証処理により、登録画像が検出されたら、その登録ID自体を、画像選別情報とすることも可能である。なお、本実施の形態においては、各フレーム画像毎に被写体の検出を行うものとして説明するが、所定間隔毎に行うようにしてもよい。また、本実施の形態においては、予め登録画像DB415を有するものとして説明するが、例えば、検出された被写体毎に順に自動的にIDを付して自動的に登録画像DBを生成するようにしてもよい。その場合は、最も検出率が高い順に優先度を選定したり、ある程度の数の登録画像DBが生成されたら、ユーザが各登録画像について優先度を設定するようにしてもよい。
<Information about the subject>
Next, information regarding the subject will be described in detail.
Registered image:
The registered image registered in advance has an ID for each registered image. A priority may be set for this ID (identification information). When a registered image is detected by authentication processing such as face authentication at the time of shooting, the registered ID itself can be used as image selection information. In the present embodiment, it is assumed that the subject is detected for each frame image, but may be performed at predetermined intervals. In the present embodiment, the registration image DB 415 is described in advance. However, for example, an ID is automatically assigned to each detected subject in order, and the registration image DB is automatically generated. Also good. In this case, the priority may be selected in the order of the highest detection rate, or when a certain number of registered image DBs are generated, the user may set the priority for each registered image.

被写体の検出結数:
各フレーム画像において検出された被写体が登録画像に一致した数を記録する。なお、本実施の形態においては、登録画像に一致した被写体の数のみをカウントするものとして説明するが、登録されていない被写体が検出された場合もこれをカウントするようにしてもよい。この場合、登録されている被写体と、未登録との被写体とを区別するようにしてもよい。
Number of detected objects:
The number of subjects detected in each frame image matches the registered image is recorded. In the present embodiment, it is assumed that only the number of subjects that match the registered image is counted. However, this may also be counted when an unregistered subject is detected. In this case, a registered subject may be distinguished from an unregistered subject.

被写体の大きさ:
各フレーム画像において検出された被写体が登録画像に一致した場合、その画面に占める大きさ、例えばピクセル数を記録する。
Subject size:
When the subject detected in each frame image matches the registered image, the size of the screen, for example, the number of pixels is recorded.

被写体の角度、方向:
各フレーム画像において検出された被写体が登録画像に一致した場合、その角度、方向を記録する。なお、一般的の顔検出処理において、登録された顔情報と動画データ内に含まれる対象物との照合や顔の方向を検知する技術は周知であるのでここではその詳細は説明しないが、一般的には顔の輪郭、目や鼻、口等の器官情報の位置や形から特徴を抽出し、一致する画像を検索する。そして、一定レベルの一致があれば、検出と判断する。被写体の顔の向きについても、同様の方法で顔の輪郭、目や鼻、口等の器官情報の位置や形から方向を検出する。
Subject angle and direction:
If the subject detected in each frame image matches the registered image, the angle and direction are recorded. Note that, in general face detection processing, techniques for matching registered face information and objects included in moving image data and detecting the face direction are well known, and details thereof will not be described here. Specifically, features are extracted from the position and shape of organ information such as face outline, eyes, nose, mouth, and the like, and a matching image is searched. Then, if there is a certain level of coincidence, it is determined as detection. Regarding the orientation of the face of the subject, the direction is detected from the position and shape of organ information such as the outline of the face, eyes, nose and mouth by the same method.

被写体の位置:
各フレーム画像において検出された被写体が登録画像に一致した場合、その画面内での位置を記録する。
Subject position:
When the subject detected in each frame image matches the registered image, the position in the screen is recorded.

被写体の笑顔レベル:
各フレーム画像において検出された被写体が登録画像に一致した場合、その笑顔レベルを記録する。
Subject smile level:
When the subject detected in each frame image matches the registered image, the smile level is recorded.

被写体のピント:
各フレーム画像において検出された被写体が登録画像に一致した場合、その被写体の周辺のエッジレベルを検出し、フォーカスが合っているかを判定することができる。
Subject focus:
When the subject detected in each frame image matches the registered image, the edge level around the subject can be detected to determine whether the subject is in focus.

被写体の動きベクトル:
各フレーム画像において検出された被写体が登録画像に一致した場合、その被写体の動きベクトルを検出し、その動きの大きさに応じて各フレーム画像を評価する。
Subject motion vector:
When the subject detected in each frame image matches the registered image, the motion vector of the subject is detected, and each frame image is evaluated according to the magnitude of the motion.

検出結果の優先度:
各フレーム画像について、各検出結果の優先度を記録する。優先度とは、上記の検出結果をランク付けしたものを使用することができる。つまり、例えば、被写体の検出数、大きさ、角度・方角、位置、笑顔レベル、ピント、動きベクトルをこの順等で優先順位を設定する。
Detection priority:
The priority of each detection result is recorded for each frame image. As the priority, a ranking of the above detection results can be used. That is, for example, the priority order is set in this order for the number of detected objects, the size, the angle / direction, the position, the smile level, the focus, and the motion vector.

各フレーム画像について各被写体情報を抽出し、それらの被写体についてそれぞれサイズ、位置、優先度、動きベクトル等の情報を取得するが、この場合、優先度に応じて必要な情報のみ取得するようにしてもよい。例えば、画面内に被写体が100人含まれていた場合であっても、すべてに顔枠や名前、笑顔レベル等の認証処理をする必要性は低い。このため、優先度を用いて上位から一定数処理を実行する。画像選別情報として格納する情報も上位から一定数とすることができる。   Each subject information is extracted for each frame image, and information such as size, position, priority, and motion vector is obtained for each subject. In this case, only necessary information is obtained according to the priority. Also good. For example, even when 100 subjects are included in the screen, it is not necessary to perform authentication processing such as a face frame, name, and smile level on all. For this reason, a certain number of processes are executed from the top using the priority. Information stored as image selection information can also be a certain number from the top.

<動画データにおける被写体情報>
次に、フレーム画像間での被写体追従方法について説明する。図4及び図5は、それぞれ表1及び表2を示す図である。あるフレーム画像1において図4に示す表1のような検出結果が得られた場合について説明する。ここでの被写体とは、画像判定部413に登録されている登録画像との一致が検出されたものをいう。被写体の検出結果順にNo.1、No.2、No.3、…、No.10と番号を付す。この番号に、被写体の登録画像ID、大きさ、角度・方向、位置、笑顔レベル、優先度をリンクさせる。そして、次のフレーム画像2の検出結果は図5に示す表2のようになったとする。
<Subject information in video data>
Next, a method for tracking a subject between frame images will be described. 4 and 5 are diagrams showing Tables 1 and 2, respectively. A case will be described in which a detection result as shown in Table 1 shown in FIG. The term “subject” as used herein refers to a subject in which a match with a registered image registered in the image determination unit 413 has been detected. Numbers No. 1, No. 2, No. 3,..., No. 10 are assigned in order of the detection result of the subject. The registered image ID, size, angle / direction, position, smile level, and priority of the subject are linked to this number. Then, it is assumed that the detection result of the next frame image 2 is as shown in Table 2 shown in FIG.

上記のように表2においては、No.4、No.6、No.7がフレーム画像2で消失し、No.8、No.9が追加されていることを示している。これは、No.4、No.6、No.7の被写体が、画面からいなくなり、逆にNo.8、No.9の被写体が、画面内に新たに加わったことを示す。よって、No.1、No.2、No.3、No.5は双方のフレーム画像に存在するため、被写体の追従を行う。このような追従、情報整理を常に行うことで、顔検出枠を表示したり、顔にフォーカスを合わせたり、追従する被写体を判別ししたりすることができる。なお、このような追従動作は、撮影時に通常行われているものであり、よってこのような追従記録を、画像選別情報として、撮影時乃至動画の記録までに取得することは可能である。   As described above, in Table 2, No. 4, No. 6, and No. 7 disappear in the frame image 2, and No. 8 and No. 9 are added. This indicates that the subjects No. 4, No. 6, and No. 7 are no longer on the screen, and the subjects No. 8 and No. 9 are newly added to the screen. Therefore, since No. 1, No. 2, No. 3, and No. 5 exist in both frame images, the subject is tracked. By always performing such tracking and information organization, it is possible to display a face detection frame, focus on the face, and determine the subject to be tracked. Note that such a follow-up operation is normally performed at the time of shooting, and thus such follow-up recording can be acquired as image selection information from the time of shooting to the time of recording of a moving image.

<画像選別情報の評価方法>
次に、上述のようにして検出した被写体情報(タグ)の利用方法又は評価方法について説明する。
<Evaluation method of image selection information>
Next, a method of using or evaluating the subject information (tag) detected as described above will be described.

登録画像との照合
被写体は、登録画像DB415に含まれる登録画像との一致が検出されている。この登録画像は、それぞれIDを有する。この場合、例えばユーザが指定したIDを有するフレーム画像を、キャプチャフレームとして抽出することが可能となる。ここで、登録画像は、ユーザ等の顔画像にとどまらず、ペット等の動物を登録画像とすることも可能である。また、必要に応じて、ユーザの愛車などの物体を登録画像として設定することも可能である。
Matching with registered image The subject has been detected to match the registered image contained in the registered image DB 415. Each registered image has an ID. In this case, for example, a frame image having an ID designated by the user can be extracted as a capture frame. Here, the registered image is not limited to the face image of the user or the like, and an animal such as a pet can be used as the registered image. Moreover, it is also possible to set an object such as a user's own car as a registered image as necessary.

被写体の大きさの評価
ユーザに指定された登録画像IDに一致する被写体の大きさが一定以上である場合、当該フレーム画像は、キャプチャフレームとして適したフレーム画像と判断する。
Evaluation of subject size When the size of the subject that matches the registered image ID specified by the user is greater than or equal to a certain value, the frame image is determined to be a frame image suitable as a capture frame.

被写体の角度、方向の評価
ユーザに指定された登録画像IDに一致する被写体の角度、方向が一定範囲内である場合、当該フレーム画像は、キャプチャフレームとして適したフレーム画像と判断する。
Evaluation of subject angle and direction If the angle and direction of the subject that matches the registered image ID specified by the user are within a certain range, the frame image is determined to be a frame image suitable as a capture frame.

笑顔の評価
ユーザに指定された登録画像IDに一致する被写体の笑顔レベルが一定レベル以上である場合、キャプチャフレームとして適したフレーム画像と判断する。また、例えば、集合写真等、フレーム画像内に、ユーザに指定された登録画像IDに一致する被写体が複数存在する場合、各被写体の笑顔レベルの平均値が一定レベル以上であれば、当該フレーム画像は、キャプチャフレームとして適したフレーム画像と判断する。なお、集合写真であっても、特定の被写体の笑顔レベルのみに注目するようにしてもよい。
Smile Evaluation If the smile level of the subject that matches the registered image ID specified by the user is above a certain level, it is determined that the frame image is suitable as a capture frame. Further, for example, when there are a plurality of subjects that match the registered image ID designated by the user, such as a group photo, if the average smile level of each subject is equal to or higher than a certain level, the frame image Is determined as a frame image suitable as a capture frame. Note that even a group photo may be focused only on the smile level of a specific subject.

被写体の動きの評価
連続するフレーム画像において、上述の表1及び表2に示したように、追従可能な被写体の場合、各種情報も連続的に取得できる。したがって、例えば、位置情報に注目し、被写体の動きを把握して、動き量が一定範囲内である場合にのみ、当該フレーム画像をキャプチャフレームとして適したフレーム画像と判断する。
Evaluation of subject movement In continuous frame images, as shown in Tables 1 and 2 above, in the case of a subject that can be followed, various types of information can also be acquired continuously. Therefore, for example, attention is paid to position information, the movement of the subject is grasped, and only when the amount of movement is within a certain range, the frame image is determined as a frame image suitable as a capture frame.

画像判定部413は、例えば、これらのうち、1つでもキャプチャフレームとして適したフレーム画像と判断された場合には、キャプチャフレームとして適していることを示す値(例えば1)を第2の判定情報に設定することができる。このように、第2の判定情報を付与することで、画像自動選別部414は、即座にキャプチャフレームとして抽出すべきか否かを判断して自動選別することができる。   For example, when it is determined that at least one of these is a frame image suitable as a capture frame, the image determination unit 413 sets a value (for example, 1) indicating that it is suitable as a capture frame to the second determination information. Can be set to In this way, by adding the second determination information, the image automatic selection unit 414 can automatically determine by determining whether or not to immediately extract as a capture frame.

また、画像判定部413を設けない場合に、選別情報生成部412が、被写体の検出数、大きさ、角度・方角、位置、笑顔レベル、ピント、動きベクトル等の値を画像選別情報とした場合は、各フレーム画像がこれらの情報を画像選別情報として有するものとなる。この場合は、画像自動選別部414が、画像選別情報に含まれる各値を適宜評価し、いずれか1つでもキャプチャフレームとして合格のフレーム画像があれば、抽出候補として当該フレーム画像を抽出することもできるし、評価結果を優先度等に応じて重みづけして、総合的に勘案し、キャプチャフレームとして適するか否かを評価してもよい。   Further, when the image determination unit 413 is not provided, the selection information generation unit 412 uses values such as the number of detected subjects, the size, the angle / direction, the position, the smile level, the focus, and the motion vector as the image selection information. Each frame image has such information as image selection information. In this case, the image automatic selection unit 414 appropriately evaluates each value included in the image selection information, and if any one of the frame images passes as a capture frame, the frame image is extracted as an extraction candidate. Alternatively, the evaluation result may be weighted according to the priority, etc., and comprehensively taken into consideration to evaluate whether it is suitable as a capture frame.

画像判定部413により事前に判定しておくことで、画像自動選別部414での自動選別を高速に実行することができる。一方で、画像自動選別部414で画像選別情報に基づき選別処理を行わせる場合には、例えば、ユーザが優先順等を変更することもでき、また、自動選別するフレーム画像の枚数も、評価結果に応じて動的に変更することができる。   By making a determination in advance by the image determination unit 413, automatic selection by the image automatic selection unit 414 can be executed at high speed. On the other hand, when the automatic image selection unit 414 performs the selection process based on the image selection information, for example, the user can change the priority order, and the number of frame images to be automatically selected is also the evaluation result. It can be changed dynamically according to

画像自動選別部414の自動選別方法の一例について説明する。画像自動選別部414は、画像選別情報に含まれる被写体の検出数に応じて点数を設定する。被写体検出数が1であれば、10点、2であれば30点等とする。被写体の大きさについても同様で、画面の5%未満の大きさであれば、10点、画面の5乃至10%の大きさであれば20点等である。角度・方角についても、正面を向いていると判断できれば100点、横向きであれば30点などとする。笑顔レベルは、0乃至100%で算出されるものであれば、その値をそのまま得点とする。   An example of the automatic sorting method of the image automatic sorting unit 414 will be described. The image automatic selection unit 414 sets a score according to the number of detected subjects included in the image selection information. If the number of detected objects is 1, it is 10 points, and if it is 2, it is 30 points. The same applies to the size of the subject, 10 points if it is less than 5% of the screen, 20 points if it is 5 to 10% of the screen. The angle / direction is also set to 100 points if it can be determined that it is facing the front, 30 points if it is horizontal. If the smile level is calculated from 0 to 100%, the value is used as a score.

次に、これらの得点を各検出結果に設定された優先度に応じて重みづけして、各フレーム画像について合計点を算出する。そして、各合計点を100点満点で換算しなおし、これを評価基準とする。なお、ここまで算出した結果を画像選別情報としてもよい。画像自動選別部414は、この100点満点の評価基準を使用し、例えば70点以上のフレーム画像については、キャプチャフレームとして適している等と判定する。もしくは、ユーザが最適なフレーム画像を100枚抽出するよう指示した場合は、この評価値の高い順に100枚のフレーム画像を自動選別することができる。   Next, these scores are weighted according to the priority set for each detection result, and a total score is calculated for each frame image. Then, each total score is converted back to a full score of 100, and this is used as the evaluation standard. The result calculated so far may be used as the image selection information. The automatic image selection unit 414 uses the 100-point evaluation criteria, and determines that, for example, a frame image of 70 points or more is suitable as a capture frame. Alternatively, when the user instructs to extract 100 optimal frame images, 100 frame images can be automatically selected in descending order of the evaluation value.

なお、例えば被写体の大きさが一定以下である場合、被写体の動きベクトルが一定以上大きい場合、被写体のエッジレベルが一定以上小さい場合などに、静止画として抽出すべきフレーム画像としては不適であると判断されるものについては、これらの評価値を−1000点などとすることで、当該フレーム画像の点数が上記の場合であれば、70点を超えないような値に設定し、キャプチャフレームとして選別されないようにすることも可能である。   For example, when the size of the subject is below a certain level, when the motion vector of the subject is larger than a certain level, or when the edge level of the subject is smaller than a certain level, it is not suitable as a frame image to be extracted as a still image. For those to be judged, by setting these evaluation values to -1000 points, etc., if the score of the frame image is the above case, the value is set so as not to exceed 70 points and selected as a capture frame. It is also possible not to be done.

<画像選別情報付き動画データ生成方法>
次に、本実施の形態における画像選別情報(第2の判定情報)付き動画データの生成方法について説明する。図6は、本実施の形態にかかる画像選別情報付き動画データの生成方法を示すフローチャートである。図6に示すように、ユーザが操作部306の図示しない録画ボタンを押したとき、動画の撮像が開始され、本処理は、中央制御部400の統括制御によりプログラムに従い実行される。
<Video data generation method with image selection information>
Next, a method for generating moving image data with image selection information (second determination information) in the present embodiment will be described. FIG. 6 is a flowchart showing a method for generating moving image data with image selection information according to the present embodiment. As shown in FIG. 6, when the user presses a recording button (not shown) on the operation unit 306, moving image capturing is started, and this processing is executed according to a program by the central control of the central control unit 400.

上述の通り、アナログ画像信号処理部105を介して、動画データがメインメモリ204に一時記憶される(ステップS201)。   As described above, the moving image data is temporarily stored in the main memory 204 via the analog image signal processing unit 105 (step S201).

選別情報取得部411は、メインメモリ204に格納された動画データを読み出し、解析して、被写体情報を入手する(ステップS202)。なお、被写体の顔検出処理は、例えば、顔検出部を別途有する場合は、そこで処理した結果を選別情報生成部412が受け取るようにしてもよい。   The selection information acquisition unit 411 reads out and analyzes the moving image data stored in the main memory 204 to obtain subject information (step S202). For example, if the subject face detection process includes a face detection unit, the selection information generation unit 412 may receive the processing result.

選別情報生成部412は、被写体の情報から画像選別情報を生成する。選別情報生成部412は、被写体の検出数、大きさ、角度・方角、位置、笑顔レベル、ピント、動きベクトル等の情報を取得したら、これらの情報を上述のような評価基準に従って、例えば100点満点の評価値に換算し、これを画像選別情報とする(ステップS203)。   The selection information generation unit 412 generates image selection information from subject information. When the selection information generation unit 412 acquires information such as the number of detected subjects, the size, the angle / direction, the position, the smile level, the focus, the motion vector, etc., the selection information generation unit 412 obtains, for example, 100 points based on the above evaluation criteria It converts into the evaluation value of a perfect score, and makes this image selection information (step S203).

画像判定部413は、選別情報生成部412から受け取った画像選別情報に基づき、各フレーム画像がキャプチャフレームに適しているか否かを示す第2の判定情報を生成する(ステップS204)。例えば、各フレーム画像の100点満点の評価値を画像選別情報として受け取ると、例えば70点以上の評価値のフレーム画像は1、69点以下の評価値のフレーム画像は0等に設定した第2の判定情報を生成する。   The image determination unit 413 generates second determination information indicating whether each frame image is suitable for a capture frame based on the image selection information received from the selection information generation unit 412 (step S204). For example, when an evaluation value with a maximum score of 100 of each frame image is received as image selection information, for example, a frame image with an evaluation value of 70 points or more is set to 1, a frame image with an evaluation value of 69 points or less is set to 0 or the like. The determination information is generated.

画像判定部413は、第2の判定情報を含む画像選別情報を多重化部109に送り、圧縮動画データと共に多重化し(ステップS205)、例えばカード型記録媒体302に、画像選別情報付き動画データとして記録する(ステップS206)。   The image determination unit 413 sends the image selection information including the second determination information to the multiplexing unit 109 and multiplexes the compressed image data together with the compressed moving image data (step S205), for example, as the moving image data with image selection information on the card type recording medium 302. Recording is performed (step S206).

<実施の形態2の効果>
以上、本発明の実施の形態2においては、動画を構成する各フレーム画像から被写体に関する情報を取得し、これに基づき画像選別情報を生成して動画データに付与する。これにより、例えば画像自動選別部414により、キャプチャフレームとして適したフレーム画像のみを抽出することが可能となる。
<Effect of Embodiment 2>
As described above, in Embodiment 2 of the present invention, information about a subject is acquired from each frame image constituting a moving image, and based on this, image selection information is generated and attached to moving image data. Thereby, for example, only the frame image suitable as the capture frame can be extracted by the image automatic selection unit 414.

また、ユーザの指定した登録IDの被写体が移っているフレーム画像のみ抽出するというようなことも可能となる。すなわち、動画データからユーザがキャプチャのタイミングを指示しなくても、自動キャプチャすることが可能となる。   It is also possible to extract only the frame image where the subject of the registration ID designated by the user has moved. That is, automatic capture can be performed without the user instructing the capture timing from the moving image data.

さらに、被写体の検出数、大きさ、角度・方角、位置、笑顔レベル、ピント、動きベクトル等の情報の評価対象の被写体情報のそれぞれに優先度を設定することで、自動キャプチャの際に、1つの動画データからの最大キャプチャ枚数を指定すること等ができる。すなわち、抽出されたキャプチャフレームの優先度に基づき、上位レベルのフレーム画像から抽出することが可能となる。   Furthermore, by setting a priority for each subject information to be evaluated such as the number of detected subjects, size, angle / direction, position, smile level, focus, motion vector, etc., at the time of automatic capture, You can specify the maximum number of captures from one video data. In other words, it is possible to extract from a higher-level frame image based on the priority of the extracted capture frame.

さらにまた、動画再生時は、画像選別情報から顔や人物、動物、物体の情報を取得し、指定された被写体のフレーム画像のみを表示したり、指定されたフレーム画像で一時停止したりすることで、ユーザに静止画キャプチャを促すこともできる。また、指定された被写体を検索することで、関連するシーンを自動的に再生、キャプチャすることができる。   Furthermore, when playing back a movie, information on the face, person, animal, or object is obtained from the image selection information, and only the frame image of the specified subject is displayed or paused at the specified frame image. The user can be prompted to capture a still image. In addition, by searching for a designated subject, a related scene can be automatically reproduced and captured.

また、静止画キャプチャのみならず、各動画データは、それを構成するフレーム画像毎に画像選別情報を有しているため、これを参照して、動画データ自体の評価を行うことができ、例えば、複数の動画ファイルの中から、指定した登録画像の被写体を有するフレーム画像を最も多く含む動画ファイルを抽出することも可能である。   In addition to still image capture, each moving image data has image selection information for each frame image constituting the moving image data. With reference to this, the moving image data itself can be evaluated, for example, It is also possible to extract a moving image file including the largest number of frame images having a designated registered image subject from a plurality of moving image files.

さらに、本実施の形態においては、動画ファイルについて、被写体情報から画像選別情報を生成するものとして説明したが、静止画ファイルについても同様に行うことができる。つまり、静止画についても、各静止画の被写体情報を抽出し、画像選別情報を付加して記録しておけば、ユーザは全静止画を再生することなく、所望の静止画を抽出することが可能となる。   Furthermore, in the present embodiment, the description has been made on the assumption that the image selection information is generated from the subject information for the moving image file, but the same can be done for the still image file. That is, for still images, if the subject information of each still image is extracted and the image selection information is added and recorded, the user can extract a desired still image without reproducing all the still images. It becomes possible.

さらにまた、これらの被写体情報は、動画データであっても静止画データであっても、圧縮して記録された後は、伸張処理しないと検出できない情報である。よって、画像選別情報は、伸張処理しなくても読み出せる場所に記録しておくことで、動画データ又は静止画データを例えば再生などの伸張処理することなく、所望の静止画を自動選別することができるので、自動選別処理を高速化することができる。   Furthermore, the subject information is information that cannot be detected unless it is decompressed after being compressed and recorded, whether it is moving image data or still image data. Therefore, the image selection information is recorded in a place where it can be read out without decompression processing, so that desired still images can be automatically selected without decompression processing such as reproduction of moving image data or still image data. Therefore, the automatic sorting process can be speeded up.

<実施の形態2の変形例>
ここで、本実施の形態の変形例について説明する。従来は、再生する動画ファイルのビットレートによらず、固定のビットレートで静止画キャプチャ処理を行っている。このため、キャプチャした静止画の画質は、再生する動画ファイルのビットレートに依存するものとなっていた。
<Modification of Embodiment 2>
Here, a modification of the present embodiment will be described. Conventionally, still image capture processing is performed at a fixed bit rate regardless of the bit rate of the moving image file to be reproduced. For this reason, the image quality of the captured still image depends on the bit rate of the moving image file to be reproduced.

これに対し、本変形例においては、再生する動画ファイルのビットレートに関する情報を画像選別情報として取得し、この情報に応じて最適なキャプチャ処理を行うものである。そこで、本実施の形態においては、メディア制御部207によって、カード型記録媒体302等の記録メディアに格納されている動画データのビットレート情報に関する情報を取得し、キャプチャの際は、最適な量子化パラメータを設定する。すなわち、キャプチャを行う際、記録されている動画ファイルからビットレートに関する情報を取得し、最適な量子化パラメータ設定することでより適した静止画を記録する。   On the other hand, in this modification, information regarding the bit rate of a moving image file to be reproduced is acquired as image selection information, and an optimal capture process is performed according to this information. Therefore, in the present embodiment, the media control unit 207 acquires information about the bit rate information of the moving image data stored in the recording medium such as the card type recording medium 302, and the optimal quantization is performed at the time of capture. Set the parameters. That is, when capturing, information related to the bit rate is acquired from the recorded moving image file, and a more suitable still image is recorded by setting an optimal quantization parameter.

または、圧縮・伸張処理部201で動画データを圧縮処理する際、そのビットレートに関する情報を選別情報生成部402に送り、選別情報生成部402は、これを画像選別情報に含め、多重化部109に送り、圧縮された動画データとも多重化するようにしてもよい。また、上述したように、画像選別情報が、圧縮動画ファイルとは異なるファイルとして保存されるようにしてもよい。   Alternatively, when the compression / decompression processing unit 201 compresses the moving image data, information regarding the bit rate is sent to the selection information generation unit 402, and the selection information generation unit 402 includes this in the image selection information and includes the multiplexing unit 109. And may be multiplexed with the compressed moving image data. Further, as described above, the image selection information may be stored as a file different from the compressed moving image file.

このように、画像選別情報に動画データの圧縮時のビットレートに関する情報を含めることで、動画圧縮時のビットレートが高ければJPEG(Joint Photographic Experts Group)エンコード時の量子化パラメータ(JPEGエンコードの精度)も高く、動画圧縮時のビットレートが低ければJPEGエンコード時の量子化パラメータも低くなるよう制御することができる。これによって、記録静止画の画質が最適化され、静止画ファイルのデータ量も最適に抑えることができる。   In this way, by including information related to the bit rate at the time of video data compression in the image selection information, if the bit rate at the time of video compression is high, the quantization parameter at the time of JPEG (Joint Photographic Experts Group) encoding (JPEG encoding accuracy) If the bit rate at the time of moving image compression is low, the quantization parameter at the time of JPEG encoding can be controlled to be low. As a result, the image quality of the recorded still image is optimized, and the data amount of the still image file can be suppressed optimally.

例えば、640×360を1920×1080でキャプチャするような、画像拡大を行った後にキャプチャする場合は、超解像度処理等を施さない限り、実解像度(空間周波数)は1920×1080ではなく640×360のままとなる。このため、JPEGエンコード時の量子化パラメータを低くすることも可能であり、記録動画サイズによっても最適化を行うことができる。   For example, when capturing after performing image enlargement such as capturing 640 × 360 at 1920 × 1080, the actual resolution (spatial frequency) is not 920 × 1080 but 640 × 360 unless super-resolution processing or the like is performed. Will remain. For this reason, it is possible to reduce the quantization parameter at the time of JPEG encoding, and optimization can also be performed depending on the recording moving image size.

すなわち、JPEGエンコードは全て高精度で行うことも可能であるが、ユーザは、通常、画質の違いを認知することが困難である。よって、全ての静止画を高ビットレートでエンコードすることは、静止画ファイルのデータ量の増大に繋がり、記録枚数の低下をまねく。したがって、本変形例においては、動画記録時のビットレートと記録動画サイズに関する情報を画像選別情報に含めることで、最適なJPEGエンコード時の量子化パラメータを制御することができ、記録静止画の画質向上を図ることができる。   That is, JPEG encoding can be performed with high accuracy, but it is usually difficult for the user to recognize the difference in image quality. Therefore, encoding all still images at a high bit rate leads to an increase in the data amount of the still image file and a decrease in the number of recorded images. Therefore, in this modification, by including information on the bit rate and recording moving image size at the time of moving image recording in the image selection information, it is possible to control the quantization parameter at the time of optimal JPEG encoding, and the image quality of the recorded still image Improvements can be made.

<本発明の実施の形態3.>
次に、本発明の実施の形態3について説明する。上述の実施の形態2においては、被写体がユーザの所望の位置、大きさ等で写っていれば、品質がよいと判断し、これを抽出するようにしている。ところで、このように被写体的には、品質がよい、と判断することができる画像の中にも、上述の実施の形態1で説明したように、撮影条件的には、品質がよくないものも存在しうる。この場合は、そのようなフレーム画像はキャプチャフレームとしては、不適と判断されるべきである。そこで、本発明の実施の形態3においては、実施の形態1で使用した撮影条件情報に基づく第1の判断情報と、被写体に関する情報に基づく第2に判断情報を使用することで、キャプチャフレームとしてより確実なフレーム画像を自動選別する。
<Third embodiment of the present invention>
Next, a third embodiment of the present invention will be described. In the above-described second embodiment, if the subject is captured at the user's desired position, size, etc., it is determined that the quality is good, and this is extracted. By the way, among the images that can be determined to be good in terms of subject as described above, some of the images that are not good in terms of shooting conditions as described in Embodiment 1 above. Can exist. In this case, such a frame image should be determined to be inappropriate as a capture frame. Therefore, in the third embodiment of the present invention, the first determination information based on the shooting condition information used in the first embodiment and the second determination information based on the information about the subject are used as a capture frame. Automatic selection of more reliable frame images.

図7は、本実施の形態にかかる撮像装置を示すブロック図である。中央制御部420は、選別情報生成部421、画像判定部422、画像自動選別部423、及び登録画像DB424を有する。また、選別情報生成部421は、撮影条件情報取得部431及び被写体情報取得部432を有し、画像判定部422は、撮影条件情報判定部441及び被写体情報判定部442を有する。   FIG. 7 is a block diagram illustrating the imaging apparatus according to the present embodiment. The central control unit 420 includes a selection information generation unit 421, an image determination unit 422, an image automatic selection unit 423, and a registered image DB 424. The selection information generation unit 421 includes a shooting condition information acquisition unit 431 and a subject information acquisition unit 432, and the image determination unit 422 includes a shooting condition information determination unit 441 and a subject information determination unit 442.

撮影条件情報取得部431は、選別情報生成部421内に形成されているが、実施の形態1における選別情報生成部402と同様の働きをする。すなわち、撮影条件情報取得部431は、撮像部100が動画を取得している間の撮像条件情報を取得し、選別情報生成部421は、取得された撮影条件情報に基づき、動画を構成する各フレーム画像毎に、撮影条件情報に基づく第1の画像選別情報を生成する。   The imaging condition information acquisition unit 431 is formed in the selection information generation unit 421, and functions in the same manner as the selection information generation unit 402 in the first embodiment. That is, the imaging condition information acquisition unit 431 acquires imaging condition information while the imaging unit 100 acquires a moving image, and the selection information generation unit 421 configures each moving image based on the acquired imaging condition information. For each frame image, first image selection information based on the shooting condition information is generated.

また、被写体情報取得部432は、選別情報生成部421内に形成されているが、実施の形態2における選別情報生成部412と同様の働きをする。すなわち、被写体情報取得部432は、撮影した動画を構成する各フレーム画像に含まれる被写体情報を取得し、選別情報生成部421は、取得された被写体が、登録画像DB424に登録されている登録画像のいずれに一致するか否かを検出する。そして、フレーム画像に含まれる被写体が登録画像に一致した場合、登録画像に一致した被写体の数、大きさ、角度若しくは方角、画面上の位置、及び笑顔レベルのいずれか1以上を検出した検出結果、当該検出結果をランク付けした優先度、及び当該被写体が一致した登録画像に設定される優先度のいずれか1以上を、フレーム画像毎又は一定間隔で取得し、当該取得結果に基づき、被写体情報に基づく第2の画像選別情報を生成する。   In addition, the subject information acquisition unit 432 is formed in the selection information generation unit 421, but functions in the same manner as the selection information generation unit 412 in the second embodiment. That is, the subject information acquisition unit 432 acquires subject information included in each frame image constituting the photographed moving image, and the selection information generation unit 421 stores the acquired subject registered in the registered image DB 424. It is detected whether any of these matches. When the subject included in the frame image matches the registered image, the detection result of detecting any one or more of the number, size, angle or direction, position on the screen, and smile level of the subject matching the registered image Any one or more of the priority ranking of the detection result and the priority set for the registered image that matches the subject is acquired for each frame image or at a fixed interval, and subject information is obtained based on the acquisition result. 2nd image selection information based on is generated.

画像判定部422の撮影条件情報判定部441は、選別情報生成部421が生成した第1の画像選別情報に基づき、動画を構成する各フレーム画像の抽出すべき抽出静止画としての適否を判定する。そして、撮影条件情報判定部441は、撮像条件に基づき、動画を構成する各フレーム画像毎に当該フレーム画像が抽出静止画として不適か否かを示す第1の判定情報を生成する。上述のように選別情報生成部421は、第1の画像選別情報を各フレーム画像毎に生成するため、撮影条件情報判定部441は、各フレーム画像毎に、当該フレーム画像が静止画としての抽出に耐えうる品質を有しないか否かを判断することができ、その結果として第1の判定情報を生成する。   The shooting condition information determination unit 441 of the image determination unit 422 determines the suitability of each frame image constituting the moving image as the extracted still image to be extracted based on the first image selection information generated by the selection information generation unit 421. . Then, the shooting condition information determination unit 441 generates first determination information indicating whether or not the frame image is inappropriate as the extracted still image for each frame image constituting the moving image based on the imaging condition. Since the selection information generation unit 421 generates the first image selection information for each frame image as described above, the imaging condition information determination unit 441 extracts the frame image as a still image for each frame image. It is possible to determine whether or not the quality can endure, and as a result, first determination information is generated.

画像判定部422の被写体情報判定部442は、画像判定部413と同様に、選別情報生成部421により生成された第2の画像選別情報に基づき、動画を構成する各フレーム画像がキャプチャフレームとしての品質を有するか否かを判定する。ここで、被写体情報判定部442は、被写体に関する情報に基づき生成された第2の画像選別情報を使用し、各フレーム画像がキャプチャフレームとして適しているか否かを判定する。被写体情報判定部442は、第2の画像選別情報に基づき、各フレーム画像について、当該フレーム画像がキャプチャフレームに適しているか否かを示す第2の判断情報を生成する。   Similar to the image determination unit 413, the subject information determination unit 442 of the image determination unit 422 uses the second image selection information generated by the selection information generation unit 421 as the capture frame. It is determined whether or not it has quality. Here, the subject information determination unit 442 uses the second image selection information generated based on the information related to the subject, and determines whether each frame image is suitable as a capture frame. The subject information determination unit 442 generates, for each frame image, second determination information indicating whether or not the frame image is suitable for the capture frame based on the second image selection information.

ここで、本実施の形態における画像判定部422は、被写体情報判定部442が生成した第1の判定情報により、キャプチャには不適とされたフレーム画像を除き、残されたフレーム画像において、被写体情報判定部442が生成した第2の判定情報によりキャプチャに適しているとされたフレーム画像を、キャプチャすることが最も好ましいと判断する第3の判定情報を生成する。画像判定部422は、第1乃至第3の判定情報を、第1及び第2の画像識別情報と共に多重化部109に送る。   Here, the image determination unit 422 in the present embodiment excludes the frame image that is not suitable for capture by the first determination information generated by the subject information determination unit 442, and uses the subject information in the remaining frame images. Third determination information for determining that it is most preferable to capture a frame image determined to be suitable for capture based on the second determination information generated by the determination unit 442 is generated. The image determination unit 422 sends the first to third determination information to the multiplexing unit 109 together with the first and second image identification information.

多重化部109は、圧縮・伸張処理部201にて圧縮処理された動画データに、第1乃至第3の判定情報を含む第1及び第2の画像識別情報を多重化し、カード型記録媒体302等に記録する。   The multiplexing unit 109 multiplexes the first and second image identification information including the first to third determination information into the moving image data compressed by the compression / decompression processing unit 201, and the card type recording medium 302. Record in etc.

画像自動選別部423は、ユーザが動画データから静止画を抽出する場合等、ユーザの要請に応じて、静止画抽出に好ましいフレーム画像のみを自動選別する。本実施の形態においては、動画データは、第1乃至第3の判定情報を含む画像選別情報を有するため、当該画像選別情報に基づき自動選別が可能である。例えば、ユーザが、ある動画データについて静止画抽出を行いたい場合に、その静止画抽出に先立ち、画像自動選別部414は、動画データから画像選別情報を読み出し、全フレーム画像のうち、例えば、第3の判定情報を参照して、キャプチャフレームとして最適と判断されるフレーム画像のみ自動選別する。   The image automatic selection unit 423 automatically selects only frame images preferable for still image extraction in response to a user request, such as when a user extracts a still image from moving image data. In the present embodiment, the moving image data has image selection information including the first to third determination information, and therefore can be automatically selected based on the image selection information. For example, when the user wants to perform still image extraction for a certain moving image data, prior to the still image extraction, the image automatic selection unit 414 reads out image selection information from the moving image data, and among the all frame images, for example, With reference to the determination information of No. 3, only frame images determined to be optimal as capture frames are automatically selected.

ここで、例えば画像判定部422を有していない場合は、撮影条件情報に基づき生成された第1の画像選別情報、及び被写体情報に基づき生成された第2の画像選別情報が、動画データと共に記録されることとなる。なお、上述したように、画像選別情報をどのような形式で記録するか、すなわち、動画データと同一のファイルとするか、別ファイルとするかは限定されない。ただし、圧縮後の動画データから第1及び第2の画像選別情報を、動画データの伸張処理をすることなく読み出せる箇所に保存しておくと、画像自動選別部423は、動画データの各フレーム画像に対応する画像選別情報を参照して、フレーム画像の自動選別を行うことができる。この場合、動画データは再生等の伸張処理をする必要がないため、極めて高速にフレーム画像の選別を実行することができる。   Here, for example, when the image determination unit 422 is not provided, the first image selection information generated based on the shooting condition information and the second image selection information generated based on the subject information are displayed together with the moving image data. Will be recorded. As described above, the format in which the image selection information is recorded, that is, whether the file is the same file as the moving image data or a separate file is not limited. However, if the first and second image selection information is saved from the compressed moving image data at a location where the moving image data can be read without being expanded, the image automatic selection unit 423 causes each frame of the moving image data to be read. The frame image can be automatically selected with reference to the image selection information corresponding to the image. In this case, since it is not necessary to perform decompression processing such as reproduction of moving image data, it is possible to perform frame image selection at an extremely high speed.

画像自動選別部423における選別は、画像判定部422の撮影条件情報判定部441や被写体情報判定部442等と同様の処理となる。予め決められた基準値にしたがって、第1の画像選別情報に基づき、キャプチャフレームとして不適のフレーム画像を排除し、更に第2の画像選別情報に基づき、選別されたフレーム画像の中からさらにキャプチャフレームとして適しているフレーム画像のみを選別することができる。このとき、上述したように、各評価データに対する閾値を動的に変化させ、ユーザの要望に沿った選別を実行させることも可能である。また、ユーザの要望に応じて、第1の画像選別情報のみ、又は第2の画像選別情報のみを、画像選別に使用してもよいことは言うまでもない。   The selection in the automatic image selection unit 423 is the same processing as the imaging condition information determination unit 441 and the subject information determination unit 442 of the image determination unit 422. In accordance with a predetermined reference value, based on the first image selection information, an unsuitable frame image is excluded as a capture frame. Further, based on the second image selection information, further capture frames are selected from the selected frame images. It is possible to select only frame images suitable for At this time, as described above, it is also possible to dynamically change the threshold value for each piece of evaluation data and to execute selection according to the user's request. It goes without saying that only the first image selection information or only the second image selection information may be used for image selection according to the user's request.

<実施の形態3の効果>
本実施の形態においては、撮影条件及び被写体に関する情報からキャプチャに適したフレーム画像を選別することができるため、上述の実施の形態1及び2よりもさらに細かい選別を行うことができる。したがって、ユーザが指定した被写体が写っているフレーム画像であって、撮影条件がよいフレーム画像のみ抽出すること等が可能となる。
<Effect of Embodiment 3>
In the present embodiment, since it is possible to select a frame image suitable for capture from information regarding the shooting conditions and the subject, it is possible to perform a finer selection than in the first and second embodiments described above. Therefore, it is possible to extract only frame images in which the subject specified by the user is captured and which have good shooting conditions.

また、第1の画像選別情報は、本来、再生時には復元不可能な撮影時のレンズ情報や画像処理情報を有しているため、撮影条件がよいフレーム画像のみを抽出することができるうえ、予め生成してある第2の画像選別情報を利用してキャプチャシーンを特定することで、再生処理又はキャプチャシーンの特定における処理時間を大幅に削減することができる。   In addition, since the first image selection information originally includes lens information and image processing information at the time of shooting that cannot be restored at the time of reproduction, only frame images with good shooting conditions can be extracted. By specifying the capture scene using the generated second image selection information, it is possible to significantly reduce the processing time in the reproduction process or the capture scene specification.

また、動画データについて画像選別情報を生成することで、フレーム毎又は一定間隔で撮影条件及び被写体情報を取得するため、時間的な連続性を有する画像選別情報というタグを付加することができる。ことによって、キャプチャに指摘の撮影条件時のフレーム画像を抽出でき、かつ被写体の変化や動きを把握しつつ、キャプチャに最適なフレーム画像を選別することができる。   In addition, by generating image selection information for moving image data, it is possible to add a tag called image selection information having temporal continuity in order to acquire shooting conditions and subject information for each frame or at regular intervals. As a result, it is possible to extract a frame image at the shooting condition indicated for capture, and to select a frame image optimal for capture while grasping the change and movement of the subject.

なお、本発明は上述した実施の形態のみに限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能であることは勿論である。   It should be noted that the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the present invention.

例えば、上述の実施の形態では、ハードウェアの構成として説明したが、これに限定されるものではなく、任意の処理を、CPU(Central Processing Unit)にコンピュータプログラムを実行させることにより実現することも可能である。この場合、コンピュータプログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD−ROM(Read Only Memory)、CD−R、CD−R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(random access memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。   For example, in the above-described embodiment, the hardware configuration has been described. However, the present invention is not limited to this, and arbitrary processing may be realized by causing a CPU (Central Processing Unit) to execute a computer program. Is possible. In this case, the computer program can be stored using various types of non-transitory computer readable media and supplied to the computer. Non-transitory computer readable media include various types of tangible storage media. Examples of non-transitory computer-readable media include magnetic recording media (for example, flexible disks, magnetic tapes, hard disk drives), magneto-optical recording media (for example, magneto-optical disks), CD-ROMs (Read Only Memory), CD-Rs, CD-R / W and semiconductor memory (for example, mask ROM, PROM (Programmable ROM), EPROM (Erasable PROM), flash ROM, RAM (random access memory)) are included. The program may also be supplied to the computer by various types of transitory computer readable media. Examples of transitory computer readable media include electrical signals, optical signals, and electromagnetic waves. The temporary computer-readable medium can supply the program to the computer via a wired communication path such as an electric wire and an optical fiber, or a wireless communication path.

1 撮像装置
100 撮像部
101 ズームレンズ
102 フォーカスレンズ
103 絞り
104 撮像素子
105 アナログ画像信号処理部
106 A/D変換部
107 画像入力コントローラ
106 A/D変換部
109 多重化部
200 バス
201 圧縮・伸張処理部
203 ラインメモリ
204 メインメモリ
206 SDRAM
301 カードI/F
302 カード型記録媒体
400 中央制御部
401 選別情報取得部
402 選別情報生成部
403 画像判定部
404 画像自動選別部
410 中央制御部
411 選別情報取得部
412 選別情報生成部
413 画像判定部
414 画像自動選別部
415 登録画像DB
420 中央制御部
421 選別情報生成部
422 画像判定部
423 画像自動選別部
424 登録画像DB
431 撮影条件情報取得部
432 被写体情報取得部
441 撮影条件情報判定部
442 被写体情報判定部
DESCRIPTION OF SYMBOLS 1 Image pick-up device 100 Image pick-up part 101 Zoom lens 102 Focus lens 103 Diaphragm 104 Image pick-up element 105 Analog image signal processing part 106 A / D conversion part 107 Image input controller 106 A / D conversion part 109 Multiplexing part 200 Bus 201 Compression / decompression process Section 203 Line memory 204 Main memory 206 SDRAM
301 Card I / F
302 Card Type Recording Medium 400 Central Control Unit 401 Selection Information Acquisition Unit 402 Selection Information Generation Unit 403 Image Determination Unit 404 Image Automatic Selection Unit 410 Central Control Unit 411 Selection Information Acquisition Unit 412 Selection Information Generation Unit 413 Image Determination Unit 414 Image Automatic Selection Part 415 Registration Image DB
420 Central Control Unit 421 Selection Information Generation Unit 422 Image Determination Unit 423 Image Automatic Selection Unit 424 Registered Image DB
431 Imaging condition information acquisition unit 432 Subject information acquisition unit 441 Imaging condition information determination unit 442 Subject information determination unit

Claims (3)

動画を取得する撮像部と、
前記動画を撮影する間に、記動画を構成するフレーム画像の品質に関する情報を取得する選別情報取得部と、
前記選別情報取得部が取得した情報に基づき、前記動画をその品質に応じて選別するための情報である画像選別情報を生成する選別情報生成部と、
前記選別情報生成部が生成した前記画像選別情報に基づき、前記動画を構成する各フレーム画像が抽出対象となる対象静止画として適切か否かを判定する画像判定部と、
前記画像選別情報を前記動画と共に記録する記録部と、を有し、
前記画像判定部は、前記撮像部が前記動画を取得している間の撮像条件に基づき、前記動画を構成する各フレーム画像毎にそれらのフレーム画像が前記対象静止画として不適か否かを示す第1の判定情報を生成し、前記動画を構成する各フレーム画像毎にそれらのフレーム画像が前記対象静止画として適するか否かを示す第2の判定情報を生成し、
前記記録部は、前記第1及び第2の判定情報、又は前記第1及び第2の判定情報から得られる総合判定情報を前記画像選別情報の一部又は全部として前記動画と共に記録する
ことを特徴とする撮像装置。
An imaging unit for acquiring a video ;
While photographing the moving, and sorting information acquisition unit that acquires information about the quality of a frame picture image constituting the front kidou image,
Based on the information acquired by the selection information acquisition unit, a selection information generation unit that generates image selection information that is information for selecting the moving image according to its quality;
Based on the image selection information generated by the selection information generation unit, an image determination unit that determines whether or not each frame image constituting the moving image is appropriate as a target still image to be extracted;
A recording unit for recording the image selection information together with the moving image,
The image determination unit indicates whether or not each frame image constituting the moving image is inappropriate as the target still image based on an imaging condition while the imaging unit acquires the moving image. Generating first determination information, generating second determination information indicating whether or not each frame image constituting the moving image is suitable as the target still image;
The recording unit records the first and second determination information or the comprehensive determination information obtained from the first and second determination information as a part or all of the image selection information together with the moving image. An imaging device.
動画を撮影する間に、前記動画を構成するフレーム画像の品質に関する情報を取得する選別情報取得工程と、
前記選別情報取得工程にて取得された情報に基づき、前記動画をその品質に応じて選別するための情報である画像選別情報を生成する選別情報生成工程と、
前記選別情報生成工程にて生成された前記画像選別情報に基づき、前記動画を構成する各フレーム画像が抽出対象となる対象静止画として適切か否かを判定する画像判定工程と、
前記画像選別情報を前記動画と共に記録する記録工程と、を有し、
前記画像判定工程は、
前記動画を取得している間の撮像条件に基づき、前記動画を構成する各フレーム画像毎にそれらのフレーム画像が前記対象静止画として不適か否かを示す第1の判定情報を生成する工程と、
前記動画を構成する各フレーム画像毎にそれらのフレーム画像が前記対象静止画として適するか否かを示す第2の判定情報を生成する工程とを含み、
前記記録工程は、
前記第1及び第2の判定情報、又は前記第1及び第2の判定情報から得られる総合判定情報を前記画像選別情報の一部又は全部として前記動画と共に記録する工程を含む
ことを特徴とする画像処理方法。
During shooting movies, and sorting information acquisition step of acquiring information about the quality of the frame picture images constituting the moving,
Based on the information acquired in the selection information acquisition step, a selection information generation step of generating image selection information that is information for selecting the moving image according to its quality;
Based on the image selection information generated in the selection information generation step, an image determination step for determining whether or not each frame image constituting the moving image is appropriate as a target still image to be extracted;
A recording step of recording the image selection information together with the moving image,
The image determination step includes
Generating first determination information indicating whether or not each frame image constituting the moving image is inappropriate as the target still image based on an imaging condition while acquiring the moving image; ,
Generating, for each frame image constituting the moving image, second determination information indicating whether or not those frame images are suitable as the target still image,
The recording step includes
Recording the first and second determination information or the comprehensive determination information obtained from the first and second determination information together with the moving image as part or all of the image selection information. Image processing method.
動画を撮影する間に、前記動画を構成するフレーム画像の品質に関する情報を取得する選別情報取得処理と、
前記選別情報取得処理にて取得された情報に基づき、前記動画をその品質に応じて選別するための情報である画像選別情報を生成する選別情報生成処理と、
前記選別情報生成処理にて生成された前記画像選別情報に基づき、前記動画を構成する各フレーム画像が抽出対象となる対象静止画として適切か否かを判定する画像判定処理と、
前記画像選別情報を前記動画と共に記録する記録処理と
をコンピュータに実行させるためのプログラムであって、
前記画像判定処理は、
前記動画を取得している間の撮像条件に基づき、前記動画を構成する各フレーム画像毎にそれらのフレーム画像が前記対象静止画として不適か否かを示す第1の判定情報を生成する処理と、
前記動画を構成する各フレーム画像毎にそれらのフレーム画像が前記対象静止画として適するか否かを示す第2の判定情報を生成する処理とを含み、
前記記録処理は、
前記第1及び第2の判定情報、又は前記第1及び第2の判定情報から得られる総合判定情報を前記画像選別情報の一部又は全部として前記動画と共に記録する処理を含む
ことを特徴とするプログラム。
During shooting movies, and sorting information acquisition processing for acquiring information on the quality of the frame picture images constituting the moving,
Based on the information acquired in the selection information acquisition process, a selection information generation process for generating image selection information that is information for selecting the moving image according to its quality;
Based on the image selection information generated in the selection information generation process, an image determination process for determining whether or not each frame image constituting the moving image is appropriate as a target still image to be extracted;
A program for causing a computer to execute a recording process for recording the image selection information together with the moving image,
The image determination process includes
Processing for generating first determination information indicating whether or not each frame image constituting the moving image is inappropriate as the target still image based on an imaging condition while acquiring the moving image; ,
Processing for generating second determination information indicating whether or not each frame image constituting the moving image is suitable as the target still image,
The recording process includes
Including a process of recording the first and second determination information or the comprehensive determination information obtained from the first and second determination information together with the moving image as part or all of the image selection information. program.
JP2011079272A 2011-03-31 2011-03-31 Imaging apparatus, image processing method, and program Active JP5655668B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011079272A JP5655668B2 (en) 2011-03-31 2011-03-31 Imaging apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011079272A JP5655668B2 (en) 2011-03-31 2011-03-31 Imaging apparatus, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2012216918A JP2012216918A (en) 2012-11-08
JP5655668B2 true JP5655668B2 (en) 2015-01-21

Family

ID=47269312

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011079272A Active JP5655668B2 (en) 2011-03-31 2011-03-31 Imaging apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP5655668B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5888614B2 (en) 2013-03-21 2016-03-22 カシオ計算機株式会社 IMAGING DEVICE, VIDEO CONTENT GENERATION METHOD, AND PROGRAM
CN109271915B (en) * 2018-09-07 2021-10-08 北京市商汤科技开发有限公司 Anti-counterfeiting detection method and device, electronic equipment and storage medium
CN109409204B (en) * 2018-09-07 2021-08-06 北京市商汤科技开发有限公司 Anti-counterfeiting detection method and device, electronic equipment and storage medium
JP7319871B2 (en) 2019-09-03 2023-08-02 キヤノン株式会社 Image processing device, image processing method, program, storage medium
JP7452620B2 (en) 2020-02-26 2024-03-19 日本電気株式会社 Image processing device, image processing method, and program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4352260B2 (en) * 2005-01-17 2009-10-28 ソニー株式会社 Imaging device, method for recording captured image data, captured image data processing device, and captured image data processing method
JP2010237911A (en) * 2009-03-31 2010-10-21 Sanyo Electric Co Ltd Electronic apparatus
JP2010252008A (en) * 2009-04-15 2010-11-04 Olympus Imaging Corp Imaging device, displaying device, reproducing device, imaging method and displaying method

Also Published As

Publication number Publication date
JP2012216918A (en) 2012-11-08

Similar Documents

Publication Publication Date Title
US9769377B2 (en) Imaging apparatus and control method for handling a raw image of a moving image or a still image
US10037455B2 (en) Face detection device, imaging apparatus, and face detection method
US8897501B2 (en) Face detection device, imaging apparatus, and face detection method
US8089527B2 (en) Image capturing apparatus, image capturing method and storage medium
JP5456023B2 (en) Image photographing apparatus, image photographing method, program, and integrated circuit
US9918062B2 (en) Image capturing apparatus, control method of image capturing apparatus, and image processing method
US9894270B2 (en) Image processing apparatus and image processing method for handling a raw image, of a moving image or a still image
US9723169B2 (en) Imaging apparatus and imaging apparatus control method
JP2011182252A (en) Imaging device, and image imaging method
JP5655668B2 (en) Imaging apparatus, image processing method, and program
US9055212B2 (en) Imaging system, image processing method, and image processing program recording medium using framing information to capture image actually intended by user
US9396756B2 (en) Image processing apparatus and control method thereof
US10438067B2 (en) Image processing apparatus, image processing method, and storage medium
JP4534750B2 (en) Image processing apparatus and image processing program
US9955135B2 (en) Image processing apparatus, image processing method, and program wherein a RAW image to be subjected to special processing is preferentially subjected to development
US9392169B2 (en) Image processing apparatus, image processing method, program, and imaging apparatus
JP2011119934A (en) Image shooting device and image shooting method
JP2011101161A (en) Imaging device, control method of the same, reproducing device, and program
JP2008172395A (en) Imaging apparatus and image processing apparatus, method, and program
JP2008048152A (en) Moving picture processing apparatus, moving picture photographing apparatus and moving picture photographing program
JP5881932B2 (en) Facial image data generation device, facial image data generation method, and program
JP2010263611A (en) Video photographing apparatus
JP2011130423A (en) Imaging apparatus, and image processing program
JP2010045619A (en) Image reproducing device, imaging apparatus, image reproduction method, image reproduction program
JP2010021709A (en) Image processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131001

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140717

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140729

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140912

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141028

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141110

R150 Certificate of patent or registration of utility model

Ref document number: 5655668

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150