JP2011223265A - Image evaluation device - Google Patents

Image evaluation device Download PDF

Info

Publication number
JP2011223265A
JP2011223265A JP2010089672A JP2010089672A JP2011223265A JP 2011223265 A JP2011223265 A JP 2011223265A JP 2010089672 A JP2010089672 A JP 2010089672A JP 2010089672 A JP2010089672 A JP 2010089672A JP 2011223265 A JP2011223265 A JP 2011223265A
Authority
JP
Japan
Prior art keywords
image
main subject
evaluation apparatus
area
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010089672A
Other languages
Japanese (ja)
Other versions
JP5499856B2 (en
Inventor
Keiichi Nitta
啓一 新田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2010089672A priority Critical patent/JP5499856B2/en
Publication of JP2011223265A publication Critical patent/JP2011223265A/en
Application granted granted Critical
Publication of JP5499856B2 publication Critical patent/JP5499856B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an image evaluation device for evaluating an image frame-out.SOLUTION: A control device 104 extracts a main photogenic subject area including a main photogenic subject from a plurality of images photographed in a time sequence, determines whether at least a part of the extracted main photogenic subject area is framed out or not, specifies images determined to be framed out as frame-out images, and evaluates an image whose main photogenic subject is framed out as a failure image by relatively lowering the evaluation of the specified frame-out images.

Description

本発明は、画像評価装置に関する。   The present invention relates to an image evaluation apparatus.

次のような画像撮影装置が知られている。この画像撮影装置は、露出、コントラスト、ボケなどの画像評価を行い、評価値が所定の閾値以下の画像を記録媒体から削除する(例えば、特許文献1)。   The following image capturing apparatuses are known. This image photographing apparatus performs image evaluation such as exposure, contrast, and blur, and deletes an image whose evaluation value is a predetermined threshold value or less from a recording medium (for example, Patent Document 1).

特開2006−50494号公報JP 2006-50494 A

しかしながら、従来の画像撮影装置における技術を時系列で撮影される画像に適用して画像を評価した場合には、被写体または撮影装置が移動したことにより、被写体がフレームアウトした画像を特定し、特定結果に基づいて画像を評価することができなかった。   However, when an image is evaluated by applying the technology in the conventional image capturing device to an image captured in time series, the subject or the image capturing device has moved, and thus the image where the subject is out of frame is identified and identified. The image could not be evaluated based on the results.

本発明による画像評価装置は、時系列で撮影された画像内から主要被写体を含む主要被写体領域を抽出する抽出手段と、抽出手段によって抽出された主要被写体領域の少なくとも一部が画像からフレームアウトしたか否かを判定する判定手段と、判定手段によってフレームアウトしたと判定された画像をフレームアウト画像として特定する特定手段と、特定手段によって特定されたフレームアウト画像の評価を時系列で取得される画像内において相対的に下げる評価手段とを備えることを特徴とする。
本発明では、判定手段は、時系列で撮影された複数の画像間で、画像内における主要被写体領域の位置変化を検出して、主要被写体領域が画像の端点に位置し、かつ主要被写体領域の面積が減少した場合に、主要被写体領域の少なくとも一部が画像からフレームアウトしたと判定するようにしてもよい。
判定手段は、ある時刻に撮影された画像を基準画像とし、基準画像と当該基準画像とは異なる時刻に撮影された対象画像との差分を演算することによって、時系列で撮影される複数の画像間での画像内における主要被写体領域の位置変化を検出するようにしてもよい。
判定手段は、基準画像内の特徴点と対象画像内の特徴点とを用いて、基準画像と対象画像との位置合わせを行い、位置合わせ後に差分を演算するようにしてもよい。
判定手段は、位置合わせを行ったときに、対象画像外に基準画像との差分を演算するための対応領域が存在しない場合には、対象画像とは異なる時刻に取得された画像内から対応領域を取得して、差分を演算するようにしてもよい。
判定手段は、基準画像の明るさと対象画像の明るさを正規化した後に、差分を演算するようにしてもよい。
基準画像を所定の更新頻度で取得し直して更新する基準画像更新手段をさらに備え、基準画像更新手段は、時系列で撮影された画像の撮影時間間隔、及び撮像装置の移動情報の少なくとも一方に基づいて、所定の更新頻度を決定するようにしてもよい。
抽出手段は、ある時刻に撮影された画像を基準画像とし、基準画像内から主要被写体領域を抽出し、判定手段は、基準画像内から抽出した主要被写体領域内に特徴点を設定し、基準画像内に設定した特徴点の中に、その後に撮影される対象画像内の特徴点と対応付けができないものが生じた場合に、対象画像における主要被写体領域の少なくとも一部が画像からフレームアウトしたと判定するようにしてもよい。
判定手段は、主要被写体領域内に設定した特徴点のうち、対象画像内の特徴点と対応付けができない特徴点の主要被写体内における分布、または対象画像内の特徴点と対応付けができる特徴点の主要被写体内における分布に基づいて、対象画像における主要被写体領域の少なくとも一部が画像からフレームアウトしたことを判定するようにしてもよい。
判定手段は、さらに対象画像における主要被写体領域の位置が所定の条件を満足したときに、対象画像内の特徴点と対応付けができない特徴点の主要被写体内における分布、または対象画像内の特徴点と対応付けができる特徴点の主要被写体内における分布に基づいて、当該対象画像内の主要被写体にオクルージョンが発生したと判定するようにしてもよい。
抽出手段は、時系列で撮影された複数の画像間で動きベクトルを算出し、算出した動きベクトルに基づいて主要被写体領域を抽出するようにしてもよい。
An image evaluation apparatus according to the present invention includes an extraction unit that extracts a main subject region including a main subject from an image photographed in time series, and at least a part of the main subject region extracted by the extraction unit is framed out of the image. Determining means for determining whether or not, specifying means for specifying an image determined to be out of frame by the determining means as a frame-out image, and evaluation of the frame-out image specified by the specifying means are acquired in time series And an evaluation means for lowering in the image.
In the present invention, the determination means detects a change in position of the main subject area in the images between a plurality of images taken in time series, the main subject area is located at the end point of the image, and the main subject area When the area decreases, it may be determined that at least a part of the main subject region is out of frame from the image.
The determining means uses an image captured at a certain time as a reference image, and calculates a difference between the reference image and a target image captured at a different time from the reference image, thereby obtaining a plurality of images captured in time series The position change of the main subject region in the image may be detected.
The determination unit may perform alignment between the reference image and the target image using the feature points in the reference image and the feature points in the target image, and calculate the difference after the alignment.
When the alignment unit performs alignment, if there is no corresponding region for calculating the difference from the reference image outside the target image, the determination unit corresponds to the corresponding region from the image acquired at a time different from the target image. And the difference may be calculated.
The determination unit may calculate the difference after normalizing the brightness of the reference image and the brightness of the target image.
Reference image update means for acquiring and updating the reference image at a predetermined update frequency is further provided, and the reference image update means is provided for at least one of the shooting time interval of images taken in time series and the movement information of the imaging device. Based on this, a predetermined update frequency may be determined.
The extraction means uses an image taken at a certain time as a reference image, extracts a main subject area from the reference image, and the determination means sets feature points in the main subject area extracted from the reference image, If there is a feature point that cannot be associated with a feature point in the target image that is captured after that, at least a part of the main subject area in the target image is out of the image. You may make it determine.
The determination means is a feature point that can be associated with a distribution of feature points that cannot be associated with feature points in the target image among feature points set in the main subject region, or with feature points in the target image. Based on the distribution in the main subject, it may be determined that at least a part of the main subject region in the target image is out of frame from the image.
The determination unit further distributes the feature points in the main subject that cannot be associated with the feature points in the target image or the feature points in the target image when the position of the main subject region in the target image satisfies a predetermined condition. It may be determined that occlusion has occurred in the main subject in the target image based on the distribution of the feature points that can be associated with the main subject in the target image.
The extraction means may calculate a motion vector between a plurality of images taken in time series, and extract a main subject region based on the calculated motion vector.

本発明によれば、被写体または撮影装置が移動したことにより、被写体がフレームアウトした画像を特定して、その画像の評価を低くすることができる。   According to the present invention, it is possible to specify an image in which the subject is out of frame due to the movement of the subject or the photographing apparatus, and to lower the evaluation of the image.

カメラ100の一実施の形態の構成を示すブロック図である。1 is a block diagram illustrating a configuration of an embodiment of a camera 100. FIG. カメラ100の形態における失敗画像の特定処理の流れを示すフローチャート図である。FIG. 10 is a flowchart showing a flow of failure image identification processing in the form of the camera 100. カメラ100の形態における撮影画面に設定されるデフォーカス情報取得エリアの具体例を模式的に示した図である。It is the figure which showed typically the specific example of the defocus information acquisition area set to the imaging | photography screen in the form of the camera. カメラ100の形態における基準画像から抽出された特徴点の具体例を模式的に示した図である。It is the figure which showed typically the specific example of the feature point extracted from the reference | standard image in the form of the camera. 第1の実施の形態における差分演算処理結果の具体例を模式的に示した図である。It is the figure which showed typically the specific example of the difference calculation process result in 1st Embodiment. 第2の実施の形態における差分演算処理結果の具体例を模式的に示した第1の図である。It is the 1st figure showing typically a specific example of a difference calculation processing result in a 2nd embodiment. 第2の実施の形態における差分演算処理結果の具体例を模式的に示した第2の図である。It is the 2nd figure showing typically a specific example of a difference operation processing result in a 2nd embodiment. 第3の実施の形態における特徴点の抽出例を模式的に示した図である。It is the figure which showed typically the example of extraction of the feature point in 3rd Embodiment. 第3の実施の形態における動きベクトルの算出例を模式的に示した図である。It is the figure which showed typically the example of calculation of the motion vector in 3rd Embodiment. 第1の実施の形態の変形例における差分演算処理結果の具体例を模式的に示した図である。It is the figure which showed typically the specific example of the difference calculation process result in the modification of 1st Embodiment. 第2の実施の形態における具体例を模式的に示した図である。It is the figure which showed typically the specific example in 2nd Embodiment.

―第1の実施の形態―
図1は、第1の実施の形態におけるカメラの一実施の形態の構成を示すブロック図である。カメラ100は、操作部材101と、レンズ102と、撮像素子103と、制御装置104と、メモリカードスロット105と、モニタ106と、振れ検出センサ107とを備えている。操作部材101は、使用者によって操作される種々の入力部材、例えば電源ボタン、レリーズボタン、ズームボタン、十字キー、決定ボタン、再生ボタン、削除ボタンなどを含んでいる。
-First embodiment-
FIG. 1 is a block diagram illustrating a configuration of an embodiment of a camera according to the first embodiment. The camera 100 includes an operation member 101, a lens 102, an image sensor 103, a control device 104, a memory card slot 105, a monitor 106, and a shake detection sensor 107. The operation member 101 includes various input members operated by the user, such as a power button, a release button, a zoom button, a cross key, an enter button, a play button, and a delete button.

レンズ102は、複数の光学レンズから構成されるが、図1では代表して1枚のレンズで表している。レンズ102を構成するレンズには、ズーム倍率を変更するためのズームレンズや、焦点調節を行うための焦点調節用レンズ(AFレンズ)等が含まれる。撮像素子103は、例えばCCDやCMOSなどのイメージセンサーであり、レンズ102により結像した被写体像を撮像する。そして、撮像によって得られた画像信号を制御装置104へ出力する。   The lens 102 is composed of a plurality of optical lenses, but is representatively represented by one lens in FIG. The lenses constituting the lens 102 include a zoom lens for changing the zoom magnification, a focus adjustment lens (AF lens) for performing focus adjustment, and the like. The image sensor 103 is an image sensor such as a CCD or a CMOS, for example, and captures a subject image formed by the lens 102. Then, an image signal obtained by imaging is output to the control device 104.

制御装置104は、CPU、メモリ、およびその他の周辺回路により構成され、カメラ100を制御する。なお、制御装置104を構成するメモリには、SDRAMやフラッシュメモリが含まれる。SDRAMは、揮発性のメモリであって、CPUがプログラム実行時にプログラムを展開するためのワークメモリとして使用されたり、データを一時的に記録するためのバッファメモリとして使用される。また、フラッシュメモリは、不揮発性のメモリであって、制御装置104が実行するプログラムのデータや、プログラム実行時に読み込まれる種々のパラメータなどが記録されている。   The control device 104 includes a CPU, a memory, and other peripheral circuits, and controls the camera 100. Note that the memory constituting the control device 104 includes SDRAM and flash memory. The SDRAM is a volatile memory, and is used as a work memory for the CPU to develop a program when the program is executed or as a buffer memory for temporarily recording data. The flash memory is a non-volatile memory in which data of a program executed by the control device 104, various parameters read during program execution, and the like are recorded.

本実施の形態では、制御装置104は、撮像素子103から入力された画像信号に基づいて所定の画像形式、例えばJPEG形式の画像データ(以下、「本画像データ」と呼ぶ)を生成する。また、制御装置104は、生成した画像データに基づいて、表示用画像データ、例えばサムネイル画像データを生成する。制御装置104は、生成した本画像データとサムネイル画像データとを含み、さらにヘッダ情報を付加した画像ファイルを生成してメモリカードスロット105へ出力する。なお、ヘッダ情報は、例えばExif情報であり、画像の撮影日時に関する情報や、撮影時に使用された機能に関する情報等が記録される。   In the present embodiment, the control device 104 generates image data in a predetermined image format, for example, JPEG format (hereinafter referred to as “main image data”) based on the image signal input from the image sensor 103. Further, the control device 104 generates display image data, for example, thumbnail image data, based on the generated image data. The control device 104 generates an image file that includes the generated main image data and thumbnail image data, and further includes header information, and outputs the image file to the memory card slot 105. Note that the header information is, for example, Exif information, and information on the date and time of image capture, information on functions used at the time of image capture, and the like are recorded.

メモリカードスロット105は、記憶媒体としてのメモリカードを挿入するためのスロットであり、制御装置104から出力された画像ファイルは、制御装置104からの指示に基づいて、メモリカードスロット105に装着されたメモリカードに記録される。また、制御装置104からの指示に基づいて、メモリカードスロット105に装着されたメモリカード内に記憶されている画像ファイルが読み込まれる。   The memory card slot 105 is a slot for inserting a memory card as a storage medium, and the image file output from the control device 104 is inserted into the memory card slot 105 based on an instruction from the control device 104. Recorded on the memory card. Also, based on an instruction from the control device 104, an image file stored in the memory card inserted in the memory card slot 105 is read.

モニタ106は、カメラ100の背面に搭載された液晶モニタ(背面モニタ)であり、当該モニタ106には、メモリカードに記憶されている画像やカメラ100を設定するための設定メニューなどが表示される。また、制御装置104は、使用者によってカメラ100のモードが撮影モードに設定されると、撮像素子103から時系列で取得した画像の表示用画像データをモニタ106に出力する。これによってモニタ106にはスルー画が表示される。カメラ100は、さらに、カメラ100の振れを検出する振れ検出センサ107を具備する。振れ検出センサ107の出力は、制御装置104に入力され、各種制御に用いられる。   The monitor 106 is a liquid crystal monitor (rear monitor) mounted on the back surface of the camera 100, and the monitor 106 displays an image stored in a memory card, a setting menu for setting the camera 100, and the like. . Further, when the user sets the mode of the camera 100 to the shooting mode, the control device 104 outputs image data for display of images acquired from the image sensor 103 in time series to the monitor 106. As a result, a through image is displayed on the monitor 106. The camera 100 further includes a shake detection sensor 107 that detects the shake of the camera 100. The output of the shake detection sensor 107 is input to the control device 104 and used for various controls.

本実施の形態におけるカメラ100は、複数の画像を時系列で撮影可能であり、例えば動画撮影、連写撮影、またはインターバル撮影を行うことができる。このように時系列で複数の画像を撮影する場合には、被写体の移動に伴って、被写体がフレーム内からはみ出してしまう可能性がある。例えば、撮影者が、被写体の動きに合わせて、カメラの撮影方向を変更しながら撮影を行う際に、被写体の動きに対するカメラの動きが適切でない場合には、本来撮影したい被写体の一部または全部が、フレームからはみ出した画像が撮影されてしまう可能性がある。また、被写体の動きに対するカメラの動きが適切でない場合には、本来撮影したい被写体がフレームからはみ出してはいないものの、撮影したい被写体が極端にフレーム端に近い位置に存在するような、所謂好ましくない構図の画像が撮影されてしまう可能性がある。   The camera 100 in the present embodiment can shoot a plurality of images in time series, and can perform, for example, moving image shooting, continuous shooting, or interval shooting. As described above, when a plurality of images are taken in time series, the subject may protrude from the frame as the subject moves. For example, when the photographer performs shooting while changing the shooting direction of the camera in accordance with the movement of the subject, if the movement of the camera relative to the movement of the subject is not appropriate, part or all of the subject to be originally photographed However, there is a possibility that an image protruding from the frame is taken. In addition, when the camera movement is not appropriate for the movement of the subject, the so-called unfavorable composition in which the subject to be photographed does not protrude from the frame but the subject to be photographed is extremely close to the end of the frame. May be taken.

本実施の形態では、制御装置104は、このように被写体の一部または全部がフレーム内からはみ出した画像、すなわち被写体がフレームアウトした画像を特定し、特定した画像の評価を他の画像の評価よりも相対的に低くする。例えば、被写体がフレームアウトした画像を撮影に失敗した画像(失敗画像)と評価する。そして、このような失敗画像をメモリカードに記録しないようにする。以下、本実施の形態における失敗画像の特定処理について、図2に示すフローチャートを用いて説明する。なお、図2に示す処理は、使用者からの指示に基づいて動画撮影、連写撮影、またはインターバル撮影等の開始が指示されると起動するプログラムとして、制御装置104によって実行される。まず、カメラ100を三脚等で固定して撮影を行う場合を想定し、図2に示すフローチャートを説明する。カメラ100がこのように固定された状態で撮影が行われていることは、制御装置104により、振れ検出センサ107の出力をモニタリングすることで検出することができる。すなわち、制御装置104は、撮影中の振れ検出センサ107の出力が所定値以下の場合には、カメラ100が固定されて撮影されていると判断する。   In the present embodiment, the control device 104 identifies an image in which a part or all of the subject protrudes from the frame, that is, an image in which the subject is out of the frame, and evaluates the identified image as an evaluation of other images. Relatively lower. For example, an image in which the subject is out of frame is evaluated as an image that has failed to be captured (failed image). Then, such a failed image is not recorded on the memory card. Hereinafter, the failure image specifying process according to the present embodiment will be described with reference to the flowchart shown in FIG. Note that the processing shown in FIG. 2 is executed by the control device 104 as a program that starts when an instruction to start moving image shooting, continuous shooting, or interval shooting is given based on an instruction from the user. First, assuming a case where shooting is performed with the camera 100 fixed on a tripod or the like, the flowchart shown in FIG. 2 will be described. It can be detected by monitoring the output of the shake detection sensor 107 by the control device 104 that the camera 100 is shooting in such a fixed state. That is, when the output of the shake detection sensor 107 during shooting is equal to or smaller than a predetermined value, the control device 104 determines that the camera 100 is fixed and shot.

ステップS10において、制御装置104は、フレームアウトしたか否かを判定するための主要被写体領域を特定する。本実施の形態では、撮影者は、注目している主要被写体にピントが合うように焦点調節を行って撮影するため、画像内の合焦領域を主要被写体領域として特定する。具体的には、制御装置104は、例えば、時系列で入力される複数の画像の内の一番最初に撮影された画像を基準画像とし、この基準画像内の合焦領域を主要被写体領域として特定する。例えば、制御装置104は、撮影画面に対応付けて設定されている複数の位相差AFのデフォーカス情報取得エリアから、複数のデフォーカス情報を撮影に同期して取得し、当該デフォーカス量が所定値未満の領域を合焦領域と判断し、主要被写体の粗領域を特定する。ここで、粗領域と表現したのは以下の理由からである。本実施形態で使用する位相差AFは、通常の一眼レフカメラに使用されているような撮影画面に対して相対的に中央部分に粗に分布(配置)している位相差AFセンサを想定している。そのため、位相差AFセンサの出力だけでは、主要被写体の画面端での検出や密の検出が出来ないものを想定しているからである。   In step S10, the control device 104 specifies a main subject area for determining whether or not the frame has been out. In the present embodiment, the photographer specifies the in-focus area in the image as the main subject area in order to perform focus adjustment so as to focus on the main subject of interest. Specifically, for example, the control device 104 uses, as a reference image, an image captured first among a plurality of images input in time series, and a focused area in the reference image as a main subject area. Identify. For example, the control device 104 acquires a plurality of defocus information in synchronization with shooting from a plurality of phase difference AF defocus information acquisition areas set in association with the shooting screen, and the defocus amount is predetermined. The area less than the value is determined as the focus area, and the coarse area of the main subject is specified. Here, the rough region is expressed for the following reason. The phase difference AF used in the present embodiment is assumed to be a phase difference AF sensor that is roughly distributed (arranged) in the central portion relative to the shooting screen used in a normal single-lens reflex camera. ing. For this reason, it is assumed that the detection of the main subject at the screen edge and the dense detection cannot be performed only by the output of the phase difference AF sensor.

図3に示す例では、撮影画面内に○×で示される31点のデフォーカス情報取得エリアが設定されており、このうち○で表されるデフォーカス情報取得エリアはデフォーカス量が所定値未満であり、×で表されるデフォーカス情報取得エリアはデフォーカス量が所定値以上であることを示している。よって、図3においては、領域3aが合焦領域、すなわち主要被写体領域として抽出されることになる。   In the example shown in FIG. 3, 31 defocus information acquisition areas indicated by × are set in the shooting screen, and the defocus information acquisition area indicated by ◯ has a defocus amount less than a predetermined value. The defocus information acquisition area represented by x indicates that the defocus amount is a predetermined value or more. Therefore, in FIG. 3, the area 3a is extracted as the in-focus area, that is, the main subject area.

その後、ステップS20へ進み、制御装置104は、時系列で入力される画像の各々から特徴点を抽出する。ここで抽出する特徴点としては、例えば公知のSIFT特徴量(Scale Invariant Feature Transform)を用いて抽出された特徴点等を用いれば良いため、特徴点の抽出方法についての詳細な説明は省略する。図4は、上述した基準画像から抽出された特徴点の一例を示す図である。この図4においては、抽出された特徴点を△で示している。なお、抽出された各特徴点は、特徴点ごとに画像特徴量が算出されており、当該特徴量を画像間で比較することで、異なる時刻に撮影された画像中の特徴点と対応付けが可能な構成とされている。   Thereafter, the process proceeds to step S20, and the control device 104 extracts feature points from each of the images input in time series. As the feature points to be extracted here, for example, feature points extracted using a known SIFT feature quantity (Scale Invariant Feature Transform) may be used, and detailed description of the feature point extraction method is omitted. FIG. 4 is a diagram illustrating an example of feature points extracted from the above-described reference image. In FIG. 4, the extracted feature points are indicated by Δ. Each extracted feature point has an image feature amount calculated for each feature point, and by comparing the feature amount between images, the feature points can be associated with feature points in images taken at different times. Possible configuration.

その後、ステップS30へ進み、制御装置104は、ステップS20で抽出した特徴点の内、基準画像の主要被写体領域外の領域で抽出された特徴点と、基準画像とは異なる時刻に撮影された画像から抽出された特徴点との対応付けを行い、基準画像と、当該基準画像とは異なる時刻に撮影された画像とを、主要被写体領域以外の背景領域中の複数の特徴点を基準にして位置合わせを行う。その後、ステップS40へ進む。   Thereafter, the process proceeds to step S30, where the control device 104 extracts the feature points extracted in the area outside the main subject area of the reference image among the feature points extracted in step S20, and an image taken at a time different from the reference image. The reference image and an image photographed at a time different from the reference image are positioned with reference to a plurality of feature points in the background region other than the main subject region. Align. Thereafter, the process proceeds to step S40.

ステップS40では、制御装置104は、図5に示すように基準画像t0と、これとは異なる時刻に撮影された画像t1〜t3のそれぞれとの間で差分演算処理(減算処理)を行い、その絶対値を算出する。なお、画像t0〜t3は、自動露出制御により明るさが相互に異なる可能性がある。このため、制御装置104は、各画像内の各画素値の最小値、最大値が所定値になるように正規化を行なった後に、上記の差分演算処理を行うことが好ましい。また、この正規化に当たっては、対応付けされた特徴点のRGB値が、差分演算処理を行う複数フレーム間で揃うように行われる構成としてもよい。   In step S40, the control device 104 performs difference calculation processing (subtraction processing) between the reference image t0 and each of the images t1 to t3 taken at different times as shown in FIG. Calculate the absolute value. Note that the images t0 to t3 may have different brightness due to automatic exposure control. For this reason, it is preferable that the control device 104 performs the difference calculation process after performing normalization so that the minimum value and the maximum value of each pixel value in each image become a predetermined value. In addition, the normalization may be performed so that the RGB values of the associated feature points are aligned between a plurality of frames for which the difference calculation process is performed.

図5に示す例においては、差分演算処理の結果として、差分画像|t0−t1|と、差分画像|t0−t2|と、差分画像|t0−t3|とが算出される。なお、これらの差分演算処理においては、差分演算対象が上述した主要被写体領域以外の背景領域同士である場合には、その差分演算結果は0に近い値となる。また、差分演算対象が主要被写体領域である場合も、主要被写体領域が一様である場合には、差分演算結果は0に近い値となる。これに対して、差分演算対象の一方が主要被写体領域で、他方が背景領域の場合には、差分演算結果は大きな値となる。   In the example illustrated in FIG. 5, a difference image | t0−t1 |, a difference image | t0−t2 |, and a difference image | t0−t3 | In these difference calculation processes, when the difference calculation targets are background areas other than the main subject area described above, the difference calculation result is a value close to zero. Even when the difference calculation target is the main subject area, if the main subject area is uniform, the difference calculation result becomes a value close to zero. On the other hand, when one of the difference calculation targets is the main subject area and the other is the background area, the difference calculation result is a large value.

制御装置104は、上記各差分画像において、差分演算結果が所定の閾値より大きい領域を差分領域として抽出し、この差分領域に基づいて主要被写体がフレームアウトしたか否かを判定する。なお、図5に示す例では、差分画像|t0−t1|においては、差分領域A1と差分領域B1とが抽出され、差分画像|t0−t2|においては、差分領域A2と差分領域B2とが抽出され、差分画像|t0−t3|においては、差分領域A3と差分領域B3とが抽出されている。   In each of the difference images, the control device 104 extracts an area where the difference calculation result is larger than a predetermined threshold as a difference area, and determines whether or not the main subject is out of frame based on the difference area. In the example illustrated in FIG. 5, the difference area A1 and the difference area B1 are extracted from the difference image | t0-t1 |, and the difference area A2 and the difference area B2 are extracted from the difference image | t0-t2 |. In the difference image | t0−t3 | extracted, the difference area A3 and the difference area B3 are extracted.

その後、ステップS50へ進み、制御装置104は、ステップS40で抽出した差分領域が撮影画面の端に到達したか否かを判定することにより、主要被写体の一部または全部がフレームアウトしたか否かを判定する。例えば、図5に示す例では、差分画像|t0−t1|と差分画像|t0−t2|とにおいては、いずれの差分領域も撮影画面の端に達していないが、差分画像|t0−t3|において差分領域B3が撮影画面の端に到達していることから、画像t3において主要被写体はフレームアウトしたと判定する。その後、処理を終了する。   Thereafter, the process proceeds to step S50, and the control device 104 determines whether or not a part or all of the main subject has been out of frame by determining whether or not the difference area extracted in step S40 has reached the end of the shooting screen. Determine. For example, in the example shown in FIG. 5, in the difference image | t0-t1 | and the difference image | t0-t2 |, no difference area reaches the end of the shooting screen, but the difference image | t0-t3 | Since the difference area B3 has reached the end of the shooting screen at, it is determined that the main subject is out of frame in the image t3. Thereafter, the process ends.

なお、図5に示す例では、差分画像|t0−t1|と差分画像|t0−t2|とを比較すると領域B1が領域B2に移動しているため、主要被写体は撮影画面内で右に移動していることがわかる。また、差分画像|t0−t2|と差分画像|t0−t3|とを比較すると領域B2が領域B3に移動しており、領域B3の面積が、領域B2の面積より小さくなっているため、主要被写体は撮影画面内でさらに右に移動した結果、フレームアウトしたことがわかる。このように、差分画像間における差分領域の位置変化に基づいて、画像間での画像内における主要被写体領域の位置変化を検出することもできる。   In the example shown in FIG. 5, when the difference image | t0-t1 | and the difference image | t0-t2 | are compared, the region B1 has moved to the region B2, and thus the main subject has moved to the right in the shooting screen. You can see that In addition, when the difference image | t0−t2 | and the difference image | t0−t3 | are compared, the region B2 has moved to the region B3, and the area of the region B3 is smaller than the area of the region B2. It can be seen that the subject has moved out of the frame as a result of moving further to the right in the shooting screen. As described above, it is also possible to detect a change in the position of the main subject area in the image between the images based on the change in the position of the difference area between the difference images.

以上説明した第1の実施の形態によれば、以下のような作用効果を得ることができる。
(1)制御装置104は、時系列で取得される複数の画像内から主要被写体を含む主要被写体領域を抽出し、主要被写体がフレームアウトしたか否かを判定し、主要被写体がフレームアウトした画像を失敗画像として評価するようにした。これによって、被写体またはカメラが移動したことにより、主要被写体がフレームアウトした画像を失敗画像として特定することができる。
According to the first embodiment described above, the following operational effects can be obtained.
(1) The control device 104 extracts a main subject area including a main subject from a plurality of images acquired in time series, determines whether or not the main subject has been out of frame, and an image in which the main subject is out of frame Was evaluated as a failure image. As a result, an image in which the main subject is out of frame due to the movement of the subject or the camera can be specified as a failed image.

(2)制御装置104は、差分画像における差分領域が撮影画面の端に到達しているときに、主要被写体はフレームアウトしたと判定するようにした。これによって、主要被写体がフレームアウトしたか否かを精度高く判定することができる。 (2) The control device 104 determines that the main subject is out of frame when the difference area in the difference image reaches the end of the shooting screen. This makes it possible to determine with high accuracy whether or not the main subject is out of frame.

(3)制御装置104は、ある時刻に取得された画像を基準画像とし、該基準画像と、その基準画像の取得時刻とは異なる時刻(例えば上述の「ある時刻」の後)に取得される画像との差分を演算することによって、時系列で取得される複数の画像間での画像内における主要被写体領域の位置変化を検出するようにした。これによって、画像内における主要被写体領域の位置変化を精度高く検出することができる。 (3) The control device 104 uses an image acquired at a certain time as a reference image, and is acquired at a time different from the acquisition time of the reference image and the reference image (for example, after the above “certain time”). By calculating the difference from the image, the position change of the main subject region in the image between the plurality of images acquired in time series is detected. This makes it possible to detect a change in the position of the main subject region in the image with high accuracy.

(4)制御装置104は、基準画像内の特徴点と他の画像内の特徴点とを用いて、基準画像と各画像との位置合わせを行い、位置合わせ後に差分演算処理を行なうようにした。これによって、基準画像と各画像において、対応する画素同士の差分を演算することができる。 (4) The control device 104 uses the feature points in the reference image and the feature points in the other images to perform alignment between the reference image and each image, and performs difference calculation processing after the alignment. . Thereby, the difference between corresponding pixels in the reference image and each image can be calculated.

(5)制御装置104は、基準画像の明るさと他の画像の明るさを正規化した後に、差分演算処理を行なうようにした。これによって、各画像の明るさが異なる場合でも、精度高く差分演算を行なうことができる。 (5) The control device 104 performs the difference calculation process after normalizing the brightness of the reference image and the brightness of other images. Thereby, even when the brightness of each image is different, the difference calculation can be performed with high accuracy.

―第2の実施の形態―
上述した第1の実施の形態では、カメラ100を三脚等で固定して撮影を行う場合を想定して図2に示す処理を実行する例について説明した。一方、第2の実施の形態では、使用者が被写体の動きに合わせてカメラ100を移動させる場合、または手振れによって使用者の意思に反してカメラ100が動いてしまう場合の処理について説明する。なお、第2の実施の形態においては、図1〜図4の各図については、第1の実施の形態と同様のため、説明を省略する。
-Second embodiment-
In the first embodiment described above, the example in which the process illustrated in FIG. 2 is executed on the assumption that the camera 100 is fixed with a tripod or the like to perform shooting has been described. On the other hand, in the second embodiment, a process when the user moves the camera 100 in accordance with the movement of the subject or when the camera 100 moves against the user's intention due to a hand shake will be described. In the second embodiment, the drawings in FIGS. 1 to 4 are the same as those in the first embodiment, and thus the description thereof is omitted.

まず、被写体がカメラ100の振れ方向と撮影画面上で逆方向に移動する場合の処理について説明する。被写体が、カメラ100の振れ方向と逆方向に移動しているか否かは、振れ検出センサ107の出力を用いて検出されたカメラ100の振れ方向と、撮影画像から求められた主要被写体の動きベクトルの方向とを比較することによって判断することができる。例えば、図6は、破線で示される主要被写体が撮影画面上で右方向に移動し、カメラ100の撮影範囲が左方向に移動している例を示している。なお、図6、及び後述する図7においては、理解を容易にするために、異なる時刻に撮影された2つのフレームの画像、即ち基準画像と差分演算の対象となる対象画像とを、垂直方向にずらして示している。この場合、制御装置104は、第1の実施の形態で上述した手法により、基準画像とそれ以外の画像とを対象として主要被写体領域を抽出し、主要被写体領域以外の背景領域から抽出された複数の特徴点の対応付けを行なって位置合わせを行う。図6に示す例では、×印が各画像における背景領域から抽出された複数の特徴点を示している。   First, processing when the subject moves in the opposite direction on the shooting screen with respect to the shake direction of the camera 100 will be described. Whether or not the subject is moving in the direction opposite to the shake direction of the camera 100 is determined based on the shake direction of the camera 100 detected using the output of the shake detection sensor 107 and the motion vector of the main subject obtained from the captured image. It can be determined by comparing the direction of. For example, FIG. 6 shows an example in which the main subject indicated by the broken line moves to the right on the shooting screen, and the shooting range of the camera 100 moves to the left. In FIG. 6 and FIG. 7 to be described later, in order to facilitate understanding, images of two frames taken at different times, that is, a reference image and a target image to be subjected to a difference calculation are displayed in a vertical direction. Shown in a staggered manner. In this case, the control device 104 extracts the main subject region for the reference image and other images by the method described above in the first embodiment, and extracts a plurality of pieces extracted from the background region other than the main subject region. The feature points are associated and aligned. In the example shown in FIG. 6, the x mark indicates a plurality of feature points extracted from the background area in each image.

そして、制御装置104は、例えば、図6に示すように、基準画像t0と時系列で取得された画像t4との差分演算を行なって差分画像|t0−t4|を算出する。この場合、画像t0と画像t4における差分演算が可能な領域は、特徴点による位置合わせを行った後の2つの画像間で重複する領域に限定され、例えば、図6において斜線で示す領域6aについては差分演算を行うことができない。ここで、図6のように被写体がカメラ100の振れ方向と撮影画面上で逆方向に移動する場合の処理においては、主要被写体の一部がフレームアウトした画像t4の右端領域は、画像t0との差分演算を行うことが可能な重複する領域に含まれ、差分画像を算出することができる。従って、フレームアウトが発生していない画像、例えば画像t4の1フレーム前の画像t3における差分領域と比較して、差分画像|t0−t4|における差分領域B4の面積が小さくなっている場合には、制御装置104は、画像t4において主要被写体の一部または全部がフレームアウトしたと判定することができる。   Then, for example, as illustrated in FIG. 6, the control device 104 calculates a difference image | t0−t4 | by performing a difference operation between the reference image t0 and the image t4 acquired in time series. In this case, the area where the difference calculation between the images t0 and t4 can be performed is limited to the area overlapping between the two images after the alignment by the feature points. For example, the area 6a indicated by hatching in FIG. Cannot perform a difference operation. Here, in the processing in the case where the subject moves in the direction opposite to the shake direction of the camera 100 and the shooting screen as shown in FIG. 6, the right end region of the image t4 in which a part of the main subject is out of frame is the image t0. It is included in the overlap area | region which can perform difference calculation of this, and a difference image can be calculated. Therefore, when the area of the difference area B4 in the difference image | t0−t4 | is smaller than the difference area in the image t3 that is one frame before the image t4, for example, an image in which no frame-out has occurred. The control device 104 can determine that part or all of the main subject is out of frame in the image t4.

次に、主要被写体がカメラの振れ方向と撮影画面上で同方向に移動する場合の処理について説明する。被写体が、カメラ100の振れ方向と同方向に移動しているか否かは、振れ検出センサ107の出力を用いて検出されたカメラ100の振れ方向と、撮影画像から求められた主要被写体の動きベクトルの方向とを比較することによって判断することができる。例えば、図7は、主要被写体が撮影画面上で右方向に移動し、撮影範囲も右方向に移動している例を示している。この場合、制御装置104は、第1の実施の形態で上述した手法により、基準画像とそれ以外の画像とを対象として主要被写体領域を抽出し、主要被写体領域以外の背景領域から抽出された複数の特徴点の対応付けを行なって位置合わせを行う。図7に示す例では、×印が各画像における背景領域から抽出された複数の特徴点を示している。   Next, processing when the main subject moves in the same direction on the shooting screen as the camera shake direction will be described. Whether or not the subject is moving in the same direction as the shake direction of the camera 100 is determined based on the shake direction of the camera 100 detected using the output of the shake detection sensor 107 and the motion vector of the main subject obtained from the captured image. It can be determined by comparing the direction of. For example, FIG. 7 shows an example in which the main subject moves to the right on the shooting screen and the shooting range also moves to the right. In this case, the control device 104 extracts the main subject region for the reference image and other images by the method described above in the first embodiment, and extracts a plurality of pieces extracted from the background region other than the main subject region. The feature points are associated and aligned. In the example shown in FIG. 7, the x mark indicates a plurality of feature points extracted from the background area in each image.

そして、制御装置104は、例えば、図7に示すように、基準画像t0と時系列で取得された画像t4との差分演算を行なって差分画像|t0−t4|を算出する。この場合も画像t0と画像t4における差分演算が可能な領域は、特徴点による位置合わせを行った後の2つの画像間で重複する領域に限定され、例えば、図7において斜線で示す領域7aについては差分演算を行うことができない。しかしながら、特に、差分領域B4の大きさに比較して、動きベクトルから算出した、背景領域の動き量、即ちカメラ100の振れ量が小さい場合には、2画像の重複領域のみでフレームアウト判断を行ったとしても、判断結果を誤る可能性は小さいと考えられる。よって、制御装置104は、図7の差分領域B4が重複領域端に接しており、その面積が1フレーム前の画像t3における差分領域と比較して小さくなっている場合には、画像t4において主要被写体の一部または全部がフレームアウトしたと判定する。さらには、上述のように主要被写体の移動方向の先端と、その移動方向に対応する画面端との距離が近い場合(例えば、所定の閾値より小さい場合)は、好ましい構図とは言えない。   Then, for example, as illustrated in FIG. 7, the control device 104 calculates a difference image | t0−t4 | by performing a difference operation between the reference image t0 and the image t4 acquired in time series. Also in this case, the area where the difference calculation between the image t0 and the image t4 can be performed is limited to the area overlapping between the two images after the alignment by the feature points. For example, the area 7a indicated by hatching in FIG. Cannot perform a difference operation. However, especially when the amount of motion of the background region, that is, the amount of shake of the camera 100, calculated from the motion vector is small compared to the size of the difference region B4, the frame-out determination is performed only with the overlapping region of the two images. Even if it is done, it is considered that there is little possibility of erroneous judgment results. Therefore, when the difference area B4 in FIG. 7 is in contact with the end of the overlapping area and the area is smaller than the difference area in the image t3 one frame before, the control device 104 performs the main operation in the image t4. It is determined that part or all of the subject is out of frame. Furthermore, when the distance between the front end of the main subject in the moving direction and the screen end corresponding to the moving direction is short as described above (for example, smaller than a predetermined threshold), the composition is not preferable.

図11は、特徴点による位置合わせ後の画像t0、画像t4の撮影画面右端を、垂直方向にずらして示したもので、黒丸で示される主要被写体が画像t4にのみ存在する2つの例(A)(B)について示したものである。ここで、図11(A)(B)は、画像t4において主要被写体が撮影画面右端に達しており、(B)は主要被写体がフレームアウトしている様子、(A)は主要被写体がフレームアウトしていない様子を示した図である。この場合、画像t4において主要被写体の存在する領域Pに対応する、画像t0の差分演算の対象領域が存在しないため、差分演算を行えない。しかしながら、この場合、仮に、図11(A)のように、画像t4において主要被写体がフレームアウトしていなかったとしても、重複領域のみで差分演算を行うことで、上記のような好ましくない構図の画像(主要被写体の移動方向のすぐ近くが画面端である(A)のような構図の画像)を、撮影失敗画像として抽出することができる。   FIGS. 11A and 11B show the right ends of the imaged images t0 and t4 after the alignment by the feature points shifted in the vertical direction, and two examples in which the main subject indicated by a black circle exists only in the image t4 (A ) (B). 11A and 11B, the main subject has reached the right edge of the shooting screen in the image t4, FIG. 11B shows the state where the main subject is out of frame, and FIG. 11A shows the case where the main subject is out of frame. It is the figure which showed the mode which is not doing. In this case, the difference calculation cannot be performed because there is no difference calculation target area of the image t0 corresponding to the area P where the main subject exists in the image t4. However, in this case, as shown in FIG. 11A, even if the main subject is not out of frame in the image t4, the difference calculation is performed only in the overlapping region, so that the above unfavorable composition is obtained. An image (an image having a composition such as (A) in which the screen edge is close to the moving direction of the main subject) can be extracted as a shooting failure image.

以上説明した第2の実施の形態によれば、以下のような作用効果を得ることができる。すなわち、制御装置104は、差分画像における差分領域が撮影画面の端に到達し、かつ差分領域の面積が前フレームと比較して減少している場合に、主要被写体はフレームアウトしたと判定するようにした。これによって、被写体やカメラが移動した場合でも主要被写体がフレームアウトしたか否かを判定することができると共に、好ましくない構図の画像を抽出することができる。   According to the second embodiment described above, the following operational effects can be obtained. That is, the control device 104 determines that the main subject has been out of frame when the difference area in the difference image reaches the end of the shooting screen and the area of the difference area is reduced compared to the previous frame. I made it. As a result, even when the subject or the camera moves, it can be determined whether or not the main subject is out of frame, and an image with an unfavorable composition can be extracted.

―第3の実施の形態―
第3の実施の形態では、主要被写体領域内に含まれる特徴点の分布に基づいて、主要被写体がフレームアウトしたか否かを判断する方法について説明する。なお、第32の実施の形態においては、図1〜図4の各図については、第1の実施の形態と同様のため、説明を省略する。
-Third embodiment-
In the third embodiment, a method for determining whether or not the main subject is out of frame based on the distribution of feature points included in the main subject region will be described. Note that in the thirty-second embodiment, the drawings in FIGS. 1 to 4 are the same as those in the first embodiment, and a description thereof will be omitted.

制御装置104は、上述した第1および第2の実施の形態と同様に、時系列で撮影される各画像内から主要被写体領域を特定し、主要被写体領域内の複数の特徴点を抽出する。そして、異なる時間に撮影された画像間で特徴点の対応付けを行い、主要被写体領域内における対応のとれない特徴点の分布状況に基づいて、主要被写体がフレームアウトしたか否かを判断する。   As in the first and second embodiments described above, the control device 104 identifies a main subject area from each image captured in time series, and extracts a plurality of feature points in the main subject area. Then, feature points are associated between images taken at different times, and it is determined whether or not the main subject is out of frame based on the distribution situation of feature points that cannot be matched in the main subject region.

例えば、制御装置104は、図8(a)に示すように、ある画像、例えば基準画像t0の主要被写体領域8a内から×で示す特徴点を抽出する。また、制御装置104は、異なる時刻に撮影された画像、例えば画像t4についても同様に主要被写体領域内から特徴点を抽出する。そして、制御装置104は、異なる2つの画像間で主要被写体領域内の特徴点の対応付けを行い、その中から対応がとれない特徴点を抽出する。例えば、図8(b)は、基準画像t0と画像t4とを対象とする主要被写体領域内の特徴点の対応付け結果を示している。この図8(b)では、対応がとれた特徴点を×で示し、対応がとれない特徴点を○で示している。   For example, as shown in FIG. 8A, the control device 104 extracts feature points indicated by x from within a main subject region 8a of a certain image, for example, the reference image t0. Similarly, the control device 104 extracts feature points from the main subject region for images taken at different times, for example, the image t4. Then, the control device 104 associates feature points in the main subject region between two different images, and extracts feature points that cannot be matched from them. For example, FIG. 8B shows a result of associating feature points in the main subject region with the reference image t0 and the image t4 as targets. In FIG. 8B, feature points that can be matched are indicated by x, and feature points that cannot be matched are indicated by ◯.

制御装置104は、このように抽出された対応がとれない特徴点が主要被写体領域の端点に近い位置に分布している場合には、画像t4において、主要被写体はフレームアウトしたと判定する。例えば、図8(b)に示す例では、対応がとれない特徴点8bおよび8cは、主要被写体領域の右端に分布しているため、制御装置104は、画像t4において、主要被写体はフレームアウトしたと判定する。なお、このように対応がとれない特徴点8bおよび8cが、主要被写体領域の右端に分布している場合には、主要被写体は撮影画面内で右方向に移動した結果、フレームアウトしたと判断できる。   When the extracted feature points that cannot be dealt with are distributed at positions close to the end points of the main subject region, the control device 104 determines that the main subject is out of frame in the image t4. For example, in the example shown in FIG. 8B, since the feature points 8b and 8c that cannot be matched are distributed at the right end of the main subject area, the control device 104 out-of-frames the main subject in the image t4. Is determined. If the feature points 8b and 8c that cannot be dealt with in this way are distributed at the right end of the main subject region, it can be determined that the main subject has moved out of the frame as a result of moving in the right direction in the shooting screen. .

また、図8(c)に示す例では、対応がとれない特徴点8eおよび8fは、主要被写体領域の右下端に分布しているため、制御装置104は、画像t4において、主要被写体はフレームアウトしたと判定する。なお、このように対応がとれない特徴点8eおよび8fが、主要被写体領域の右下端に分布している場合には、主要被写体は撮影画面内で右下方向に移動した結果、フレームアウトしたと判断できる。   Further, in the example shown in FIG. 8C, the feature points 8e and 8f that cannot be matched are distributed at the lower right end of the main subject area, and therefore the control device 104 causes the main subject to be out of frame in the image t4. It is determined that When the feature points 8e and 8f that cannot be dealt with in this way are distributed at the lower right corner of the main subject area, it is assumed that the main subject has moved out of the frame as a result of moving in the lower right direction in the shooting screen. I can judge.

一方で、図8(d)に示すように、対応がとれない特徴点8gが主要被写体領域の中央付近に分布している場合には、制御装置104は、画像t4において、主要被写体はフレームアウトしていないと判定する。   On the other hand, as shown in FIG. 8D, when the feature points 8g that cannot be matched are distributed near the center of the main subject area, the control device 104 causes the main subject to be framed out in the image t4. Judge that it is not.

以上説明した第3実施の形態によれば、以下のような作用効果を得ることができる。すなわち、制御装置104は、基準画像内から抽出した主要被写体領域内に設定した特徴点の中に、時系列で取得された他の画像内の特徴点と対応付けができないものが生じた場合に、対応がとれない特徴点が主要被写体領域の端点に近い位置に分布している場合には、主要被写体はフレームアウトしたと判定するようにした。これによって、画像間での特徴点の対応状況に応じて、精度高くフレームアウトの判定を行なうことができる。この判定の際に、主要被写体の領域が、画面端より所定距離内にあるか否かを判断し、所定距離内にある場合に、フレームアウトと判断することで、主要被写体がフレームアウトした画像、あるいは構図の好ましくない画像を、さらに精度よく抽出することができる。   According to the third embodiment described above, the following operational effects can be obtained. In other words, the control device 104, when a feature point set in the main subject region extracted from the reference image cannot be associated with a feature point in another image acquired in time series occurs. When the feature points that cannot be matched are distributed at positions close to the end points of the main subject area, it is determined that the main subject is out of frame. Thereby, it is possible to determine the frame-out with high accuracy according to the correspondence situation of the feature points between the images. In this determination, it is determined whether or not the area of the main subject is within a predetermined distance from the edge of the screen. Alternatively, an image with an unfavorable composition can be extracted with higher accuracy.

さらには、本構成によれば、主要被写体が、他の被写体の背後に隠れるオクルージョンが発生している画像を検出し、撮影失敗画像として抽出することができる。この際に、制御装置104は、主要被写体の領域が画面端より所定距離内にあるか否かを判断し、所定距離内にない場合で、例えば図8(b)(c)に示されるように、対応のとれない特徴点が主要被写体領域とそれ以外の領域の境界部に近い位置に分布している場合には、オクルージョンが発生していると判断する構成としてもよい。また、主要被写体領域内の複数の特徴点を用いて、基準画像と、これとは異なる時刻に撮影された画像間で位置合わせを行った上で、主要被写体領域間で差分画像を算出し、差分画像の面積が所定値以上の場合に、フレームアウトが発生したと制御装置104が判断する構成としてもよい。   Furthermore, according to this configuration, it is possible to detect an image in which the main subject is occluded behind another subject and extract it as a shooting failure image. At this time, the control device 104 determines whether or not the area of the main subject is within a predetermined distance from the edge of the screen. If it is not within the predetermined distance, for example, as shown in FIGS. In addition, when feature points that cannot be matched are distributed at positions close to the boundary between the main subject region and other regions, it may be determined that occlusion has occurred. In addition, using a plurality of feature points in the main subject area, after positioning between the reference image and an image taken at a different time, a difference image is calculated between the main subject areas, The control device 104 may determine that a frame-out has occurred when the area of the difference image is equal to or greater than a predetermined value.

―第4の実施の形態―
第4の実施の形態では、制御装置104は、時系列画像の各フレームにおいて、第1〜第3の実施の形態と同様に特徴点を抽出した上で、各フレームにおける各特徴点の対応付けを行い、フレーム間の動きベクトルを算出し、動きベクトルの算出結果に基づいて主要被写体がフレームアウトしたか否かを判定する方法について説明する。特に、上述のSIFT特徴量は、回転、大きさの変化、明るさの変化などに対してロバスト(頑健)であり、この特徴量によって対応付けされた特徴点は、動きベクトルの算出に適している。なお、図1〜図4の各図については、第1の実施の形態と同様のため、説明を省略する。
-Fourth embodiment-
In the fourth embodiment, the control device 104 extracts feature points in each frame of the time-series image in the same manner as in the first to third embodiments, and then associates the feature points in each frame. A method for calculating a motion vector between frames and determining whether or not the main subject has gone out of the frame based on the motion vector calculation result will be described. In particular, the above-mentioned SIFT feature value is robust against rotation, change in size, change in brightness, etc., and the feature point associated with this feature value is suitable for calculating a motion vector. Yes. 1 to 4 are the same as those in the first embodiment, and the description thereof is omitted.

制御装置104は、上述したように算出した動きベクトルの方向、大きさ、画面内位置の隣接性に基づいて、各フレーム内の動きベクトルの始点(または終点)をクラスタリングすることによって、主要被写体領域を抽出する。例えば、図9に示すような動きベクトルが得られたとする。制御装置104は、当該動きベクトルを、その方向と大きさとをもとにクラスタリングした上で、動きベクトルの方向、大きさの類似する動きベクトルの始点(または終点)が連続(隣接)して存在している領域を評価・抽出して、この動きベクトル始点(または終点)の画面内位置の連続(隣接)性評価結果をもとに、各画像における主要被写体領域9a〜9cを抽出する。なお、図9(a)は、時刻t0における基準画像t0における主要被写体領域9aの抽出結果を示しており、図9(b)は、時刻t1における画像t1における主要被写体領域9bの抽出結果を示しており、図9(c)は、時刻t2における画像t2における主要被写体領域9cの抽出結果を示している。   The control device 104 clusters the start point (or end point) of the motion vector in each frame based on the direction and magnitude of the motion vector calculated as described above, and the adjacency of the position in the screen, so that the main subject region To extract. For example, assume that a motion vector as shown in FIG. 9 is obtained. The control device 104 clusters the motion vectors based on their directions and sizes, and the start points (or end points) of motion vectors having similar motion vector directions and sizes exist continuously (adjacent). The main subject areas 9a to 9c in each image are extracted based on the continuity (adjacent) evaluation result of the in-screen position of the motion vector start point (or end point). FIG. 9A shows the extraction result of the main subject region 9a in the reference image t0 at time t0, and FIG. 9B shows the extraction result of the main subject region 9b in the image t1 at time t1. FIG. 9C shows the extraction result of the main subject region 9c in the image t2 at time t2.

制御装置104は、このようにして抽出した主要被写体領域が画面端と接するとき、あるいは主要被写体領域の面積が前フレームと比較して減少したときに、そのフレームにおいて主要被写体領域はフレームアウトしたと判定する。例えば、図9に示す例では、図9(b)において主要被写体領域9bが画面端と接しており、図9(c)において主要被写体領域の面積が減少しているため、これらのフレームでは主要被写体がフレームアウトしたと判定される。   When the main subject region extracted in this way is in contact with the edge of the screen, or when the area of the main subject region is reduced compared to the previous frame, the control device 104 determines that the main subject region has been out of the frame. judge. For example, in the example shown in FIG. 9, the main subject area 9b is in contact with the screen edge in FIG. 9B, and the area of the main subject area is reduced in FIG. It is determined that the subject is out of frame.

以上説明した第4実施の形態によれば、以下のような作用効果を得ることができる。すなわち、制御装置104は、各画像間で算出した動きベクトルに基づいて主要被写体領域を抽出して、フレームアウト判定を行なうようにした。これによって、簡易な構成によりフレームアウト判定を行なうことができる。   According to the fourth embodiment described above, the following operational effects can be obtained. That is, the control device 104 extracts the main subject region based on the motion vector calculated between the images and performs the frame-out determination. As a result, the frame-out determination can be performed with a simple configuration.

―変形例―
なお、上述した実施の形態のカメラは、以下のように変形することもできる。
(1)上述した第1の実施の形態では、制御装置104は、デフォーカス情報に基づいて主要被写体領域を抽出する例について説明したが、色、テクスチャなどの画像特徴量を併用して、主要被写体領域を抽出するようにしてもよい。例えば、制御装置104は、各デフォーカス情報取得エリアから色、テクスチャが類似する領域を抽出し、抽出した領域を併合して主要被写体領域を特定して抽出するようにしてもよい。また、主要被写体領域は、顔認識などの特定被写体の認識結果に基づくものであってもよい。
-Modification-
The camera according to the above-described embodiment can be modified as follows.
(1) In the first embodiment described above, the control device 104 has been described with respect to an example in which the main subject region is extracted based on the defocus information. A subject area may be extracted. For example, the control device 104 may extract a region having a similar color and texture from each defocus information acquisition area, and specify and extract the main subject region by combining the extracted regions. The main subject area may be based on a recognition result of a specific subject such as face recognition.

(2)上述した第1〜第4の実施の形態では、時系列で入力される複数の画像の内の一番最初に撮影された画像を基準画像とする例について説明した。しかしながら、これ以外の方法によって基準画像を決定するようにしてもよい。例えば、使用者によってレリーズボタンが半押しされている間は、取得した画像をバッファメモリに記録しておき、全押しされたタイミングで、全押し前後に撮影された画像をメモリカードに記録するモードにおいては、全押しされたタイミングで取得された画像を基準画像とするようにしてもよい。 (2) In the first to fourth embodiments described above, the example has been described in which the first captured image among the plurality of images input in time series is used as the reference image. However, the reference image may be determined by other methods. For example, while the release button is half-pressed by the user, the acquired image is recorded in the buffer memory, and at the time when the release button is fully pressed, the images taken before and after the full-press are recorded on the memory card. In this case, the image acquired at the timing when the button is fully pressed may be used as the reference image.

また、基準画像は、一連の撮影において固定である必要はなく、時間経過とともに順次変更するものであってもよい。例えば、制御装置104は、所定数のフレーム毎に基準画像を変更するようにしてもよい。あるいは、主要被写体がフレームインした時点の画像を基準画像とするようにしてもよい。例えば、フォーカス位置を予め固定して撮影を行うピント位置固定撮影の場合などは、各撮影フレームにおいて画面中央部において、デフォーカス量を検出し、所定量以下のデフォーカス量が検出されたフレームを、基準画像としてもよい。   Further, the reference image does not need to be fixed in a series of photographing, and may be changed sequentially with time. For example, the control device 104 may change the reference image every predetermined number of frames. Alternatively, an image at the time when the main subject is framed may be used as the reference image. For example, in the case of fixed focus position shooting in which the focus position is fixed in advance, the defocus amount is detected at the center of the screen in each shooting frame, and a frame in which a defocus amount equal to or less than a predetermined amount is detected. A reference image may be used.

(3)上述した第1の実施の形態では、カメラ100を三脚等で固定した場合を想定して図2に示す処理を実行する例について説明したが、カメラ100を固定した場合には、フレーム間での位置ズレが生じる可能性が低いため、図2のステップS10〜ステップS30の処理を省略するようにしてもよい。 (3) In the above-described first embodiment, the example in which the process illustrated in FIG. 2 is executed assuming that the camera 100 is fixed with a tripod or the like has been described. Since there is a low possibility that positional deviation will occur, the processing in steps S10 to S30 in FIG. 2 may be omitted.

(4)上述した第1の実施の形態では、基準画像t0と、基準画像t0が撮影された時刻とは異なる時刻に撮影された画像t1〜t3との間で差分演算処理を行い、その絶対値を算出する手法について説明した。しかしながら、この方法に代えて、時間的に最も近いフレーム間で差分演算処理を行い、その絶対値を算出するようにしてもよい。このような手法によれば、各フレームの差分演算処理により、図10に示すような差分画像|t0−t1|と差分画像|t1−t2|と差分画像|t2−t3|とが随時得られることとなる。この図10に示す例では、差分画像|t2−t3|における差分領域B3´の面積が差分画像|t1−t2|における差分領域B2´から減少しているため、画像t3において主要被写体領域がフレームアウトしたと判定することができる。また上述の実施の形態では、画像t1〜t3の取得(撮影)タイミングの例として、基準画像t0が撮影された時刻より後として説明したが、基準画像t0が撮影された時刻よりも前であっても構わない。 (4) In the first embodiment described above, the difference calculation process is performed between the reference image t0 and the images t1 to t3 taken at a time different from the time when the reference image t0 was taken. The method for calculating the value has been described. However, instead of this method, the difference calculation process may be performed between the closest frames in time, and the absolute value thereof may be calculated. According to such a method, a difference image | t0-t1 |, a difference image | t1-t2 |, and a difference image | t2-t3 | as shown in FIG. It will be. In the example shown in FIG. 10, since the area of the difference area B3 ′ in the difference image | t2-t3 | is decreased from the difference area B2 ′ in the difference image | t1-t2 | It can be determined that it is out. In the above-described embodiment, as an example of the acquisition (photographing) timing of the images t1 to t3, it is described after the time when the reference image t0 is photographed, but before the time when the reference image t0 is photographed. It doesn't matter.

(5)上述した第2の実施の形態では、図7において斜線で示す領域7aについては差分演算を行うことができないことを説明した。しかしながら、例えば背景を空として、飛行中の飛行機などを撮影する場合などのように、テクスチャが類似する領域、あるいはエッジの少ない領域が、背景の大部分を占めるような場合には、基準画像t0の画像端の画像データ(図7の例では画像t0の画面右端の1列の画像データ)を領域Qに相当する分だけ複写して、それを基準画像t0の画像端に貼り付けて(いわゆるコピーをして)、基準画像t0の画像端を画像t4の画面右端まで延長した上で、差分演算を行うようにしてもよい。また、基準画像t0の右端から領域Qと同じ面積の領域を抽出し、抽出された領域に対応する画像データを基準画像t0の右端に付加した上で、画像t4との差分演算を行うようにしてもよい。 (5) In the above-described second embodiment, it has been described that the difference calculation cannot be performed on the region 7a indicated by the oblique lines in FIG. However, in the case where an area with similar texture or an area with few edges occupies most of the background, such as when shooting a flying airplane with the background as the sky, the reference image t0. Is copied by the amount corresponding to the area Q and pasted on the image end of the reference image t0 (so-called image data in the right end of the screen of the image t0 in the example of FIG. 7). The difference calculation may be performed after the image end of the reference image t0 is extended to the right end of the screen of the image t4. Further, a region having the same area as the region Q is extracted from the right end of the reference image t0, and image data corresponding to the extracted region is added to the right end of the reference image t0, and then a difference calculation with the image t4 is performed. May be.

また、差分演算を行うことのできない領域Qは、差分演算を行う対象フレームとは別のフレームの画像データを用いて差分演算を行えるようにしてもよい。例えば、差分演算を行う基準画像t0と画像t4以外のフレーム、例えばt1〜t3のフレーム、あるいは画像t5以降のいずれかのフレームを用い、基準画像t0と、これらいずれかのフレームとの各々で特徴点を抽出し、対応する特徴点を用いて2つのフレームの位置合わせを行って、基準画像t0の右端に付加する背景領域を生成するようにしてもよい。これによって、差分演算を行うことのできない領域が生じた場合にも差分演算を行うことが可能となる。   In addition, for the region Q where the difference calculation cannot be performed, the difference calculation may be performed using image data of a frame different from the target frame on which the difference calculation is performed. For example, a frame other than the reference image t0 and the image t4 for which the difference calculation is performed, for example, a frame from t1 to t3, or any frame after the image t5 is used, and each of the reference image t0 and any one of these frames is characterized. A background region to be added to the right end of the reference image t0 may be generated by extracting points and aligning two frames using corresponding feature points. As a result, the difference calculation can be performed even when an area where the difference calculation cannot be performed occurs.

(6)特に、上述した第2の実施の形態における被写体がカメラの振れ方向と同方向に移動する場合の処理において、時系列画像の取得時間間隔が長い、あるいはカメラの移動速度が速いような場合には、差分演算をする2画像の重複領域が小さくなってしまう可能性がある。このような場合には、基準画像t0の更新頻度を多くすることが好ましい。例えば、時系列画像の更新時間間隔を、カメラの撮像時間間隔の設定情報、カメラの移動速度(動き情報)は、カメラに具備された振れ検出センサ出力、あるいは画像データから求めた動きベクトル情報等の少なくとも1つを用いて決定し、決定した更新頻度で基準画像t0を更新するようにしてもよい。これによって、時系列画像の取得時間間隔が長い場合やカメラの移動速度が速いような場合でも差分演算をする2画像の重複領域が小さくなることを防ぐことができる。上記の処理は、第2の実施の形態における被写体がカメラの振れ方向と同方向に移動する場合だけでなく、第2の実施の形態における被写体がカメラの振れ方向と逆方向に移動する場合、あるいは第1の実施の形態におけるカメラが固定されている場合に適用してもよい。 (6) In particular, in the processing when the subject moves in the same direction as the camera shake direction in the second embodiment described above, the time series image acquisition time interval is long or the camera moving speed is fast. In this case, there is a possibility that the overlapping area of the two images for which the difference calculation is performed becomes small. In such a case, it is preferable to increase the update frequency of the reference image t0. For example, the update time interval of the time series image, the setting information of the imaging time interval of the camera, the moving speed (motion information) of the camera, the output of the shake detection sensor provided in the camera, the motion vector information obtained from the image data, etc. The reference image t0 may be updated at a determined update frequency using at least one of the above. Thereby, even when the time series image acquisition time interval is long or when the moving speed of the camera is fast, it is possible to prevent the overlapping area of the two images to be subjected to the difference calculation from becoming small. The above processing is performed not only when the subject in the second embodiment moves in the same direction as the camera shake direction, but also when the subject in the second embodiment moves in the direction opposite to the camera shake direction. Or you may apply when the camera in 1st Embodiment is being fixed.

また、被写体がカメラの振れ方向と同方向に移動する場合であって、時系列画像の取得時間間隔が長い場合、あるいはカメラの移動速度が早い場合には、上述した第3または第4の実施の形態の手法を用いてフレームアウトの判定を行い、そうでない場合には上述した第1の実施の形態、あるいは第2の実施の形態の中で説明した一手法を用いてフレームアウトの判定を行うようにしても良い。このように、時系列画像の取得時間間隔、カメラの移動速度に応じて、フレームアウト判定のための処理を変更するようにしてもよい。   Further, when the subject moves in the same direction as the camera shake direction and the time series image acquisition time interval is long, or the camera moving speed is fast, the third or fourth implementation described above. The frame-out determination is performed using the method of the form, and if not, the frame-out determination is performed using the method described in the first embodiment or the second embodiment described above. You may make it do. In this way, the processing for determining frame-out may be changed according to the time-series image acquisition time interval and the moving speed of the camera.

(7)上述した第1〜第4の実施の形態において抽出した主要被写体領域をテンプレートマッチング等の手法を用いて時系列で撮影される画像間で追尾するようにしてもよい。 (7) The main subject region extracted in the first to fourth embodiments described above may be tracked between images photographed in time series using a technique such as template matching.

(8)上述した第1から第3の実施の形態では、異なる画像間で特徴点の対応付けを行う例について説明した。この場合、各画像の取得時におけるズーム状態や、主要被写体の大きさに変化がある、あるいはカメラ100が回転している場合には、複数の特徴点座標をもとに、画像の拡大縮小変換、あるいはアフィン変換を施して、2フレームの画像の位置関係について対応付けを行うことが望ましい。 (8) In the first to third embodiments described above, an example in which feature points are associated between different images has been described. In this case, when there is a change in the zoom state at the time of acquiring each image, the size of the main subject, or when the camera 100 is rotating, the image is enlarged or reduced based on a plurality of feature point coordinates. Alternatively, it is desirable to perform the affine transformation to associate the positional relationship between the images of the two frames.

(9)上述した第1〜第4の実施の形態では、被写体がフレームアウトした画像を撮影失敗画像として特定し、このような失敗画像をメモリカードに記録しないようにする例について説明した。これに対して、失敗画像はメモリカードに記録した上で、ヘッダ情報に失敗画像であることを示す情報を記録するようにしてもよい。また、例えば、時系列で撮影した複数の画像の中から代表画像を選択する場合に、失敗画像を代表画像として選択しないようにしてもよい。 (9) In the first to fourth embodiments described above, an example in which an image in which a subject is out of frame is specified as a shooting failure image and such a failure image is not recorded on the memory card has been described. On the other hand, the failure image may be recorded on the memory card, and information indicating the failure image may be recorded in the header information. Further, for example, when a representative image is selected from a plurality of images taken in time series, the failed image may not be selected as the representative image.

(10)上述した実施の形態においては、主要被写体がフレームアウトしたかを判断する例について説明したが、上述の処理は、構図の良くない画像を抽出する際の判定に用いることもできる。主要被写体と、主要被写体移動方向の撮影画面端との距離が短い画像は、構図の観点から好ましくないと判断する。このような判断を行うためには、撮影画面より狭い領域(例えば、図6,図7で示した重複領域、あるいはこの重複領域よりさらに狭い領域)を設定して、上述のフレームアウト判定処理と同様の処理を行う構成とすればよい。 (10) In the above-described embodiment, an example of determining whether the main subject has been out of frame has been described. However, the above-described processing can also be used for determination when extracting an image with poor composition. An image with a short distance between the main subject and the photographing screen edge in the main subject moving direction is determined to be undesirable from the viewpoint of composition. In order to make such a determination, an area narrower than the shooting screen (for example, the overlapping area shown in FIGS. 6 and 7 or an area narrower than the overlapping area) is set, and the frame-out determination process described above is performed. What is necessary is just to set it as the structure which performs the same process.

なお、本発明の特徴的な機能を損なわない限り、本発明は、上述した実施の形態における構成に何ら限定されない。また、上述の実施の形態と複数の変形例を組み合わせた構成としてもよい。   Note that the present invention is not limited to the configurations in the above-described embodiments as long as the characteristic functions of the present invention are not impaired. Moreover, it is good also as a structure which combined the above-mentioned embodiment and a some modification.

100 カメラ、101 操作部材、102 レンズ、103 撮像素子、104 制御装置、105 メモリカードスロット、106 モニタ、107 振れ検出センサ DESCRIPTION OF SYMBOLS 100 Camera, 101 Operation member, 102 Lens, 103 Image sensor, 104 Control apparatus, 105 Memory card slot, 106 Monitor, 107 Shake detection sensor

Claims (11)

時系列で撮影された画像内から主要被写体を含む主要被写体領域を抽出する抽出手段と、
前記抽出手段によって抽出された前記主要被写体領域の少なくとも一部が前記画像からフレームアウトしたか否かを判定する判定手段と、
前記判定手段によってフレームアウトしたと判定された前記画像をフレームアウト画像として特定する特定手段と、
前記特定手段によって特定された前記フレームアウト画像の評価を前記時系列で取得される画像内において相対的に下げる評価手段とを備えることを特徴とする画像評価装置。
Extraction means for extracting a main subject area including a main subject from an image taken in time series;
Determining means for determining whether or not at least a part of the main subject region extracted by the extracting means is out of frame from the image;
Specifying means for specifying the image determined to be out-of-frame by the determining means as a frame-out image;
An image evaluation apparatus comprising: an evaluation unit that relatively lowers the evaluation of the frame-out image specified by the specifying unit in the image acquired in time series.
請求項1に記載の画像評価装置において、
前記判定手段は、時系列で撮影された複数の画像間で、画像内における前記主要被写体領域の位置変化を検出して、前記主要被写体領域が画像の端点に位置し、かつ前記主要被写体領域の面積が減少した場合に、前記主要被写体領域の少なくとも一部が前記画像からフレームアウトしたと判定することを特徴とする画像評価装置。
The image evaluation apparatus according to claim 1,
The determination unit detects a change in position of the main subject area in the images between a plurality of images taken in time series, the main subject area is located at an end point of the image, and the main subject area An image evaluation apparatus, wherein when the area decreases, it is determined that at least a part of the main subject region is out of frame from the image.
請求項2に記載の画像評価装置において、
前記判定手段は、ある時刻に撮影された画像を基準画像とし、前記基準画像と当該基準画像とは異なる時刻に撮影された対象画像との差分を演算することによって、時系列で撮影される複数の画像間での画像内における前記主要被写体領域の位置変化を検出することを特徴とする画像評価装置。
The image evaluation apparatus according to claim 2,
The determination means uses an image captured at a certain time as a reference image, and calculates a difference between the reference image and a target image captured at a different time from the reference image, thereby obtaining a plurality of images captured in time series. An image evaluation apparatus for detecting a change in position of the main subject region in an image between the images.
請求項3に記載の画像評価装置において、
前記判定手段は、前記基準画像内の特徴点と前記対象画像外の特徴点とを用いて、前記基準画像と前記対象画像との位置合わせを行い、位置合わせ後に前記差分を演算することを特徴とする画像評価装置。
The image evaluation apparatus according to claim 3.
The determination means uses the feature points in the reference image and the feature points outside the target image to perform alignment between the reference image and the target image, and calculates the difference after alignment. An image evaluation apparatus.
請求項4に記載の画像評価装置において、
前記判定手段は、前記位置合わせを行ったときに、前記対象画像内に前記基準画像との差分を演算するための対応領域が存在しない場合には、前記対象画像とは異なる時刻に取得された画像内から前記対応領域を取得して、前記差分を演算することを特徴とする画像評価装置。
The image evaluation apparatus according to claim 4,
The determination means is acquired at a time different from that of the target image when a corresponding area for calculating a difference from the reference image does not exist in the target image when the alignment is performed. An image evaluation apparatus, wherein the corresponding area is acquired from an image and the difference is calculated.
請求項3〜5のいずれか一項に記載の画像評価装置において、
前記判定手段は、前記基準画像の明るさと前記対象画像の明るさを正規化した後に、前記差分を演算することを特徴とする画像評価装置。
In the image evaluation apparatus according to any one of claims 3 to 5,
The determination unit calculates the difference after normalizing the brightness of the reference image and the brightness of the target image.
請求項3〜6のいずれか一項に記載の画像評価装置において、
前記基準画像を所定の更新頻度で取得し直して更新する基準画像更新手段をさらに備え、
前記基準画像更新手段は、時系列で撮影された画像の撮影時間間隔、及び撮像装置の移動情報の少なくとも一方に基づいて、前記所定の更新頻度を決定することを特徴とする画像評価装置。
In the image evaluation apparatus according to any one of claims 3 to 6,
Reference image update means for re-acquiring and updating the reference image at a predetermined update frequency,
The image evaluation apparatus, wherein the reference image update means determines the predetermined update frequency based on at least one of a shooting time interval of images taken in time series and movement information of the imaging apparatus.
請求項1に記載の画像評価装置において、
前記抽出手段は、ある時刻に撮影された画像を基準画像とし、前記基準画像内から前記主要被写体領域を抽出し、
前記判定手段は、前記基準画像内から抽出した前記主要被写体領域内に特徴点を設定し、前記基準画像内に設定した特徴点の中に、その後に撮影される対象画像内の特徴点と対応付けができないものが生じた場合に、前記対象画像における前記主要被写体領域の少なくとも一部が前記画像からフレームアウトしたと判定することを特徴とする画像評価装置。
The image evaluation apparatus according to claim 1,
The extraction means uses an image taken at a certain time as a reference image, extracts the main subject region from the reference image,
The determination unit sets a feature point in the main subject region extracted from the reference image, and corresponds to a feature point in a target image to be photographed later in the feature point set in the reference image An image evaluation apparatus characterized by determining that at least a part of the main subject area in the target image is out of frame from the image when there is something that cannot be attached.
請求項8に記載の画像評価装置において、
前記判定手段は、前記主要被写体領域内に設定した特徴点のうち、前記対象画像内の特徴点と対応付けができない特徴点の前記主要被写体内における分布、または前記対象画像内の特徴点と対応付けができる特徴点の前記主要被写体内における分布に基づいて、前記対象画像における前記主要被写体領域の少なくとも一部が前記画像からフレームアウトしたことを判定することを特徴とする画像評価装置。
The image evaluation apparatus according to claim 8,
The determination means corresponds to the distribution of feature points that cannot be associated with the feature points in the target image among the feature points set in the main subject area or the feature points in the target image. An image evaluation apparatus that determines that at least a part of the main subject area in the target image is out of frame from the image based on a distribution of feature points that can be attached within the main subject.
請求項9に記載の画像評価装置において、
前記判定手段は、さらに前記対象画像における前記主要被写体領域の位置が所定の条件を満足したときに、前記対象画像内の特徴点と対応付けができない特徴点の前記主要被写体内における分布、または前記対象画像内の特徴点と対応付けができる特徴点の前記主要被写体内における分布に基づいて、当該対象画像内の主要被写体にオクルージョンが発生したと判定することを特徴とする画像評価装置。
The image evaluation apparatus according to claim 9, wherein
The determination unit further distributes the feature points in the main subject that cannot be associated with the feature points in the target image when the position of the main subject region in the target image satisfies a predetermined condition, or An image evaluation apparatus characterized by determining that occlusion has occurred in a main subject in the target image based on a distribution in the main subject of feature points that can be associated with a feature point in the target image.
請求項1に記載の画像評価装置において、
前記抽出手段は、時系列で撮影された複数の画像間で動きベクトルを算出し、算出した動きベクトルに基づいて前記主要被写体領域を抽出することを特徴とする画像評価装置。
The image evaluation apparatus according to claim 1,
The image evaluation apparatus characterized in that the extraction means calculates a motion vector between a plurality of images taken in time series, and extracts the main subject region based on the calculated motion vector.
JP2010089672A 2010-04-08 2010-04-08 Image evaluation device Active JP5499856B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010089672A JP5499856B2 (en) 2010-04-08 2010-04-08 Image evaluation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010089672A JP5499856B2 (en) 2010-04-08 2010-04-08 Image evaluation device

Publications (2)

Publication Number Publication Date
JP2011223265A true JP2011223265A (en) 2011-11-04
JP5499856B2 JP5499856B2 (en) 2014-05-21

Family

ID=45039674

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010089672A Active JP5499856B2 (en) 2010-04-08 2010-04-08 Image evaluation device

Country Status (1)

Country Link
JP (1) JP5499856B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013016923A (en) * 2011-06-30 2013-01-24 Nikon Corp Image evaluation device
JP2014120948A (en) * 2012-12-17 2014-06-30 Olympus Imaging Corp Imaging apparatus, notification method, notification program, and recording media
JP2016091528A (en) * 2014-11-05 2016-05-23 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド Image segmentation method and image segmentation device

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03138596A (en) * 1989-10-25 1991-06-12 Ikegami Tsushinki Co Ltd Moving body detecting device
JP2001186506A (en) * 1999-12-27 2001-07-06 Victor Co Of Japan Ltd Image transmitter and its method
JP2007074415A (en) * 2005-09-07 2007-03-22 Nippon Hoso Kyokai <Nhk> Motion vector estimation device and motion vector estimation program
JP2008219063A (en) * 2007-02-28 2008-09-18 Sanyo Electric Co Ltd Apparatus and method for monitoring vehicle's surrounding
JP2009003012A (en) * 2007-06-19 2009-01-08 Olympus Corp Imaging apparatus
JP2009199363A (en) * 2008-02-21 2009-09-03 Toshiba Corp Tracking system using particle filtering
JP2009212713A (en) * 2008-03-03 2009-09-17 Panasonic Corp Imaging apparatus, imaging apparatus body, and notifying terminal
JP2010016544A (en) * 2008-07-02 2010-01-21 Nikon Corp Image capturing apparatus and image processing apparatus, and image processing program

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03138596A (en) * 1989-10-25 1991-06-12 Ikegami Tsushinki Co Ltd Moving body detecting device
JP2001186506A (en) * 1999-12-27 2001-07-06 Victor Co Of Japan Ltd Image transmitter and its method
JP2007074415A (en) * 2005-09-07 2007-03-22 Nippon Hoso Kyokai <Nhk> Motion vector estimation device and motion vector estimation program
JP2008219063A (en) * 2007-02-28 2008-09-18 Sanyo Electric Co Ltd Apparatus and method for monitoring vehicle's surrounding
JP2009003012A (en) * 2007-06-19 2009-01-08 Olympus Corp Imaging apparatus
JP2009199363A (en) * 2008-02-21 2009-09-03 Toshiba Corp Tracking system using particle filtering
JP2009212713A (en) * 2008-03-03 2009-09-17 Panasonic Corp Imaging apparatus, imaging apparatus body, and notifying terminal
JP2010016544A (en) * 2008-07-02 2010-01-21 Nikon Corp Image capturing apparatus and image processing apparatus, and image processing program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013016923A (en) * 2011-06-30 2013-01-24 Nikon Corp Image evaluation device
JP2014120948A (en) * 2012-12-17 2014-06-30 Olympus Imaging Corp Imaging apparatus, notification method, notification program, and recording media
US9894277B2 (en) 2012-12-17 2018-02-13 Olympus Corporation Imaging device, announcing method, and recording medium for indicating whether or not a main subject is only within a first area of an image
US10250807B2 (en) 2012-12-17 2019-04-02 Olympus Corporation Imaging device, imaging method, and recording medium
JP2016091528A (en) * 2014-11-05 2016-05-23 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド Image segmentation method and image segmentation device

Also Published As

Publication number Publication date
JP5499856B2 (en) 2014-05-21

Similar Documents

Publication Publication Date Title
JP4408779B2 (en) Image processing device
JP4798236B2 (en) Imaging apparatus, image processing method, and program
JP5536010B2 (en) Electronic camera, imaging control program, and imaging control method
US8675089B2 (en) Apparatus and method for assisting composition of photographic image
JP5699432B2 (en) Image processing device
JP2015012480A (en) Image processing apparatus and image processing method
US20090034953A1 (en) Object-oriented photographing control method, medium, and apparatus
JP2017138379A (en) Image shake correction device and method for controlling the same, imaging device, program, and storage medium
JP2017201356A (en) Image shake correction device, imaging device, method for controlling image shake correction device, program, and storage medium
JP2015012482A (en) Image processing apparatus and image processing method
JP5499856B2 (en) Image evaluation device
JP2013110754A (en) Camera device, and photographing method and program of the same
JP6115024B2 (en) Imaging apparatus, imaging processing method, and program
US11696025B2 (en) Image processing apparatus capable of classifying an image, image processing method, and storage medium
JP2015041865A (en) Image processing apparatus and image processing method
JP5743729B2 (en) Image synthesizer
JP2011154194A (en) Imaging apparatus
US10565712B2 (en) Image processing apparatus and method for controlling the same
JP2019096364A (en) Image evaluation device
JP6833607B2 (en) Control device, image pickup device, control method, program, and storage medium
JP2011253099A (en) Focus detector
JP2013016924A (en) Image evaluation device
JP2009159356A (en) Subject tracing apparatus, subject tracing program and subject tracing method
JP2010245923A (en) Subject tracking device, and camera
JP5402361B2 (en) Imaging apparatus, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130327

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140114

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140225

R150 Certificate of patent or registration of utility model

Ref document number: 5499856

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250