JP2018106763A - Imaging apparatus - Google Patents

Imaging apparatus Download PDF

Info

Publication number
JP2018106763A
JP2018106763A JP2018073164A JP2018073164A JP2018106763A JP 2018106763 A JP2018106763 A JP 2018106763A JP 2018073164 A JP2018073164 A JP 2018073164A JP 2018073164 A JP2018073164 A JP 2018073164A JP 2018106763 A JP2018106763 A JP 2018106763A
Authority
JP
Japan
Prior art keywords
image
face
images
sharpness
evaluation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018073164A
Other languages
Japanese (ja)
Inventor
坂本 浩一
Koichi Sakamoto
浩一 坂本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2018073164A priority Critical patent/JP2018106763A/en
Publication of JP2018106763A publication Critical patent/JP2018106763A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To properly evaluate an image in which an unnecessary object is overlapped on a face.SOLUTION: An imaging apparatus 1 comprises: face detection means 11 which detects a face of a subject from an inputted image; area setting means 11 which sets a plurality of small areas in an area of the face; feature amount calculation means 11 which calculates feature amounts of the plurality of small areas; and image evaluation means 11 which evaluates the image on the basis of difference between the feature amounts of the small areas on a face left side and the feature amounts of the small areas on a face right side among the plurality of small areas.SELECTED DRAWING: Figure 1

Description

本発明は、撮像装置に関する。   The present invention relates to an imaging apparatus.

連写撮影した複数の画像の中からベストショット候補画像を選ぶカメラが知られている(特許文献1参照)。このカメラでは、上記複数の画像に対して、顔部不要物の有無や目瞑りの有無、顔エリアのブレなどの複数の評価因子に関する評価を行い、この評価結果に基づいてベストショット画像が選ばれる。   There is known a camera that selects a best shot candidate image from a plurality of continuously shot images (see Patent Document 1). With this camera, the above multiple images are evaluated for multiple evaluation factors, such as the presence or absence of unwanted facial parts, the presence or absence of eye meditation, and blurring of the face area, and the best shot image is selected based on the evaluation results. It is.

特開2012−195949号公報JP 2012-195949 A

上記従来技術では、被写体の顔に不要物が重なっている画像についてはベストショット候補画像として選ばれないように評価を低くしている。顔に不要物が重なっているか否かの評価については、顔検出処理の結果、顔のパーツ(目、鼻、口など)の一部が検出されないことにより判断することが可能である。しかしながら、顔に不要物が重なっていても顔のパーツが遮蔽されていないような画像については、顔のパーツの検出結果だけでは顔に不要物が重なっているか判断できず、適切に評価を行えないおそれがある。   In the above-described conventional technology, the evaluation is lowered so that an image in which an unnecessary object overlaps the face of the subject is not selected as the best shot candidate image. The evaluation of whether or not an unnecessary object is superimposed on the face can be determined by detecting that a part of face parts (eyes, nose, mouth, etc.) are not detected as a result of the face detection process. However, for images where facial parts are not occluded even if unwanted objects overlap the face, it is not possible to determine whether the unwanted parts are superimposed on the face based on the detection results of the facial parts, and appropriate evaluation can be performed. There is a risk of not.

本発明の一態様による撮像装置は、入力された複数の画像から被写体の顔を検出する顔検出部と、前記顔検出部で検出された前記顔の領域を含む第1領域および第2領域の特徴に基づいて、前記複数の画像の各画像をそれぞれ評価する評価部と、を備える。   An imaging apparatus according to an aspect of the present invention includes a face detection unit that detects a face of a subject from a plurality of input images, and a first region and a second region that include the face region detected by the face detection unit. An evaluation unit that evaluates each of the plurality of images based on the characteristics.

本発明によれば、複数の画像を適切に評価することができる。   According to the present invention, it is possible to appropriately evaluate a plurality of images.

本発明の一実施の形態によるデジタルカメラの要部構成を説明するブロック図である。It is a block diagram explaining the principal part structure of the digital camera by one embodiment of this invention. プリキャプチャー撮影モードにおける画像の取得タイミングを説明する図である。It is a figure explaining the acquisition timing of the image in pre capture photography mode. プリキャプチャー撮影モードにおける処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the process in pre capture photography mode. 撮影画像の一例を模式的に示す図である。It is a figure which shows an example of a picked-up image typically. 顔検出信頼度の評価処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of a face detection reliability evaluation process. 顔領域を分割する複数の小領域を説明する図である。It is a figure explaining the several small area | region which divides | segments a face area. 顔に不要物が重なっている画像について、顔領域を分割する複数の小領域を設定した状態を示す図である。It is a figure which shows the state which set the some small area | region which divides | segments a face area | region about the image with which the unnecessary object has overlapped on the face.

以下、図面を参照して本発明を実施するための形態について説明する。図1は、本発明の一実施の形態によるデジタルカメラ1の要部構成を説明するブロック図である。デジタルカメラ1は、メインCPU11によって制御される。   Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings. FIG. 1 is a block diagram for explaining a main configuration of a digital camera 1 according to an embodiment of the present invention. The digital camera 1 is controlled by the main CPU 11.

撮影レンズ21は、撮像素子22の撮像面上に被写体像を結像させる。撮像素子22はCCDイメージセンサまたはCMOSイメージセンサによって構成され、撮像面上の被写体像を撮像し、撮像信号を撮像回路23へ出力する。撮像回路23は、撮像素子22から出力される光電変換信号に対するアナログ処理(ゲインコントロールなど)を行う他、内蔵するA/D変換回路でアナログ撮像信号をディジタルデータに変換する。   The photographing lens 21 forms a subject image on the imaging surface of the imaging element 22. The image pickup device 22 is configured by a CCD image sensor or a CMOS image sensor, picks up a subject image on the image pickup surface, and outputs an image pickup signal to the image pickup circuit 23. The imaging circuit 23 performs analog processing (such as gain control) on the photoelectric conversion signal output from the imaging element 22, and converts the analog imaging signal into digital data by a built-in A / D conversion circuit.

メインCPU11は、各ブロックから出力される信号を入力して所定の演算を行い、演算結果に基づく制御信号を各ブロックへ出力する。画像処理回路12は、たとえばASICとして構成され、撮像回路23から入力されるディジタル画像信号に対して画像処理を行う。画像処理には、たとえば、輪郭強調や色温度調整(ホワイトバランス調整)処理、画像信号に対するフォーマット変換処理が含まれる。   The main CPU 11 inputs a signal output from each block, performs a predetermined calculation, and outputs a control signal based on the calculation result to each block. The image processing circuit 12 is configured as an ASIC, for example, and performs image processing on the digital image signal input from the imaging circuit 23. The image processing includes, for example, contour enhancement, color temperature adjustment (white balance adjustment) processing, and format conversion processing for an image signal.

画像圧縮回路13は、画像処理回路12による処理後の画像信号に対して、たとえばJPEG方式で所定の圧縮比率の画像圧縮処理を行う。表示画像作成回路14は、撮像画像を液晶モニタ19に表示させるための表示用信号を生成する。   The image compression circuit 13 performs image compression processing at a predetermined compression ratio on the image signal processed by the image processing circuit 12 by, for example, the JPEG method. The display image creation circuit 14 generates a display signal for displaying the captured image on the liquid crystal monitor 19.

液晶モニタ19は液晶パネルによって構成され、表示画像作成回路14から入力される表示用信号に基づいて画像や操作メニュー画面などを表示する。映像出力回路20は、表示画像作成回路14から入力される表示用信号に基づいて、画像や操作メニュー画面などを外部の表示装置に表示させるための映像信号を生成して出力する。   The liquid crystal monitor 19 includes a liquid crystal panel, and displays an image, an operation menu screen, and the like based on a display signal input from the display image creation circuit 14. The video output circuit 20 generates and outputs a video signal for displaying an image, an operation menu screen, or the like on an external display device based on the display signal input from the display image creation circuit 14.

バッファメモリ15は、画像処理前、画像処理後および画像処理途中のデータを一時的に記憶する他、記録媒体30へ記録する前の画像ファイルを記憶したり、記録媒体30から読み出した画像ファイルを記憶したりするために使用される。本実施形態では、撮影指示前(レリーズボタンの全押し操作前)に撮像素子22によって所定のフレームレートで取得するプリキャプチャー画像を一時的に記憶する場合にも使用される。プリキャプチャー画像については後述する。   The buffer memory 15 temporarily stores data before image processing, after image processing, and during image processing, and also stores an image file before being recorded on the recording medium 30 and an image file read from the recording medium 30. Used to remember. In the present embodiment, it is also used when a pre-capture image acquired at a predetermined frame rate by the image sensor 22 is temporarily stored before a shooting instruction (before the release button is fully pressed). The pre-capture image will be described later.

フラッシュメモリ16は、メインCPU11が実行するプログラムや、メインCPU11が行う処理に必要なデータなどが格納される。フラッシュメモリ16が格納するプログラムやデータの内容は、メインCPU11からの指示によって追加、変更が可能に構成されている。   The flash memory 16 stores programs executed by the main CPU 11, data necessary for processing performed by the main CPU 11, and the like. The contents of the program and data stored in the flash memory 16 can be added or changed by an instruction from the main CPU 11.

カードインターフェース(I/F)17はコネクタ(不図示)を有し、該コネクタにメモリカードなどの記録媒体30が接続される。カードインターフェース17は、メインCPU11からの指示により、接続された記録媒体30に対するデータの書き込みや、記録媒体30からのデータの読み込みを行う。記録媒体30は、半導体メモリを内蔵したメモリカード、またはハードディスクドライブなどで構成される。   The card interface (I / F) 17 has a connector (not shown), and a recording medium 30 such as a memory card is connected to the connector. The card interface 17 writes data to the connected recording medium 30 and reads data from the recording medium 30 in accordance with an instruction from the main CPU 11. The recording medium 30 is configured by a memory card incorporating a semiconductor memory, a hard disk drive, or the like.

操作部材18は、デジタルカメラ1の各種ボタンやスイッチ類を含み、モード切替スイッチの切換操作など、各操作部材の操作内容に応じた操作信号をメインCPU11へ出力する。半押しスイッチ18aおよび全押しスイッチ18bは、レリーズボタン(不図示)の押下操作に連動して、それぞれがオン信号をメインCPU11へ出力する。半押しスイッチ18aからのオン信号(半押し操作信号)は、レリーズボタンが通常ストロークの半分程度まで押し下げ操作されると出力され、半ストロークの押し下げ操作解除で出力が解除される。全押しスイッチ18bからのオン信号(全押し操作信号)は、レリーズボタンが通常ストロークまで押し下げ操作されると出力され、通常ストロークの押し下げ操作が解除されると出力が解除される。半押し操作信号は、メインCPU11に対して撮影準備の開始を指示する。全押し操作信号は、メインCPU11に対して記録用画像の取得開始を指示する。   The operation member 18 includes various buttons and switches of the digital camera 1 and outputs an operation signal according to the operation content of each operation member, such as a switching operation of a mode change switch, to the main CPU 11. The half-press switch 18a and the full-press switch 18b each output an ON signal to the main CPU 11 in conjunction with a pressing operation of a release button (not shown). The ON signal (half-press operation signal) from the half-push switch 18a is output when the release button is pushed down to about half of the normal stroke, and the output is released when the half-stroke push-down operation is released. The ON signal (full push operation signal) from the full push switch 18b is output when the release button is pushed down to the normal stroke, and the output is released when the normal stroke push down operation is released. The half-press operation signal instructs the main CPU 11 to start shooting preparation. The full-press operation signal instructs the main CPU 11 to start acquiring a recording image.

<撮影モード>
デジタルカメラ1は、通常の撮影モードとプリキャプチャー撮影モードとを有する。通常の撮影モードでは、上記全押し操作信号に応じて1コマずつ撮影画像を取得して記録媒体30へ記録する。プリキャプチャー撮影モードでは、上記半押し操作信号を受けると高速シャッタ秒時(たとえば125分の1秒より高速)の静止画像を120フレーム/毎秒(120fps)で連写撮影して複数コマの連写撮影画像を取得する。そして、上記全押し操作信号を受けると当該全押し操作信号を受けた時点の前後の所定のフレーム画像をそれぞれ記録媒体30へ記録する。各撮影モードは、操作部材18からの操作信号に応じて切替え可能に構成されている。
<Shooting mode>
The digital camera 1 has a normal shooting mode and a pre-capture shooting mode. In the normal shooting mode, a shot image is acquired frame by frame in accordance with the full-press operation signal and recorded on the recording medium 30. In pre-capture shooting mode, when a half-press operation signal is received, a still image at a high shutter speed (for example, faster than 1/125 second) is shot continuously at 120 frames / second (120 fps), and multiple frames are shot continuously. Acquire a captured image. When the full-press operation signal is received, predetermined frame images before and after receiving the full-press operation signal are recorded on the recording medium 30, respectively. Each photographing mode is configured to be switchable according to an operation signal from the operation member 18.

<再生モード>
再生モードのデジタルカメラ1は、上記各撮影モードにおいて記録された画像を各コマごとに、あるいは所定数のコマごとに、液晶モニタ19に再生表示する。
<Playback mode>
The digital camera 1 in the reproduction mode reproduces and displays on the liquid crystal monitor 19 the image recorded in each of the above photographing modes for each frame or for each predetermined number of frames.

<プリキャプチャー撮影>
図2は、プリキャプチャー撮影モードにおける画像の取得タイミングを説明する図である。図2において、時刻t0に半押し操作信号が入力されると、メインCPU11はレリーズ待機処理を開始させる。レリーズ待機処理では、たとえば、120フレーム/毎秒(120fps)のフレームレートで被写体像を連続的に撮影し、取得した画像データを逐次バッファメモリ15へ記憶する。
<Pre-capture shooting>
FIG. 2 is a diagram for explaining image acquisition timing in the pre-capture shooting mode. In FIG. 2, when a half-press operation signal is input at time t0, the main CPU 11 starts a release standby process. In the release standby process, for example, subject images are continuously captured at a frame rate of 120 frames / second (120 fps), and the acquired image data is stored in the buffer memory 15 sequentially.

プリキャプチャー撮影のために使用するバッファメモリ15のメモリ容量は、あらかじめ十分な容量が確保されている。メインCPU11は、時刻t0以降にバッファメモリ15内に記憶したフレーム画像の枚数が所定枚数(たとえばA枚)に達した場合には、古いフレーム画像から順に上書き消去する。これにより、プリキャプチャー撮影のために使用するバッファメモリ15のメモリ容量を制限できる。   A sufficient memory capacity of the buffer memory 15 used for pre-capture photography is secured in advance. When the number of frame images stored in the buffer memory 15 after the time t0 reaches a predetermined number (for example, A), the main CPU 11 overwrites and erases the oldest frame images in order. Thereby, the memory capacity of the buffer memory 15 used for pre-capture photography can be limited.

時刻t1に全押し操作信号が入力されると、メインCPU11はレリーズ処理を開始させる。レリーズ処理では、時刻t1以前に撮像したA枚のフレーム画像と、時刻t1以降に撮像されるB枚のフレーム画像とを合わせた(A+B)枚のフレーム画像を記録媒体30への記録候補画像とする。   When the full press operation signal is input at time t1, the main CPU 11 starts the release process. In the release process, (A + B) frame images obtained by combining A frame images captured before time t1 and B frame images captured after time t1 are used as recording candidate images on the recording medium 30. To do.

次に、プリキャプチャー撮影モードにおける処理の流れについて、図3に示すフローチャートを用いて説明する。メインCPU11は、半押し操作信号が入力されると、図3による処理を起動する。   Next, the flow of processing in the pre-capture shooting mode will be described using the flowchart shown in FIG. When the half-press operation signal is input, the main CPU 11 starts the processing shown in FIG.

図3のステップS1において、メインCPU11は、上述したレリーズ待機処理を開始して、ステップS2に進む。   In step S1 of FIG. 3, the main CPU 11 starts the release standby process described above, and proceeds to step S2.

ステップS2において、メインCPU11は、全押し操作信号が入力されたか否かを判定する。CPU11は、全押し操作信号が入力されるまでステップS2の判定処理を繰り返し、全押し操作信号が入力されると、ステップS3に進む。   In step S2, the main CPU 11 determines whether or not a full-press operation signal has been input. The CPU 11 repeats the determination process in step S2 until a full-press operation signal is input. When the full-press operation signal is input, the CPU 11 proceeds to step S3.

ステップS3において、メインCPU11は、上述したレリーズ処理を行って、(A+B)枚のフレーム画像を記録候補画像とし、ステップS4に進む。   In step S3, the main CPU 11 performs the above-described release process, sets (A + B) frame images as recording candidate images, and proceeds to step S4.

ステップS4において、メインCPU11は、記録候補画像とした(A+B)枚のフレーム画像をそれぞれ評価する画像評価処理を行う。この画像評価処理において、メインCPU11は、(A+B)枚のフレーム画像のそれぞれに対して、顔検出信頼度、目瞑りの有無、顔エリアのブレなど、複数の評価項目について評価を行う。そして、メインCPU11は、各フレーム画像(A+B)枚のフレーム画像のそれぞれについて、これらの評価結果をもとに総合的な評価を求めて、ステップS5に進む。   In step S4, the main CPU 11 performs an image evaluation process for evaluating each of the (A + B) frame images as recording candidate images. In this image evaluation process, the main CPU 11 evaluates each of (A + B) frame images with respect to a plurality of evaluation items such as face detection reliability, presence / absence of eye meditation, and blurring of the face area. Then, the main CPU 11 obtains a comprehensive evaluation for each frame image (A + B) frame images based on these evaluation results, and proceeds to step S5.

ステップS5において、メインCPU11は、ステップS4での評価結果をもとに、(A+B)枚のフレーム画像のうち、総合的な評価の高いC枚のフレーム画像(C<(A+B))をベストショット候補画像として選定する。メインCPU11は、選定したC枚のフレーム画像を関連付けて記録媒体30に記録する。さらに、メインCPU11は、C枚のフレーム画像(ベストショット候補画像)のうち、最も総合的な評価の高い1枚のフレーム画像を、ベストショット画像として選定して、図3の処理を終了する。   In step S5, based on the evaluation result in step S4, the main CPU 11 performs the best shot on C frame images (C <(A + B)) having a high overall evaluation among (A + B) frame images. Select as a candidate image. The main CPU 11 records the selected C frame images in the recording medium 30 in association with each other. Further, the main CPU 11 selects one frame image having the highest overall evaluation among the C frame images (best shot candidate images) as the best shot image, and ends the process of FIG.

本実施形態は、上述した画像評価処理において、特に顔検出信頼度の評価処理に特徴を有するため、以下の説明はこの点を中心に行う。   The present embodiment has a feature in the above-described image evaluation processing, particularly in the face detection reliability evaluation processing. Therefore, the following description will be focused on this point.

<顔検出信頼度の評価処理>
まず、顔検出信頼度の評価処理の概要について、図4を用いて説明する。図4は、被写体である人物が顔100の前で手150を振っている際に連写撮影された画像の一例を模式的に示している。図4(a)に示す画像では、人物の顔100に手150が重なっており、人物の目は見えているが、鼻と口が遮蔽されている。図4(b)に示す画像では、人物の顔100の一部に手150が重なっているが、人物の目、鼻および口は遮蔽されていない。図4(c)に示す画像では、人物の顔100に手150が重なっていない。たとえば人物が手150を顔に当ててポーズをとるような場合と異なり、手150を動かしているような場合は人物が意図せずに手150が顔に重なり、手150が不要物であると考えられる。そこで、図4(a)〜図4(c)に示す画像の中では、人物の顔100に不要物である手150が重なっていない図4(c)に示す画像がベストショット候補画像として選定されるのが望ましい。そのため、図4(a)および(b)に示す画像では、顔検出信頼度が相対的に低く評価され、図4(c)に示す画像では、顔検出信頼度が相対的に高く評価されることが望ましい。
<Face detection reliability evaluation process>
First, an outline of the face detection reliability evaluation process will be described with reference to FIG. FIG. 4 schematically illustrates an example of an image continuously shot when a person who is a subject is waving his hand 150 in front of the face 100. In the image shown in FIG. 4A, the hand 150 overlaps the person's face 100, and the person's eyes are visible, but the nose and mouth are shielded. In the image shown in FIG. 4B, the hand 150 overlaps a part of the person's face 100, but the eyes, nose and mouth of the person are not shielded. In the image shown in FIG. 4C, the hand 150 does not overlap the face 100 of the person. For example, unlike when a person poses with his hand 150 on the face, when the hand 150 is moving, the person 150 unintentionally overlaps the face and the hand 150 is an unnecessary object. Conceivable. Therefore, among the images shown in FIGS. 4A to 4C, the image shown in FIG. 4C in which the unnecessary hand 150 does not overlap the human face 100 is selected as the best shot candidate image. It is desirable to be done. Therefore, in the images shown in FIGS. 4A and 4B, the face detection reliability is evaluated relatively low, and in the image shown in FIG. 4C, the face detection reliability is evaluated relatively high. It is desirable.

図4(a)に示す画像に対して顔検出処理を行った場合、顔100の肌色や目は検出されるが、鼻および口が検出されない。そのため、顔のパーツの検出結果から顔100に不要物が重なっていることが判断でき、顔検出信頼度の評価を低くできる。   When face detection processing is performed on the image shown in FIG. 4A, the skin color and eyes of the face 100 are detected, but the nose and mouth are not detected. Therefore, it can be determined from the detection result of the face parts that an unnecessary object is overlapped with the face 100, and the evaluation of the face detection reliability can be lowered.

一方、図4(b)に示す画像に対して顔検出処理を行った場合、顔100の顎部分に手150が重なっているものの、目、鼻および口については検出される。同様に、図4(c)に示す画像に対して顔検出処理を行った場合にも、目、鼻および口が検出される。したがって、顔のパーツの検出結果だけでは、図4(b)に示す画像と図4(c)に示す画像との区別がつかず、図4(b)に示す画像において顔100に不要物が重なっていることを判断できない。そのため、図4(b)に示す画像においても、図4(c)に示す画像と同様に、顔検出信頼度の評価が高くなってしまう。   On the other hand, when the face detection process is performed on the image shown in FIG. 4B, the eyes, nose, and mouth are detected even though the hand 150 overlaps the chin portion of the face 100. Similarly, eyes, nose and mouth are also detected when face detection processing is performed on the image shown in FIG. Therefore, the image shown in FIG. 4B cannot be distinguished from the image shown in FIG. 4C only by the detection result of the face parts, and there is an unnecessary object on the face 100 in the image shown in FIG. 4B. I cannot judge that they overlap. Therefore, also in the image shown in FIG. 4B, the evaluation of the face detection reliability becomes high as in the image shown in FIG.

そこで、本実施形態では、図4(b)のように目、鼻および口が遮蔽されていないが顔100に不要物が重なっている画像については評価が低くなり、図4(c)のように顔100に不要物が重なっていない画像について評価が高くなるように、顔検出信頼度の評価を行う。   Therefore, in this embodiment, as shown in FIG. 4B, the evaluation is low for an image in which the eyes, nose, and mouth are not shielded but an unnecessary object overlaps the face 100, as shown in FIG. In addition, the evaluation of the face detection reliability is performed so that the evaluation is high for an image in which an unnecessary object does not overlap the face 100.

以下、顔検出信頼度の評価処理の詳細について説明する。図5は、顔検出信頼度の評価処理の流れを説明するフローチャートである。メインCPU11は、レリーズ処理が終了し、記録候補画像である(A+B)枚のフレーム画像がバッファメモリ15に入力されると、図5による処理を起動する。   Details of the face detection reliability evaluation process will be described below. FIG. 5 is a flowchart for explaining the flow of the face detection reliability evaluation process. When the release process is completed and (A + B) frame images as recording candidate images are input to the buffer memory 15, the main CPU 11 starts the process of FIG.

図5のステップS11において、メインCPU11は、記録候補画像とした(A+B)枚のフレーム画像の各々において、被写体の顔を検出する顔検出処理を行う。顔検出処理については公知の方法を用いればよい。   In step S11 of FIG. 5, the main CPU 11 performs face detection processing for detecting the face of the subject in each of the (A + B) frame images that are the recording candidate images. A known method may be used for the face detection process.

ステップS12において、メインCPU11は、図6に示すように、顔検出処理により検出された顔100の領域を分割する矩形状の7つの小領域201〜207を設定する。これら7つの小領域201〜207は、それぞれ顔の一部の輪郭を含む位置および大きさに設定される。   In step S12, as shown in FIG. 6, the main CPU 11 sets seven small rectangular areas 201 to 207 that divide the area of the face 100 detected by the face detection process. These seven small areas 201 to 207 are set to positions and sizes including the outline of a part of the face.

具体的に、メインCPU11は、左目101の輪郭を含むように左目小領域201を設定し、右目102の輪郭を含むように右目小領域202を設定する。左目小領域201および右目小領域202は、目およびその周囲の領域を左目101と右目102の中央位置から左右に分割するように設定される。   Specifically, the main CPU 11 sets the left eye small region 201 so as to include the contour of the left eye 101, and sets the right eye small region 202 so as to include the contour of the right eye 102. The left-eye small area 201 and the right-eye small area 202 are set so as to divide the eye and the surrounding area into left and right from the center position of the left eye 101 and the right eye 102.

また、メインCPU11は、左頬の輪郭を含むように左頬小領域203を設定し、右頬の輪郭を含むように右頬小領域204を設定する。左頬小領域203は、左目小領域201の下側に設定される。右頬小領域204は、右目小領域202の下側に設定される。また左頬小領域203および右頬小領域204は、鼻および頬の領域を鼻103の中央位置から左右に分割するように設定される。   Further, the main CPU 11 sets the left cheek small region 203 so as to include the left cheek contour, and sets the right cheek small region 204 so as to include the right cheek contour. The left cheek small area 203 is set below the left eye small area 201. The right cheek small area 204 is set below the right eye small area 202. The left cheek small area 203 and the right cheek small area 204 are set so as to divide the nose and cheek areas from the center position of the nose 103 to the left and right.

さらに、メインCPU11は、左顎の輪郭を含むように左顎小領域205を設定し、右顎の輪郭を含むように右顎小領域206を設定し、口104の輪郭を含むように口小領域207を設定する。左顎小領域205は、左頬小領域203の下側且つ口小領域207の左側に設定される。右顎小領域206は、口小領域207の右側に設定される。   Further, the main CPU 11 sets the left jaw small region 205 so as to include the contour of the left jaw, sets the right jaw small region 206 so as to include the contour of the right jaw, and sets the mouth small size so as to include the contour of the mouth 104. An area 207 is set. The left jaw small area 205 is set below the left cheek small area 203 and on the left side of the mouth small area 207. The right jaw small area 206 is set on the right side of the mouth small area 207.

なお、本実施形態では、顔検出処理によって顔100の輪郭(エッジ)そのものは検出していない。しかしながら、左目101、右目102および口104の位置関係から顔100の標準的な輪郭の位置を推測することができる。このことをふまえ、メインCPU11は、顔検出処理の結果得られた左目101、右目102および口104の位置関係に基づいて、7つの小領域201〜207の位置および大きさを決定する。   In the present embodiment, the contour (edge) itself of the face 100 is not detected by the face detection process. However, the position of the standard contour of the face 100 can be estimated from the positional relationship between the left eye 101, the right eye 102, and the mouth 104. Based on this, the main CPU 11 determines the positions and sizes of the seven small areas 201 to 207 based on the positional relationship between the left eye 101, the right eye 102, and the mouth 104 obtained as a result of the face detection process.

図5のステップS13において、メインCPU11は、上記設定した7つの小領域201〜207の各々において、鮮鋭度を算出する。なお、各小領域の鮮鋭度は、たとえば2次微分処理を用いるなど、公知の方法で算出すればよい。   In step S <b> 13 of FIG. 5, the main CPU 11 calculates the sharpness in each of the set seven small regions 201 to 207. Note that the sharpness of each small region may be calculated by a known method, for example, using a secondary differentiation process.

図7は、図4(b)に示した画像の顔100の領域において、上記7つの小領域201〜207を設定した状態を示す図である。図7では、顔100において、目、鼻および口は遮蔽されていないものの、左顎から口元にかけて手150が重なっているため、左顎の輪郭の一部が遮蔽されている。そのため、図7において、左顎小領域205の鮮鋭度は、顎部分の輪郭が遮蔽されていない右顎小領域206の鮮鋭度と比べて低くなる。特に手150を動かしている際に撮影された場合には、手150がブレて写るため、左顎小領域205の鮮鋭度は、右顎小領域206の鮮鋭度と比べてより低くなる。   FIG. 7 is a diagram showing a state in which the seven small areas 201 to 207 are set in the area of the face 100 of the image shown in FIG. In FIG. 7, in the face 100, the eyes, nose, and mouth are not shielded, but the hand 150 overlaps from the left jaw to the mouth, so a part of the contour of the left jaw is shielded. Therefore, in FIG. 7, the sharpness of the left jaw subregion 205 is lower than the sharpness of the right jaw subregion 206 where the contour of the jaw portion is not shielded. In particular, when the image is taken while the hand 150 is moved, the hand 150 is blurred and the sharpness of the small left jaw region 205 is lower than the sharpness of the small right jaw region 206.

たとえば、図6に示したように、顔100に手150が重なっていない画像において、左顎小領域205の鮮鋭度と右顎小領域206の鮮鋭度との比が10:9であると仮定する。これに対し、図7に示すように、左顎部分に手150が重なった画像では、たとえば、左顎小領域205の鮮鋭度と右顎小領域206の鮮鋭度との比が5:9となるなど、左顎小領域205の鮮鋭度が図6に示した画像と比べても低くなる。つまり、図6に示す画像と図7に示す画像とを比較すると、左顎小領域205の鮮鋭度と右顎小領域206の鮮鋭度との違いの度合いが異なる。   For example, as shown in FIG. 6, in the image in which the hand 150 does not overlap the face 100, it is assumed that the ratio between the sharpness of the left jaw subregion 205 and the sharpness of the right jaw subregion 206 is 10: 9. To do. On the other hand, as shown in FIG. 7, in the image in which the hand 150 overlaps the left jaw part, for example, the ratio of the sharpness of the left jaw small area 205 to the sharpness of the right jaw small area 206 is 5: 9. For example, the sharpness of the left jaw subregion 205 is lower than that of the image shown in FIG. That is, when the image shown in FIG. 6 is compared with the image shown in FIG. 7, the degree of difference between the sharpness of the left jaw subregion 205 and the sharpness of the right jaw subregion 206 is different.

したがって、左顎小領域205の鮮鋭度と右顎小領域206の鮮鋭度との違いの度合いについて、顔100が遮蔽されていない画像と評価対象の画像とを比較することで、評価対象の画像において左顎または右顎に不要物が重なっているか否かを判断できる。すなわち、顔100が遮蔽されていない画像における上記度合いに対して評価対象の画像における上記度合いが大きく異なる場合には、評価対象の画像において左顎または右顎に不要物が重なっていると判断できる。一方、顔100が遮蔽されていない画像における上記度合いと評価対象の画像における上記度合いとがほぼ等しい場合には、評価対象の画像において左顎または右顎に不要物が重なっていないと判断できる。   Therefore, the image of the evaluation target is compared by comparing the image where the face 100 is not occluded with the image of the evaluation target with respect to the degree of difference between the sharpness of the left jaw small region 205 and the sharpness of the right jaw small region 206. It can be determined whether or not an unnecessary object overlaps the left jaw or the right jaw. That is, when the degree in the image to be evaluated is significantly different from the degree in the image where the face 100 is not shielded, it can be determined that an unnecessary object overlaps the left jaw or the right jaw in the image to be evaluated. . On the other hand, when the above-mentioned degree in the image where the face 100 is not shielded is substantially equal to the above-mentioned degree in the evaluation target image, it can be determined that no unnecessary object overlaps the left jaw or the right jaw in the evaluation target image.

また、左目小領域201と右目小領域202、および左頬小領域203と右頬小領域204についても同様に判断できると考えられる。すなわち、顔左側の小領域の鮮鋭度と顔右側の小領域の鮮鋭度との違いに基づいて、顔100に不要物が重なっているか否かを判断できると考えられる。   Further, it can be considered that the left eye small area 201 and the right eye small area 202 and the left cheek small area 203 and the right cheek small area 204 can be similarly determined. That is, it is considered that it can be determined whether or not an unnecessary object overlaps the face 100 based on the difference between the sharpness of the small area on the left side of the face and the sharpness of the small area on the right side of the face.

さらに、左右の小領域における鮮鋭度の違いを比較するだけでなく、左頬小領域203と左顎小領域205、および右頬小領域204と右顎小領域206における鮮鋭度の違いを比較しても、同様に判断できると考えられる。また、左目小領域201と右目小領域202の鮮鋭度の平均値と口小領域207の鮮鋭度との違いを比較すれば、目または口に不要物が重なっているか否かを判断できると考えられる。   Furthermore, not only the difference in sharpness between the left and right subregions, but also the difference in sharpness between the left cheek subregion 203 and the left jaw subregion 205, and between the right cheek subregion 204 and the right jaw subregion 206 are compared. However, it can be judged in the same way. Further, if the difference between the average value of the sharpness of the small left eye area 201 and the small right eye area 202 is compared with the sharpness of the small mouth area 207, it can be determined whether or not an unnecessary object overlaps the eyes or mouth. It is done.

本実施形態では、以上の点をふまえて顔検出信頼度の評価処理が行われる。図5のステップS14において、メインCPU11は、記録候補画像とした(A+B)枚のフレーム画像の中から、顔100が遮蔽されていないと予測される1枚のフレーム画像を、基準画像として決定する。このときメインCPU11は、ステップS13において各フレーム画像の上記7つの小領域201〜207の各々で算出した鮮鋭度に基づいて、基準画像を決定する。   In the present embodiment, the evaluation process of the face detection reliability is performed based on the above points. In step S14 of FIG. 5, the main CPU 11 determines, from the (A + B) frame images that are recording candidate images, one frame image that is predicted not to be covered by the face 100 as a reference image. . At this time, the main CPU 11 determines a reference image based on the sharpness calculated in each of the seven small regions 201 to 207 of each frame image in step S13.

たとえば、メインCPU11は、(A+B)枚のフレーム画像において、7つの小領域201〜207の各々における鮮鋭度の最大値を求める。メインCPU11は、各フレーム画像の鮮鋭度と上記鮮鋭度の最大値との差分を算出し、7つの小領域201〜207における上記差分が総合的に最も小さいフレーム画像を、顔100が遮蔽されていない画像と判断し、基準画像として決定する。   For example, the main CPU 11 obtains the maximum value of the sharpness in each of the seven small areas 201 to 207 in (A + B) frame images. The main CPU 11 calculates the difference between the sharpness of each frame image and the maximum value of the sharpness, and the face 100 is shielded from the frame image in which the difference in the seven small regions 201 to 207 is the smallest overall. It is determined that there is no image and determined as a reference image.

ステップS15において、メインCPU11は、(A+B)枚のフレーム画像を順に評価対象画像に設定して、顔検出信頼度の評価を行う。メインCPU11は、以下の第1組〜第6組における鮮鋭度の違いの度合いについて、基準画像と評価対象画像とを比較し、この比較結果に基づいて評価対象画像における顔検出信頼度を評価する。
(第1組)左目小領域201の鮮鋭度と右目小領域202の鮮鋭度との違いの度合い
(第2組)左頬小領域203の鮮鋭度と右頬小領域204の鮮鋭度との違いの度合い
(第3組)左顎小領域205の鮮鋭度と右顎小領域206の鮮鋭度との違いの度合い
(第4組)左頬小領域203の鮮鋭度と左顎小領域205の鮮鋭度との違いの度合い
(第5組)右頬小領域204の鮮鋭度と右顎小領域206の鮮鋭度との違いの度合い
(第6組)左目小領域201の鮮鋭度および右目小領域202の鮮鋭度の平均値と口小領域207の鮮鋭度との違いの度合い
In step S15, the main CPU 11 sequentially sets (A + B) frame images as evaluation target images, and evaluates the face detection reliability. The main CPU 11 compares the reference image and the evaluation target image for the degree of difference in sharpness in the following first to sixth groups, and evaluates the face detection reliability in the evaluation target image based on the comparison result. .
(First set) The degree of difference between the sharpness of the left eye small area 201 and the sharpness of the right eye small area 202 (second set) The difference between the sharpness of the left cheek small area 203 and the sharpness of the right cheek small area 204 Of the left jaw subregion 205 and the sharpness of the right jaw subregion 206 (fourth set) The sharpness of the left cheek subregion 203 and the sharpness of the left jaw subregion 205 Degree of difference between degrees (5th set) Degree of difference between sharpness of right cheek small area 204 and sharpness of right jaw small area 206 (6th set) Sharpness of left eye small area 201 and right eye small area 202 Of the difference between the average value of the sharpness and the sharpness of the small mouth area 207

なお、上記鮮鋭度の違いの度合いについて、基準画像と評価対象画像とを比較する方法としては、たとえば、以下に説明する方法を用いればよい。以下の説明では、上記第3組(左顎小領域205と右顎小領域206の組)における鮮鋭度の違いの度合いについて比較する場合を例に説明する。メインCPU11は、評価対象画像における左顎小領域205の鮮鋭度を、基準画像における左顎小領域205の鮮鋭度で規格化する。また、メインCPU11は、評価対象画像における右顎小領域206の鮮鋭度を、基準画像における右顎小領域206の鮮鋭度で規格化する。ここで、評価対象画像における規格化後の左顎小領域205の鮮鋭度をαと表記し、右顎小領域206の鮮鋭度をβと表記する。   As a method for comparing the reference image and the evaluation target image with respect to the degree of difference in the sharpness, for example, a method described below may be used. In the following description, an example will be described in which the degree of difference in sharpness in the third set (the set of the left jaw subregion 205 and the right jaw subregion 206) is compared. The main CPU 11 normalizes the sharpness of the left jaw subregion 205 in the evaluation target image with the sharpness of the left jaw subregion 205 in the reference image. Further, the main CPU 11 normalizes the sharpness of the right jaw small region 206 in the evaluation target image with the sharpness of the right jaw small region 206 in the reference image. Here, the sharpness of the left jaw subregion 205 after normalization in the evaluation target image is expressed as α, and the sharpness of the right jaw subregion 206 is expressed as β.

メインCPU11は、αとβの比が基準値から所定範囲内にある場合、評価対象画像における上記度合いと基準画像における上記度合いとの違いが所定範囲内であると判断する。この場合、メインCPU11は、左顎小領域205または右顎小領域206に不要物が重なっていないと判断する。   When the ratio of α and β is within a predetermined range from the reference value, the main CPU 11 determines that the difference between the degree in the evaluation target image and the degree in the reference image is within the predetermined range. In this case, the main CPU 11 determines that an unnecessary object does not overlap the left jaw subregion 205 or the right jaw subregion 206.

一方、メインCPU11は、αとβの比が基準値から所定値以上異なる場合には、評価対象画像における上記度合いが基準画像における上記度合いと所定以上異なると判断する。この場合、メインCPU11は、左顎小領域205または右顎小領域206に不要物が重なっていると判断する。   On the other hand, when the ratio of α and β differs from the reference value by a predetermined value or more, the main CPU 11 determines that the degree in the evaluation target image is different from the degree in the reference image by a predetermined value or more. In this case, the main CPU 11 determines that an unnecessary object overlaps the left jaw subregion 205 or the right jaw subregion 206.

このようにして、メインCPU11は、上記第1組〜第6組における鮮鋭度の違いの度合いについて、基準画像と評価対象画像とを比較し、各小領域に不要物が重なっているか否かを判断する。メインCPU11は、上記第1組〜第6組のうちいずれか1組についても、評価対象画像における上記度合いが基準画像における上記度合いと所定以上異なる場合には、評価対象画像における顔検出信頼度の評価を上記(A+B)枚のフレーム画像内で相対的に低くする。すなわち、メインCPU11は、上記第1組〜第6組のうちいずれか1組でも不要物が重なっていると判断された場合には、顔検出信頼度の評価を相対的に低くする。   In this way, the main CPU 11 compares the reference image with the evaluation target image for the degree of difference in sharpness in the first to sixth groups, and determines whether or not unnecessary objects overlap each small region. to decide. For any one of the first to sixth sets, the main CPU 11 determines the degree of face detection reliability in the evaluation target image when the degree in the evaluation target image differs from the above level in the reference image by a predetermined amount or more. The evaluation is relatively low in the (A + B) frame images. That is, the main CPU 11 relatively lowers the evaluation of the face detection reliability when it is determined that any one of the first to sixth sets overlaps with an unnecessary object.

一方、メインCPU11は、上記第1組〜第6組の全てにおいて、評価対象画像における上記度合いと基準画像における上記度合いとの違いが所定範囲内である場合には、評価対象画像における上記(A+B)枚のフレーム画像内で相対的に高くする。すなわち、メインCPU11は、上記第1組〜第6組のうち全てにおいて不要物が重なっていないと判断された場合に、顔検出信頼度の評価を相対的に高くする。   On the other hand, if the difference between the degree in the evaluation target image and the degree in the reference image is within a predetermined range in all of the first to sixth sets, the main CPU 11 (A + B) ) Relatively high in one frame image. That is, the main CPU 11 relatively increases the evaluation of the face detection reliability when it is determined that unnecessary objects do not overlap in all of the first to sixth groups.

このようにメインCPU11は、上記第1組〜第6組のうちいずれか1組においても不要物が重なっていると判断された場合には、上記第1組〜第6組の全てにおいて不要物が重なっていないと判断された場合と比べて、評価対象画像における顔検出信頼度の評価を低くする。   As described above, when it is determined that any one of the first group to the sixth group overlaps the unnecessary object, the main CPU 11 determines the unnecessary object in all the first group to the sixth group. The evaluation of the face detection reliability in the evaluation target image is made lower than when it is determined that the two do not overlap.

以上の処理により、図4(a)に示したように目、鼻および口のいずれか遮蔽された画像だけでなく、図4(b)に示したように目、鼻および口が遮蔽されていないが顔100に不要物が重なっている画像についても、顔検出信頼度の評価を相対的に低くすることができる。一方、図4(c)に示したように顔100に不要物が重なっていない画像については、顔検出信頼度の評価を相対的に高くすることができる。   As a result of the above processing, not only the eye, nose and mouth are shielded as shown in FIG. 4 (a), but also the eyes, nose and mouth are shielded as shown in FIG. 4 (b). The evaluation of the face detection reliability can be relatively lowered even for an image in which an unnecessary object overlaps the face 100. On the other hand, as shown in FIG. 4C, the evaluation of the face detection reliability can be relatively increased for an image in which an unnecessary object does not overlap the face 100.

上述した図3のステップS5において、メインCPU11は、この顔検出信頼度の評価を含む評価結果に基づいて、(A+B)枚のフレーム画像からC枚のベストショット候補画像を選定する。このとき、目、鼻および口が遮蔽されていないが顔100に不要物が重なっている画像について顔検出信頼度の評価が相対的に低くなっているので、このような画像がベストショット候補画像として選ばれるのを防止できる。一方、顔100に不要物が重なっていない画像については顔検出信頼度の評価が相対的に高くなっているので、ベストショット候補画像として選ばれるようにできる。   In step S5 of FIG. 3 described above, the main CPU 11 selects C best shot candidate images from (A + B) frame images based on the evaluation result including the evaluation of the face detection reliability. At this time, since the evaluation of the face detection reliability is relatively low with respect to an image in which the eyes, nose and mouth are not shielded but an unnecessary object is superimposed on the face 100, such an image is the best shot candidate image. Can be prevented from being selected. On the other hand, since the evaluation of the face detection reliability is relatively high for an image in which an unnecessary object does not overlap the face 100, it can be selected as a best shot candidate image.

以上説明した実施の形態によれば、次の作用効果が得られる。
(1)デジタルカメラ1において、メインCPU11は、入力された複数の画像から被写体の顔を検出し、顔の領域に複数の小領域201〜207を設定し、複数の小領域201〜207の各々において、鮮鋭度を算出する。メインCPU11は、上記複数の画像の中から基準画像を決定する。メインCPU11は、複数の小領域201〜207のうちの顔左側の小領域の鮮鋭度と顔右側の小領域の鮮鋭度との違いの度合いについて、基準画像とこの他の上記複数の画像とで比較し、比較結果に基づいて上記複数の画像をそれぞれ評価する。メインCPU11は、上記評価結果に基づいて、上記複数の画像の中から一枚以上の画像を選定する。こうすることにより、デジタルカメラ1は、顔に不要物が重なった画像を適切に評価でき、このような画像がベストショット候補として選ばれるのを防止することができる。
According to the embodiment described above, the following operational effects can be obtained.
(1) In the digital camera 1, the main CPU 11 detects the subject's face from a plurality of input images, sets a plurality of small areas 201 to 207 in the face area, and each of the plurality of small areas 201 to 207. In, the sharpness is calculated. The main CPU 11 determines a reference image from the plurality of images. The main CPU 11 determines the difference between the sharpness of the small area on the left side of the plurality of small areas 201 to 207 and the sharpness of the small area on the right side of the face between the reference image and the other plurality of images. The plurality of images are each evaluated based on the comparison result. The main CPU 11 selects one or more images from the plurality of images based on the evaluation result. By doing so, the digital camera 1 can appropriately evaluate an image in which an unnecessary object is superimposed on the face, and can prevent such an image from being selected as a best shot candidate.

(2)メインCPU11は、上記複数の画像のうちの評価対象画像における上記度合いが、上記基準画像における上記度合いと所定以上異なる場合に、上記評価対象画像の評価を上記複数の画像内で相対的に低くする。これにより、顔に不要物が重なった画像の評価を上記複数の画像内で相対的に低くすることができる。 (2) When the degree of the evaluation target image among the plurality of images is different from the degree of the reference image by a predetermined amount or more, the main CPU 11 relatively evaluates the evaluation target image within the plurality of images. To lower. Thereby, the evaluation of an image in which an unnecessary object is superimposed on the face can be relatively lowered in the plurality of images.

(3)上記複数の小領域201〜207は、顔の一部の輪郭を含む位置および大きさに設定される。これにより、上記複数の小領域201〜207の各々において算出した鮮鋭度に基づいて、顔に不要物が重なっている場合か否かを判断できる。 (3) The plurality of small regions 201 to 207 are set to positions and sizes including a partial outline of the face. Thereby, based on the sharpness calculated in each of the plurality of small regions 201 to 207, it can be determined whether or not an unnecessary object is overlapping the face.

(4)メインCPU11は、左頬小領域203の鮮鋭度と右頬小領域204の鮮鋭度との違いの度合いについて、基準画像とこの他の上記複数の画像とで比較する。これにより、左頬または右頬に不要物が重なっているか否かを判断できる。 (4) The main CPU 11 compares the degree of difference between the sharpness of the left cheek subregion 203 and the sharpness of the right cheek subregion 204 between the reference image and the other plurality of images. Thereby, it can be determined whether or not an unnecessary object overlaps the left cheek or the right cheek.

(5)メインCPU11は、左顎小領域205の鮮鋭度と右顎小領域206の鮮鋭度との違いの度合いについて、基準画像とこの他の上記複数の画像とで比較する。これにより、左顎または右顎に不要物が重なっているか否かを判断できる。 (5) The main CPU 11 compares the degree of difference between the sharpness of the left jaw subregion 205 and the sharpness of the right jaw subregion 206 between the reference image and the other plurality of images. Thereby, it can be judged whether an unnecessary thing has overlapped with the left jaw or the right jaw.

(6)メインCPU11は、左目小領域201の鮮鋭度と右目小領域202の鮮鋭度との違いの度合いについて、基準画像とこの他の上記複数の画像とで比較する。これにより、左目または右目に不要物が重なっているか否かを判断できる。 (6) The main CPU 11 compares the degree of difference between the sharpness of the left-eye small area 201 and the sharpness of the right-eye small area 202 between the reference image and the other plurality of images. Thereby, it can be determined whether or not an unnecessary object overlaps the left eye or the right eye.

(7)メインCPU11は、左頬小領域203の鮮鋭度と左顎小領域205の鮮鋭度との違いの度合いについて、基準画像とこの他の上記複数の画像とで比較する。これにより、左頬または左顎に不要物が重なっているか否かを判断できる。 (7) The main CPU 11 compares the degree of difference between the sharpness of the left cheek subregion 203 and the sharpness of the left jaw subregion 205 between the reference image and the other plurality of images. Thereby, it can be determined whether or not an unnecessary object overlaps the left cheek or the left jaw.

(8)メインCPU11は、右頬小領域204の鮮鋭度と右顎小領域206の鮮鋭度との違いの度合いについて、基準画像とこの他の上記複数の画像とで比較する。これにより、右頬または右顎に不要物が重なっているか否かを判断できる。 (8) The main CPU 11 compares the degree of difference between the sharpness of the right cheek subregion 204 and the sharpness of the right jaw subregion 206 between the reference image and the other plurality of images. Thereby, it can be determined whether or not an unnecessary object overlaps the right cheek or the right jaw.

(9)メインCPU11は、左目小領域201および右目小領域202の鮮鋭度と口小領域207の鮮鋭度との違いの度合いについて、基準画像とこの他の上記複数の画像とで比較する。これにより、目または口に不要物が重なっているか否かを判断できる。 (9) The main CPU 11 compares the degree of difference between the sharpness of the small left area 201 and the small right eye area 202 and the sharpness of the small mouth area 207 between the reference image and the other plurality of images. Thereby, it can be determined whether or not unnecessary objects overlap the eyes or mouth.

(変形例1)
上述した実施の形態では、図6に示したように、顔領域を7つの小領域に分割する例について説明した。しかしながら、顔領域の分割数や小領域の形状など、分割方法についてはこれに限らなくてもよい。たとえば、口小領域207を設定せずに、口を含む顎の領域を口104の中央位置から左右に分割するように、左顎小領域205および右顎小領域206を設定するようにしてもよい。
(Modification 1)
In the above-described embodiment, as shown in FIG. 6, the example in which the face area is divided into seven small areas has been described. However, the division method such as the number of divisions of the face area and the shape of the small area is not limited to this. For example, the left jaw subregion 205 and the right jaw subregion 206 may be set so that the chin region including the mouth is divided into left and right from the center position of the mouth 104 without setting the mouth subregion 207. Good.

また、上述した実施形態では、顔領域を上下左右に分割するように小領域を設定する例について説明したが、顔領域を左右のみに分割するように小領域を設定してもよいし、顔領域を上下のみに分割するように小領域を設定してもよい。   In the above-described embodiment, the example in which the small area is set to divide the face area vertically and horizontally has been described. However, the small area may be set to divide the face area only to the left and right. You may set a small area | region so that an area | region may be divided | segmented only into upper and lower sides.

(変形例2)
上述した実施の形態では、上記第1組〜第6組の小領域における鮮鋭度の違いの度合いについて、基準画像と評価対象画像とを比較し、比較結果に基づいて評価対象画像における顔検出信頼度を評価する例について説明した。しかしながら、必ずしも上記第1組〜第6組の全ての組について鮮鋭度の違いの度合いを比較しなくてもよい。
(Modification 2)
In the embodiment described above, the reference image and the evaluation target image are compared for the degree of difference in sharpness in the first to sixth sets of small regions, and the face detection reliability in the evaluation target image is based on the comparison result. The example which evaluates a degree was demonstrated. However, it is not always necessary to compare the degree of sharpness difference for all of the first to sixth groups.

たとえば、上記第1組〜第3組の小領域における鮮鋭度の違いの度合いについて、基準画像と評価対象画像とを比較し、比較結果に基づいて評価対象画像における顔検出信頼度を評価するようにしてもよい。このようにしても、顔100に不要物が重なっているか否かを判断して評価することができる。   For example, the reference image and the evaluation target image are compared for the degree of difference in sharpness in the first to third sets of small regions, and the face detection reliability in the evaluation target image is evaluated based on the comparison result. It may be. Even in this case, it can be evaluated by judging whether or not an unnecessary object is superimposed on the face 100.

(変形例3)
上述した実施の形態では、顔領域に設定した各小領域において、特徴量として鮮鋭度を算出し、当該鮮鋭度に基づいて顔検出信頼度を評価する例について説明した。しかしながら、各小領域において、鮮鋭度の代わりにこの他の特徴量を算出し、当該特徴量に基づいて顔検出信頼度を評価するようにしてもよい。たとえば、各小領域において、顔の輪郭線の滑らかさを算出し、当該顔の輪郭線の滑らかさに基づいて顔検出信頼度を評価するようにしてもよい。また、たとえば、各小領域において、顔の輪郭線のパターンマッチングを行い、この結果に基づいて顔検出信頼度を評価するようにしてもよい。この場合、顔に不要物(たとえば手など)が重なっていない画像を基準画像として決定し、基準画像以外の画像について、基準画像に基づいて顔の輪郭線のパターンマッチングを行ってもよい。
(Modification 3)
In the embodiment described above, an example has been described in which the sharpness is calculated as the feature amount in each small region set as the face region, and the face detection reliability is evaluated based on the sharpness. However, in each small region, another feature amount may be calculated instead of the sharpness, and the face detection reliability may be evaluated based on the feature amount. For example, in each small region, the smoothness of the face outline may be calculated, and the face detection reliability may be evaluated based on the smoothness of the face outline. In addition, for example, pattern matching of face contour lines may be performed in each small region, and the face detection reliability may be evaluated based on the result. In this case, an image in which an unnecessary object (such as a hand) does not overlap the face may be determined as the reference image, and pattern matching of the face contour line may be performed based on the reference image for images other than the reference image.

上記では、種々の実施の形態および変形例を説明したが、本発明はこれらの内容に限定されるものではない。本発明の技術的思想の範囲内で考えられるその他の態様も本発明の範囲内に含まれる。   Although various embodiments and modifications have been described above, the present invention is not limited to these contents. Other embodiments conceivable within the scope of the technical idea of the present invention are also included in the scope of the present invention.

1…デジタルカメラ、11…メインCPU、15…バッファメモリ、18…操作部材、18a…半押しスイッチ、18b…全押しスイッチ、21…撮影レンズ、22…撮像素子、30…記録媒体 DESCRIPTION OF SYMBOLS 1 ... Digital camera, 11 ... Main CPU, 15 ... Buffer memory, 18 ... Operation member, 18a ... Half press switch, 18b ... Full press switch, 21 ... Shooting lens, 22 ... Imaging element, 30 ... Recording medium

Claims (7)

入力された複数の画像から被写体の顔を検出する顔検出部と、
前記顔検出部で検出された前記顔の領域を含む第1領域および第2領域の特徴に基づいて、前記複数の画像の各画像をそれぞれ評価する評価部と、
を備える撮像装置。
A face detection unit for detecting the face of a subject from a plurality of input images;
An evaluation unit that evaluates each image of the plurality of images based on features of the first region and the second region including the face region detected by the face detection unit;
An imaging apparatus comprising:
請求項1に記載の撮像装置において、
前記複数の画像の中から基準画像を決定する基準画像決定部を備え、
前記評価部は、前記基準画像における前記第1領域の特徴および前記第2領域の特徴と、前記基準画像以外の他の画像における前記第1領域の特徴および前記第2領域の特徴と、に基づいて前記評価を行う撮像装置。
The imaging device according to claim 1,
A reference image determination unit for determining a reference image from the plurality of images;
The evaluation unit is based on the feature of the first region and the feature of the second region in the reference image, and the feature of the first region and the feature of the second region in an image other than the reference image. An imaging device that performs the evaluation.
請求項2に記載の撮像装置において、
前記評価部は、前記第1領域の特徴および前記第2領域の特徴の違いの度合いについて、前記基準画像と前記基準画像以外の他の画像とで比較し、前記比較の結果に基づいて前記各画像を評価する撮像装置。
The imaging device according to claim 2,
The evaluation unit compares the reference image with another image other than the reference image for the degree of difference between the feature of the first region and the feature of the second region, and based on the result of the comparison, An imaging device that evaluates an image.
請求項3に記載の撮像装置において、
前記評価部は、前記基準画像以外の他の画像における前記度合いが、前記基準画像における前記度合いと所定以上異なる場合に、その画像の評価を前記複数の画像内で相対的に低くする撮像装置。
The imaging device according to claim 3.
The evaluation unit is configured to make the evaluation of an image relatively low in the plurality of images when the degree of the image other than the reference image is different from the degree of the reference image by a predetermined amount or more.
請求項1から4のいずれか一項に記載の撮像装置において、
前記顔の一部の輪郭を含む位置および大きさで前記第1領域および前記第2領域を設定する領域設定部を備える撮像装置。
In the imaging device according to any one of claims 1 to 4,
An imaging apparatus comprising: an area setting unit that sets the first area and the second area at a position and size including a partial outline of the face.
請求項1から5のいずれか一項に記載の撮像装置において、
前記複数の画像は、連続的に撮影された画像である撮像装置。
In the imaging device according to any one of claims 1 to 5,
The imaging device, wherein the plurality of images are images taken continuously.
請求項1から6のいずれか一項に記載の撮像装置において、
前記評価部による評価結果に基づいて、前記複数の画像の中から一枚以上の画像を選定する画像選定部をさらに備える撮像装置。
In the imaging device according to any one of claims 1 to 6,
An imaging apparatus further comprising an image selection unit that selects one or more images from the plurality of images based on an evaluation result by the evaluation unit.
JP2018073164A 2018-04-05 2018-04-05 Imaging apparatus Pending JP2018106763A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018073164A JP2018106763A (en) 2018-04-05 2018-04-05 Imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018073164A JP2018106763A (en) 2018-04-05 2018-04-05 Imaging apparatus

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2013212362A Division JP6318535B2 (en) 2013-10-09 2013-10-09 Imaging device

Publications (1)

Publication Number Publication Date
JP2018106763A true JP2018106763A (en) 2018-07-05

Family

ID=62787960

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018073164A Pending JP2018106763A (en) 2018-04-05 2018-04-05 Imaging apparatus

Country Status (1)

Country Link
JP (1) JP2018106763A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109583375A (en) * 2018-11-30 2019-04-05 中山大学 A kind of the facial image illumination recognition methods and system of multiple features fusion

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013132011A (en) * 2011-12-22 2013-07-04 Canon Inc Imaging device, imaging method, and program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013132011A (en) * 2011-12-22 2013-07-04 Canon Inc Imaging device, imaging method, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109583375A (en) * 2018-11-30 2019-04-05 中山大学 A kind of the facial image illumination recognition methods and system of multiple features fusion

Similar Documents

Publication Publication Date Title
US9854149B2 (en) Image processing apparatus capable of obtaining an image focused on a plurality of subjects at different distances and control method thereof
JP4748244B2 (en) Image selection apparatus, image selection method, and program
JP5246363B2 (en) Image processing apparatus and image evaluation program
JP5736796B2 (en) Electronic camera, program and recording medium
US8922669B2 (en) Image processing apparatus having a display unit and image processing program for controlling the display unit
CN108156365B (en) Image pickup apparatus, image pickup method, and recording medium
JP2006254229A (en) Imaging apparatus, imaging method and imaging program
JP5126207B2 (en) Imaging device
JP6720881B2 (en) Image processing apparatus and image processing method
JP2009065573A (en) Imaging apparatus, focus control method, and focus control program
KR101004914B1 (en) Imaging apparatus and imaging method
JP2007188126A (en) Image brightness calculation device, method, and program
US7864860B2 (en) Image pickup apparatus and motion vector deciding method
JP2007318292A (en) Motion vector detector and its program
JP2008263478A (en) Imaging apparatus
JP2018106763A (en) Imaging apparatus
JP6318535B2 (en) Imaging device
JP2008172395A (en) Imaging apparatus and image processing apparatus, method, and program
JP2009077266A (en) Digital camera, focus area selecting method of digital camera
JP2013152643A (en) Image processing apparatus, image processing method, and program
JP2011223399A (en) Camera
JP4983672B2 (en) Imaging apparatus and program thereof
JP2008219367A (en) Imaging apparatus and imaging method
JP2009278486A (en) Imaging apparatus
JP2009130840A (en) Imaging apparatus, control method thereof ,and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180409

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190411

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190423

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20191119