JP2019041235A - Imaging apparatus - Google Patents

Imaging apparatus Download PDF

Info

Publication number
JP2019041235A
JP2019041235A JP2017161722A JP2017161722A JP2019041235A JP 2019041235 A JP2019041235 A JP 2019041235A JP 2017161722 A JP2017161722 A JP 2017161722A JP 2017161722 A JP2017161722 A JP 2017161722A JP 2019041235 A JP2019041235 A JP 2019041235A
Authority
JP
Japan
Prior art keywords
evaluation value
defocus amount
main area
photometric
color information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017161722A
Other languages
Japanese (ja)
Inventor
大祐 吉田
Daisuke Yoshida
大祐 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017161722A priority Critical patent/JP2019041235A/en
Publication of JP2019041235A publication Critical patent/JP2019041235A/en
Pending legal-status Critical Current

Links

Abstract

To provide an imaging apparatus that appropriately sets a gain for a face detection image and enables face detection.SOLUTION: An imaging apparatus comprises: defocus quantity detection means (112) that detects defocus quantities in a plurality of respective focus detection areas of an imaging screen; photometric means (106) having a plurality of photometric areas corresponding to the plurality of focus detection areas and that measures light in the plurality of photometric areas; the photometric means having color detection means (106) that is able to detect color information of each photometric area; a face detection means (108) that detects a face from a face detection image; main area determination means (101) that determines a main area according to the defocus quantities and the color information; and face detection image formation means (108) that forms a face detection image by applying a gain corresponding to a difference between the photometric value of the main area and the photometric value of the entire screen. The main area determining means determines, as a main area, at least one or more area where the respective defocus quantities are smaller than a predetermined quantity and the respective color information is within a predetermined range.SELECTED DRAWING: Figure 1

Description

本発明は、デジタルカメラやビデオカメラ等の撮像装置に関し、特に、特定被写体の顔認識機能を有する撮像装置に関する。   The present invention relates to an imaging apparatus such as a digital camera or a video camera, and more particularly to an imaging apparatus having a face recognition function for a specific subject.

従来、被写体の露出を決めるための方法として、あらかじめ生成した画像(顔検出用画像と定義する)から顔を画像認識技術により検出する、いわゆる顔認識機能を有するカメラが知られている。前述した顔検出用画像から画像認識を行う際に、顔領域を適切に認識できる輝度に設定するために、撮像した画像から主被写体領域と判定した領域に適切なゲインをかけた画像を顔検出を行っているものがある。   2. Description of the Related Art Conventionally, as a method for determining the exposure of a subject, a camera having a so-called face recognition function that detects a face from a previously generated image (defined as a face detection image) by an image recognition technique is known. When performing image recognition from the aforementioned face detection image, face detection is performed by applying an appropriate gain to the area determined to be the main subject area from the captured image in order to set the brightness so that the face area can be properly recognized. There is something that has done.

主被写体領域の判定方法として、オートフォーカス時のデフォーカス量を判定し、デフォーカス量の小さい領域、すなわちピントがあっている領域を主領域として、主領域と撮像領域全体からゲインを決定し、顔検出用画像としている。   As a method for determining the main subject area, the amount of defocus at the time of autofocus is determined, and the gain is determined from the main area and the entire imaging area, with the area having a small defocus amount, that is, the focused area as the main area This is a face detection image.

また、撮像画素は、焦点深度が浅いため、撮像光学系のデフォーカス量が大きい状態では、顔認識が難しいため、顔認識を正確に行うため、撮像した第1の画像よりも焦点深度が深い、第2の画像を生成し、顔検出用画像とする事が開示されている(特許文献1参照)。   In addition, since the imaging pixel has a shallow depth of focus, it is difficult to recognize the face when the defocus amount of the imaging optical system is large. Therefore, the depth of focus is deeper than the captured first image in order to accurately perform the face recognition. It is disclosed that a second image is generated and used as a face detection image (see Patent Document 1).

特開2010−68439号公報JP 2010-68439 A

しかしながら、上述の特許文献1に開示された従来技術では、顔検出用画像生成のためのゲイン設定に関して言及されておらず、例えば、デフォーカス量の低い領域が顔でない場合に、顔検出用画像のゲイン設定が適切になされず、顔検出ができない場合がある。   However, the prior art disclosed in the above-mentioned Patent Document 1 does not mention gain setting for generating a face detection image. For example, when a region with a low defocus amount is not a face, the face detection image There is a case that face setting cannot be performed because the gain setting is not properly set.

そこで、本発明の目的は、顔検出用画像のゲインを適切に設定し、顔検出を行えるようにすることを可能にした撮像装置を提供することにある。   SUMMARY OF THE INVENTION An object of the present invention is to provide an imaging apparatus capable of appropriately setting the gain of a face detection image and performing face detection.

上記の目的を達成するために、本発明に係る撮像装置は、
撮像画面の複数の焦点検出領域のそれぞれでデフォーカス量を検出するデフォーカス量検出手段(112)と、
前記複数の焦点検出領域に対応する複数の測光領域を有し、複数の測光領域のそれぞれで測光を行う測光手段(106)と、
前記測光手段は測光領域の色情報を検出可能な色検出手段(106)を有し、
顔検出用画像から顔を検出する顔検出手段(108)と、
前記デフォーカス量と色情報に応じて主領域を決定する主領域決定手段(101)を有し、
前記主領域の測光値と、画面全体の測光値との差分に応じた、ゲインを印加することにより顔検出用画像を生成する顔検出用画像作成手段(108)を有し、
前記主領域決定手段は、前記デフォーカス量が所定量よりも小さく、かつ色情報が所定の範囲内となる少なくとも1つ以上の領域を主領域とすることを特徴とする。
In order to achieve the above object, an imaging apparatus according to the present invention includes:
Defocus amount detection means (112) for detecting the defocus amount in each of the plurality of focus detection areas of the imaging screen;
A photometric means (106) which has a plurality of photometry areas corresponding to the plurality of focus detection areas, and performs photometry in each of the plurality of photometry areas;
The photometry means has color detection means (106) capable of detecting color information of the photometry area,
Face detection means (108) for detecting a face from the face detection image;
Main area determining means (101) for determining a main area according to the defocus amount and color information;
Face detection image creating means (108) for generating a face detection image by applying a gain according to the difference between the photometric value of the main area and the photometric value of the entire screen;
The main area determining means is characterized in that at least one area in which the defocus amount is smaller than a predetermined amount and the color information is within a predetermined range is set as a main area.

本発明によれば、顔検出用画像のゲインを適切に設定し、顔検出を行えるようにすることを可能にした撮像装置を提供することができる。 ADVANTAGE OF THE INVENTION According to this invention, the imaging device which enabled setting the gain of the image for face detection appropriately, and enabling it to detect a face can be provided.

図2と併せて本発明の実施形態を説明するための、デジタルカメラ100の構成を示す図である。It is a figure which shows the structure of the digital camera 100 for describing embodiment of this invention with FIG. 焦点検出部111と焦点検出領域を説明する図及び、測光部105と測光領域を説明する図である。It is a figure explaining the focus detection part 111 and a focus detection area, and a figure explaining the photometry part 105 and photometry area. 本発明の実施形態におけるデジタルカメラ100の撮影動作の処理の流れを示すフローチャートである。6 is a flowchart showing a flow of processing of a photographing operation of the digital camera 100 in the embodiment of the present invention. 本発明の第1の実施形態における顔検出動作の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the face detection operation | movement in the 1st Embodiment of this invention. 本発明の第1の実施形態における顔検出動作時の主領域の選択を説明する図である。It is a figure explaining selection of the main field at the time of face detection operation in a 1st embodiment of the present invention. 本発明の第1の実施形態における顔検出用像のゲインを決定する方法を説明する図である。It is a figure explaining the method to determine the gain of the image for face detection in the 1st Embodiment of this invention. 本発明の第2の実施形態における顔検出動作の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the face detection operation | movement in the 2nd Embodiment of this invention. 本発明の第2の実施形態における色情報を判定するための閾値Rth1及びRth2を決定する方法を説明する図である。It is a figure explaining the method to determine threshold value Rth1 and Rth2 for determining the color information in the 2nd Embodiment of this invention. 本発明の第3の実施形態における顔検出動作の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the face detection operation | movement in the 3rd Embodiment of this invention. 本発明の第3の実施形態におけるデフォーカス量δからデフォーカス量に応じた評価値Edと、色情報から色情報に応じた評価値Ecを算出する方法について説明する図である。It is a figure explaining the method of calculating the evaluation value Ed according to defocus amount from defocus amount (delta) in the 3rd Embodiment of this invention, and the evaluation value Ec according to color information from color information.

以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。なお、以下に説明する実施の形態は、本発明の実現手段としての一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されても良い。また、各実施の形態は適宜組み合わされることも可能である。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. The embodiment described below is an example as means for realizing the present invention, and may be appropriately modified or changed depending on the configuration of the apparatus to which the present invention is applied and various conditions. Each embodiment can also be combined as appropriate.

[第1の実施形態]
<デジタルカメラ100の内部構成>
図1は、本発明の実施形態にかかわるデジタルカメラの機能構成を示すブロック図である。
[First Embodiment]
<Internal configuration of digital camera 100>
FIG. 1 is a block diagram showing a functional configuration of a digital camera according to an embodiment of the present invention.

制御部101は、例えばCPUであり、デジタルカメラ100の各ブロックの動作を制御する。制御部101は、例えば後述するROM102に記憶されているデジタルカメラ100の各ブロックを動作させるためのプログラムを読み込み、不図示のRAMに展開し、各ブロックの動作を制御する。また制御部101は、後述する露出演算部113が算出した露出量に従い、シャッタスピードや絞り値を決定し、後述するレンズ駆動部114及びシャッター制御部115に伝送する。   The control unit 101 is a CPU, for example, and controls the operation of each block of the digital camera 100. The control unit 101 reads, for example, a program for operating each block of the digital camera 100 stored in the ROM 102, which will be described later, develops the program in a RAM (not shown), and controls the operation of each block. Further, the control unit 101 determines a shutter speed and an aperture value according to the exposure amount calculated by an exposure calculation unit 113 described later, and transmits the determined shutter speed and aperture value to a lens driving unit 114 and a shutter control unit 115 described later.

ROM102は、例えば書き換え可能な不揮発性メモリであり、デジタルカメラ100の各ブロックの動作プログラムに加え、撮像された画像の記録画素数の情報などを記録している。   The ROM 102 is, for example, a rewritable nonvolatile memory, and records information such as the number of recorded pixels of a captured image in addition to an operation program for each block of the digital camera 100.

操作部103は、例えば電源ボタンやレリーズボタン等のデジタルカメラ100が備えるユーザー入力インタフェースを有し、各ボタンに対するユーザーからの操作を受け付けて、制御部101に入力があったことを伝える。また操作部103は、デジタルカメラ100に装着されたレンズに供えられた各スイッチによる操作に対応した処理を受け付けて制御101に入力があったことを伝える。   The operation unit 103 has a user input interface provided in the digital camera 100 such as a power button and a release button, for example, accepts an operation from the user for each button, and notifies the control unit 101 that there is an input. The operation unit 103 receives a process corresponding to an operation performed by each switch provided on the lens mounted on the digital camera 100 and notifies the control 101 that there is an input.

光学系104は、例えば合焦レンズ(フォーカスレンズ)、ズームレンズ等のレンズ群と、絞り、シャッター等を備え、被写体からの反射光をデジタルカメラ100に取り込む。   The optical system 104 includes a lens group such as a focusing lens (focus lens) and a zoom lens, an aperture, a shutter, and the like, and takes in reflected light from the subject into the digital camera 100.

撮像部105は、例えばCCDやCMOSセンサ等の撮像素子であり、光学系104を介してデジタルカメラ100に入射して結像された被写体像を光電変換し、得られたアナログ画像信号をA/D変換部107に出力する。   The imaging unit 105 is an imaging element such as a CCD or a CMOS sensor, for example. The imaging unit 105 photoelectrically converts a subject image incident on the digital camera 100 via the optical system 104 and converts the obtained analog image signal into an A / A signal. The data is output to the D conversion unit 107.

測光部106は、例えば撮像部105と光学的に共役な位置に位置する測光センサであり、光学系104を介してデジタルカメラ100に入射した被写体からの反射光から、撮像画面の多分割された領域毎に測光値(輝度)の情報を取得し、制御部101に出力する。また、測光部106は、被写体の色情報である測色情報を検出機能も有する。本実施形態においては、測光部106は800×600の領域に分割されて測光可能な構成となっている。例えば、ライブビュー時などにおいては、撮像部105が測光部106の代わりをしても良い。   The photometry unit 106 is, for example, a photometric sensor located at a position optically conjugate with the imaging unit 105, and the imaging screen is divided into multiple parts from reflected light from a subject incident on the digital camera 100 via the optical system 104. Photometric value (luminance) information is acquired for each region and output to the control unit 101. The photometric unit 106 also has a function of detecting colorimetric information that is color information of the subject. In the present embodiment, the photometry unit 106 is divided into 800 × 600 areas so that photometry can be performed. For example, the imaging unit 105 may replace the photometry unit 106 during live view.

図2(b)は、測光部106が備える測光センサが測光する領域の一例を示した図であり、図では前記800×600に分割された領域をさらに35分割された測光領域毎に測光値を取得可能である。   FIG. 2B is a diagram showing an example of a region in which the photometric sensor included in the photometric unit 106 performs photometry. In the figure, the photometric value is obtained by dividing the region divided into 800 × 600 into 35 photometric regions. Can be obtained.

A/D変換部107は、撮像部105から入力されたアナログ画像信号に対し、A/D変換処理を適用し、デジタル画像データを出力する。   The A / D conversion unit 107 applies A / D conversion processing to the analog image signal input from the imaging unit 105 and outputs digital image data.

画像処理部108は、A/D変換部107が出力したデジタル画像データに対して、例えば解像度変換処理や色調変換処理等の各種画像処理を適用し、後述する記録媒体109に記録する。また、画像処理部108は、所定の画像入力から顔検出処理を行う、顔検出処理部としても動作する。   The image processing unit 108 applies various image processing such as resolution conversion processing and color tone conversion processing to the digital image data output from the A / D conversion unit 107 and records the digital image data on a recording medium 109 described later. The image processing unit 108 also operates as a face detection processing unit that performs face detection processing from a predetermined image input.

記録媒体109は、例えばデジタルカメラ100に内蔵される記録用の記憶領域や、メモリカードやHDD等の、デジタルカメラ100に接続して用いる着脱可能な記録媒体である。   The recording medium 109 is a detachable recording medium used by connecting to the digital camera 100, such as a recording storage area built into the digital camera 100, a memory card, an HDD, or the like.

画像表示部110は、例えば小型LCD等の表示装置であり、撮像部105が出力した被写体像を逐次表示する(スルー表示)。画像表示部110は、スルー表示により電子ビューファインダとして機能するだけでなく、例えばデジタルカメラ100の設定を行うためのGUIの表示や、記録媒体に記録された画像の表示も行う。   The image display unit 110 is a display device such as a small LCD, for example, and sequentially displays the subject image output by the imaging unit 105 (through display). The image display unit 110 not only functions as an electronic viewfinder by through display, but also displays, for example, a GUI for setting the digital camera 100 and an image recorded on a recording medium.

焦点検出部111は、撮像画面上の複数の焦点検出領域について不図示の光学系により瞳分割された2像の位相差を検出し、デフォーカス量検出部112に出力する。また、焦点検出部111は、デフォーカス量検出部112で検出されたデフォーカス量を用いて、複数の焦点検出領域の何れかで被写体に合焦する合焦レンズの位置を算出する。   The focus detection unit 111 detects a phase difference between two images obtained by pupil division using a not-shown optical system for a plurality of focus detection regions on the imaging screen, and outputs the phase difference to the defocus amount detection unit 112. Further, the focus detection unit 111 uses the defocus amount detected by the defocus amount detection unit 112 to calculate the position of the focusing lens that focuses on the subject in any of the plurality of focus detection regions.

図2(a)は、焦点検出部111で瞳分割された2像の位相差を検出する複数の焦点検出領域の一例を示した図であり、図ではハッチングで示した8つの領域を焦点検出に用いる複数の焦点検出領域としている。   FIG. 2A is a diagram showing an example of a plurality of focus detection areas for detecting a phase difference between two images that are pupil-divided by the focus detection unit 111. In the figure, focus detection is performed on eight areas indicated by hatching. A plurality of focus detection areas used in the above.

図2(a)及び図2(b)から、例えば焦点検出領域AF1と測光領域AE34が撮像画面上の同じ領域となることがわかる。即ち、各焦点検出領域にはそれぞれ対応した測光領域が存在しており、後述するようにして各焦点検出領域のデフォーカス量に基づいて各測光領域の重み付けが行われる。   From FIG. 2A and FIG. 2B, it can be seen that, for example, the focus detection area AF1 and the photometry area AE34 are the same area on the imaging screen. That is, there is a corresponding photometry area in each focus detection area, and weighting of each photometry area is performed based on the defocus amount of each focus detection area as described later.

デフォーカス量検出部112は、焦点検出部111で検出された2像の位相差からデフォーカス量を演算し、得られたデフォーカス量を重み付け演算部113に出力する。   The defocus amount detection unit 112 calculates the defocus amount from the phase difference between the two images detected by the focus detection unit 111, and outputs the obtained defocus amount to the weight calculation unit 113.

露出演算部113は、例えば測光部106の多分割された測光領域のうち、複数の焦点検出領域に対応する測光領域の測光値の情報を用いて、次の演算処理を行う。露出演算部113は、上記の複数の焦点検出領域に対応する測光領域の測光値の情報を、ROM102に記憶されている重み付け量の情報に従って加重平均することにより、全領域の測光値として設定する加重平均測光値を演算する。露出演算部113は、演算された加重平均測光値の情報に従い適切な露出量を決定し、制御部101に露出量の情報を伝送する。   For example, the exposure calculation unit 113 performs the following calculation process using information on the photometric values of the photometric areas corresponding to a plurality of focus detection areas among the multi-metered photometric areas of the photometric unit 106. The exposure calculation unit 113 sets the photometric value information of the photometric areas corresponding to the plurality of focus detection areas as the photometric values of the entire area by performing weighted averaging according to the weighting amount information stored in the ROM 102. Calculates the weighted average photometric value. The exposure calculation unit 113 determines an appropriate exposure amount according to the calculated weighted average photometric value information, and transmits the exposure amount information to the control unit 101.

レンズ駆動部114は、焦点検出部111が検出した被写体に合焦する合焦レンズの位置の情報に従い、光学系104の合焦レンズ(フォーカスレンズ)を駆動させる。またレンズ駆動部114は、露出演算部113が決定した露出量の情報を受信して制御部101が決定した絞り値の情報に従い、光学系104の絞りを駆動させる。   The lens driving unit 114 drives the focusing lens (focus lens) of the optical system 104 in accordance with information on the position of the focusing lens that focuses on the subject detected by the focus detection unit 111. The lens driving unit 114 receives information on the exposure amount determined by the exposure calculation unit 113 and drives the aperture of the optical system 104 according to the information on the aperture value determined by the control unit 101.

シャッター制御部115は、露出演算部113が決定した露出量の情報を受信して制御部101が決定したシャッタスピードの情報に従い、光学系104のシャッタを駆動させる。   The shutter control unit 115 receives the exposure amount information determined by the exposure calculation unit 113 and drives the shutter of the optical system 104 according to the shutter speed information determined by the control unit 101.

<デジタルカメラ100における撮影による画像の生成>
続いて、図3を用いて、本実施形態におけるデジタルカメラ100における画像の生成について説明する。図3は、画像を生成する際のデジタルカメラ100の動作を示すフローチャートである。このフローチャートに示される処理は、デジタルカメラ100の電源がONとなることに応じて開始される。
<Generation of Image by Photographing with Digital Camera 100>
Next, generation of an image in the digital camera 100 according to the present embodiment will be described with reference to FIG. FIG. 3 is a flowchart showing the operation of the digital camera 100 when generating an image. The processing shown in this flowchart is started in response to the digital camera 100 being turned on.

まず、ステップS301では、制御部101はSW1がONとなったか否かを判断する。SW1がONとなったと制御部101が判断した場合、処理はステップS302に進む。   First, in step S301, the control unit 101 determines whether SW1 is turned on. If the control unit 101 determines that SW1 is turned on, the process proceeds to step S302.

ステップS302では、制御部101はデジタルカメラ100のAFモードがオートフォーカスモード(AFモード)であるかマニュアルフォーカスモード(MFモード)であるか否かを判断する。AFモードがAFモードでなく、MFモードであると制御部101が判断した場合は、処理はステップS307へ進む。一方、AFモードがAFモードであると制御部101が判断した場合は、処理はステップS303へ進む。   In step S302, the control unit 101 determines whether the AF mode of the digital camera 100 is an autofocus mode (AF mode) or a manual focus mode (MF mode). If the control unit 101 determines that the AF mode is not the AF mode but the MF mode, the process proceeds to step S307. On the other hand, when the control unit 101 determines that the AF mode is the AF mode, the process proceeds to step S303.

本実施形態におけるAFモードは、操作部105に含まれているAFモード切り替えスイッチにてユーザーが選択可能な構成となっている。   The AF mode in the present embodiment is configured to be selectable by the user with an AF mode switching switch included in the operation unit 105.

ステップS303では、制御部101は焦点検出部111に焦点を検出する領域として設定されている複数の焦点検出エリア内の位相差センサのコントラスト情報を検出させる。   In step S303, the control unit 101 causes the focus detection unit 111 to detect contrast information of phase difference sensors in a plurality of focus detection areas set as regions for detecting a focus.

ステップS304で、制御部101は、焦点検出部111により、複数の焦点検出エリアについてデフォーカス量検出の演算を開始させる。このとき、制御部101は、デフォーカス量検出部112にデフォーカス量検出の演算を開始させてから、所定の時間が経過した後、演算中であっても処理をステップS305に移す。また、所定の時間とは、例えばROM102に記憶される撮像設定に含まれる、例えば、連写撮影において1回の撮像に割り当てる時間(連写スピード)の情報に比例して決定される。   In step S304, the control unit 101 causes the focus detection unit 111 to start calculation of defocus amount detection for a plurality of focus detection areas. At this time, the control unit 101 causes the defocus amount detection unit 112 to start calculation for defocus amount detection, and after a predetermined time has elapsed, the process proceeds to step S305 even during calculation. Further, the predetermined time is determined in proportion to, for example, information on a time (continuous shooting speed) allocated to one imaging in the continuous shooting, which is included in the imaging setting stored in the ROM 102, for example.

例えば、1秒間に5回の撮像を行う連写撮影の設定であった場合、1回の撮像に割り当てられる時間は0.2秒となる。しかしながら、1回の撮像にはその他のステップの処理に要する時間も含まれるため、本ステップの「所定の時間」は0.2秒より小さい、例えば0.02秒等に決定すればよい。また、連写撮影でない場合は、この限りではない。   For example, in the case of setting for continuous shooting in which imaging is performed five times per second, the time allocated to one imaging is 0.2 seconds. However, since one imaging includes the time required for processing in other steps, the “predetermined time” in this step may be determined to be less than 0.2 seconds, for example, 0.02 seconds. In addition, this is not the case when continuous shooting is not performed.

ステップS305で、制御部101は、ステップS304でデフォーカス量検出部112に開始させたデフォーカス量検出の演算が完了しているかを判断する。デフォーカス量検出の演算が完了している場合は、制御部101は処理をステップS306に移す。このとき、デフォーカス量検出部112は、制御部101の指示により算出した複数の焦点検出エリアのデフォーカス量(検出結果)を、焦点検出部111を介して制御部101に出力する。   In step S305, the control unit 101 determines whether the defocus amount detection calculation started by the defocus amount detection unit 112 in step S304 has been completed. If the calculation of defocus amount detection has been completed, the control unit 101 moves the process to step S306. At this time, the defocus amount detection unit 112 outputs the defocus amounts (detection results) of the plurality of focus detection areas calculated according to instructions from the control unit 101 to the control unit 101 via the focus detection unit 111.

制御部101はこのデフォーカス量をROM102へ一次保存する。デフォーカス量検出部112が検出した結果のデフォーカス量は、例えば、デフォーカス量δの絶対値|δ|によって定義される。|δ|が小さいほど、その領域の合焦度が高いと考えられる。このようにして得られた、各測距領域のデフォーカス量をデフォーカスマップと定義する。ステップS305でデフォーカス量検出の演算が完了していない場合、制御部101は処理をステップS307へ移す。   The control unit 101 temporarily stores this defocus amount in the ROM 102. The defocus amount as a result of detection by the defocus amount detection unit 112 is defined by, for example, the absolute value | δ | of the defocus amount δ. It is considered that the smaller the | δ | The defocus amount of each distance measurement area obtained in this way is defined as a defocus map. If the calculation of defocus amount detection is not completed in step S305, the control unit 101 moves the process to step S307.

ステップS306で、制御部101は、ROM102に記憶されたデフォーカス量の情報から、焦点検出部111に複数の領域の何れかで被写体に合焦する合焦レンズの位置を算出させる。また、制御部101は、焦点検出部111が算出した、被写体に合焦する合焦レンズの位置の情報に従い、レンズ駆動部114に合焦レンズを被写体に合焦する位置に駆動させる。被写体に合焦する位置に合焦レンズを駆動させた後、制御部101は処理をステップS308に移す。   In step S <b> 306, the control unit 101 causes the focus detection unit 111 to calculate the position of the focusing lens that focuses on the subject in any of the plurality of regions, from the defocus amount information stored in the ROM 102. Further, the control unit 101 causes the lens driving unit 114 to drive the focusing lens to a position for focusing on the subject in accordance with the information on the position of the focusing lens that focuses on the subject calculated by the focus detection unit 111. After driving the focusing lens to a position where the subject is focused, the control unit 101 moves the process to step S308.

ステップS307で、制御部101は、デフォーカス量検出部112に焦点検出エリアのうち、中央の領域に重きをおいたデフォーカス量を決定させる。中央の領域に重きをおいたデフォーカス量とは、例えば図2(a)のAF1の領域のデフォーカス量を1とし、それ以外の焦点検出エリアのデフォーカス量を5とする。制御部101は、デフォーカス量検出部112が決定したデフォーカス量を、ROM102に記憶する。これにより、制御部101は、後述するステップで主に中央部の測光値を用いて露出量を決定することができる。   In step S <b> 307, the control unit 101 causes the defocus amount detection unit 112 to determine a defocus amount with a focus on the central region of the focus detection area. The defocus amount with a heavy weight in the central region is, for example, that the defocus amount in the AF1 region in FIG. 2A is 1, and the defocus amount in other focus detection areas is 5. The control unit 101 stores the defocus amount determined by the defocus amount detection unit 112 in the ROM 102. Thereby, the control part 101 can determine exposure amount mainly using the photometric value of a center part by the step mentioned later.

制御部101は、中央の領域に重きをおいたデフォーカス量の決定後、処理をステップS308の顔検出動作に移す。ステップS308の顔検出動作の詳細は後述する。   After determining the defocus amount with emphasis on the central area, the control unit 101 shifts the processing to the face detection operation in step S308. Details of the face detection operation in step S308 will be described later.

ステップS309では、制御部101は撮像部105と測光部106を撮影像可能な状態に制御する。   In step S309, the control unit 101 controls the imaging unit 105 and the photometry unit 106 to be in a state where a captured image can be captured.

次に、ステップS310では、制御部101はSW2がONとなったか否かを判断する。SW2がONとなっていないと制御部101が判断した場合、処理はステップS301に戻る。一方、SW2がONとなったと制御部101が判断した場合、処理はステップS311に進む。   Next, in step S310, the control unit 101 determines whether SW2 is turned on. If the control unit 101 determines that SW2 is not ON, the process returns to step S301. On the other hand, when the control unit 101 determines that SW2 is turned on, the process proceeds to step S311.

ステップS311では、制御部101は、撮像部105により撮像動作を行い画像を取得する。   In step S <b> 311, the control unit 101 performs an imaging operation with the imaging unit 105 and acquires an image.

続くステップS312では、制御部101は、ステップS312で取得した画像を記録媒体109に記録する。   In subsequent step S312, the control unit 101 records the image acquired in step S312 on the recording medium 109.

ステップS313では、制御部101は、他のモードに遷移する指示を受け付けたか否かを判断する。例えば、操作部103に含まれる再生ボタンの押下が検知された場合、制御部101は再生モードに遷移する指示を受け付けたと判断する。他のモードに遷移する指示を受け付けていないと制御部101が判断した場合、処理はステップS301に戻る。一方、他のモードに遷移する指示を受け付けたと制御部101が判断した場合、処理を終了する。   In step S313, the control unit 101 determines whether an instruction to change to another mode has been received. For example, when the pressing of the playback button included in the operation unit 103 is detected, the control unit 101 determines that an instruction to transition to the playback mode has been received. If the control unit 101 determines that an instruction to transition to another mode has not been received, the process returns to step S301. On the other hand, if the control unit 101 determines that an instruction to transition to another mode has been received, the process ends.

以上が、本実施形態におけるデジタルカメラ100における撮影による画像の生成の説明である。   The above is the description of the generation of an image by photographing with the digital camera 100 in the present embodiment.

<顔検出動作の流れ>
次に、図4を用いて、ステップS308で定義された、本実施形態におけるデジタルカメラ100による顔検出動作について説明する。
<Flow of face detection operation>
Next, the face detection operation performed by the digital camera 100 in this embodiment, which is defined in step S308, will be described with reference to FIG.

ステップS401では、制御部101は、測光部106より顔検出用の画像を取得し、ステップS402に進む。検出した画像の例が図5(a)である。   In step S401, the control unit 101 acquires a face detection image from the photometry unit 106, and the process proceeds to step S402. An example of the detected image is shown in FIG.

次に、ステップS402で、制御部101は、デフォーカス量検出部112より受け取ったデフォーカスマップから後述するステップS406でのゲイン設定のための主領域候補の選択を行い、ステップS403へ進む。主領域の選択方法は、例えば7点の測距エリアのうち、デフォーカス量が小さい順から、3番目までの領域を主領域候補とする。本実施形態において、制御101によって選択された主領域候補を図5(b)に示す。   Next, in step S402, the control unit 101 selects a main region candidate for gain setting in step S406, which will be described later, from the defocus map received from the defocus amount detection unit 112, and proceeds to step S403. As a main area selection method, for example, out of seven distance measurement areas, the third area from the smallest defocus amount is selected as a main area candidate. In this embodiment, the main area candidates selected by the control 101 are shown in FIG.

ステップS403では、制御部101は、ステップS402で選択した主領域候補に対応した、測光領域の色情報を参照し、所定の色が含まれているか判定を行う。所定の色が含まれていると制御部101が判定した場合、ステップS404へ進む。一方、所定の色が含まれていないと制御101が判定した場合、ステップS405へ進む。所定の色が含まれているかの判定方法について述べる。制御部101は、測光部106より対応した測光領域の色情報をR,G,Bそれぞれの成分を受け取る。制御部101はROM102にあらかじめ格納されている、主領域選択用閾値とR,G,Bそれぞれの成分値との比較を行い、所定の範囲内であるか判定を行う。閾値は例えば、Rth1<R<Rth2となる値である。   In step S403, the control unit 101 refers to the color information of the photometric area corresponding to the main area candidate selected in step S402, and determines whether a predetermined color is included. When the control unit 101 determines that the predetermined color is included, the process proceeds to step S404. On the other hand, when the control 101 determines that the predetermined color is not included, the process proceeds to step S405. A method for determining whether a predetermined color is included will be described. The control unit 101 receives R, G, and B components of the color information of the corresponding photometric area from the photometric unit 106. The control unit 101 compares the main area selection threshold value stored in advance in the ROM 102 with the component values of R, G, and B, and determines whether they are within a predetermined range. The threshold value is, for example, a value satisfying Rth1 <R <Rth2.

ステップS404では、制御部101は、ステップS403で所定の色の範囲内にあると判定した主領域候補を、主領域として選択しステップS406へ進む。   In step S404, the control unit 101 selects the main area candidate determined to be within the predetermined color range in step S403 as the main area, and the process proceeds to step S406.

ステップS405では、制御部101は、主領域候補のうち、デフォーカス量が最も低い領域を主領域として選択しステップS406へ進む。   In step S405, the control unit 101 selects an area with the lowest defocus amount from the main area candidates as the main area, and proceeds to step S406.

ステップS406では、顔検出動作を行うための前処理として、顔検出用画像の画像処理を行うためのゲイン設定を行う。ゲイン設定の方法について説明する。制御部101は、ステップS404またはステップS405で設定した、主領域の測光値BVmainと、主領域以外(以後、周辺領域と定義する)の平均測光値BVaveを測光部106より受け取る。主領域が複数ある場合は、主領域の平均測光値をBVmainとする。   In step S406, gain setting for performing image processing of the face detection image is performed as preprocessing for performing the face detection operation. A method for setting the gain will be described. The control unit 101 receives from the photometry unit 106 the photometric value BVmain of the main area and the average photometric value BVave other than the main area (hereinafter referred to as the peripheral area) set in step S404 or step S405. When there are a plurality of main areas, the average photometric value of the main area is set to BVmain.

次に、制御部101は周辺領域と主領域との差分BVgainをBVgain=BVave−BVmainにより求め、BVgainに応じたゲインを設定し、画像処理部108が設定したゲインを顔検出用画像にかける。BVgainに応じたゲインは、図6に示すように、BVgainが小さい(主領域の方が明るい)ほど小さく、BVgainが大きい(主領域の方が暗い)ほど大きいという特徴を持つものとする。また、本実施形態において、BVgainはBVaよりも小さい場合は、BVaでクリップし、BVbより大きい場合は、BVbでクリップするものとする。   Next, the control unit 101 obtains a difference BVgain between the peripheral region and the main region by BVgain = BVave−BVmain, sets a gain according to BVgain, and applies the gain set by the image processing unit 108 to the face detection image. As shown in FIG. 6, the gain corresponding to BVgain is characterized by being smaller as BVgain is smaller (the main region is brighter) and larger as BVgain is larger (the main region is darker). In this embodiment, when BVgain is smaller than BVa, it is clipped with BVa, and when larger than BVb, it is clipped with BVb.

ステップS407では、ステップS406で画像処理部108は、設定したゲインをかけた顔検出画像を入力とし、画像内の顔検出動作を行い、ステップS408へ進む。   In step S407, in step S406, the image processing unit 108 receives the face detection image multiplied by the set gain, performs a face detection operation in the image, and proceeds to step S408.

ステップS408では、画像処理部108が行った顔検出結果を制御部101へ出力し、ROM102は検出結果を一次保存する。顔検出結果は、例えば顔が存在する領域の撮像部のアドレスに対応した値である
以上が、本実施形態におけるデジタルカメラ100の顔検出動作の説明である。
In step S408, the face detection result performed by the image processing unit 108 is output to the control unit 101, and the ROM 102 temporarily stores the detection result. The face detection result is, for example, a value corresponding to the address of the imaging unit in the area where the face exists. The above is the description of the face detection operation of the digital camera 100 in the present embodiment.

上述したように、本実施形態では、デフォーカス量が小さい、つまり合焦している可能性が高い領域が複数ある場合でも、色情報を用いる事によって、より正確に顔が含まれる領域を主領域として選択する事ができ、顔検出用画像に適切なゲインを設定できる。   As described above, in the present embodiment, even when there are a plurality of regions where the defocus amount is small, that is, there is a high possibility that the subject is in focus, by using color information, the region including the face is more accurately included. It can be selected as a region, and an appropriate gain can be set for the face detection image.

[第2の実施形態]
第1の実施形態では、デフォーカス量が所定より低い領域で、かつ所定の色情報を含む範囲を主領域とし、顔検出用画像のゲイン設定を行う例について述べてきた。
[Second Embodiment]
In the first embodiment, an example has been described in which the gain setting of the face detection image is performed by setting the main region as the range including the predetermined color information in the region where the defocus amount is lower than the predetermined amount.

しかしながら、オートフォーカスの精度は撮影するシーンによって異なるため、場合によっては、オートフォーカスの信頼度が低い、例えばデフォーカス量の最少値が所定よりも大きく値が同等な領域が複数ある場合などがあると考えられる。   However, since the accuracy of autofocus differs depending on the scene to be photographed, there are cases where the reliability of autofocus is low, for example, there are a plurality of regions where the minimum value of the defocus amount is larger than a predetermined value and the value is equivalent. it is conceivable that.

そこで、本実施形態では、オートフォーカスの信頼度に応じた主領域選択を行う例について述べる。   Therefore, in this embodiment, an example in which main area selection according to the reliability of autofocus is performed will be described.

なお、本実施形態では、第1の実施形態と共通する部分については説明を省略し、本実施形態に特有の部分を中心に説明する。   In the present embodiment, description of parts common to the first embodiment will be omitted, and description will be made focusing on parts unique to the present embodiment.

本実施形態においては、第1の実施形態と同様に、図3のようなフローチャートで撮影動作が行われる。   In the present embodiment, as in the first embodiment, the shooting operation is performed according to the flowchart shown in FIG.

図7は、第2の実施形態におけるデジタルカメラ100の顔検出動作を示すフローチャートである。   FIG. 7 is a flowchart showing the face detection operation of the digital camera 100 according to the second embodiment.

図7のステップS701からS702及びステップS704からS708では図3のS401からS402及びステップS404からS408と同様の処理が実行される。   In steps S701 to S702 and steps S704 to S708 in FIG. 7, the same processing as in steps S401 to S402 and steps S404 to S408 in FIG. 3 is executed.

ステップS703では、制御部101は、ステップS702で選択した主領域候補に対応した、測光領域の色情報を参照し、所定の色が含まれているか判定を行う。所定の色が含まれていると制御部101が判定した場合、ステップS704へ進む。一方、所定の色が含まれていないと制御101が判定した場合、ステップS705へ進む。   In step S703, the control unit 101 refers to the color information of the photometric area corresponding to the main area candidate selected in step S702, and determines whether a predetermined color is included. When the control unit 101 determines that the predetermined color is included, the process proceeds to step S704. On the other hand, if the control 101 determines that the predetermined color is not included, the process proceeds to step S705.

所定の色が含まれているかの判定方法について述べる。   A method for determining whether a predetermined color is included will be described.

制御部101は、測光部106より対応した測光領域の色情報をR,G,Bそれぞれの成分を受け取る。制御部101はROM102にあらかじめ格納されている、主領域選択用閾値とR,G,Bそれぞれの成分値との比較を行い、所定の範囲内であるか判定を行う。閾値は例えば、Rth1<R<Rth2となる値である。この閾値Rth1及びRth2は、図8に示すように、主領域候補のデフォーカス量に応じた範囲となるような特徴をもつ。具体的には、デフォーカス量が小さいほど、対象の主領域候補の信頼度が高いと考えられるため、判定用閾値を広く持つようにし、デフォーカス量が大きいほど、判定用閾値を狭く持つようにする。R,G,Bのうち、Rを代表に説明したが、G,Bに関しても同様の考え方である。   The control unit 101 receives R, G, and B components of the color information of the corresponding photometric area from the photometric unit 106. The control unit 101 compares the main area selection threshold value stored in advance in the ROM 102 with the component values of R, G, and B, and determines whether they are within a predetermined range. The threshold value is, for example, a value satisfying Rth1 <R <Rth2. As shown in FIG. 8, the threshold values Rth1 and Rth2 have a characteristic that the range is in accordance with the defocus amount of the main region candidate. Specifically, it is considered that the smaller the defocus amount, the higher the reliability of the target main region candidate. Therefore, the determination threshold value is set wider, and the larger the defocus amount, the smaller the determination threshold value is set. To. Of R, G, and B, R has been described as a representative, but G and B have the same concept.

以上が本実施形態におけるデジタルカメラ100の顔検出動作の説明である。上述したように、本実施形態では、デフォーカス量に応じて主領域と判定する色情報の閾値を可変とする事で、例えばデフォーカス量が近い領域が複数ある場合などがある場合でも、適切に顔を含む領域を主領域と判定し、適切なゲインを設定可能となる。   The above is the description of the face detection operation of the digital camera 100 in the present embodiment. As described above, in the present embodiment, by changing the threshold value of the color information that is determined to be the main area according to the defocus amount, for example, even when there are a plurality of areas with close defocus amounts, it is appropriate It is possible to determine an area including a face as a main area and set an appropriate gain.

[第3の実施形態]
第2の実施形態では、デフォーカス量に応じて主領域と判定する色情報の閾値を可変とする例について述べてきた。
[Third Embodiment]
In the second embodiment, an example has been described in which the threshold value of the color information that is determined as the main region is variable according to the defocus amount.

しかしながら、オートフォーカスの信頼度と、色情報の信頼度が一致しない場合もあると考えられる。   However, the reliability of autofocus and the reliability of color information may not match.

そこで、本実施形態では、オートフォーカスの信頼度と色情報の信頼度を個別に評価し、主領域選択を行う例について述べる。   Therefore, in the present embodiment, an example in which the reliability of autofocus and the reliability of color information are individually evaluated and main area selection is performed will be described.

なお、本実施形態では、第2の実施形態と共通する部分については説明を省略し、本実施形態に特有の部分を中心に説明する。   In the present embodiment, description of parts common to the second embodiment will be omitted, and description will be made centering on parts unique to the present embodiment.

本実施形態においては、第1及び第2の実施形態と同様に、図3のようなフローチャートで撮影動作が行われる。   In the present embodiment, as in the first and second embodiments, the photographing operation is performed according to the flowchart shown in FIG.

図9は、第3の実施形態におけるデジタルカメラ100の顔検出動作を示すフローチャートである。   FIG. 9 is a flowchart illustrating the face detection operation of the digital camera 100 according to the third embodiment.

図9のステップS901及びステップS906からS910では図7のS701及びステップS704からS708と同様の処理が実行される。   In steps S901 and S906 to S910 in FIG. 9, the same processing as that in S701 and steps S704 to S708 in FIG. 7 is executed.

ステップS902では、制御部101は、デフォーカス量検出部112より受け取ったデフォーカスマップから後述するゲイン設定のための主領域候補の選択を行うと同時に、主領域候補のデフォーカス量による評価値Edの決定を行い、ステップ9403へ進む。主領域の選択方法は、第2の実施形態と同様の処理により選択される。デフォーカス量による評価値Edの決定方法について説明する。   In step S902, the control unit 101 selects a main region candidate for gain setting described later from the defocus map received from the defocus amount detection unit 112, and at the same time, evaluates Ed based on the defocus amount of the main region candidate. The process proceeds to step 9403. The main area selection method is selected by the same processing as in the second embodiment. A method for determining the evaluation value Ed based on the defocus amount will be described.

本実施形態のデジタルカメラ100はROM102内に、あらかじめ図10(a)に示すようなデフォーカス量に応じた評価値Ed算出テーブルを保持している。図10(a)が示すように、Ed算出テーブルはデフォーカス量|δ|が小さいほど、評価値が小さくなるような特徴を持つ。制御部101は図9(a)に示したEd算出テーブルに応じて、Edの決定を行う。   The digital camera 100 according to the present embodiment holds an evaluation value Ed calculation table corresponding to the defocus amount as shown in FIG. As shown in FIG. 10A, the Ed calculation table has a feature that the evaluation value decreases as the defocus amount | δ | The control unit 101 determines Ed according to the Ed calculation table shown in FIG.

次にステップS903では、制御部101は、ステップS902で選択した主領域候補に対応した、測光領域の色情報を参照し、色情報に応じた評価値Ecの算出を行い、ステップS904へ進む。色情報による評価値Ecの決定方法について説明する。   Next, in step S903, the control unit 101 refers to the color information of the photometric area corresponding to the main area candidate selected in step S902, calculates the evaluation value Ec according to the color information, and proceeds to step S904. A method for determining the evaluation value Ec based on the color information will be described.

本実施形態のデジタルカメラ100はROM102内に、あらかじめ図10(b)に示すような色情報に応じた評価値Ec算出テーブルを保持している。図10(b)は代表値としてR成分について述べているが、G成分、B成分についても同様に判定用の閾値をROM102に保持しており、R成分、G成分、B成分の各々の値から最終的に色情報の評価値Ecとして算出される。Ecはより顔に近い色、つまり肌色に近いほど、評価値が低くなるように設定される特徴を持つ。   The digital camera 100 according to the present embodiment holds an evaluation value Ec calculation table corresponding to color information as shown in FIG. FIG. 10B describes the R component as a representative value, but the threshold values for determination are similarly held in the ROM 102 for the G component and the B component, and each value of the R component, the G component, and the B component is stored. Is finally calculated as an evaluation value Ec of color information. Ec has a characteristic that the evaluation value is set to be lower as the color is closer to the face, that is, closer to the skin color.

ステップS904では、制御部101は、ステップS902で算出したEd及びステップS903で算出したEcから、総合評価値EmをEm=Ed+Ecにより主領域候補毎に計算し、ステップS905へ進む。   In step S904, the control unit 101 calculates a comprehensive evaluation value Em for each main region candidate by Em = Ed + Ec from Ed calculated in step S902 and Ec calculated in step S903, and the process proceeds to step S905.

ステップS905では、制御部はステップS904で計算した主領域候補毎の総合評価値Emが、あらかじめROM102に保持していた主領域判定用閾値Ethよりも小さくなるかどうか判定を行う。EmがEthよりも小さいと、制御部101が判定した場合、ステップS906へ進み、EmがEth以上であると制御部101が判定した場合、ステップS907へ進む。   In step S905, the control unit determines whether or not the overall evaluation value Em for each main area candidate calculated in step S904 is smaller than the main area determination threshold Eth previously stored in the ROM 102. If the control unit 101 determines that Em is smaller than Eth, the process proceeds to step S906. If the control unit 101 determines that Em is equal to or greater than Eth, the process proceeds to step S907.

以上が本実施形態におけるデジタルカメラ100の顔検出動作の説明である。   The above is the description of the face detection operation of the digital camera 100 in the present embodiment.

上述したように、本実施形態では、デフォーカス量に応じた評価値と色情報に応じた評価値を総合的に判定する事で、オートフォーカスの信頼度が低い場合でも適切に顔を含む領域を主領域と判定し、適切なゲインを設定可能となる。   As described above, in the present embodiment, the evaluation value according to the defocus amount and the evaluation value according to the color information are comprehensively determined, so that the region appropriately including the face even when the autofocus reliability is low. Can be determined as the main region, and an appropriate gain can be set.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。   As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.

例えば、本実施形態では、所定の条件を満足する主領域候補を主領域と選択する例について述べたが、その中でもデフォーカス量が最も小さい領域や、評価値が最も低い領域のみを主領域としても良い。   For example, in the present embodiment, an example in which a main region candidate that satisfies a predetermined condition is selected as a main region has been described, but only a region with the smallest defocus amount or a region with the lowest evaluation value is selected as the main region. Also good.

また、第3の実施形態において、評価値が低い方がデフォーカス量が低く、顔に近い色である可能性が高いという特徴を持つように設定したが、評価値が高い方をデフォーカス量が低く、顔に近い色である可能性が高いという特徴を持つように設定しても良い。   In the third embodiment, the lower the evaluation value, the lower the defocus amount, and the higher the possibility that the color is close to the face. However, the higher the evaluation value, the higher the defocus amount. May be set so as to have a characteristic that the color is low and the color is likely to be close to the face.

また、デジタルカメラ100に装着されたレンズのズーム位置に応じて、総合評価値Emを算出する際の、Ec及びEdの重みを変更とするようにしても良い。例えば、Em=a×Ed+b×EcでEmを求める事とし、0<a,b≦1で定義し、ズーム位置が広角側になるほどbを小さくするようなテーブルをROM102に保持させ、ズーム位置が望遠側になるほどaを小さくするようなテーブルをROM102に保持させて計算しても良い。   Further, the weights of Ec and Ed when the comprehensive evaluation value Em is calculated may be changed according to the zoom position of the lens mounted on the digital camera 100. For example, Em is calculated by Em = a × Ed + b × Ec, defined as 0 <a, b ≦ 1, and a table in which b is decreased as the zoom position becomes the wide angle side is held in the ROM 102, and the zoom position is determined. The table may be calculated by holding the ROM 102 such that a becomes smaller toward the telephoto side.

これにより、集合写真や風景がをとる場合が多いと考えらえる広角側では評価値が色情報優先となり、ポートレート写真などが多い望遠側では評価値がデフォーカス量優先となる。レンズのズーム位置に応じてより適切に顔領域を主領域と判定する可能性が向上すると考えられる。   As a result, the evaluation value is given priority to the color information on the wide-angle side where it is considered that group photographs and landscapes are often taken, and the evaluation value is given priority to the defocus amount on the telephoto side where there are many portrait photographs. It is considered that the possibility of more appropriately determining the face area as the main area according to the zoom position of the lens is improved.

また、本実施形態では、焦点検出部を専用に有する構成で説明を行ったが、焦点検出部111は、撮像部105が撮像面AF機能を有したものであれば、撮像部105が焦点検出部111の代わりとなっても良い。   In the present embodiment, the focus detection unit is described as having a dedicated configuration. However, if the imaging unit 105 has the imaging surface AF function, the imaging unit 105 detects the focus. The unit 111 may be used instead.

100 デジタルカメラ、101 制御部、102 ROM、103 操作部、
104 光学系、105 撮像部、106 測光部、107 A/D変換部、
108 画像処理部、109 記録媒体、110 画像表示部、
111 焦点検出部、112 デフォーカス量検出部、113 露出演算部、
114 レンズ駆動部、115 シャッター制御部
100 digital camera, 101 control unit, 102 ROM, 103 operation unit,
104 optical system, 105 imaging unit, 106 photometry unit, 107 A / D conversion unit,
108 image processing unit, 109 recording medium, 110 image display unit,
111 focus detection unit, 112 defocus amount detection unit, 113 exposure calculation unit,
114 Lens drive unit, 115 Shutter control unit

Claims (4)

撮像画面の複数の焦点検出領域のそれぞれでデフォーカス量を検出するデフォーカス量検出手段(112)と、
前記複数の焦点検出領域に対応する複数の測光領域を有し、複数の測光領域のそれぞれで測光を行う測光手段(106)と、
前記測光手段は測光領域の色情報を検出可能な色検出手段(106)を有し、
顔検出用画像から顔を検出する顔検出手段(108)と、
前記デフォーカス量と色情報に応じて主領域を決定する主領域決定手段(101)を有し、
前記主領域の測光値と、画面全体の測光値との差分に応じた、ゲインを印加することにより顔検出用画像を生成する顔検出用画像作成手段(108)を有し、
前記主領域決定手段は、前記デフォーカス量が所定量よりも小さく、かつ色情報が所定の範囲内となる少なくとも1つ以上の領域を主領域とすることを特徴とする撮像装置(100)。
Defocus amount detection means (112) for detecting the defocus amount in each of the plurality of focus detection areas of the imaging screen;
A photometric means (106) which has a plurality of photometry areas corresponding to the plurality of focus detection areas, and performs photometry in each of the plurality of photometry areas;
The photometry means has color detection means (106) capable of detecting color information of the photometry area,
Face detection means (108) for detecting a face from the face detection image;
Main area determining means (101) for determining a main area according to the defocus amount and color information;
Face detection image creating means (108) for generating a face detection image by applying a gain according to the difference between the photometric value of the main area and the photometric value of the entire screen;
The image pickup apparatus (100), wherein the main area determining means sets at least one area where the defocus amount is smaller than a predetermined amount and color information is within a predetermined range as a main area.
前記主領域決定手段(101)は、前記デフォーカス量に応じて、前記主領域と判定する色情報の範囲を変えることを特徴とする請求項1に記載の撮像装置(100)。 The imaging apparatus (100) according to claim 1, wherein the main area determination unit (101) changes a range of color information determined to be the main area according to the defocus amount. 前記デフォーカス量に応じた評価値を算出し、前記色情報に応じた評価値を算出する、評価値算出部(101)を有し、
前記評価値算出部は前記デフォーカス量に応じた評価値と、前記色情報に応じた評価値から主領域判定用評価値を算出し、
前記評価値算出部によって算出された主領域判定用評価値が低い少なくとも1つ以上の領域を主被写体領域とすることを特徴とする請求項1又は請求項2に記載の撮像装置(100)。
An evaluation value calculation unit (101) that calculates an evaluation value according to the defocus amount and calculates an evaluation value according to the color information;
The evaluation value calculation unit calculates an evaluation value for main region determination from an evaluation value according to the defocus amount and an evaluation value according to the color information,
The imaging device (100) according to claim 1 or 2, wherein at least one region having a low main region determination evaluation value calculated by the evaluation value calculation unit is set as a main subject region.
前記評価値算出部(101)によって、主領域判定用評価値を算出する際に、前記デフォーカス量に応じた評価値と、前記色情報に応じた評価値のそれぞれに重みづけを行い評価値を算出する特徴を有し、前記重みづけはレンズの焦点位置に応じて変更することを特徴とする請求項3に記載の撮像装置(100)。 When the main area determination evaluation value is calculated by the evaluation value calculation unit (101), the evaluation value corresponding to the defocus amount and the evaluation value corresponding to the color information are respectively weighted. The imaging apparatus (100) according to claim 3, wherein the weighting is changed according to a focal position of a lens.
JP2017161722A 2017-08-25 2017-08-25 Imaging apparatus Pending JP2019041235A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017161722A JP2019041235A (en) 2017-08-25 2017-08-25 Imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017161722A JP2019041235A (en) 2017-08-25 2017-08-25 Imaging apparatus

Publications (1)

Publication Number Publication Date
JP2019041235A true JP2019041235A (en) 2019-03-14

Family

ID=65726609

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017161722A Pending JP2019041235A (en) 2017-08-25 2017-08-25 Imaging apparatus

Country Status (1)

Country Link
JP (1) JP2019041235A (en)

Similar Documents

Publication Publication Date Title
JP5048468B2 (en) Imaging apparatus and imaging method thereof
US9258545B2 (en) Stereoscopic imaging apparatus
JP5157256B2 (en) Image tracking device and imaging device
US20050212950A1 (en) Focal length detecting method, focusing device, image capturing method and image capturing apparatus
JP5247076B2 (en) Image tracking device, focus adjustment device, and imaging device
JP5500916B2 (en) Imaging apparatus and control method thereof
JP2007192859A (en) Focusing controller and imaging apparatus
US10187564B2 (en) Focus adjustment apparatus, imaging apparatus, focus adjustment method, and recording medium storing a focus adjustment program thereon
JP4893334B2 (en) Image tracking device and imaging device
JP5403111B2 (en) Image tracking device
JP5056136B2 (en) Image tracking device
JP2007133301A (en) Autofocus camera
JP2007328360A (en) Automatic focusing camera and photographing method
JP5217942B2 (en) Focus adjustment device and imaging device
JP5359150B2 (en) Imaging device
JPH11211974A (en) Image pickup device
JP2002311327A (en) Multipoint auto-focusing device
JP2006157604A (en) Camera apparatus and automatic photographing control program
JP2019041235A (en) Imaging apparatus
JP2009109792A (en) Autofocusing device and camera using it
JP2015167308A (en) Photometry method suitable for face detection autofocus control
JP5176845B2 (en) Image tracking device and imaging device
JP5233646B2 (en) Image tracking device, imaging device, and image tracking method
JP5069076B2 (en) Imaging apparatus and continuous imaging method
JP6902921B2 (en) Imaging equipment, control methods, and programs

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20191125