JP2019219566A - Imaging device, exposure control method and program - Google Patents

Imaging device, exposure control method and program Download PDF

Info

Publication number
JP2019219566A
JP2019219566A JP2018118045A JP2018118045A JP2019219566A JP 2019219566 A JP2019219566 A JP 2019219566A JP 2018118045 A JP2018118045 A JP 2018118045A JP 2018118045 A JP2018118045 A JP 2018118045A JP 2019219566 A JP2019219566 A JP 2019219566A
Authority
JP
Japan
Prior art keywords
area
face detection
detection area
photometry
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018118045A
Other languages
Japanese (ja)
Inventor
雄一 有賀
Yuichi Ariga
雄一 有賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018118045A priority Critical patent/JP2019219566A/en
Publication of JP2019219566A publication Critical patent/JP2019219566A/en
Pending legal-status Critical Current

Links

Abstract

To perform appropriate exposure control for a subject.SOLUTION: An imaging device acquires an image from a second imaging element 116 when spot augmented photometry is set to be performed by a spot photometry mode, detects a face of a subject from the acquired image, determines whether or not the detected face detection area 302 is in the vicinity of a spot photometry area 301, compares sizes of the face detection area 302 and the spot photometry area 301 when determining that the face detection area 302 is in the vicinity of the spot photometry area 301, performs a photometric calculation on the basis of luminance in the face detection area 302 not in the spot photometry area 301 when the size of the face detection area 302 is a predetermined standard or less for the spot photometry area 301, and sets an exposure condition at photographing.SELECTED DRAWING: Figure 6

Description

本発明は、撮像装置、露出制御方法及びプログラムに関し、特にデジタルカメラ等の撮像装置での露出条件を制御するための測光方法に関する。   The present invention relates to an imaging device, an exposure control method, and a program, and more particularly, to a photometric method for controlling exposure conditions in an imaging device such as a digital camera.

被写体からの入射光が、撮影レンズ、クイックリターンミラー、ペンタプリズムを順次通過して光学ファインダへ導かれると共に、ファインダ光軸から外れた位置に配置された測光センサに導かれる構造を有するデジタル一眼レフカメラ(撮像装置)が知られている。このようなデジタル一眼レフカメラでは、測光センサからの出力信号用いて、測光演算や露出演算、被写体色判定、顔検知、被写体追尾等の種々の機能を実現させている。   A digital single-lens reflex camera having a structure in which incident light from a subject passes through a photographing lens, a quick return mirror, and a pentaprism in order to be guided to an optical finder, and to a photometric sensor located at a position off the finder optical axis. 2. Description of the Related Art A camera (imaging device) is known. In such a digital single-lens reflex camera, various functions such as photometric calculation, exposure calculation, subject color determination, face detection, and subject tracking are realized using output signals from a photometric sensor.

例えば、特許文献1には、測距点を人の目に合わせて測光範囲が人の肌に合うように、測距点と測光範囲を別々に設定する測光方法が開示されている。そして、特許文献1では、顔が検知されたと判断された場合には、測光範囲を髪と目以外に設定することにより、髪や目等の暗い部分の測光への影響を抑制している。   For example, Patent Literature 1 discloses a photometry method in which a distance measurement point and a light measurement range are separately set such that a distance measurement point matches a human eye and a light measurement range matches human skin. In Patent Literature 1, when it is determined that a face has been detected, the photometric range is set to a range other than hair and eyes, thereby suppressing the influence of dark portions such as hair and eyes on photometry.

特開2012−63385号公報JP 2012-63385 A

しかしながら、上記特許文献1には、顔が検知された場合に顔の肌を適正露出にする手段についての説明はあるが、スポット測光のように撮影者が領域を選択する手段に関しては言及されていない。また、上記特許文献1に記載された技術では、撮像装置が被写体を選ぶため、撮影者の意図とは異なる被写体を選択する可能性がある。そのため、撮影者が選択した被写体で、しかも、意図した領域での測光結果に基づく画像を得ることができない場合がある。   However, Patent Document 1 describes a means for appropriately exposing the skin of a face when a face is detected, but mentions a means for a photographer to select an area such as spot metering. Absent. Further, in the technique described in Patent Literature 1, since the imaging device selects a subject, there is a possibility that a subject different from the photographer's intention is selected. Therefore, it may not be possible to obtain an image based on the photometry result in the intended area for the subject selected by the photographer.

本発明は、撮影対象の被写体に対して適切な露出制御を行うことが可能な撮像装置を提供することを目的とする。   An object of the present invention is to provide an imaging apparatus capable of performing appropriate exposure control on a subject to be photographed.

本発明に係る撮像装置は、画像を取得する取得手段と、前記取得手段が取得した画像から被写体の顔を検知する検知手段と、前記画像の一部の領域を指定する指定手段と、前記検知手段により検知された顔検知領域または前記指定手段により指定された指定領域での輝度に基づいて測光演算を行う演算手段と、前記顔検知領域の前記指定領域に対する位置が所定の条件を満たす場合に、前記顔検知領域が前記指定領域の近傍にあると判定する位置判定手段と、前記顔検知領域と前記指定領域の大きさを比較する比較手段と、を備え、前記演算手段は、前記顔検知領域が前記指定領域の近傍にあると判定され、且つ、前記顔検知領域が前記指定領域に対して所定の基準以下の大きさであると判定された場合に、前記顔検知領域での輝度に基づいて測光演算を行うことを特徴とする。   An imaging apparatus according to the present invention includes: an obtaining unit that obtains an image; a detecting unit that detects a face of a subject from the image obtained by the obtaining unit; a specifying unit that specifies a partial area of the image; Calculating means for performing photometric calculation based on the luminance in the face detection area detected by the means or the designated area specified by the specifying means; and when the position of the face detection area with respect to the specified area satisfies a predetermined condition. Position determination means for determining that the face detection area is near the designated area; and comparison means for comparing the size of the face detection area with the size of the designated area. When the area is determined to be in the vicinity of the specified area, and when the face detection area is determined to be smaller than or equal to a predetermined standard with respect to the specified area, the luminance in the face detection area Based And performing photometric calculation.

本発明によれば、撮影対象の被写体に対して適切な露出制御を行うことができる。   According to the present invention, it is possible to perform appropriate exposure control on a subject to be photographed.

本発明の実施形態に係る撮像装置のブロック図である。It is a block diagram of an imaging device concerning an embodiment of the present invention. 撮像装置の概略構成を示す断面図である。It is a sectional view showing the schematic structure of an imaging device. 第1撮像素子と第2撮像素子を同一平面に置いたと仮定した場合の位置関係を説明する図である。FIG. 3 is a diagram illustrating a positional relationship when it is assumed that a first image sensor and a second image sensor are placed on the same plane. 第2撮像素子に結像している被写体像と、スポット測光領域と、顔検知領域との関係の例を示す図である。FIG. 8 is a diagram illustrating an example of a relationship between a subject image formed on a second image sensor, a spot metering area, and a face detection area. 撮像装置での撮影シーケンスを説明するフローチャートである。6 is a flowchart illustrating a shooting sequence in the imaging device. S104,110の測光処理のシーケンスを説明するフローチャートである。It is a flowchart explaining the sequence of photometry processing of S104 and 110. S207の処理での判定例を説明する模式図である。FIG. 9 is a schematic diagram illustrating an example of determination in the processing of S207. S208の処理での判定例を説明する模式図である。It is a schematic diagram explaining the example of determination in the process of S208. 複数の顔が検知された例を示す模式図である。FIG. 9 is a schematic diagram illustrating an example in which a plurality of faces are detected.

以下、本発明の実施形態について、添付図面を参照して詳細に説明する。図1は、本発明の実施形態に係る撮像装置の概略構成を示すブロック図である。図2は、図1に示す撮像装置の概略構成を示す断面図である。本実施形態に係る撮像装置は、具体的には、デジタル一眼レフカメラであるが、これに限定されず、撮像素子による撮像を行うことが可能な電子機器に対して本発明の適用が可能である。撮像機能を有する電子機器としては、例コンパクトデジタルカメラ、デジタルビデオカメラ、スマートフォン、携帯電話、パーソナルコンピュータ、ポータブルゲーム機等が挙げられる。   Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. FIG. 1 is a block diagram illustrating a schematic configuration of an imaging device according to an embodiment of the present invention. FIG. 2 is a cross-sectional view illustrating a schematic configuration of the imaging device illustrated in FIG. The imaging device according to the present embodiment is, specifically, a digital single-lens reflex camera, but is not limited thereto, and the present invention can be applied to an electronic device capable of performing imaging using an imaging device. is there. Examples of the electronic device having an imaging function include a compact digital camera, a digital video camera, a smartphone, a mobile phone, a personal computer, a portable game machine, and the like.

撮像装置は、カメラ本体100と、カメラ本体100に着脱自在な交換レンズ200を有する。カメラ本体100は、全体制御部101、ミラー102、ミラー駆動装置103、シャッタ104、シャッタ駆動装置105、第1撮像素子106、画像処理部107、第1タイミング発生部108、メモリ部109、記憶媒体I/F110及び操作部125を備える。また、カメラ本体100は、表示駆動部112、表示部113、外部I/F114、第2撮像素子116、撮像信号処理部117、第2タイミング発生部118、ペンタプリズム119、測距駆動装置120、位相差測距部121及び光学ファインダ123備える。   The imaging device has a camera body 100 and an interchangeable lens 200 that is detachable from the camera body 100. The camera body 100 includes an overall control unit 101, a mirror 102, a mirror driving device 103, a shutter 104, a shutter driving device 105, a first image sensor 106, an image processing unit 107, a first timing generation unit 108, a memory unit 109, and a storage medium. An I / F 110 and an operation unit 125 are provided. The camera body 100 includes a display drive unit 112, a display unit 113, an external I / F 114, a second image sensor 116, an image signal processor 117, a second timing generator 118, a pentaprism 119, a distance measurement drive 120, A phase difference measuring section 121 and an optical finder 123 are provided.

交換レンズ200は、撮影レンズ202、レンズ駆動装置203、絞り機構204、絞り駆動装置205及びレンズ制御部201を備える。撮影レンズ202は、被写体からの光(入射光)を第1撮像素子106に結像させる撮像光学系を構成する。撮影レンズ202は、少なくともフォーカスレンズを含み、ズームレンズやぶれ補正レンズ等を含む場合がある。レンズ駆動装置203は、撮影レンズ202に含まれるフォーカスレンズを駆動して合焦動作(ピント合わせ)を行う。また、レンズ駆動装置203は、ズームレンズを駆動して撮影者が所望する撮影画角を実現し、像ぶれ補正レンズを駆動して像ぶれを抑制する。絞り機構204は、カメラ本体100へ入射する入射光量を調整する。絞り駆動装置205は、絞り機構204を駆動する。   The interchangeable lens 200 includes a photographing lens 202, a lens driving device 203, an aperture mechanism 204, an aperture driving device 205, and a lens control unit 201. The taking lens 202 constitutes an imaging optical system that forms light (incident light) from a subject on the first imaging element 106. The taking lens 202 includes at least a focus lens, and may include a zoom lens, a blur correction lens, and the like. The lens driving device 203 performs a focusing operation (focusing) by driving a focus lens included in the photographing lens 202. Further, the lens driving device 203 drives the zoom lens to realize a photographing angle of view desired by the photographer, and drives the image blur correction lens to suppress image blur. The aperture mechanism 204 adjusts the amount of light incident on the camera body 100. The aperture driving device 205 drives the aperture mechanism 204.

レンズ制御部201は、交換レンズ200がカメラ本体100に装着されると、全体制御部101と通信を行う。レンズ制御部201は、交換レンズ200を制御するための各種の情報(信号)を全体制御部101から受信し、交換レンズ200の状態を示す信号を全体制御部101へ送信する。こうして、レンズ制御部201は、全体制御部101と協働して、レンズ駆動装置203と絞り駆動装置205の駆動を制御する。   When the interchangeable lens 200 is mounted on the camera body 100, the lens control unit 201 communicates with the overall control unit 101. The lens control unit 201 receives various information (signals) for controlling the interchangeable lens 200 from the overall control unit 101, and transmits a signal indicating the state of the interchangeable lens 200 to the overall control unit 101. Thus, the lens control unit 201 controls the driving of the lens driving device 203 and the aperture driving device 205 in cooperation with the overall control unit 101.

全体制御部101は、撮像装置を構成する各部の動作を制御することにより、撮像装置全体を統括的に制御するマイクロプロセッサ(マイクロコンピュータ)である。ミラー102は、一般的にクイックリターンミラーと呼ばれており、撮影レンズ202を通じて入射した光束を、光学ファインダ123の使用時にはファインダ内表示装置(不図示)と第2撮像素子116へ導き、撮影時には跳ね上がって第1撮像素子106へ導く。ミラー駆動装置103は、ミラー102を駆動する。シャッタ104は、先幕/後幕のシャッタ羽根を有するフォーカルプレーン型シャッタであり、撮影レンズ202を通じて入射した光束の第1撮像素子106に対する露光時間を制御する。シャッタ駆動装置105は、シャッタ104を駆動する。   The overall control unit 101 is a microprocessor (microcomputer) that controls the overall operation of each unit included in the imaging apparatus, thereby controlling the entire imaging apparatus. The mirror 102 is generally called a quick return mirror, and guides a light beam incident through the photographing lens 202 to a display device (not shown) in the viewfinder and the second image pickup device 116 when the optical viewfinder 123 is used. It jumps up and is guided to the first image sensor 106. The mirror driving device 103 drives the mirror 102. The shutter 104 is a focal plane type shutter having first and second curtain shutter blades, and controls an exposure time of a light beam incident through the imaging lens 202 to the first image sensor 106. The shutter driving device 105 drives the shutter 104.

撮影レンズ202を通じて入射した光束は、第1撮像素子106に被写体の光学像として結像する。第1撮像素子106は、被写体の光学像をアナログ電気信号に変換する光電変換素子であり、例えば、CMOSセンサである。   The light beam incident through the imaging lens 202 forms an optical image of the subject on the first image sensor 106. The first imaging element 106 is a photoelectric conversion element that converts an optical image of a subject into an analog electric signal, and is, for example, a CMOS sensor.

画像処理部107は、第1撮像素子106から出力されるアナログ電気信号の増幅処理、アナログ電気信号からデジタル画像信号(以下「画像データ」という)への変換処理(A/D変換)を行う。また、画像処理部107は、生成された画像データに対するキズ補正等の各種の補正処理や画像データの圧縮処理、圧縮画像データの記憶媒体111への記憶媒体I/F110を介した書き込み/読み出し処理等も行う。第1タイミング発生部108は、第1撮像素子106と画像処理部107に対して各種のタイミング信号を出力する。   The image processing unit 107 performs amplification processing of an analog electric signal output from the first imaging element 106 and conversion processing (A / D conversion) from the analog electric signal to a digital image signal (hereinafter, referred to as “image data”). Further, the image processing unit 107 performs various types of correction processing such as flaw correction on generated image data, compression processing of image data, and writing / reading processing of compressed image data to / from the storage medium 111 via the storage medium I / F 110. And so on. The first timing generator 108 outputs various timing signals to the first image sensor 106 and the image processor 107.

メモリ部109は、画像処理部107により所定の処理が施された画像データ等を一時的に記憶する。また、メモリ部109は、撮像装置の動作に用いられる各種の調整値や、全体制御部101が撮像装置を制御するために実行するプログラム等を記憶する。記憶媒体I/F110は、カメラ本体100に対して着脱可能な記憶媒体111に対する画像データ等の書き込み処理や記憶媒体111からの画像データ等の読み出しを行うためのインタフェースである。記憶媒体111は、例えば、半導体メモリカード等である。   The memory unit 109 temporarily stores image data and the like on which predetermined processing has been performed by the image processing unit 107. Further, the memory unit 109 stores various adjustment values used for the operation of the imaging device, a program executed by the overall control unit 101 to control the imaging device, and the like. The storage medium I / F 110 is an interface for writing image data and the like to a storage medium 111 that is detachable from the camera body 100 and reading image data and the like from the storage medium 111. The storage medium 111 is, for example, a semiconductor memory card or the like.

表示部113は、例えば、液晶ディスプレイであり、撮像中の画像(ライブビュー映像)や撮影した静止画や動画の再生表示、撮像装置の各種設定の行うためのメニュー等を表示する。表示駆動部112は、表示部113での表示を制御する。外部I/F114は、撮像装置と外部機器(例えば、パーソナルコンピュータやスマートフォン)との通信を行うためのインタフェースであり、撮像装置と外部機器との間での各種データ(情報)の送受信を可能にする。   The display unit 113 is, for example, a liquid crystal display, and displays an image being captured (live view video), a playback display of a captured still image or moving image, a menu for performing various settings of the imaging device, and the like. The display drive unit 112 controls display on the display unit 113. The external I / F 114 is an interface for performing communication between the imaging device and an external device (for example, a personal computer or a smartphone), and enables transmission and reception of various data (information) between the imaging device and the external device. I do.

第2撮像素子116は、RGBのベイヤ配列を有し、AE信号/光源検知信号を取得する。一般的に第2撮像素子116には、グローバル電子シャッタの機能を有するCCDセンサが用いられるが、読み出しの速い(読み出し時間の短い)CMOSセンサを用いることもできる。撮像信号処理部117は、第2撮像素子116から出力されるアナログ電気信号の増幅処理、A/D変換処理、画像データの補正処理、画像データの圧縮処理等を行う。第2タイミング発生部118は、第2撮像素子116と撮像信号処理部117に対して各種のタイミング信号を出力する。   The second image sensor 116 has an RGB Bayer array and acquires an AE signal / light source detection signal. In general, a CCD sensor having a function of a global electronic shutter is used for the second image sensor 116, but a CMOS sensor with a fast readout (short readout time) may be used. The imaging signal processing unit 117 performs amplification processing, A / D conversion processing, image data correction processing, image data compression processing, and the like of the analog electric signal output from the second imaging element 116. The second timing generator 118 outputs various timing signals to the second image sensor 116 and the image signal processor 117.

ペンタプリズム119は、ミラー102から受光した光束を第2撮像素子116へ導く。位相差測距部121は、ミラー102を透過した光束を受光して、被写体のデフォーカス量により位相が変化する2つの(1対の)画像を取得し、位相差検出方式により、2つの画像のズレ量から被写体のデフォーカス量を演算する。全体制御部101は、算出されたデフォーカス量に基づくレンズ駆動量をレンズ制御部201へ送信し、レンズ駆動装置203がレンズ駆動量に従って撮影レンズ202を駆動することにより、被写体に対する合焦動作(AF)が実行される。なお、レンズ駆動量の算出は、レンズ制御部201が行う構成となっていてもよい。測距駆動装置120は、位相差測距部121を駆動する。操作部125は、ユーザによる操作に応じて、全体制御部101へ指示を送る。   The pentaprism 119 guides the light beam received from the mirror 102 to the second image sensor 116. The phase difference measuring unit 121 receives the light beam transmitted through the mirror 102, acquires two (one pair) images whose phases change according to the defocus amount of the subject, and obtains two images by a phase difference detection method. Then, the defocus amount of the subject is calculated from the deviation amount. The overall control unit 101 transmits a lens driving amount based on the calculated defocus amount to the lens control unit 201, and the lens driving device 203 drives the photographing lens 202 according to the lens driving amount, thereby performing a focusing operation ( AF) is executed. Note that the lens drive amount may be calculated by the lens control unit 201. The distance measurement driving device 120 drives the phase difference distance measurement unit 121. The operation unit 125 sends an instruction to the overall control unit 101 according to an operation by the user.

操作部125には、電源ボタン、レリーズボタン、撮影モード設定ダイヤル等の機械的な操作部材、表示装置に表示される項目からの選択を行うためのタッチパネル等を含む。レリーズボタンは、第1段の押下(半押し)でオンするレリーズスイッチSW1と、第2段の押下(全押し)でオンするレリーズスイッチSW2を有する。レリーズスイッチSW1がオンになると、撮影準備のためのAEやAE等が実行され、レリーズスイッチSW2がオンになると、第1撮像素子106による撮影が行われる。なお、後述するAEロックスイッチは、操作部125の1つである。また、AE処理で用いる測光モードをスポット測光モードに設定し、更に後述するスポット拡張測光とスポット通常測光のどちらに設定するかの操作も、操作部125により行うことができる。   The operation unit 125 includes mechanical operation members such as a power button, a release button, a shooting mode setting dial, and a touch panel for selecting from items displayed on the display device. The release button has a release switch SW1 that is turned on when the first stage is pressed (half-pressed), and a release switch SW2 that is turned on when the second stage is pressed (fully pressed). When the release switch SW1 is turned on, AE or AE or the like for photographing preparation is executed, and when the release switch SW2 is turned on, photographing is performed by the first image sensor 106. The AE lock switch described later is one of the operation units 125. Also, the operation unit 125 can set the light metering mode used in the AE process to the spot light metering mode, and further set whether to set the spot expansion metering or the spot normal metering described later.

図3(a)は、第1撮像素子106と第2撮像素子116を同一平面に置いたと仮定した場合の位置関係を説明する図である。但し、実際には、第1撮像素子106と第2撮像素子116とは光路が異なるので重なることはないが、図3(a)は、光軸中心を合致させた場合の位置関係及び形状関係を示している。   FIG. 3A is a diagram illustrating a positional relationship when it is assumed that the first image sensor 106 and the second image sensor 116 are placed on the same plane. However, in practice, the first imaging element 106 and the second imaging element 116 do not overlap because their optical paths are different, but FIG. 3A shows the positional relationship and the shape relationship when the optical axis centers are matched. Is shown.

測光用の第2撮像素子116は、測光演算を行う際に、画素毎ではなく、複数の画素をまとめたブロック毎に測光値を求めて測光演算を行っている。第2撮像素子116は、ここでは、水平方向に9分割、垂直方向に6分割した54個のブロック分割測光領域300に分けられている。測光演算の実行時には、ブロック分割測光領域300の各輝度値を求め、被写体の状況に応じて(例えば、撮影モードに応じて)、所定位置のブロック分割測光領域300の各輝度値を統合することによって評価測光演算を行う。   When performing the photometric calculation, the second image sensor 116 for photometry performs the photometric calculation by obtaining the photometric value not for each pixel but for each block in which a plurality of pixels are combined. In this case, the second image sensor 116 is divided into 54 block-divided photometric regions 300 divided into nine in the horizontal direction and six in the vertical direction. At the time of performing the photometric calculation, each luminance value of the block divided photometric region 300 is obtained, and the respective luminance values of the block divided photometric region 300 at a predetermined position are integrated according to the situation of the subject (for example, according to the shooting mode). Performs an evaluative metering operation.

図3(b)は、図3(a)にスポット測光領域301を重畳して示す図である。なお、スポット測光領域301は、第2撮像素子116が取得する画像の一部の領域であって、撮影者が測光のために指定することが可能な領域(指定領域)である。測光モードがスポット測光の場合には、スポット測光領域301と重なるブロック分割測光領域300について輝度値を求めて測光演算を行う。なお、図3(b)の例では、第2撮像素子116の中央にスポット測光領域301が設定されている状態が示されているが、測距点等に応じてスポット測光領域301を移動させることも可能である。   FIG. 3B is a diagram showing the spot metering area 301 superimposed on FIG. 3A. The spot metering area 301 is a part of an image acquired by the second image sensor 116 and is an area (designated area) that can be designated by the photographer for photometry. When the light metering mode is the spot metering mode, the brightness value is calculated for the block-divided metering area 300 overlapping the spot metering area 301, and the light metering calculation is performed. Note that, in the example of FIG. 3B, a state in which the spot metering area 301 is set at the center of the second image sensor 116 is shown, but the spot metering area 301 is moved according to a distance measuring point or the like. It is also possible.

図4(a)は、第2撮像素子116に結像している被写体像と、スポット測光領域301と、顔検知領域302との関係の一例を示す図である。ここでは、スポット測光領域301よりも顔検知領域302が大きい例を示しており、また、顔検知領域302で測光値を決定することが予め設定されている状況を想定している。なお、撮影者が光学ファインダ123を通じて被写体像を視認したときに、顔検知領域302を示す枠も視認することができるように、ファインダ内表示装置(不図示)での表示が制御される。   FIG. 4A is a diagram illustrating an example of a relationship between a subject image formed on the second image sensor 116, a spot metering area 301, and a face detection area 302. Here, an example in which the face detection area 302 is larger than the spot photometry area 301 is shown, and it is assumed that the photometry value is determined in the face detection area 302 in advance. When the photographer visually recognizes the subject image through the optical viewfinder 123, the display on the display device in the viewfinder (not shown) is controlled so that the frame indicating the face detection area 302 can be visually recognized.

図4(a)の状態では、従来、スポット測光領域301のみでの測光(以下「スポット通常測光」という)が行われている。その場合、顔以外の背景等を含んで測光が行われ、顔に対して適正でない測光値が得られてしまうことで、顔が明るすぎる画像或いは逆に顔が暗くなってしまった画像が撮影されてしまうおそれがある。   In the state of FIG. 4A, photometry only in the spot photometry area 301 (hereinafter, referred to as “spot normal photometry”) is conventionally performed. In this case, photometry is performed including the background other than the face, and an inappropriate photometry value is obtained for the face, so that an image with a too bright face or an image with a dark face is taken. May be done.

図4(b)は、第2撮像素子116に結像している被写体像と、スポット測光領域301と、顔検知領域302との関係の別の例を示す図である。ここでは、スポット測光領域301よりも顔検知領域302が小さい例を示しており、図4(a)の場合と同様に、顔検知領域で測光値を決定することが予め設定されている状況を想定している。この場合も、従来のスポット通常測光では、顔以外の背景等を多く含んで測光が行われてしまうことで、顔に対する適正露出が得られずに、顔が明るすぎる画像或いは逆に顔が暗くなってしまった画像が撮影されてしまう。   FIG. 4B is a diagram illustrating another example of the relationship between the subject image formed on the second image sensor 116, the spot metering area 301, and the face detection area 302. Here, an example in which the face detection area 302 is smaller than the spot photometry area 301 is shown. As in the case of FIG. 4A, it is assumed that the photometry value is determined in the face detection area in advance. I assume. Also in this case, in the conventional spot normal photometry, the photometry is performed including many backgrounds other than the face, so that an appropriate exposure for the face cannot be obtained, and the image of the face is too bright or the face is dark. An image that has become lost is captured.

図4(a),(b)のいずれの場合も、撮影者は被写体の顔で測光することを意図し、また、被写体の顔で測光されていると判断している。それにもかかわらず、上述したようにスポット通常測光では適正露出が得られないという問題が発生することを回避するために、本実施形態に係る撮像装置では、スポット測光での機能を拡張する観点からの、以下に説明する「スポット拡張測光」を実行する。スポット拡張測光では、顔検知領域302がスポット測光領域301の近くに存在している場合又は重畳している場合において顔検知領域302の方がスポット測光領域301よりも大きい場合には、スポット測光領域301ではなく顔検知領域302で測光を行う。また、スポット拡張測光では、スポット測光領域301と顔検知領域302が重畳し、且つ、スポット測光領域301よりも顔検知領域302が小さい場合に、スポット測光領域301ではなく、スポット測光領域301内の顔検知領域302で測光を行う。これにより、図4(a),(b)のいずれの状況でも、顔に対して適切な輝度で撮影された画像を得ることが可能になる。   In each case of FIGS. 4A and 4B, the photographer intends to perform photometry with the face of the subject and determines that the photometry is performed with the face of the subject. Nevertheless, in order to avoid the problem that the proper exposure cannot be obtained by the spot normal photometry as described above, the imaging apparatus according to the present embodiment uses the spot photometry from the viewpoint of extending the function. The “spot extension photometry” described below is executed. In the spot extension photometry, when the face detection area 302 is located near the spot photometry area 301 or when the face detection area 302 is superimposed, the face photometry area 302 is larger than the spot photometry area 301. Photometry is performed in the face detection area 302 instead of 301. In the spot extension photometry, when the spot photometry area 301 and the face detection area 302 are overlapped and the face detection area 302 is smaller than the spot photometry area 301, the spot photometry area 301 is used instead of the spot photometry area 301. Photometry is performed in the face detection area 302. This makes it possible to obtain an image captured with appropriate luminance for the face in any of the situations shown in FIGS. 4A and 4B.

次に、撮像装置での撮影シーケンスについて説明する。図5は、撮像装置での撮影シーケンスを説明するフローチャートである。図5にS番号で示す各処理(ステップ)は、全体制御部101が所定のプログラムを実行して、撮像装置を構成する各部の動作を統括的に制御することによって実現される。   Next, a shooting sequence in the imaging device will be described. FIG. 5 is a flowchart illustrating a shooting sequence in the imaging apparatus. Each process (step) indicated by an S number in FIG. 5 is realized by the overall control unit 101 executing a predetermined program and totally controlling the operation of each unit configuring the imaging apparatus.

撮像開始後、S101では全体制御部101は、AEロックフラグをリセットする。AEロックフラグは、AEロックがオンになっているか否かを示すフラグであり、全体制御部101はAEロックフラグがセットされている(AEロックフラグが立っている)場合には、測光値の更新を行わない。AEロックフラグは、全体制御部101が備えるRAM(キャッシュメモリ)等に記憶されている。   After the start of imaging, in S101, the overall control unit 101 resets the AE lock flag. The AE lock flag is a flag indicating whether or not the AE lock is turned on. When the AE lock flag is set (when the AE lock flag is set), the overall control unit 101 sets the AE lock flag. Do not update. The AE lock flag is stored in a RAM (cache memory) or the like included in the overall control unit 101.

S102では全体制御部101は、AEロックスイッチがオンになっているか否かを判定する。AEロックスイッチは、操作部125に含まれるスイッチ群のうちの1つである。全体制御部101は、AEロックスイッチがオフであると判定した場合(S102でNO)、処理をS103へ進め、AEロックスイッチがオンであると判定した場合(S102でYES)、処理をS105へ進める。S103では全体制御部101は、AEロックフラグがセットされているか否かを判定する。全体制御部101は、AEロックフラグがセットされていないと判定した場合(S103でNO)、処理をS104へ進め、AEロックフラグがセットされていると判定した場合(S103でYES)、処理をS106へ進める。S105では全体制御部101は、AEロックフラグをセットし、その後、処理をS104へ進める。   In S102, the overall control unit 101 determines whether the AE lock switch is turned on. The AE lock switch is one of a group of switches included in the operation unit 125. When it is determined that the AE lock switch is off (NO in S102), overall control unit 101 advances the process to S103, and when it is determined that the AE lock switch is on (YES in S102), the process proceeds to S105. Proceed. In S103, the overall control unit 101 determines whether the AE lock flag is set. When determining that the AE lock flag has not been set (NO in S103), the overall control unit 101 advances the process to S104, and determines that the AE lock flag has been set (YES in S103). Proceed to S106. In S105, the overall control unit 101 sets the AE lock flag, and then advances the processing to S104.

S104では全体制御部101は、測光を行い、その後、処理をS106へ進める。なお、S104の測光処理の詳細については後述する。S106では全体制御部101は、レリーズスイッチSW1がオンか否かを判定する。全体制御部101は、レリーズスイッチSW1がオフであると判定した場合(S106でNO)、処理をS102へ戻し、レリーズスイッチSW1がオンであると判定した場合(S106でYES)、処理をS107へ進める。   In S104, the overall control unit 101 performs photometry, and then advances the processing to S106. The details of the photometry processing in S104 will be described later. In S106, the overall control unit 101 determines whether or not the release switch SW1 is on. When it is determined that release switch SW1 is off (NO in S106), overall control unit 101 returns the process to S102, and when it is determined that release switch SW1 is on (YES in S106), the process proceeds to S107. Proceed.

なお、S101からS106は、AEロックに関連する処理となっている。最初にAEロックをリセットして初期状態とし(AEロックフラグを解除し)、AEロックスイッチがオフであれば測光を繰り返すが、AEロックスイッチがオンになると、AEロックフラグがセットされて測光の更新が行われなくなる。但し、AEロックされて(AEロックフラグがセットされて)測光が更新されていない場合に、AEロックスイッチがオフに変わったときには、再度、測光が行われるようになっている。このような処理は、撮影者が被写体の顔で測光値を決定させようとしている動作に対応している。   Note that S101 to S106 are processes related to the AE lock. First, the AE lock is reset to an initial state (the AE lock flag is released). If the AE lock switch is off, the photometry is repeated. However, when the AE lock switch is turned on, the AE lock flag is set and the photometry is stopped. No updates will be made. However, when the AE lock is set (the AE lock flag is set) and the photometry is not updated, when the AE lock switch is turned off, photometry is performed again. Such processing corresponds to an operation in which the photographer is trying to determine a photometric value with the face of the subject.

S107では全体制御部101は、位相差測距部121及び測距駆動装置120を制御して被写体までの距離を測距してデフォーカス量を求め、得られたデフォーカス量に基づいてレンズ駆動量を算出し、レンズ制御部201へ送信する。S108ではレンズ制御部201が、レンズ駆動装置203を制御して、レンズ駆動量に基づいて撮影レンズ202を合焦位置へ移動させる。続くS109では全体制御部101は、AEロックフラグがセットされているか否かを再確認する。全体制御部101は、AEロックフラグがセットされていない(リセットされている)と判定した場合(S109でNO)、処理をS110へ進め、AEロックフラグがセットされていると判定した場合(S109でYES)、処理をS111へ進める。   In step S107, the overall control unit 101 controls the phase difference distance measurement unit 121 and the distance measurement driving device 120 to measure the distance to the subject to obtain a defocus amount, and based on the obtained defocus amount, drives the lens. The amount is calculated and transmitted to the lens control unit 201. In step S108, the lens control unit 201 controls the lens driving device 203 to move the photographing lens 202 to the focus position based on the amount of lens driving. In subsequent S109, the overall control unit 101 reconfirms whether the AE lock flag is set. When determining that the AE lock flag is not set (reset) (NO in S109), the overall control unit 101 advances the process to S110, and determines that the AE lock flag is set (S109). Is YES), the process proceeds to S111.

S110では全体制御部101は、S104と同様の測光を行う。S111では全体制御部101は、レリーズスイッチSW2がオンになったか否かを判定する。全体制御部101は、レリーズスイッチSW2がオフのままであると判定した場合(S111でNO)、処理をS109へ戻し、レリーズスイッチSW2がオンになったと判定した場合(S111でYES)、処理をS112へ進める。   In S110, the overall control unit 101 performs the same photometry as in S104. In S111, the overall control unit 101 determines whether or not the release switch SW2 has been turned on. When it is determined that release switch SW2 remains off (NO in S111), overall control unit 101 returns the processing to S109, and when it is determined that release switch SW2 is turned on (YES in S111), the processing is performed. Proceed to S112.

S112からS117までは、露光処理から撮影画像の記憶処理までの一般的な処理である。すなわち、S112では全体制御部101は、ミラー駆動装置103を制御してミラー102をアップさせて第1撮像素子106への光路を開く。また、S112では全体制御部101は、レンズ制御部201及び絞り駆動装置205により絞り204を駆動させる。なお、絞り204の絞り値(F値)は、S104又はS110で得られた測光値に基づいて定められる。   S112 to S117 are general processes from the exposure process to the storage process of the captured image. That is, in S112, the overall control unit 101 controls the mirror driving device 103 to move up the mirror 102 and open the optical path to the first image sensor 106. In S112, the overall control unit 101 drives the aperture 204 by the lens control unit 201 and the aperture driving device 205. Note that the aperture value (F value) of the aperture 204 is determined based on the photometric value obtained in S104 or S110.

S113では全体制御部101は、シャッタ駆動装置105を制御してシャッタ104の先幕を走行させ、これにより第1撮像素子106に対する露光が開始される。S114では全体制御部101は、露光時間を計測する。なお、露光時間は、S104又はS110で得られた測光値に基づいて設定される。S115では全体制御部101は、露光時間の終了に合わせて、シャッタ駆動装置105を制御してシャッタ104の後幕を走行させる。これにより、露光が完了する。なお、S113からS115までの露光処理では、露光時間(シャッタ速度)に応じて、先幕と後幕とが所定の隙間を形成した状態で同時に走行することもある。   In step S113, the overall control unit 101 controls the shutter driving device 105 to cause the front curtain of the shutter 104 to travel, thereby starting exposure of the first image sensor 106. In S114, the overall control unit 101 measures the exposure time. The exposure time is set based on the photometric value obtained in S104 or S110. In S115, the overall control unit 101 controls the shutter driving device 105 to move the rear curtain of the shutter 104 in accordance with the end of the exposure time. Thus, the exposure is completed. In the exposure processing from S113 to S115, depending on the exposure time (shutter speed), the front curtain and the rear curtain may run at the same time with a predetermined gap formed.

S116では全体制御部101は、ミラー駆動装置103を制御してミラー102をダウンさせて第1撮像素子106への光路を閉じ、また、レンズ制御部201及び絞り駆動装置205により絞り204を開放状態となるように駆動する。S117では全体制御部101は、画像処理部107等を制御して、撮影画像の画像データを生成し、画像データを記憶媒体I/F110を介して記憶媒体111に書き込み、これにより、本処理は終了する。   In step S <b> 116, the overall control unit 101 controls the mirror driving device 103 to lower the mirror 102 to close the optical path to the first image sensor 106, and also opens the aperture 204 by the lens control unit 201 and the aperture driving device 205. It drives so that it may become. In step S117, the overall control unit 101 controls the image processing unit 107 and the like to generate image data of the captured image, and writes the image data to the storage medium 111 via the storage medium I / F 110. finish.

図6は、S104及びS110の測光シーケンスを説明するフローチャートである。S201では全体制御部101は、現在設定されている測光モードを確認し、確認結果に応じて処理を分岐させる。全体制御部101は、評価測光モードが設定されていると判定した場合、処理をS202へ進める。評価測光モードでは、ブロック分割測光領域300(図3参照)のそれぞれから求められた輝度値と、測距点情報や顔位置情報等を加味して、統合的に測光値が演算される。   FIG. 6 is a flowchart illustrating the photometry sequence in S104 and S110. In step S201, the overall control unit 101 checks the currently set photometry mode, and branches the process according to the check result. When the overall control unit 101 determines that the evaluation photometry mode is set, the process proceeds to S202. In the evaluation photometry mode, the photometry value is integrally calculated by taking into account the luminance value obtained from each of the block division photometry areas 300 (see FIG. 3), distance measurement point information, face position information, and the like.

S202では全体制御部101は、評価測光モードで測光を行い、得られた測光結果に基づいて露光条件を決定し、その後、本処理を終了させる。全体制御部101は、中央重点平均測光モードが設定されていると判定した場合、処理をS203へ進める。中央重点平均測光モードでは、ブロック分割測光領域300(図3参照)のそれぞれから求められた輝度値を用い、中央部に重みをおいた平均輝度を求め、求めた平均輝度から測光値が演算される。S203では全体制御部101は、中央重点平均測光モードで測光を行い、得られた測光結果に基づいて露光条件を決定し、その後、本処理を終了させる。   In step S202, the overall control unit 101 performs photometry in the evaluation photometry mode, determines an exposure condition based on the obtained photometry result, and thereafter ends this processing. If the overall control unit 101 determines that the center-weighted average metering mode is set, the process proceeds to S203. In the center-weighted average metering mode, the brightness value obtained from each of the block-divided metering areas 300 (see FIG. 3) is used to calculate the average brightness with a weight at the center, and the photometric value is calculated from the obtained average brightness. You. In S203, the overall control unit 101 performs photometry in the center-weighted average photometry mode, determines an exposure condition based on the obtained photometry result, and thereafter ends this processing.

全体制御部101は、スポット測光モードが設定されていると判定した場合、処理をS204へ進める。S204では全体制御部101は、スポット測光モードにおいてスポット拡張測光が設定されているか否かを判定する。なお、スポット拡張測光に設定されていない場合には、スポット通常測光に設定されているものとする。全体制御部101は、スポット拡張測光が設定されていると判定した場合(S204でYES)、処理をS205へ進め、スポット通常測光が設定されていると判定した場合(S204でNO)、処理をS209へ進める。   If the overall control unit 101 determines that the spot metering mode is set, the process proceeds to S204. In S204, the overall control unit 101 determines whether or not the spot extension metering is set in the spot metering mode. If spot extension metering is not set, it is assumed that spot normal metering is set. If it is determined that the spot extension photometry is set (YES in S204), the overall control unit 101 advances the process to S205, and if it is determined that the spot normal photometry is set (NO in S204), the process is performed. Proceed to S209.

S205では全体制御部101は、第2撮像素子116により得られた画像を用いて被写体の顔検知を実行する。S206では全体制御部101は、S205の処理で顔が検知されたか否かを判定する。全体制御部101は、顔が検知されたと判定した場合(S205でYES)、処理をS207へ進め、顔が検知されなかったと判定した場合(S205でNO)、処理をS209へ進める。   In step S205, the overall control unit 101 performs face detection of the subject using the image obtained by the second image sensor 116. In S206, the overall control unit 101 determines whether a face has been detected in the process of S205. When determining that a face has been detected (YES in S205), overall control unit 101 proceeds with the process to S207, and in the case of determining that a face has not been detected (NO in S205), advances the process to S209.

S207では全体制御部101は、顔検知領域302がスポット測光領域301の近傍にあるか否かの位置判定を行う。図7は、S207の処理を説明する模式図である。S207の判定を行うために、予め、スポット測光領域301に対して、スポット測光領域301を中心としてスポット測光領域301から一定距離の範囲内が近傍領域303として予め定められている。そして、S207では、顔検知領域302の中心が近傍領域303内にある場合には、顔検知領域302がスポット測光領域301の近傍にあると判定し、そうでない場合には顔検知領域302はスポット測光領域301の近傍にはないと判定する。図7は、顔検知領域302がスポット測光領域301の近傍にないと判定される例を示しており、この場合には、顔が検知されたものの、検知された顔は撮影者が撮影を意図している主被写体ではないと判断することが妥当である。   In step S <b> 207, the overall control unit 101 determines whether the face detection area 302 is near the spot metering area 301. FIG. 7 is a schematic diagram illustrating the process of S207. In order to make the determination in S207, the area within a certain distance from the spot photometry area 301 with respect to the spot photometry area 301 is predetermined as the neighborhood area 303 with respect to the spot photometry area 301. In step S207, when the center of the face detection area 302 is within the vicinity area 303, it is determined that the face detection area 302 is near the spot metering area 301. It is determined that it is not near the photometry area 301. FIG. 7 shows an example in which it is determined that the face detection area 302 is not in the vicinity of the spot metering area 301. In this case, although the face is detected, the detected face is It is appropriate to determine that the subject is not the main subject.

そこで、全体制御部101は、顔検知領域302がスポット測光領域301の近傍にないと判定した場合(S207でNO)、処理をS209へ進める。一方、全体制御部101は、顔検知領域302がスポット測光領域301の近傍にあると判定した場合(S207でYES)、処理をS208へ進める。   Therefore, when the overall control unit 101 determines that the face detection area 302 is not in the vicinity of the spot photometry area 301 (NO in S207), the processing proceeds to S209. On the other hand, when the overall control unit 101 determines that the face detection area 302 is near the spot photometry area 301 (YES in S207), the process proceeds to S208.

S208では全体制御部101は、顔検知領域302とスポット測光領域301の大きさ(面積)を比較し、顔検知領域302のサイズがスポット測光領域301のサイズに対して所定の基準以下の大きさか否かを判定する。図8は、S208の処理を説明する模式図である。例えば、顔検知領域302のサイズをスポット測光領域301のサイズで除した値が所定の閾値以下か否かが判定される。S208の判定で用いる閾値は、予め撮像装置の設定情報のデフォルト値として或いは撮影者により設定され、全体制御部101のRAM等に格納されている。図8には、顔検知領域302のサイズがスポット測光領域301のサイズに対して所定の基準より大きいと判定される例を示している。この場合、撮影者は被写体の顔の一部を測光していると判断することが妥当であるため、スポット通常測光を行うようにする。   In step S208, the overall control unit 101 compares the size (area) of the face detection area 302 with that of the spot photometry area 301, and determines whether the size of the face detection area 302 is smaller than a predetermined reference with respect to the size of the spot photometry area 301. Determine whether or not. FIG. 8 is a schematic diagram illustrating the process of S208. For example, it is determined whether a value obtained by dividing the size of the face detection area 302 by the size of the spot photometry area 301 is equal to or smaller than a predetermined threshold. The threshold value used in the determination in S208 is set in advance as a default value of the setting information of the imaging apparatus or by the photographer, and is stored in the RAM or the like of the overall control unit 101. FIG. 8 shows an example in which the size of the face detection area 302 is determined to be larger than the size of the spot metering area 301 by a predetermined reference. In this case, since it is appropriate for the photographer to determine that a part of the face of the subject is photometrically measured, spot normal photometry is performed.

全体制御部101は、顔検知領域302のサイズがスポット測光領域301のサイズに対して所定の基準より大きいと判定した場合(S208でNO)、処理をS209へ進める。一方、全体制御部101は、顔検知領域302のサイズがスポット測光領域301のサイズに対して所定の基準以下の大きさであると判定した場合(S208でYES)、処理をS210へ進める。   If the overall control unit 101 determines that the size of the face detection area 302 is larger than a predetermined reference for the size of the spot photometry area 301 (NO in S208), the process proceeds to S209. On the other hand, when the overall control unit 101 determines that the size of the face detection area 302 is smaller than or equal to a predetermined reference with respect to the size of the spot metering area 301 (YES in S208), the process proceeds to S210.

S209では全体制御部101は、スポット通常測光を行い、得られた測光結果に基づいて露光条件を決定し、その後、本処理を終了させる。なお、スポット通常測光では、スポット測光領域301(図3参照)と重畳するブロック分割測光領域300の各輝度値を求め、求めた輝度値を用いて測光値が演算される。S210では全体制御部101は、図4を参照して説明したように、検知された顔検知領域302にある顔で測光を行おうとしていると判断することが妥当であるため、顔検知領域302で輝度値を求め、求めた輝度値を用いて測光値を演算する顔領域測光を行う。これにより、本処理は終了となる。   In step S209, the overall control unit 101 performs spot normal photometry, determines an exposure condition based on the obtained photometry result, and thereafter ends this processing. In the spot normal photometry, each luminance value of the block divisional photometry area 300 overlapping with the spot photometry area 301 (see FIG. 3) is obtained, and the photometry value is calculated using the obtained luminance value. In S210, as described with reference to FIG. 4, it is appropriate for the overall control unit 101 to determine that photometry is to be performed on a face in the detected face detection area 302. , A face area photometry for calculating a photometric value using the obtained luminance value is performed. Thus, the present process ends.

ところで、図7には1つの顔が検知された例を示したが、複数の顔が検知された場合のS207の処理について、図9を参照して説明する。図9は、複数の顔が検知された例を示す模式図である。図9には、検知された2つの顔に対応する2つの顔検知領域302が現れており、2つの顔検知領域302の中央にスポット測光領域301がある状態が示されている。   By the way, FIG. 7 shows an example in which one face is detected, but the process of S207 when a plurality of faces are detected will be described with reference to FIG. FIG. 9 is a schematic diagram illustrating an example in which a plurality of faces are detected. FIG. 9 shows a state where two face detection areas 302 corresponding to the two detected faces appear, and a spot metering area 301 is located at the center of the two face detection areas 302.

図9のような例では、検知された顔で露光条件を設定することが望ましい。しかし、スポット通常測光では、測光領域が背景となってしまうために、検知された顔に対する露出が適正でなくなる可能性が大きい。また、図6のフローに従えば、スポット測光領域301の近傍領域303の内側に顔検知領域302の中心が入らなければ、顔検知領域302を用いた測光は行われない。   In the example as shown in FIG. 9, it is desirable to set the exposure condition on the detected face. However, in the spot normal photometry, the photometry area becomes the background, so that there is a high possibility that the exposure to the detected face becomes inappropriate. According to the flow of FIG. 6, if the center of the face detection area 302 does not fall inside the area 303 near the spot photometry area 301, the photometry using the face detection area 302 is not performed.

そこで、全体制御部101は、複数の顔が検知された場合には、スポット測光領域301の近傍領域として、1つの顔が検出された場合に用いる近傍領域303よりも面積の広い拡大近傍領域304を用いる。これにより、顔検知領域302の中心(図9に×印で示す)が拡大近傍領域304に入るようになるため、S210では顔領域測光が行われることとなる。具体的には、検知された複数の顔検知領域302の各輝度に基づく平均測光演算が行われることとなる。このとき、複数の顔が検知された場合には更に検知された顔の数が多くなるにしたがって近傍領域を広く設定するようにしてもよい。こうして、複数の顔が検知された場合に、それぞれの顔を適正な露出で撮影することが可能になる。   Therefore, when a plurality of faces are detected, the overall control unit 101 sets the enlarged neighboring area 304 having a larger area than the neighboring area 303 used when one face is detected as the neighboring area of the spot metering area 301. Is used. As a result, the center of the face detection area 302 (indicated by an X mark in FIG. 9) enters the enlarged vicinity area 304, so that face area photometry is performed in S210. Specifically, an average photometric calculation based on the brightness of each of the plurality of detected face detection areas 302 is performed. At this time, when a plurality of faces are detected, the neighboring area may be set wider as the number of detected faces further increases. Thus, when a plurality of faces are detected, each face can be photographed with an appropriate exposure.

なお、デジタルカメラ等の撮像装置による撮影では、顔の反射率を18%として(反射率が18%のものを測光するという条件下で)で測光装置を構成すると、顔に対して適正露出となることが知られている。よって、上述の通りに、スポット拡張測光を行う場合には、顔検知領域302にこの条件を適用することが望ましい。   Note that, in photographing with an imaging device such as a digital camera, if the photometry device is configured with the reflectance of the face being 18% (under the condition that the reflectance is measured at 18%), the proper exposure to the face can be obtained. It is known to be. Therefore, as described above, when performing spot extension photometry, it is desirable to apply this condition to the face detection area 302.

その一方で、全ての被写体の顔がこの条件に合致するわけではない。例えば、女性を撮影する場合には、一般的に適度なオーバー露出の方が好まれる傾向があるため、スポット拡張測光での狙い値を変更(例えば、上記の18%よりも小さい値)に変えてもよい。また、服装の色に対して顔が適正露出となるように測光演算を行うことが望ましい。例えば、結婚式であれば新婦のドレスの色は白であることが多いため、新婦の顔がドレスの色(白)に対して適正露出となるように測光演算を行うことが望ましい。上述したスポット拡張測光では、結婚式のように新郎新婦の衣装が白や黒を基調としている場合であっても、顔検知領域で測光することができるため、容易に適正露出を求めることができる。   On the other hand, not all subjects' faces meet this condition. For example, when photographing a woman, a moderate overexposure generally tends to be preferred. Therefore, the target value in the spot extension photometry is changed to a value (for example, a value smaller than the above 18%). You may. Further, it is desirable to perform a photometric calculation so that the face is appropriately exposed for the color of the clothes. For example, in a wedding, the color of the bride's dress is often white, so it is desirable to perform the photometric calculation so that the bride's face is properly exposed to the dress color (white). In the above-described spot extension photometry, even when the bride and groom's costumes are based on white or black as in a wedding, photometry can be performed in the face detection area, so that an appropriate exposure can be easily obtained. .

上記説明の通りの露出制御を用いることにより、スポット測光モードが選択されている場合に検出された顔検知領域のスポット測光領域に対する位置と大きさに基づいて、撮影者が撮影を意図した撮影対象に対して適正露出となる露光条件での撮影が可能となる。   By using the exposure control as described above, based on the position and size of the face detection area detected with respect to the spot metering area when the spot metering mode is selected, It is possible to take an image under an exposure condition that provides an appropriate exposure to the image.

以上、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。例えば、上記実施形態についての説明では、デジタル一眼レフカメラを取り上げて本発明を説明してきた。しかし、本発明はこれに限られず、一般的に‘ミラーレスカメラ’と呼ばれている、ミラー102を備えない撮像装置でも実現可能である。   As described above, the present invention has been described in detail based on the preferred embodiments. However, the present invention is not limited to these specific embodiments, and various forms that do not depart from the gist of the present invention are also included in the present invention. included. For example, in the description of the above embodiment, the present invention has been described with reference to a digital single-lens reflex camera. However, the present invention is not limited to this, and can also be realized by an imaging device that does not include the mirror 102 and is generally called a “mirrorless camera”.

本発明は、上述した実施形態の1以上の機能を実現するプログラムをネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。   According to the present invention, a program realizing one or more functions of the above-described embodiments is supplied to a system or an apparatus via a network or a storage medium, and one or more processors in a computer of the system or the apparatus read and execute the program. Processing can also be realized. Further, it can be realized by a circuit (for example, an ASIC) that realizes one or more functions.

100 カメラ本体
101 全体制御部
106 第1撮像素子
116 第2撮像素子
117 撮像信号処理部
301 スポット測光領域
302 顔検知領域
REFERENCE SIGNS LIST 100 Camera body 101 Overall control unit 106 First image sensor 116 Second image sensor 117 Image signal processing unit 301 Spot metering area 302 Face detection area

Claims (10)

画像を取得する取得手段と、
前記取得手段が取得した画像から被写体の顔を検知する検知手段と、
前記画像の一部の領域を指定する指定手段と、
前記検知手段により検知された顔検知領域または前記指定手段により指定された指定領域での輝度に基づいて測光演算を行う演算手段と、
前記顔検知領域の前記指定領域に対する位置が所定の条件を満たす場合に、前記顔検知領域が前記指定領域の近傍にあると判定する位置判定手段と、
前記顔検知領域と前記指定領域の大きさを比較する比較手段と、を備え、
前記演算手段は、前記顔検知領域が前記指定領域の近傍にあると判定され、且つ、前記顔検知領域が前記指定領域に対して所定の基準以下の大きさであると判定された場合に、前記顔検知領域での輝度に基づいて測光演算を行うことを特徴とする撮像装置。
Acquisition means for acquiring an image;
Detecting means for detecting the face of the subject from the image obtained by the obtaining means,
Designating means for designating a partial area of the image;
Calculating means for performing a photometric calculation based on the brightness in the face detection area detected by the detection means or in the designated area designated by the designation means,
Position determining means for determining that the face detection area is near the specified area when a position of the face detection area with respect to the specified area satisfies a predetermined condition;
Comparing means for comparing the size of the face detection area and the size of the designated area,
The calculating means, when it is determined that the face detection area is in the vicinity of the specified area, and when it is determined that the face detection area is smaller than the specified area with respect to the specified area, An imaging apparatus, wherein a photometric operation is performed based on luminance in the face detection area.
前記顔検知領域が前記指定領域の近傍にあると判定される場合には、前記顔検知領域の少なくとも一部が前記指定領域の一部と重畳している場合と、前記顔検知領域の全体が前記指定領域と重畳している場合と、が含まれることを特徴とする請求項1に記載の撮像装置。   When it is determined that the face detection area is near the designated area, when at least a part of the face detection area overlaps with a part of the designated area, The imaging apparatus according to claim 1, further comprising: a case where the designated area is superimposed on the designated area. 前記演算手段は、前記顔検知領域が前記指定領域に対して前記所定の基準よりも大きいと判定される場合には、前記指定領域での輝度に基づいて測光演算を行うことを特徴とする請求項1又は2に記載の撮像装置。   If the face detection area is determined to be larger than the predetermined criterion for the designated area, the calculating means performs a photometric calculation based on the luminance in the designated area. Item 3. The imaging device according to Item 1 or 2. 前記演算手段は、前記顔検知領域が前記指定領域の近傍にないと判定された場合には、前記指定領域での輝度に基づいて測光演算を行うことを特徴とする請求項1乃至3のいずれか1項に記載の撮像装置。   The method according to claim 1, wherein the calculating unit performs a photometric calculation based on luminance in the designated area when it is determined that the face detection area is not in the vicinity of the designated area. 2. The imaging device according to claim 1. 前記演算手段は、前記検知手段が前記被写体の顔を検知することができなかった場合には、前記指定領域での輝度に基づいて測光演算を行うことを特徴とする請求項1乃至4のいずれか1項に記載の撮像装置。   The method according to claim 1, wherein the calculating unit performs a photometric calculation based on luminance in the designated area when the detecting unit cannot detect the face of the subject. 2. The imaging device according to claim 1. 前記位置判定手段は、前記指定領域を中心として予め定められた一定距離の範囲内に前記顔検知領域の中心が入る場合に、前記顔検知領域が前記指定領域の近傍にあると判定することを特徴とする請求項1乃至5のいずれか1項に記載の撮像装置。   The position determination unit may determine that the face detection area is in the vicinity of the specified area when the center of the face detection area is within a range of a predetermined distance centered on the specified area. The imaging device according to any one of claims 1 to 5, wherein 前記位置判定手段は、前記検知手段により複数の顔が検知された場合に、前記一定距離を長く設定することを特徴とする請求項6に記載の撮像装置。   The imaging apparatus according to claim 6, wherein the position determining unit sets the certain distance to be long when a plurality of faces are detected by the detecting unit. 前記演算手段は、前記顔検知領域に対して設定する被写体の反射率を変更する変更手段を有することを特徴とする請求項1乃至7のいずれか1項に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the calculation unit includes a change unit that changes a reflectance of the subject set to the face detection area. 撮像装置での露出制御方法であって、
撮像素子から画像を取得する取得ステップと、
前記画像から被写体の顔を検知する検知ステップと、
前記画像の一部の領域を指定する指定ステップと、
前記検知ステップで検知された顔検知領域が前記指定ステップで指定された指定領域の近傍にあるか否かを所定の条件に基づいて判定する判定ステップと、
前記顔検知領域と前記指定領域の大きさを比較する比較ステップと、
前記顔検知領域が前記指定領域の近傍にあると判定され、且つ、前記顔検知領域が前記指定領域に対して所定の基準以下の大きさであると判定された場合に、前記顔検知領域での輝度に基づいて測光演算を行う演算ステップと、
前記測光演算での結果に基づいて露光条件を決定する決定ステップと、を有することを特徴とする露出制御方法。
An exposure control method in an imaging device,
An acquisition step of acquiring an image from the image sensor,
A detecting step of detecting a face of the subject from the image;
A designation step of designating a partial area of the image;
A determination step of determining whether or not the face detection area detected in the detection step is near the specified area specified in the specification step based on a predetermined condition;
A comparing step of comparing the size of the face detection area and the designated area,
When the face detection area is determined to be in the vicinity of the designated area, and when the face detection area is determined to be smaller than a predetermined standard with respect to the designated area, the face detection area A calculating step of performing a photometric calculation based on the luminance of
Determining an exposure condition based on a result of the photometric calculation.
請求項9に記載の露出制御方法の各ステップをコンピュータに実行させることを特徴とするプログラム。
A program for causing a computer to execute each step of the exposure control method according to claim 9.
JP2018118045A 2018-06-21 2018-06-21 Imaging device, exposure control method and program Pending JP2019219566A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018118045A JP2019219566A (en) 2018-06-21 2018-06-21 Imaging device, exposure control method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018118045A JP2019219566A (en) 2018-06-21 2018-06-21 Imaging device, exposure control method and program

Publications (1)

Publication Number Publication Date
JP2019219566A true JP2019219566A (en) 2019-12-26

Family

ID=69096464

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018118045A Pending JP2019219566A (en) 2018-06-21 2018-06-21 Imaging device, exposure control method and program

Country Status (1)

Country Link
JP (1) JP2019219566A (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008197144A (en) * 2007-02-08 2008-08-28 Fujifilm Corp Photographing apparatus, and focus control method and control unit for photographic lens
JP2008199461A (en) * 2007-02-15 2008-08-28 Olympus Imaging Corp Imaging apparatus
JP2009077175A (en) * 2007-09-20 2009-04-09 Sanyo Electric Co Ltd Electronic camera
JP2012039646A (en) * 2011-10-06 2012-02-23 Casio Comput Co Ltd Imaging apparatus and program for the same
JP2016114668A (en) * 2014-12-11 2016-06-23 キヤノン株式会社 Imaging apparatus, and control method and program
JP2017040799A (en) * 2015-08-20 2017-02-23 キヤノン株式会社 Imaging device and photometry method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008197144A (en) * 2007-02-08 2008-08-28 Fujifilm Corp Photographing apparatus, and focus control method and control unit for photographic lens
JP2008199461A (en) * 2007-02-15 2008-08-28 Olympus Imaging Corp Imaging apparatus
JP2009077175A (en) * 2007-09-20 2009-04-09 Sanyo Electric Co Ltd Electronic camera
JP2012039646A (en) * 2011-10-06 2012-02-23 Casio Comput Co Ltd Imaging apparatus and program for the same
JP2016114668A (en) * 2014-12-11 2016-06-23 キヤノン株式会社 Imaging apparatus, and control method and program
JP2017040799A (en) * 2015-08-20 2017-02-23 キヤノン株式会社 Imaging device and photometry method

Similar Documents

Publication Publication Date Title
JP5096017B2 (en) Imaging device
JP6512810B2 (en) Image pickup apparatus, control method and program
US8471935B2 (en) Imaging apparatus having an image correction function and method for controlling the same
JP5950664B2 (en) Imaging apparatus and control method thereof
US7805068B2 (en) Imaging apparatus
JP2010072619A (en) Exposure operation device and camera
JP6727933B2 (en) Imaging device and control method
JP6346484B2 (en) Image processing apparatus and control method thereof
JP4818130B2 (en) Imaging apparatus and control method thereof
JP2005223658A (en) Digital camera
US11503216B2 (en) Image capturing apparatus, method of controlling the same, and storage medium for controlling exposure
JP2014206711A (en) Imaging apparatus, and control method therefor
JP7224839B2 (en) Imaging device and its control method
JP2019219566A (en) Imaging device, exposure control method and program
JP2017129719A (en) Imaging apparatus, control method thereof, and control program
JP2008199461A (en) Imaging apparatus
JP6997544B2 (en) Imaging device and its control method, program, storage medium
JP2010282107A (en) Imaging apparatus and control method therefor
JP2015167308A (en) Photometry method suitable for face detection autofocus control
JP2007281974A (en) Digital camera
JP2019101106A (en) Imaging apparatus and its control method
JP4550211B2 (en) camera
JP2009302747A (en) Imaging device, image processing device, and program
JP6799411B2 (en) Focus detection device and method, and imaging device
JP2005175961A (en) Imaging apparatus, image sensitivity control method, shutter control method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210614

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220315

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220516

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20221004