JP2017040799A - Imaging device and photometry method - Google Patents

Imaging device and photometry method Download PDF

Info

Publication number
JP2017040799A
JP2017040799A JP2015162690A JP2015162690A JP2017040799A JP 2017040799 A JP2017040799 A JP 2017040799A JP 2015162690 A JP2015162690 A JP 2015162690A JP 2015162690 A JP2015162690 A JP 2015162690A JP 2017040799 A JP2017040799 A JP 2017040799A
Authority
JP
Japan
Prior art keywords
designated area
photometric
luminance value
area
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015162690A
Other languages
Japanese (ja)
Other versions
JP6573382B2 (en
Inventor
雄一 有賀
Yuichi Ariga
雄一 有賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015162690A priority Critical patent/JP6573382B2/en
Publication of JP2017040799A publication Critical patent/JP2017040799A/en
Application granted granted Critical
Publication of JP6573382B2 publication Critical patent/JP6573382B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Exposure Control For Cameras (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To suppress increase of a calculation load for photometry calculation, and perform correct photometry when performing photometry to a narrow region.SOLUTION: A digital camera 100 comprises: a second imaging element 116 having plural photometry blocks 300 formed of plural pixels; a whole body control part 101 for designating a partial area of a subject image acquired by the second imaging element 116 to a designated area; and a second imaging signal processing part 117 for calculating a luminance value of the subject image. The whole body control part 101 calculates the luminance value of the designated area on the basis of outputs of pixels corresponding to the designated area, in plural pixels forming the second imaging element 116 for a pixel unit, when a size of the designated area is equal to or smaller than a reference value, and calculates a luminance value of whole photometry block in which the designated area strides, for a photometry block unit, as the luminance value of the designated area, when the size of the designated area is larger than the reference value.SELECTED DRAWING: Figure 4

Description

本発明は、デジタルカメラ等の撮像装置における測光方法に関する。   The present invention relates to a photometric method in an imaging apparatus such as a digital camera.

被写体からの光を撮像レンズ、クイックリターンミラー、ペンタプリズム、光学ファインダへと順次導くと共に、ファインダ光軸から外れた位置に配置された測光センサに導き、測光センサにより被写体の輝度値を測光するデジタル一眼レフカメラが知られている。このようなデジタル一眼レフカメラでは、測光センサからの出力信号を用いて、露出演算や被写体色判定、顔検知、被写体追尾等の複数の機能を実現している。   Digital that sequentially guides the light from the subject to the imaging lens, quick return mirror, pentaprism, and optical viewfinder, and to the photometric sensor located at a position off the finder optical axis, and measures the luminance value of the subject using the photometric sensor A single-lens reflex camera is known. In such a digital single lens reflex camera, a plurality of functions such as exposure calculation, subject color determination, face detection, subject tracking, and the like are realized using an output signal from a photometric sensor.

近年は、顔検知性能を向上させるために、測光センサの解像度を高める傾向にある。そこで、通常の測光には分割数の少ない粗い画像データを用いることで演算負荷を減らし、顔検知には分割数の多い細かい画像データを用いることで顔検知性能を上げる技術が提案されている(特許文献1)。これにより、顔検知性能と測光演算負荷とのバランスを適切なものとすることができる。   In recent years, the resolution of photometric sensors tends to be increased in order to improve face detection performance. Therefore, a technique has been proposed for reducing the computational load by using coarse image data with a small number of divisions for normal photometry, and improving face detection performance by using fine image data with a large number of divisions for face detection ( Patent Document 1). Thereby, the balance between the face detection performance and the photometric calculation load can be made appropriate.

特開2013−44995号公報JP 2013-44995 A

しかしながら、上記特許文献1に記載された技術では、顔測光演算を行う場合でも、測光領域の分割数が十分に細かいとは言えず、顔領域と一致しない領域で測光演算を行うことになって、測光精度が低下してしまう。この問題は、スポット測光演算を行う場合も同様であり、スポット測光領域と一致しない領域で測光演算が行われることにより、測光精度が低下してしまう。   However, in the technique described in Patent Document 1, even when face photometry calculation is performed, the number of divisions of the photometry area cannot be said to be sufficiently fine, and photometry calculation is performed in an area that does not match the face area. , Photometric accuracy will be reduced. This problem is the same when spot photometry calculation is performed, and photometric calculation is performed in an area that does not match the spot photometry area, resulting in a decrease in photometry accuracy.

本発明は、測光演算のための演算負荷の増大を抑制しつつ、狭い領域を測光する場合に正確な測光を行うことができる測光方法を提供することを目的とする。   An object of the present invention is to provide a photometric method capable of performing accurate photometry when measuring a narrow region while suppressing an increase in calculation load for photometric calculation.

本発明に係る撮像装置は、複数の画素からなる複数の測光ブロックを有する撮像素子と、前記撮像素子が取得した被写体像の一部の領域を指定領域に指定する指定手段と、前記被写体像の輝度値を算出する算出手段と、前記指定領域の大きさが所定の基準値以下の場合は、前記画素を単位として、前記撮像素子を構成する複数の画素のうち前記指定領域に対応する画素の出力に基づいて前記指定領域の輝度値を算出し、前記指定領域の大きさが前記所定の基準値より大きい場合は、前記測光ブロックを単位として、前記指定領域が跨がる測光ブロック全体の輝度値を前記指定領域の輝度値として算出するように、前記指定領域の大きさに応じて前記算出手段による輝度値の算出方法を切り替える制御手段と、を備えることを特徴とする。   An image pickup apparatus according to the present invention includes an image pickup device having a plurality of photometric blocks composed of a plurality of pixels, a designation unit for designating a partial region of a subject image acquired by the image pickup device as a designated region, A calculating means for calculating a luminance value; and when the size of the designated area is equal to or smaller than a predetermined reference value, a pixel corresponding to the designated area among the plurality of pixels constituting the image sensor in units of the pixel. When the luminance value of the designated area is calculated based on the output and the size of the designated area is larger than the predetermined reference value, the luminance of the entire photometric block spanned by the designated area in units of the photometric block Control means for switching a calculation method of the luminance value by the calculation means according to the size of the designated area so as to calculate a value as a luminance value of the designated area.

本発明によれば、測光演算のための演算負荷の増大を抑制しつつ、顔領域やスポット測光領域等の狭い領域を測光する場合に、正確な測光を行うことができる。   According to the present invention, accurate photometry can be performed when measuring a narrow area such as a face area or a spot photometry area while suppressing an increase in calculation load for photometry calculation.

本発明の実施形態に係るデジタルカメラの概略構成を示すブロック図である。1 is a block diagram illustrating a schematic configuration of a digital camera according to an embodiment of the present invention. 図1のデジタルカメラの主要な構成要素の配設位置を示す断面図である。It is sectional drawing which shows the arrangement | positioning position of the main components of the digital camera of FIG. 図1のデジタルカメラでの第2の撮像素子における測光ブロックと測距点の位置関係を模式的に示す図である。It is a figure which shows typically the positional relationship of the photometry block and distance measuring point in the 2nd image pick-up element in the digital camera of FIG. 図1のデジタルカメラでの通常測光シーケンスを説明するフローチャートである。2 is a flowchart for explaining a normal photometry sequence in the digital camera of FIG. 1. 図1のデジタルカメラでのスポット測光機能を用いた測光シーケンスを説明するフローチャートである。3 is a flowchart for explaining a photometry sequence using a spot photometry function in the digital camera of FIG. 1. 図1のデジタルカメラでの、撮像用の第1の撮像素子と測光用の第2の撮像素子の測光ブロックとの関係を模式的に示す図である。It is a figure which shows typically the relationship between the 1st image sensor for imaging in the digital camera of FIG. 1, and the photometry block of the 2nd image sensor for photometry. ステップS102において小さい顔が検出された場合の従来の顔領域の輝度値算出方法を説明する図である。It is a figure explaining the luminance value calculation method of the conventional face area when a small face is detected in Step S102. ステップS102において小さい顔が検出された場合の本実施形態に係るステップS103での顔領域の輝度値算出方法を説明する図である。It is a figure explaining the luminance value calculation method of the face area in Step S103 concerning this embodiment when a small face is detected in Step S102. ステップS102において大きい顔が検出された場合の本実施形態に係るステップS103での顔領域の輝度値算出方法を説明する図である。It is a figure explaining the luminance value calculation method of the face area in Step S103 concerning this embodiment when a big face is detected in Step S102. ステップS102において小さい顔が検出された場合の顔領域と、顔領域が跨がる測光ブロックとの位置関係をより詳細に示す図である。It is a figure which shows in detail the positional relationship of the face area | region when a small face is detected in step S102, and the photometry block which a face area straddles. 顔領域に一致する輝度値を求める際に行う補正に用いる重み係数を決定するためのテーブルである。It is a table for determining the weighting coefficient used for the correction | amendment performed when calculating | requiring the luminance value matching a face area.

以下、本発明の実施形態について、添付図面を参照して詳細に説明する。本実施形態では、本発明に係る撮像装置の一例として、デジタル一眼レフカメラ(以下「デジタルカメラ」と記す)を取り上げて、説明を行うこととする。   Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the present embodiment, a digital single-lens reflex camera (hereinafter referred to as “digital camera”) will be described as an example of an imaging apparatus according to the present invention.

図1は、本発明の実施形態に係るデジタルカメラ100の概略構成を示すブロック図である。図2は、デジタルカメラ100の主要な構成要素の配設位置を示す断面図である。   FIG. 1 is a block diagram showing a schematic configuration of a digital camera 100 according to an embodiment of the present invention. FIG. 2 is a cross-sectional view showing the arrangement positions of main components of the digital camera 100.

デジタルカメラ100は、カメラ本体100Aと、カメラ本体100Aに対して着脱自在な交換レンズ鏡筒200とを有する。カメラ本体100Aは、全体制御部101、ミラー102、ミラー駆動装置103、シャッタ104、シャッタ駆動装置105、第1の撮像素子106、第1の撮像信号処理部107、第1のタイミング発生部108及びメモリ部109を備える。また、カメラ本体100Aは、記憶媒体制御I/F部110、表示駆動部112、表示装置113、外部インタフェース114、第2の撮像素子116、第2の撮像信号処理部117、及び第2のタイミング発生部118を備える。更に、カメラ本体100Aは、ペンタプリズム119、測距駆動装置120、位相差測距部121、接眼レンズ123及びレリーズスイッチ125を備える。   The digital camera 100 includes a camera body 100A and an interchangeable lens barrel 200 that is detachable from the camera body 100A. The camera body 100A includes an overall control unit 101, a mirror 102, a mirror driving device 103, a shutter 104, a shutter driving device 105, a first imaging element 106, a first imaging signal processing unit 107, a first timing generation unit 108, and A memory unit 109 is provided. The camera body 100A includes a storage medium control I / F unit 110, a display driving unit 112, a display device 113, an external interface 114, a second image sensor 116, a second image signal processing unit 117, and a second timing. A generator 118 is provided. Furthermore, the camera body 100A includes a pentaprism 119, a distance measuring drive device 120, a phase difference distance measuring unit 121, an eyepiece lens 123, and a release switch 125.

全体制御部101は、具体的にはCPUを含むマイクロプロセッサであり、デジタルカメラ100(カメラ本体100Aと交換レンズ鏡筒200)の全体的な制御を行う。ミラー102は、一般的にクイックリターンミラーと呼ばれるものであり、交換レンズ鏡筒200を通過した光を、図2に示す測光時の状態ではファインダ側へ導き、撮像時には跳ね上がって第1の撮像素子106へと導く。ミラー駆動装置103は、ミラー102を駆動する。シャッタ104は、フォーカルプレーン型の先幕/後幕に相当するシャッタ機構であり、交換レンズ鏡筒200を通過した光の第1の撮像素子106に対する露光時間の制御と遮光を行う。シャッタ駆動装置105は、シャッタ104の駆動を行う。   The overall control unit 101 is specifically a microprocessor including a CPU, and performs overall control of the digital camera 100 (camera body 100A and interchangeable lens barrel 200). The mirror 102 is generally called a quick return mirror, and guides the light that has passed through the interchangeable lens barrel 200 to the viewfinder side in the photometric state shown in FIG. To 106. The mirror driving device 103 drives the mirror 102. The shutter 104 is a shutter mechanism corresponding to a focal plane type front curtain / rear curtain, and controls exposure time of the first image sensor 106 of light passing through the interchangeable lens barrel 200 and shields it. The shutter driving device 105 drives the shutter 104.

交換レンズ鏡筒200を通過した光は、第1の撮像素子106の表面に被写体の光学像として結像する。第1の撮像素子106は、光学像を電気信号(画像信号)に変換して、第1の撮像信号処理部107へ出力する。第1の撮像素子106は、具体的には、X−Yアドレスで形成されているCMOSセンサである。第1の撮像信号処理部107は、第1の撮像素子106から出力される画像信号の増幅処理、アナログ信号からデジタル信号への変換(A/D変換)処理、A/D変換処理後の画像データに対するキズ補正等の各種の補正処理、画像データを圧縮する圧縮処理等を行う。第1のタイミング発生部108は、第1の撮像素子106と第1の撮像信号処理部107に対して、各種のタイミング信号を供給する。   The light that has passed through the interchangeable lens barrel 200 forms an optical image of the subject on the surface of the first image sensor 106. The first image sensor 106 converts the optical image into an electrical signal (image signal) and outputs the electrical signal to the first image signal processor 107. Specifically, the first image sensor 106 is a CMOS sensor formed with XY addresses. The first image signal processor 107 amplifies the image signal output from the first image sensor 106, converts the analog signal into a digital signal (A / D conversion), and the image after the A / D conversion process. Various correction processes such as defect correction for data, compression process for compressing image data, and the like are performed. The first timing generator 108 supplies various timing signals to the first image sensor 106 and the first image signal processor 107.

メモリ部109は、第1の撮像信号処理部107により処理された画像データ等を一時的に記憶するRAMや、各種の調整値や全体制御部101が各種の制御を実行するためのプログラム等を記憶するROMによって構成されている。記憶媒体制御I/F部は、記憶媒体111への画像データ等の書き込み処理又は記憶媒体111からの画像データ等の読み出し処理を行うためのインタフェースである。記憶媒体111は、例えば、画像データ等の各種データを記憶する半導体メモリ等であり、カメラ本体100Aに対して着脱自在である。   The memory unit 109 temporarily stores image data processed by the first imaging signal processing unit 107, various adjustment values, programs for the overall control unit 101 to execute various controls, and the like. It is comprised by ROM which memorize | stores. The storage medium control I / F unit is an interface for performing a process of writing image data or the like to the storage medium 111 or a process of reading image data or the like from the storage medium 111. The storage medium 111 is, for example, a semiconductor memory that stores various data such as image data, and is detachable from the camera body 100A.

表示装置113は、撮像した静止画や動画、カメラ本体100Aでの撮像パラメータの設定を行うためのメニュー画面(UI)等を表示する液晶ディスプレイ等である。表示駆動部112は、表示装置113を駆動する。外部インタフェース114は、外部装置の一例であるコンピュータ115等と全体制御部101との間で、画像信号や制御信号等の情報の送受信を可能とするためのインタフェースである。   The display device 113 is a liquid crystal display or the like that displays a captured still image or moving image, a menu screen (UI) for setting imaging parameters in the camera body 100A, and the like. The display driving unit 112 drives the display device 113. The external interface 114 is an interface that enables transmission and reception of information such as an image signal and a control signal between the computer 115 and the like, which are an example of an external device, and the overall control unit 101.

AEセンサとして機能する第2の撮像素子116は、AE信号/光源検出信号を取得するための光電変換素子であり、RGBのベイヤ配置のセンサである。第2の撮像素子116には、グローバル電子シャッタ機能を有するCCDセンサが一般的に用いられるが、CMOSセンサであっても、読み出しが速ければ(読み出し時間が短ければ)、用いることができる。第2の撮像信号処理部117は、第2の撮像素子116から出力される画像信号の増幅処理、A/D変換処理、A/D変換後の画像データに対するキズ補正等の各種の補正処理、画像データを圧縮する圧縮処理等を行う。第2のタイミング発生部118は、第2の撮像素子116と第2の撮像信号処理部117に対して、各種のタイミング信号を供給する。   The second image sensor 116 functioning as an AE sensor is a photoelectric conversion element for acquiring an AE signal / light source detection signal, and is a sensor having an RGB Bayer arrangement. A CCD sensor having a global electronic shutter function is generally used for the second imaging element 116, but even a CMOS sensor can be used if reading is fast (reading time is short). The second imaging signal processing unit 117 performs various correction processes such as an amplification process of an image signal output from the second imaging element 116, an A / D conversion process, and a defect correction for image data after A / D conversion, A compression process for compressing image data is performed. The second timing generation unit 118 supplies various timing signals to the second imaging element 116 and the second imaging signal processing unit 117.

ペンタプリズム119は、ミラー102で曲げられた光をファインダの接眼レンズ123と第2の撮像素子116へ導くための部材である。位相差測距部121は、位相差方式により、ミラー102を透過した光線により被写体のデフォーカス量により位相が変化する2つ画像を取得し、2つの画像のズレ量から被写体のデフォーカス量を演算する。測距駆動装置120は、位相差測距部121を駆動する。   The pentaprism 119 is a member for guiding the light bent by the mirror 102 to the eyepiece lens 123 of the finder and the second image sensor 116. The phase difference distance measuring unit 121 acquires two images whose phases change according to the defocus amount of the subject by the light beam transmitted through the mirror 102 by the phase difference method, and calculates the defocus amount of the subject from the shift amount of the two images. Calculate. The distance measuring drive device 120 drives the phase difference distance measuring unit 121.

レリーズスイッチ125は、半押しされることによりオンするSW1と、全押しされることによりオンされるSW2とを有する。SW1がオンすると、撮像準備に入って自動露出とオートフォーカス等が行われる。SW2がオンすると、第1の撮像素子106による本撮像が行われ、SW2がオンされた状態が維持されると連写が行われる。   The release switch 125 has a switch SW1 that is turned on when half-pressed and a switch SW2 that is turned on when fully pressed. When SW1 is turned on, imaging exposure preparation is started and automatic exposure, autofocus, and the like are performed. When SW2 is turned on, the main imaging is performed by the first image sensor 106, and continuous shooting is performed when the state where SW2 is turned on is maintained.

交換レンズ鏡筒200は、レンズ制御部201、撮像レンズ202、レンズ駆動装置203、絞り204及び絞り駆動装置205を備える。撮像レンズ202は、被写体の光学像を第1の撮像素子106に結像させる。レンズ駆動装置203は、位相差測距部121が算出したデフォーカス量に基づき、撮像レンズ202を光軸方向に移動させて、被写体にフォーカスを合わせる。絞り204は、撮像レンズ202を通る光量を制御する。絞り駆動装置205は、被写体像を取得(撮像)する第2の撮像素子116の出力による求められる測光値に基づいて絞り204を駆動する。レンズ制御部201は、全体制御部101と通信を行い、全体制御部101からの指令に基づいて交換レンズ鏡筒200での動作制御を行う。   The interchangeable lens barrel 200 includes a lens control unit 201, an imaging lens 202, a lens driving device 203, a diaphragm 204, and a diaphragm driving device 205. The imaging lens 202 forms an optical image of the subject on the first imaging element 106. The lens driving device 203 moves the imaging lens 202 in the optical axis direction based on the defocus amount calculated by the phase difference distance measuring unit 121 to focus on the subject. A diaphragm 204 controls the amount of light passing through the imaging lens 202. The aperture driving device 205 drives the aperture 204 based on a photometric value obtained from the output of the second image sensor 116 that acquires (captures) a subject image. The lens control unit 201 communicates with the overall control unit 101 and performs operation control with the interchangeable lens barrel 200 based on a command from the overall control unit 101.

図3は、第2の撮像素子116における測光ブロック300と測距点303の位置関係を模式的に示す図である。第2の撮像素子116は、水平方向に9分割、垂直方向に6分割した合計54個の測光ブロック300を有する。第2の撮像素子116は、画素毎ではなく、複数の画素をまとめた測光ブロック300毎に測光値を求めて、測光演算を行う。   FIG. 3 is a diagram schematically showing the positional relationship between the photometry block 300 and the distance measuring point 303 in the second image sensor 116. The second image sensor 116 has a total of 54 photometric blocks 300 divided into 9 parts in the horizontal direction and 6 parts in the vertical direction. The second image sensor 116 obtains a photometric value for each photometric block 300 in which a plurality of pixels are collected, not for each pixel, and performs photometric calculation.

また、第2の撮像素子116は、被写体像(撮像可能範囲)に対して13点の測距点303(AFセンサ)を備えており、そのうちの1つ又は1群(例えば、縦方向に並ぶ3つ又は5つ)が選択可能に構成されている。なお、測距点303の配置とその数は、図3に示す形態に限定されるものではない。測距点303の選択は、レリーズスイッチ125が半押しされてSW1がオンする前に行うように構成されていてもよいし、レリーズスイッチ125が半押しされてSW1がオンした状態で行うように構成されていてもよい。   The second image sensor 116 includes 13 distance measuring points 303 (AF sensors) with respect to the subject image (captureable range), and one or a group of them (for example, arranged in the vertical direction). 3 or 5) is configured to be selectable. Note that the arrangement and number of distance measuring points 303 are not limited to the form shown in FIG. The distance measuring point 303 may be selected before the release switch 125 is half-pressed and SW1 is turned on, or may be selected while the release switch 125 is half-pressed and SW1 is turned on. It may be configured.

図4は、デジタルカメラ100での通常測光シーケンスを説明するフローチャートである。図4のフローチャートの各処理は、全体制御部101が所定のプログラムを実行してデジタルカメラ100の各部の動作を制御し、各部が所定の動作や演算を行うことによって実現される。   FIG. 4 is a flowchart for explaining a normal photometry sequence in the digital camera 100. Each process of the flowchart of FIG. 4 is realized by the overall control unit 101 executing a predetermined program to control the operation of each unit of the digital camera 100, and each unit performing a predetermined operation or calculation.

レリーズスイッチ125が半押しされてSW1がオンすると、ステップS101において全体制御部101は、測光用の第2の撮像素子116による全体測光を行う。続くステップS102において全体制御部101は、第2の撮像信号処理部117により、第2の撮像素子116の出力画像を用いて、出力画像内の一部の領域を主たる測光対象とする一例としての顔検知を行う。これにより、被写体像内での顔の位置と大きさが検知され、顔領域が決定される。なお、顔検知には周知の技術を用いられ、そのため、ここでの説明を省略する。   When the release switch 125 is pressed halfway and SW1 is turned on, in step S101, the overall control unit 101 performs overall photometry with the second image sensor 116 for photometry. In subsequent step S102, the overall control unit 101 uses the output image of the second image sensor 116 by the second imaging signal processing unit 117 as an example of setting a partial region in the output image as a main photometric target. Perform face detection. As a result, the position and size of the face in the subject image are detected, and the face area is determined. It should be noted that a well-known technique is used for face detection, and therefore description thereof is omitted here.

次に、ステップS103において全体制御部101は、ステップS102で抽出された顔領域を指定領域として、この指定領域の輝度値(明るさ)を第2の撮像信号処理部117により算出する。なお、ステップS103の詳細については、後述する。そして、ステップS104において全体制御部101は、測光ブロック300毎の輝度値を算出する。   Next, in step S103, the overall control unit 101 uses the face area extracted in step S102 as a designated area, and the second imaging signal processing unit 117 calculates a luminance value (brightness) of the designated area. Details of step S103 will be described later. In step S <b> 104, the overall control unit 101 calculates a luminance value for each photometric block 300.

続いて、ステップS105において全体制御部101は、第2の撮像信号処理部117により、ステップS103で算出された指定領域(顔領域)の輝度値とステップS104で算出された測光ブロック300毎の輝度値とを用いて、撮像可能な測光値を演算する。このとき、第2の撮像信号処理部117は、指定領域(顔領域)の輝度値に基づいて被写体の明るさがオーバーやアンダーにならないように調整しながら、測光ブロック300毎の輝度値に基づいて画像全体に白飛びや黒潰れができる限り生じないように調整を行う。ステップS105の測光値演算が終了すると、測光処理は終了となり、レリーズスイッチ125のSW2がオンになったことをトリガとして、ステップS105で算出した測光値を用いて静止画の撮像が行われる。   Subsequently, in step S105, the overall control unit 101 causes the second imaging signal processing unit 117 to calculate the luminance value of the designated area (face area) calculated in step S103 and the luminance for each photometric block 300 calculated in step S104. The photometric value that can be imaged is calculated using the value. At this time, the second imaging signal processing unit 117 adjusts the brightness of the subject so as not to be over or under based on the brightness value of the designated area (face area), and based on the brightness value of each photometric block 300. Make adjustments so that whiteout and blackout do not occur in the entire image. When the photometric value calculation in step S105 is completed, the photometric process is terminated, and a still image is captured using the photometric value calculated in step S105, triggered by the fact that SW2 of the release switch 125 is turned on.

図5は、デジタルカメラ100でのスポット測光機能を用いた測光シーケンスを説明するフローチャートである。図5のフローチャートの各処理は、全体制御部101が所定のプログラムを実行してデジタルカメラ100の各部の動作を制御し、各部が所定の動作や演算を行うことによって実現される。   FIG. 5 is a flowchart for explaining a photometry sequence using the spot photometry function in the digital camera 100. Each process of the flowchart in FIG. 5 is realized by the overall control unit 101 executing a predetermined program to control the operation of each unit of the digital camera 100, and each unit performing a predetermined operation or calculation.

ステップS201において全体制御部101は、デジタルカメラ100が備える複数の測距点303(図3参照)のうち、撮影者によってどの測距点が選択されたかを検出する。ここでは、13点の測距点303のうち1つが撮影者により選択されたものとして、以降のステップを説明する。続くステップS202において全体制御部101は、ステップS201で検出された測距点の領域を指定領域として、第2の撮像信号処理部117により、この指定領域に対応する画素の出力を加算することにより算出する。なお、ステップS202でこのような輝度値の算出方法を用いる理由については後述する。   In step S <b> 201, the overall control unit 101 detects which ranging point is selected by the photographer from among a plurality of ranging points 303 (see FIG. 3) provided in the digital camera 100. Here, the following steps will be described on the assumption that one of the 13 distance measuring points 303 has been selected by the photographer. In subsequent step S202, the overall control unit 101 uses the distance measurement point area detected in step S201 as the designated area, and the second imaging signal processing unit 117 adds the outputs of the pixels corresponding to the designated area. calculate. The reason for using such a luminance value calculation method in step S202 will be described later.

続いて、ステップS203において全体制御部101は、第2の撮像信号処理部117により、ステップS202で算出された測光ブロックの輝度値を用いて、撮像のための測光値を演算する。ステップS203の測光値演算が終了すると、スポット測光処理は終了となり、レリーズスイッチ125のSW2がオンになったことをトリガとして、ステップS203で算出した測光値を用いて静止画の撮像が行われる。   Subsequently, in step S203, the overall control unit 101 uses the second imaging signal processing unit 117 to calculate a photometric value for imaging using the luminance value of the photometric block calculated in step S202. When the photometric value calculation in step S203 is completed, the spot photometric process is terminated, and a still image is captured using the photometric value calculated in step S203, triggered by the fact that SW2 of the release switch 125 is turned on.

次に、図4を参照して説明した通常測光における測光値の算出方法について具体的に説明する。図6は、本撮像用の第1の撮像素子106と測光用の第2の撮像素子116の測光ブロック300との関係を模式的に示す図である。実際には、第1の撮像素子106と第2の撮像素子116とは、光路が異なるので、図6に示すように重なって見えることはないが、光軸中心を合わせると、第1の撮像素子106と第2の撮像素子116は図6に示すような位置関係となる。   Next, a method for calculating a photometric value in the normal photometry described with reference to FIG. 4 will be specifically described. FIG. 6 is a diagram schematically showing the relationship between the first image sensor 106 for main imaging and the photometry block 300 of the second image sensor 116 for photometry. Actually, since the first image sensor 106 and the second image sensor 116 have different optical paths, the first image sensor 106 and the second image sensor 116 do not appear to overlap as shown in FIG. The element 106 and the second imaging element 116 have a positional relationship as shown in FIG.

第2の撮像素子116の測光ブロック300の配置は、図3に示したものと同じである。以降の説明では、便宜上、特定の測光ブロック300を示す場合には、図6に示す通りに11〜19,21〜29,31〜39,41〜49,51〜59,61〜69の符号を更に付して、例えば、測光ブロック300_11のように記載することとする。   The arrangement of the photometric block 300 of the second image sensor 116 is the same as that shown in FIG. In the following description, for the sake of convenience, when a specific photometric block 300 is shown, reference numerals 11 to 19, 21 to 29, 31 to 39, 41 to 49, 51 to 59, 61 to 69 are used as shown in FIG. Further, for example, it is described as a photometric block 300_11.

図7は、通常測光によるステップS102において小さい顔が検出された場合の従来の顔領域の輝度値算出方法を説明する図である。図7には、検出された顔全体を含む顔領域301が破線で囲まれて示されており、顔領域301は、4つの測光ブロック300_34,35,44,45に跨がっている。一般的に、検出された顔が小さい場合の顔領域301は、4ブロック以下程度の数個の測光ブロックに跨がる。   FIG. 7 is a diagram for explaining a conventional method of calculating the brightness value of a face area when a small face is detected in step S102 by normal photometry. In FIG. 7, a face area 301 including the entire detected face is surrounded by a broken line, and the face area 301 extends over four photometric blocks 300_34, 35, 44, and 45. Generally, the face area 301 when the detected face is small straddles several photometric blocks of about 4 blocks or less.

従来は、顔領域301の跨がる測光ブロック300_34,35,44,45の各輝度値と、測光ブロック300_34,35,44,45のそれぞれと重複する顔領域301の寄与率とから加重平均を行うことで、顔の輝度値を算出している。しかし近年では、顔検知能力を向上させるために第2の撮像素子116の画素数を増やしており、そのため、より小さい顔が検知されるようになってきている。この場合、顔領域301よりも、顔領域301が跨がっている測光ブロック300_34,35,44,45の領域における顔領域301以外の領域(斜線で示す)が広くなり、顔領域301の輝度値算出精度が低下してしまう。   Conventionally, a weighted average is calculated from the luminance values of the photometric blocks 300_34, 35, 44, and 45 straddling the face area 301 and the contribution ratio of the face area 301 that overlaps the photometric blocks 300_34, 35, 44, and 45, respectively. By doing so, the brightness value of the face is calculated. However, in recent years, the number of pixels of the second image sensor 116 has been increased in order to improve the face detection capability, and as a result, smaller faces are being detected. In this case, the area other than the face area 301 (shown by diagonal lines) in the area of the photometric blocks 300_34, 35, 44, and 45 across the face area 301 is wider than the face area 301, and the brightness of the face area 301 is increased. The value calculation accuracy decreases.

この問題に対して本実施形態では、以下に説明する通りに、検出された顔の大きさに応じて、顔領域の輝度値の算出方法を切り替える。   To solve this problem, the present embodiment switches the method for calculating the brightness value of the face area according to the size of the detected face, as will be described below.

図8は、ステップS102において小さい顔が検出された場合の、ステップS103における顔領域の輝度値算出方法を説明する図である。図8には全ての測光ブロック300が示されている。しかし、本実施形態では、測光ブロック300を単位として用いず、顔領域301に対応する画素の出力にのみ基づいて、顔領域301の輝度値を算出する。つまり、測光ブロック300_34,35,44,45の全領域からの輝度値の算出は行わず、画素を単位とし、これらの測光ブロックに含まれる複数の画素のうち顔領域301と重複する画素の出力を加算して、顔領域301の輝度値を算出する。よって、顔領域301に一致した輝度値を求めることができ、これにより、顔領域301の輝度値算出精度を高めることができる。   FIG. 8 is a diagram for explaining the method of calculating the brightness value of the face area in step S103 when a small face is detected in step S102. FIG. 8 shows all the photometric blocks 300. However, in the present embodiment, the luminance value of the face area 301 is calculated based only on the output of the pixel corresponding to the face area 301 without using the photometric block 300 as a unit. That is, luminance values are not calculated from the entire areas of the photometric blocks 300_34, 35, 44, and 45, and pixels that overlap with the face area 301 among a plurality of pixels included in these photometric blocks are output. Are added to calculate the luminance value of the face region 301. Therefore, it is possible to obtain a luminance value that matches the face area 301, thereby improving the luminance value calculation accuracy of the face area 301.

図9は、ステップS102において大きい顔が検出された場合の、本実施形態でのステップS103における顔領域の輝度値算出方法を説明する図である。図9には、検出された顔全体を含む顔領域302が破線で囲まれて示されており、顔領域302は、測光ブロック300_13〜16,23〜26,33〜36,43〜46に跨がっている。このように顔領域302が多くの測光ブロックに跨がっている場合には、顔領域302が跨がっている測光ブロック全体の領域内での顔領域302以外の領域(斜線部分)は狭くなる。   FIG. 9 is a diagram for explaining the method of calculating the brightness value of the face area in step S103 in the present embodiment when a large face is detected in step S102. In FIG. 9, a face area 302 including the entire detected face is surrounded by a broken line, and the face area 302 extends over the photometric blocks 300_13 to 16, 23 to 26, 33 to 36, and 43 to 46. I'm scared. When the face area 302 extends over many photometric blocks in this way, the area other than the face area 302 (shaded area) within the entire photometric block over which the face area 302 extends is narrow. Become.

この場合に図8を参照して説明した小さい顔が検出された場合と同様に顔領域302に対応する画素を単位として各画素からの出力を用いて顔領域302の輝度値を求めようとすると、演算に長時間を要してしまう。そこで、大きい顔が検出された場合には、測光ブロック300を単位として、顔領域302が跨がっている測光ブロック全体の領域の輝度値を、顔領域302の輝度値として求める。このようにしても、顔輝度算出の精度が低下することはなく、しかも、演算負荷の増大を回避して、短時間で演算を終わらせることができる。   In this case, when the small face described with reference to FIG. 8 is detected, the luminance value of the face area 302 is obtained using the output from each pixel in units of pixels corresponding to the face area 302. , It takes a long time to calculate. Therefore, when a large face is detected, the luminance value of the entire photometric block spanned by the face area 302 is obtained as the luminance value of the face area 302 with the photometric block 300 as a unit. Even if it does in this way, the precision of face luminance calculation does not fall, and also it can avoid calculation increase and can finish calculation in a short time.

このように、本実施形態では、小さい顔が検出された場合(指定領域が小さい場合)には、画素を単位とし、小さい顔の顔領域301に対応する画素の出力から顔領域301の輝度値を求める。また、大きい顔が検出された場合(指定領域が大きい場合)には、予め設定されている測光ブロック300を単位とし、大きい顔の顔領域302の輝度値を求める。つまり、検出された顔領域の大きさの判定結果に応じて(つまり、指定領域の大きさに応じて)、顔領域(指定領域)の輝度値を求める方法を切り替える。   As described above, in the present embodiment, when a small face is detected (when the designated area is small), the luminance value of the face area 301 is calculated from the output of the pixel corresponding to the face area 301 of the small face in units of pixels. Ask for. When a large face is detected (when the designated area is large), the luminance value of the face area 302 of the large face is obtained using the preset photometric block 300 as a unit. That is, the method for determining the luminance value of the face area (designated area) is switched according to the determination result of the size of the detected face area (that is, according to the size of the designated area).

検出された顔が小さい顔か大きい顔か(指定領域が小さいか大きいか)の判定は、例えば、顔領域が跨がっている測光ブロックの数が所定の基準値以下(例えば、4以下)の場合に、小さい顔であると判定する方法を用いることができる。また、検出された顔領域の、その顔領域が跨がっている測光ブロックの全領域に対する比(例えば、顔領域301の測光ブロック300_34,35,44,45の全領域に対する比)が閾値以下である場合に、小さい顔と判定する方法を用いることができる。ここで、閾値は、予め設定された固定値であってもよいし、撮影者が任意に設定することができるようにデジタルカメラ100のハードウェア及びソフトウェアが構成されていてもよい。例えば、閾値は、0.2〜0.4の範囲で設定することができる。これに限らず、検出された顔領域と、その顔領域が跨がっている測光ブロックの領域において顔領域と重複していない領域との比に基づき、小さい顔か大きい顔かを判定するようにしてもよい。   For example, whether the detected face is a small face or a large face (whether the designated area is small or large) is determined by, for example, the number of photometric blocks over which the face area is straddling a predetermined reference value or less (for example, 4 or less) In this case, a method for determining that the face is small can be used. In addition, the ratio of the detected face area to the entire area of the photometric block across the face area (for example, the ratio of the face area 301 to the entire area of the photometric blocks 300_34, 35, 44, and 45) is less than the threshold value. In such a case, a method for determining a small face can be used. Here, the threshold value may be a preset fixed value, or the hardware and software of the digital camera 100 may be configured so that the photographer can arbitrarily set the threshold value. For example, the threshold value can be set in the range of 0.2 to 0.4. Not limited to this, it is determined whether the face is small or large based on the ratio of the detected face area to the area that does not overlap the face area in the photometric block area that the face area spans. It may be.

ところで、上記の通りに顔領域に対応する画素の出力を加算して顔領域に一致する輝度値を求める際に、正確な輝度値を求めるためには各種の補正を加えることが望ましい。この場合の各種の補正には、光学系による周辺光量落ちを補正するためのシェーディング補正や、第2の撮像素子116の暗電流ばらつき等を領域毎に補正するダーク補正がある。これらの補正を行う場合の補正データは、シェーディング補正であればレンズ毎に異なり、ダーク補正であれば温度によって異なる。そのため、全体のデータ量を削減することを目的として、一般的に、補正データは測光ブロック300毎にメモリ部109に格納されている。この補正データは、測光ブロック300毎のデータであるため、そのままでは、画素から求めた顔領域の輝度値に利用することができない。そこで次に、画素単位で求めた顔領域の輝度値への測光ブロック300毎の補正データの適用方法について説明する。   By the way, it is desirable to add various corrections in order to obtain an accurate luminance value when adding the outputs of the pixels corresponding to the face region as described above to obtain the luminance value matching the face region. The various corrections in this case include shading correction for correcting a peripheral light amount drop by the optical system, and dark correction for correcting dark current variation of the second image sensor 116 for each region. The correction data when performing these corrections differs for each lens in the case of shading correction, and differs depending on the temperature in the case of dark correction. Therefore, for the purpose of reducing the entire data amount, correction data is generally stored in the memory unit 109 for each photometric block 300. Since this correction data is data for each photometric block 300, it cannot be used as it is for the brightness value of the face area obtained from the pixels. Therefore, a method of applying correction data for each photometric block 300 to the luminance value of the face area obtained in units of pixels will be described next.

図10は、図7及び図8と同様に、小さい顔が検出された場合の顔領域301と、顔領域301が跨がる測光ブロック300_34,35,44,45との位置関係をより詳細に示す図である。図10では、顔領域301の中心を中心Oとし、また、測光ブロック300_34,35,44,45のそれぞれの中心を、中心A,B,C,Dとして示している。測光ブロック300_34の補正データが中心Aの位置のものであるとし、同様に、測光ブロック300_35,44,45の各補正データが中心B,C,Dの位置のものであるとする。この場合、中心Aと中心Oとが遠い(中心Aと中心Oとの間の距離が長い)場合には、中心Aに位置する補正データの中心Oに対する影響は小さくなり、逆に、中心Aと中心Oとが近い場合には、中心Aに位置する補正データの中心Oに対する影響は大きくなる。そして、これと同じことが、中心Bと中心Oとの間、中心Cと中心Oとの間、中心Dと中心Oとの間のそれぞれについて言える。   FIG. 10 shows the positional relationship between the face area 301 when a small face is detected and the photometric blocks 300_34, 35, 44, and 45 across the face area 301 in more detail, as in FIGS. FIG. In FIG. 10, the center of the face region 301 is indicated as a center O, and the centers of the photometric blocks 300_34, 35, 44, and 45 are indicated as centers A, B, C, and D, respectively. Assume that the correction data of the photometry block 300_34 is at the position of the center A, and similarly, the correction data of the photometry blocks 300_35, 44, and 45 are at the positions of the centers B, C, and D. In this case, when the center A and the center O are far away (the distance between the center A and the center O is long), the influence of the correction data located at the center A on the center O becomes small. And the center O are close to each other, the influence of the correction data located at the center A on the center O becomes large. The same can be said for the center B and the center O, the center C and the center O, and the center D and the center O.

よって、中心A,B,C,Dから求められる中心Oにおける補正データPoは、下記式1で与えられる。ここで、Pa,Pb,Pc,Pdはそれぞれ、中心A,B,C,Dの補正データであり、Wa,Wb,Wc,Wdはそれぞれ、中心A,B,C,Dの中心Oに対する影響(重み係数)である。シェーディング補正データやダーク補正データ等を、加重平均を求める下記式1に当て嵌めて演算することにより、中心Oにおける補正データを算出することができる。   Therefore, the correction data Po at the center O obtained from the centers A, B, C, and D is given by the following formula 1. Here, Pa, Pb, Pc, and Pd are correction data for the centers A, B, C, and D, respectively, and Wa, Wb, Wc, and Wd are effects on the center O of the centers A, B, C, and D, respectively. (Weighting factor). The correction data at the center O can be calculated by fitting shading correction data, dark correction data, and the like with the following formula 1 for obtaining a weighted average.

図11は、補正データPa,Pb,Pc,Pdのそれぞれに乗算する重み係数Wa,Wb,Wc,Wdを決定するためのテーブルである。中心Aと中心Bとの距離及び中心Aと中心Cとの距離をそれぞれ“8”としたときに、中心Oと中心Aの横方向(x方向)の距離が“6”、縦方向(y方向)の距離が“1”であれば、図11から中心Aの重み係数Waは“56”であると読み取ることができる。同様に、中心Bの重み係数Wbは“168”、中心Cの重み係数Wcは“8”、中心Dの重み係数Wdは“24”であることが読み取れる。なお、図11のテーブルは、“Wa+Wb+Wc+Wd=256”となって、重み係数Wa,Wb,Wc,Wdの加算値が一定となるように作成されている。   FIG. 11 is a table for determining weighting factors Wa, Wb, Wc, and Wd to be multiplied by the correction data Pa, Pb, Pc, and Pd, respectively. When the distance between the center A and the center B and the distance between the center A and the center C are respectively “8”, the distance in the horizontal direction (x direction) between the center O and the center A is “6” and the vertical direction (y If the (direction) distance is “1”, it can be read from FIG. 11 that the weight coefficient Wa of the center A is “56”. Similarly, it can be read that the weight coefficient Wb of the center B is “168”, the weight coefficient Wc of the center C is “8”, and the weight coefficient Wd of the center D is “24”. The table of FIG. 11 is “Wa + Wb + Wc + Wd = 256”, and is created so that the added values of the weighting factors Wa, Wb, Wc, Wd are constant.

次に、図5を参照して説明したスポット測光を行う場合の測光値の算出方法について説明する。図3に示したように、複数の測距点303には、1つの測光ブロック300内に納まっているものあれば、複数の測光ブロック300に跨がっているものもあり、複数の測光ブロック300に対して測距点が重複する形態も様々である。   Next, a method for calculating a photometric value when the spot photometry described with reference to FIG. 5 is performed will be described. As shown in FIG. 3, a plurality of distance measuring points 303 may be included in one metering block 300 and may be straddled across a plurality of metering blocks 300. There are various forms in which ranging points overlap with 300.

この場合に、ステップS202において測光ブロック300を単位として輝度値を求めると、測距点毎に測光精度が異なることになってしまう。例えば、測光ブロック300の数や配置に起因して、複数の測距点303のうち、ある測距点では2つの測光ブロック300を用い、別の測距点では4つの測光ブロックを用いることになると、後者では前者よりも測光精度が低下するおそれがある。   In this case, if the luminance value is obtained in units of the photometric block 300 in step S202, the photometric accuracy will be different for each distance measuring point. For example, due to the number and arrangement of the photometry blocks 300, among the plurality of distance measurement points 303, two photometry blocks 300 are used at one distance measurement point, and four photometry blocks are used at another distance measurement point. Then, in the latter case, the photometric accuracy may be lower than in the former case.

そこで、スポット測光を行う場合には、通常測光で小さい顔が検出された場合と同様に、測距点303の領域に対応する画素の出力にのみ基づいて、測距点303の輝度値を算出することとする。これにより、測距点303の領域に一致した輝度値を求めることができ、全ての測距点303で、同じ精度で輝度値を算出することができる。   Therefore, when performing spot metering, the luminance value of the distance measuring point 303 is calculated based only on the output of the pixel corresponding to the area of the distance measuring point 303, as in the case where a small face is detected by normal metering. I decided to. As a result, the luminance value matching the area of the distance measuring point 303 can be obtained, and the luminance value can be calculated with the same accuracy at all the distance measuring points 303.

以上、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。例えば、上記説明では、測光用の第2の撮像素子116を取り上げて説明したが、撮像用の第1の撮像素子106を用いて同様の測光を行うことができる。したがって、デジタル一眼レフカメラ以外の電子機器であって、撮像用の撮像素子を備えるものであれば、本発明を適用することができる。   Although the present invention has been described in detail based on preferred embodiments thereof, the present invention is not limited to these specific embodiments, and various forms within the scope of the present invention are also included in the present invention. included. For example, in the above description, the second image sensor 116 for photometry is taken up and described, but the same photometry can be performed using the first image sensor 106 for imaging. Therefore, the present invention can be applied to any electronic device other than a digital single-lens reflex camera and provided with an imaging element for imaging.

100 デジタルカメラ
101 全体制御部
106 第1の撮像素子
116 第2の撮像素子
117 第2の撮像信号処理部
121 位相差測距部
200 交換レンズ鏡筒
202 撮像レンズ
300 測光ブロック
301 顔領域
302 顔領域
303 測距点
DESCRIPTION OF SYMBOLS 100 Digital camera 101 Overall control part 106 1st image pick-up element 116 2nd image pick-up element 117 2nd image pick-up signal processing part 121 Phase difference ranging part 200 Interchangeable lens barrel 202 Imaging lens 300 Photometry block 301 Face area 302 Face area 303 AF points

Claims (8)

複数の画素からなる複数の測光ブロックを有する撮像素子と、
前記撮像素子が取得した被写体像の一部の領域を指定領域に指定する指定手段と、
前記被写体像の輝度値を算出する算出手段と、
前記指定領域の大きさが所定の基準値以下の場合は、前記画素を単位として、前記撮像素子を構成する複数の画素のうち前記指定領域に対応する画素の出力に基づいて前記指定領域の輝度値を算出し、前記指定領域の大きさが前記所定の基準値より大きい場合は、前記測光ブロックを単位として、前記指定領域が跨がる測光ブロック全体の輝度値を前記指定領域の輝度値として算出するように、前記指定領域の大きさに応じて前記算出手段による輝度値の算出方法を切り替える制御手段と、を備えることを特徴とする撮像装置。
An image sensor having a plurality of photometric blocks composed of a plurality of pixels;
Designation means for designating a partial area of the subject image acquired by the imaging device as a designated area;
Calculating means for calculating a luminance value of the subject image;
When the size of the designated area is equal to or less than a predetermined reference value, the brightness of the designated area based on the output of the pixel corresponding to the designated area among the plurality of pixels constituting the imaging element, with the pixel as a unit When a value is calculated and the size of the designated area is larger than the predetermined reference value, the luminance value of the entire photometric block spanned by the designated area is set as the luminance value of the designated area in units of the photometric block. An imaging apparatus comprising: a control unit that switches a calculation method of a luminance value by the calculation unit according to the size of the designated region so as to calculate.
前記撮像素子の撮像可能範囲に複数の測距点が設けられ、
前記指定手段は、前記複数の測距点から選択された少なくとも1つ以上の測距点の領域を前記指定領域とし、
1つの前記測距点の領域の大きさは前記基準値以下であることを特徴とする請求項1に記載の撮像装置。
A plurality of ranging points are provided in the imageable range of the image sensor,
The designation means sets the area of at least one or more ranging points selected from the plurality of ranging points as the designated area,
The imaging apparatus according to claim 1, wherein the size of one distance measuring point area is equal to or smaller than the reference value.
前記撮像素子が取得した被写体像から顔領域を検出する検出手段を備え、
前記指定手段は、前記顔領域を前記指定領域とすることを特徴とする請求項1に記載の撮像装置。
Detecting means for detecting a face area from a subject image acquired by the image sensor;
The imaging apparatus according to claim 1, wherein the designation unit sets the face area as the designated area.
前記算出手段は、複数の前記測光ブロックのそれぞれの輝度値をさらに算出し、
前記算出手段が算出した前記指定領域の輝度値と前記測光ブロックのそれぞれの輝度値とに基づいて前記被写体像の測光値を演算する演算手段をさらに備えることを特徴とする請求項3に記載の撮像装置。
The calculation means further calculates a luminance value of each of the plurality of photometric blocks,
The calculation unit according to claim 3, further comprising a calculation unit configured to calculate a photometric value of the subject image based on a luminance value of the designated area calculated by the calculation unit and a luminance value of each of the photometric blocks. Imaging device.
前記撮像素子が取得した被写体像の輝度値を複数の前記測光ブロックを単位として補正する補正データを格納した記憶手段をさらに備え、
前記算出手段は、前記指定領域と前記複数の測光ブロックのそれぞれの前記補正データの、前記指定領域の中心と前記指定領域が跨がる複数の測光ブロックのそれぞれの中心との距離に応じた加重平均によって前記指定領域の輝度値を算出することを特徴とする請求項1乃至4のいずれか1項に記載の撮像装置。
Storage means storing correction data for correcting the luminance value of the subject image acquired by the image sensor in units of the plurality of photometric blocks;
The calculation means weights the correction data of each of the designated area and the plurality of photometric blocks according to the distance between the center of the designated area and the center of the plurality of photometric blocks across the designated area. The imaging apparatus according to claim 1, wherein the luminance value of the designated area is calculated by averaging.
前記加重平均を求めるために前記補正データに乗算するための重み係数を定めたテーブルが前記記憶手段に格納され、
前記算出手段が前記加重平均により前記指定領域の輝度値を算出する際に、前記テーブルから読み出す前記重み係数の加算値が一定となることを特徴とする請求項5に記載の撮像装置。
A table defining weighting factors for multiplying the correction data to obtain the weighted average is stored in the storage means;
The imaging apparatus according to claim 5, wherein when the calculation unit calculates a luminance value of the designated area by the weighted average, an addition value of the weighting factor read from the table is constant.
複数の画素からなる複数の測光ブロックを有する撮像素子を備える撮像装置での測光方法であって、
前記撮像素子により被写体の全体測光を行い、前記撮像素子が取得した被写体像の一部の領域を指定領域に指定する指定ステップと、
前記指定領域の大きさが所定の基準値より大きいかを判定する判定ステップと、
前記判定ステップでの判定結果に基づき前記指定領域の輝度値の算出方法を切り替える切り替えステップと、を有し、
前記切り替えステップでは、前記指定領域の大きさが前記所定の基準値以下の場合は、前記画素を単位として、前記撮像素子を構成する複数の画素のうち前記指定領域に対応する画素の出力に基づいて前記指定領域の輝度値を算出し、前記指定領域の大きさが前記所定の基準値より大きい場合は、前記測光ブロックを単位として、前記指定領域が跨がる測光ブロック全体の輝度値を前記指定領域の輝度値として算出するように、前記指定領域の輝度値の算出方法を切り替えることを特徴とする測光方法。
A photometric method in an imaging apparatus comprising an imaging device having a plurality of photometric blocks composed of a plurality of pixels,
A specifying step of performing total photometry of the subject with the imaging device and designating a partial region of the subject image acquired by the imaging device as a designated region;
A determination step of determining whether the size of the designated area is larger than a predetermined reference value;
A switching step of switching the calculation method of the luminance value of the designated area based on the determination result in the determination step,
In the switching step, when the size of the designated area is equal to or smaller than the predetermined reference value, based on an output of a pixel corresponding to the designated area among a plurality of pixels constituting the imaging element, with the pixel as a unit. The brightness value of the designated area is calculated, and when the size of the designated area is larger than the predetermined reference value, the brightness value of the entire photometric block spanned by the designated area is calculated in units of the photometric block. A photometric method characterized in that the calculation method of the luminance value of the designated area is switched so as to calculate the luminance value of the designated area.
前記指定ステップでは、前記撮像素子の撮像可能範囲に設けられた複数の測距点のうちの少なくとも1つの測距点、または、前記撮像素子が取得した被写体像から検知した顔領域のいずれかが前記指定領域に指定されることを特徴とする請求項7に記載の測光方法。
In the specifying step, at least one ranging point among a plurality of ranging points provided in an imageable range of the image sensor or a face area detected from a subject image acquired by the image sensor is selected. The photometric method according to claim 7, wherein the photometric method is designated in the designated area.
JP2015162690A 2015-08-20 2015-08-20 Imaging apparatus and photometric method Active JP6573382B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015162690A JP6573382B2 (en) 2015-08-20 2015-08-20 Imaging apparatus and photometric method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015162690A JP6573382B2 (en) 2015-08-20 2015-08-20 Imaging apparatus and photometric method

Publications (2)

Publication Number Publication Date
JP2017040799A true JP2017040799A (en) 2017-02-23
JP6573382B2 JP6573382B2 (en) 2019-09-11

Family

ID=58203357

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015162690A Active JP6573382B2 (en) 2015-08-20 2015-08-20 Imaging apparatus and photometric method

Country Status (1)

Country Link
JP (1) JP6573382B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019219566A (en) * 2018-06-21 2019-12-26 キヤノン株式会社 Imaging device, exposure control method and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019219566A (en) * 2018-06-21 2019-12-26 キヤノン株式会社 Imaging device, exposure control method and program

Also Published As

Publication number Publication date
JP6573382B2 (en) 2019-09-11

Similar Documents

Publication Publication Date Title
JP5322783B2 (en) IMAGING DEVICE AND CONTROL METHOD OF IMAGING DEVICE
US9160919B2 (en) Focus adjustment unit and camera system
US9826167B2 (en) Imaging apparatus and imaging method which perform focus adjustment while performing live-view display
US9781330B2 (en) Focus detection apparatus and control method for focus detection apparatus
JP6338471B2 (en) Imaging apparatus, control method, and program
JP2018031877A (en) Image pickup device and focus adjusting method
JP2010072619A (en) Exposure operation device and camera
JP5963552B2 (en) Imaging device
JP6573382B2 (en) Imaging apparatus and photometric method
JP2009159092A (en) Imaging apparatus and control method thereof
JP2017118342A (en) Imaging apparatus
JP5849515B2 (en) Exposure calculation device and camera
US11503216B2 (en) Image capturing apparatus, method of controlling the same, and storage medium for controlling exposure
US10943328B2 (en) Image capturing apparatus, method for controlling same, and storage medium
JP2012063664A (en) Photometric device and electronic camera
JP2015167308A (en) Photometry method suitable for face detection autofocus control
JP2014164028A (en) Imaging apparatus and switching method of imaging parameter and program
JP6660036B2 (en) Focus detection device and imaging device
JP6229363B2 (en) Imaging apparatus, processing unit, and program
JP2017103589A (en) Imaging apparatus, method for controlling the same, and control program
JP5619227B2 (en) IMAGING DEVICE AND CONTROL METHOD OF IMAGING DEVICE
JP6590585B2 (en) Imaging apparatus and exposure control method
JP2013041059A (en) Exposure calculation unit and camera
JP2012230260A (en) Imaging apparatus and control method
JP2013040996A (en) Exposure calculation unit and camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180807

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190710

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190716

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190809

R151 Written notification of patent or utility model registration

Ref document number: 6573382

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151