JP6590585B2 - Imaging apparatus and exposure control method - Google Patents

Imaging apparatus and exposure control method Download PDF

Info

Publication number
JP6590585B2
JP6590585B2 JP2015162691A JP2015162691A JP6590585B2 JP 6590585 B2 JP6590585 B2 JP 6590585B2 JP 2015162691 A JP2015162691 A JP 2015162691A JP 2015162691 A JP2015162691 A JP 2015162691A JP 6590585 B2 JP6590585 B2 JP 6590585B2
Authority
JP
Japan
Prior art keywords
data
shading correction
block
image data
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015162691A
Other languages
Japanese (ja)
Other versions
JP2017041779A (en
Inventor
陽介 峰
陽介 峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015162691A priority Critical patent/JP6590585B2/en
Publication of JP2017041779A publication Critical patent/JP2017041779A/en
Application granted granted Critical
Publication of JP6590585B2 publication Critical patent/JP6590585B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Exposure Control For Cameras (AREA)

Description

本発明は、撮像素子を用いて測光を行う撮像装置及び露出制御方法に関する。   The present invention relates to an imaging apparatus that performs photometry using an imaging element and an exposure control method.

デジタルカメラやデジタルビデオカメラに用いられるCMOSイメージセンサに存在する画素欠陥に起因するノイズを補正する方法として、ノイズの載った画素をその周囲の画素との相関関係に基づいて補正する方法が提案されている(例えば、特許文献1参照)。   As a method of correcting noise caused by pixel defects existing in CMOS image sensors used in digital cameras and digital video cameras, a method of correcting pixels with noise based on the correlation with surrounding pixels has been proposed. (For example, refer to Patent Document 1).

CMOSイメージセンサには、光量の平方根に比例する光ショットノイズが存在し、この光ショットノイズを抑制する方法として、上記特許文献1に記載された方法を用いることができると考えられる。また、CMOSイメージセンサには、暗電流による固定パターンノイズが発生する。この固定パターンノイズを補正する技術として、オプティカルブラック領域に基づき暗電流成分を算出する方法や、駆動条件と暗電流成分との関係を示す情報に基づき、暗電流成分を算出する方法が提案されている(特許文献2,3参照)。   The CMOS image sensor has optical shot noise proportional to the square root of the light amount, and it is considered that the method described in Patent Document 1 can be used as a method for suppressing the optical shot noise. Also, fixed pattern noise due to dark current occurs in the CMOS image sensor. As a technique for correcting this fixed pattern noise, a method of calculating a dark current component based on an optical black region and a method of calculating a dark current component based on information indicating a relationship between a driving condition and a dark current component have been proposed. (See Patent Documents 2 and 3).

特開平6−86098号公報JP-A-6-86098 特開2009−033321号公報JP 2009-033321 A 特開2013−118563号公報JP 2013-118563 A

CMOSイメージセンサの受光光量が小さい場合には、光ショットノイズに起因して、露出値演算結果のばらつきが大きくなる。そのため、上記特許文献1に記載された方法では、注目画素とその周囲の画素の出力が小さい場合に、注目画素を正しく補正することができない。   When the amount of light received by the CMOS image sensor is small, variations in the exposure value calculation result increase due to light shot noise. Therefore, the method described in Patent Document 1 cannot correct the target pixel correctly when the output of the target pixel and the surrounding pixels are small.

そこで、光ショットノイズによる測光結果のばらつきが十分小さくなる閾値(下限値)以下の測光結果を、この閾値にクリップする手法を適用することが考えられる。例えば、39カウントの測光出力値に光ショットノイズで最大±8カウントのばらつきがある場合に、測光結果のばらつきは±1/3段(=±1/3EV)以内となる。そのため、39カウント以下を39カウントにクリップすれば、測光結果のばらつきを±1/3段以内に抑えることができる。   Therefore, it is conceivable to apply a method of clipping a photometric result equal to or less than a threshold value (lower limit) at which the variation in the photometric result due to light shot noise becomes sufficiently small. For example, when the photometric output value of 39 counts has a maximum ± 8 count variation due to light shot noise, the photometric result variation is within ± 1/3 steps (= ± 1/3 EV). Therefore, if the 39 counts or less are clipped to 39 counts, the variation in the photometric results can be suppressed to within ± 1/3 level.

しかし、顔検出等の被写体認識演算を行う場合には、画像全体に対してレンズ等による光学系の周辺光量落ちを補正するシェーディング補正を行う必要があり、シェーディング補正によって周辺光量落ちの大きい画像周辺部で、光ショットノイズが増加してしまう。例えば、シェーディング補正で周辺光量落ちを補正すると、光ショットノイズの最大値が±8カウントよりも大きくなり、測光結果のばらつきが±1/3段よりも大きくなることで、適切な露出条件を算出することができなくなる。   However, when performing subject recognition calculations such as face detection, it is necessary to perform shading correction that corrects the peripheral light loss of the optical system due to the lens etc. for the entire image. This increases the light shot noise. For example, when the amount of peripheral light loss is corrected by shading correction, the maximum value of light shot noise is greater than ± 8 counts, and the variation in photometric results is greater than ± 1/3 steps, thereby calculating appropriate exposure conditions. Can not do.

また、上述の特許文献2,3に記載された技術では、暗電流による固定パターンノイズを補正するダーク補正データを画素毎に記憶させる必要があるため、記憶手段に大きな記憶容量が必要になる。これに対して、ダーク補正データを圧縮して用意し、拡大(解凍)して画素毎に補正をかける構成にすると、記憶容量を抑えることはできるが、回路規模が大きくなってしまう。   Further, in the techniques described in Patent Documents 2 and 3 described above, since it is necessary to store dark correction data for correcting fixed pattern noise due to dark current for each pixel, a large storage capacity is required for the storage unit. On the other hand, if the dark correction data is prepared by compressing and expanding (decompressing) and correcting each pixel, the storage capacity can be suppressed, but the circuit scale becomes large.

そこで、撮像面を任意に分割したブロック毎にダーク補正をかけることにより、ダーク補正データのデータ容量を小さく抑えながら、回路規模も縮小することが可能になると考えられる。しかし、上述したように光学系の周辺光量落ちを補正するシェーディング補正を行うと、周辺光量落ちの大きい画像周辺部で暗電流による固定パターンノイズが大きくなるため、ダーク補正が正しく掛からなくなってしまう。これにより、露出値演算や被写体認識演算の精度が低下してしまう。   Therefore, by applying dark correction to each block obtained by arbitrarily dividing the imaging surface, it is considered that the circuit scale can be reduced while reducing the data capacity of the dark correction data. However, as described above, when shading correction for correcting the peripheral light amount drop of the optical system is performed, the fixed pattern noise due to the dark current increases in the peripheral portion of the image where the peripheral light amount drop is large, and thus the dark correction cannot be correctly applied. As a result, the accuracy of the exposure value calculation and subject recognition calculation decreases.

本発明は、露出値演算や被写体認識演算の精度を高めることができる撮像装置を提供することを目的とする。   An object of the present invention is to provide an imaging apparatus capable of improving the accuracy of exposure value calculation and subject recognition calculation.

本発明に係る撮像装置は、撮像素子を用いて被写体に対する測光と画像データの生成を行う画像データ生成手段と、周辺光量落ちを補正するためのシェーディング補正データを用いて画像データに対してシェーディング補正を行うシェーディング補正手段と、前記画像データ生成手段が生成した画像を複数のブロックに分割したブロック毎に輝度値の平均値を算出する算出手段と、前記平均値のばらつきを抑制するためのクリップデータと前記シェーディング補正データとから前記ブロック毎にクリップデータを作成するクリップデータ作成手段と、前記算出手段により算出された前記ブロック毎の輝度値の平均値を前記ブロック毎のクリップデータを用いてクリップするクリップ処理手段と、前記クリップ処理手段によるクリップが行われた後の画像データを用いて露出値を演算する露出値演算手段と、を備えることを特徴とする。   An image pickup apparatus according to the present invention is configured to perform shading correction on image data using image data generation means for performing photometry and image data generation on an object using an image sensor, and shading correction data for correcting a peripheral light amount drop. Shading correction means for performing the calculation, calculation means for calculating an average value of luminance values for each block obtained by dividing the image generated by the image data generation means into a plurality of blocks, and clip data for suppressing variations in the average value Clip data creation means for creating clip data for each block from the shading correction data and the average brightness value for each block calculated by the calculation means using the clip data for each block Clip processing means and clip by the clip processing means are performed Characterized in that and an exposure value calculating means for calculating an exposure value using the image data after.

また、本発明に係る別の撮像装置は、撮像素子を用いて被写体に対する測光と画像データの生成を行う画像データ生成手段と、周辺光量落ちを補正するためのシェーディング補正データを用いて画像データに対してシェーディング補正を行うシェーディング補正手段と、前記画像データ生成手段が生成した画像を複数のブロックに分割したブロック毎に輝度値の平均値を算出する算出手段と、前記複数のブロック毎にダーク補正データを作成するダーク補正データ作成手段と、前記算出手段により算出された前記ブロック毎の輝度値の平均値に、前記ブロック毎のダーク補正データと前記ブロック毎のシェーディング補正データとを適用してダーク補正を行うダーク補正手段と、前記ダーク補正手段によるダーク補正が行われた後の画像データを用いて露出値を演算する露出値演算手段と、を備えることを特徴とする。   Further, another imaging apparatus according to the present invention uses image data generation means for performing photometry and image data generation on an object using an image sensor, and shading correction data for correcting a peripheral light amount drop to image data. Shading correction means for performing shading correction on the image, calculation means for calculating an average value of luminance values for each block obtained by dividing the image generated by the image data generation means into a plurality of blocks, and dark correction for each of the plurality of blocks Dark correction data generating means for generating data, and applying dark correction data for each block and shading correction data for each block to the average value of the luminance value for each block calculated by the calculation means; Dark correction means for performing correction, and image data after dark correction is performed by the dark correction means. Characterized in that and an exposure value calculating means for calculating an exposure value used.

本発明によれば、撮像装置による撮像の際に、光ショットノイズや暗電流による固定パターンノイズ等の影響を抑えた、精度の高い露出値演算や被写体認識演算を行うことが可能となる。   According to the present invention, it is possible to perform exposure value calculation and subject recognition calculation with high accuracy while suppressing the influence of light shot noise, fixed pattern noise due to dark current, and the like during imaging by the imaging apparatus.

本発明の実施形態に係るデジタルカメラの概略構成を示す図である。1 is a diagram illustrating a schematic configuration of a digital camera according to an embodiment of the present invention. 図1のデジタルカメラでの撮像動作のフローチャートである。It is a flowchart of the imaging operation in the digital camera of FIG. 図2のフローチャートのステップS102のAE処理で実行するAE処理の内容を決定するための処理のフローチャートである。It is a flowchart of the process for determining the content of the AE process performed by AE process of step S102 of the flowchart of FIG. 図3のフローチャートのステップS203の第1のAE処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the 1st AE process of step S203 of the flowchart of FIG. 図3のフローチャートのステップS204の第2のAE処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the 2nd AE process of step S204 of the flowchart of FIG.

以下、本発明の実施形態について、添付図面を参照して詳細に説明する。ここでは、本発明に係る撮像装置として、デジタルカメラを取り上げることとする。但し、本発明は、これに限定されず、撮像素子を用いて測光と撮像を行う撮像機能を有する携帯型通信端末等の電子機器に広く適用することができる。 Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. Here, a digital camera is taken up as an imaging apparatus according to the present invention . However, the present invention is not limited to this, and can be widely applied to electronic devices such as portable communication terminals having an imaging function of performing photometry and imaging using an imaging element.

図1は、本発明の実施形態に係るデジタルカメラ100の概略構成を示す図である。デジタルカメラ100は、大略的に、カメラ本体100A及びレンズ鏡筒100Bから構成される。レンズ鏡筒100Bは、カメラ本体100Aと一体となっていてもよいし、カメラ本体100Aに対して着脱自在であってもよい。   FIG. 1 is a diagram showing a schematic configuration of a digital camera 100 according to an embodiment of the present invention. The digital camera 100 generally includes a camera body 100A and a lens barrel 100B. The lens barrel 100B may be integrated with the camera body 100A, or may be detachable from the camera body 100A.

カメラ本体100Aは、CPU101、メモリ102、撮影用撮像素子103、シャッタ104、ハーフミラー105、ピント板106及びAE(auto exposure:自動露出)センサ107を備える。また、カメラ本体100Aは、ペンタプリズム108、光学ファインダ109、AFミラー110及びAF(自動合焦)センサ111を備える。レンズ鏡筒100Bは、複数のレンズ群121と、鏡筒内CPU(以下「LPU」と記す)122とを備える。   The camera body 100A includes a CPU 101, a memory 102, a photographing image sensor 103, a shutter 104, a half mirror 105, a focus plate 106, and an AE (auto exposure) sensor 107. The camera body 100A includes a pentaprism 108, an optical viewfinder 109, an AF mirror 110, and an AF (automatic focus) sensor 111. The lens barrel 100 </ b> B includes a plurality of lens groups 121 and a CPU (hereinafter referred to as “LPU”) 122 in the lens barrel.

CPU101は、デジタルカメラ100の各部を制御するマイクロコンピュータである。メモリ102は、CPU101が実行するプログラムや変数等を格納するROMと、CPU101がプログラムを展開する作業領域や一時的に画像データ等を記憶するRAMを含む。LPU122は、被写体に対する距離情報等をCPU101へ送信する。   The CPU 101 is a microcomputer that controls each unit of the digital camera 100. The memory 102 includes a ROM that stores programs executed by the CPU 101, variables, and the like, a work area where the CPU 101 develops programs, and a RAM that temporarily stores image data and the like. The LPU 122 transmits distance information about the subject to the CPU 101.

撮影用撮像素子103は、赤外カットフィルタやローパスフィルタ等を含むCCDセンサ或いはCMOSセンサ等のイメージセンサである。シャッタ104は、非撮影時には閉じて撮影用撮像素子103を遮光し、撮影時には開いてレンズ鏡筒100Bを通過した光束を撮影用撮像素子103へ導く。   The imaging element 103 for imaging is an image sensor such as a CCD sensor or a CMOS sensor including an infrared cut filter, a low-pass filter, and the like. The shutter 104 is closed during non-photographing to shield the photographing image sensor 103, and is opened during photographing and guides the light beam that has passed through the lens barrel 100B to the photographing image sensor 103.

ハーフミラー105は、非撮影時にレンズ群121を通して入射する光の一部を反射して、ピント板106に光学像を結像させる。AEセンサ107は、CCD或いはCOMS等の撮像素子からなる測光センサであり、例えば、赤外光域及び可視光域における分光特性の異なる複数の画素(R(赤),G(緑),B(青),IR(赤外))からなる画素を有する。CPU101は、AEセンサ107からの出力信号を用いて、顔検知や被写体追尾、光源判定等の被写体認識演算を行う。   The half mirror 105 reflects a part of the light incident through the lens group 121 when not photographing, and forms an optical image on the focus plate 106. The AE sensor 107 is a photometric sensor including an image sensor such as a CCD or a COMS. For example, a plurality of pixels (R (red), G (green), and B (different in spectral characteristics) in the infrared light region and the visible light region are used. Blue), IR (infrared)). The CPU 101 uses the output signal from the AE sensor 107 to perform subject recognition calculations such as face detection, subject tracking, and light source determination.

ペンタプリズム108は、ピント板106の被写体像をAEセンサ107と光学ファインダ109へ導く。なお、AEセンサ107は、ペンタプリズム108を介してピント板106に結像された被写体像を斜め方向の位置から見ている。AFミラー110は、レンズ鏡筒100Bから入射してハーフミラー105を通過した光束の一部をAFセンサ111へ導く。AFセンサ111は、受光した光束に基づいて被写体に対する合焦のための測距を行う。   The pentaprism 108 guides the subject image on the focusing screen 106 to the AE sensor 107 and the optical viewfinder 109. The AE sensor 107 views the subject image formed on the focus plate 106 via the pentaprism 108 from a position in the oblique direction. The AF mirror 110 guides a part of the light beam incident from the lens barrel 100 </ b> B and passing through the half mirror 105 to the AF sensor 111. The AF sensor 111 performs distance measurement for focusing on the subject based on the received light flux.

図1には不図示であるが、デジタルカメラ100は、電源スイッチと、シャッタスイッチとを備える。シャッタスイッチは、半押し(第1ストローク)でオンするスイッチSW1と、全押し(第2ストローク)でオンするスイッチSW2とを備える。スイッチSW1がオンすることで、AEセンサ107による露出制御とAFセンサ111による自動合焦制御が実行される。また、スイッチSW2がオンすることで、本撮影処理が行われる。本撮影処理では、撮影用撮像素子103に結像した光学像は、撮影用撮像素子103によってアナログ電気信号に変換され、アナログ電気信号が不図示の画像処理手段によりデジタル画像データに変換されて、不図示のメモリカード等の記憶手段に記憶される。   Although not shown in FIG. 1, the digital camera 100 includes a power switch and a shutter switch. The shutter switch includes a switch SW1 that is turned on by half pressing (first stroke) and a switch SW2 that is turned on by full pressing (second stroke). When the switch SW1 is turned on, exposure control by the AE sensor 107 and automatic focus control by the AF sensor 111 are executed. Further, when the switch SW2 is turned on, the main photographing process is performed. In this photographing process, the optical image formed on the photographing image sensor 103 is converted into an analog electric signal by the photographing image sensor 103, and the analog electric signal is converted into digital image data by an image processing unit (not shown). It is stored in storage means such as a memory card (not shown).

図2は、デジタルカメラ100での撮像動作のフローチャートである。図2のフローチャートの各処理は、CPU101が所定のプログラムを実行してデジタルカメラ100の各部の動作を制御し、各部が所定の動作や演算を行うことによって実現される。   FIG. 2 is a flowchart of the imaging operation in the digital camera 100. Each process of the flowchart of FIG. 2 is realized by the CPU 101 executing a predetermined program to control the operation of each unit of the digital camera 100, and each unit performing a predetermined operation or calculation.

デジタルカメラ100は、電源スイッチがオンされて撮像スタンバイの状態にあるものとする。ステップS101においてCPU101は、シャッタスイッチの第1ストロークであるスイッチSW1がオンされたか否かを判定する。CPU101は、スイッチSW1がオンされるまでステップS101の判定を繰り返し(S101でNO)、スイッチSW1がオンされると(S101でYES)、処理をステップS102へ進める。ステップS102においてCPU101は、AEセンサ107により、AE処理(露出制御処理)を行う。このAE処理には、顔検出演算や被写体追尾演算、光源判定等の被写体認識演算と、露出値演算とが含まれる。なお、ステップS102の詳細については後述する。   The digital camera 100 is assumed to be in an imaging standby state with the power switch turned on. In step S101, the CPU 101 determines whether or not the switch SW1, which is the first stroke of the shutter switch, is turned on. CPU 101 repeats the determination in step S101 until switch SW1 is turned on (NO in S101), and when switch SW1 is turned on (YES in S101), the process proceeds to step S102. In step S <b> 102, the CPU 101 performs AE processing (exposure control processing) by the AE sensor 107. This AE process includes subject recognition computation such as face detection computation, subject tracking computation, and light source determination, and exposure value computation. Details of step S102 will be described later.

続くステップS103においてCPU101は、AEセンサ107とAFセンサ111を用いて、位相差方式のAF処理を行う。例えば、AEセンサ107で顔が検知されている場合、検知された顔に対応する測距点のデフォーカス量を検出し、LPU122を通じてレンズ群121のフォーカスレンズを駆動させて、検出された顔にピントを合わせる。   In subsequent step S <b> 103, the CPU 101 performs phase difference type AF processing using the AE sensor 107 and the AF sensor 111. For example, when a face is detected by the AE sensor 107, the defocus amount of the distance measuring point corresponding to the detected face is detected, and the focus lens of the lens group 121 is driven through the LPU 122, and the detected face is detected. Adjust the focus.

次に、ステップS104においてCPU101は、シャッタスイッチの第2であるスイッチSW2がオンされたか否かを判定する。CPU101は、スイッチSW2がオンされていない場合(S104でNO)、処理をステップS101へ戻し、スイッチSW2がオンされると(S104でYES)、処理をステップS105へ進める。ステップS105においてCPU101は、ステップS102でのAE処理結果に基づき、本撮像処理を実行する。   Next, in step S104, the CPU 101 determines whether the second switch SW2 of the shutter switch is turned on. When switch SW2 is not turned on (NO in S104), CPU 101 returns the process to step S101, and when switch SW2 is turned on (YES in S104), the process proceeds to step S105. In step S105, the CPU 101 executes the main imaging process based on the AE process result in step S102.

次に、ステップS102におけるAE処理の詳細について説明する。ここでは、AEセンサ107は、矩形形状を有し、横320×縦240で画素が配置されたCMOSイメージセンサであるとする。なお、縦方向は、図1における上下方向であり、横方向は、図1の紙面と直交する方向である。   Next, details of the AE process in step S102 will be described. Here, it is assumed that the AE sensor 107 is a CMOS image sensor having a rectangular shape and having pixels arranged in horizontal 320 × vertical 240. The vertical direction is the vertical direction in FIG. 1, and the horizontal direction is a direction orthogonal to the paper surface of FIG.

本実施形態では、被写体輝度に応じてAEセンサ107からの信号(電荷)の読出方法を切り替える。一定の被写体輝度がある場合には、AEセンサ107の全画素から信号(電荷)を読み出す全画素読み出しを行う。具体的には、全画素から個々に信号を読み出し、横40×縦40の画素からなる領域を1ブロックとして、横8×縦6のブロック毎に輝度値の平均値を算出する。つまり、画像を横8×縦6のブロックに分割し、分割されたブロック毎に輝度値の平均値を算出する。   In the present embodiment, the method of reading a signal (charge) from the AE sensor 107 is switched according to the subject brightness. When there is a certain subject luminance, all-pixel reading is performed to read out signals (charges) from all the pixels of the AE sensor 107. Specifically, signals are individually read from all the pixels, and an average value of luminance values is calculated for each block of 8 × 6 horizontal blocks, with an area composed of 40 × 40 pixels as one block. That is, the image is divided into horizontal 8 × vertical 6 blocks, and an average value of luminance values is calculated for each of the divided blocks.

これに対して、低輝度時には電荷加算を行ってAEセンサ107から信号を読み出す画素加算読み出しを行う。具体的には、横2×縦2の画素の信号を加算することにより、横160×縦120の画素群の信号を読み出した後、横20×縦20の画素群からなる領域を1ブロックとして、横8×縦6のブロック毎に輝度値の平均値を算出する。よって、ここでも、画像を横8×縦6のブロックに分割し、分割されたブロック毎に輝度値の平均値が算出される。   On the other hand, when the luminance is low, pixel addition reading is performed in which charge addition is performed and a signal is read from the AE sensor 107. Specifically, by adding signals of horizontal 2 × vertical 2 pixels to read out signals of horizontal 160 × vertical 120 pixel groups, an area composed of horizontal 20 × vertical 20 pixel groups is defined as one block. Then, the average value of the luminance values is calculated for each of the horizontal 8 × vertical 6 blocks. Therefore, also in this case, the image is divided into horizontal 8 × vertical 6 blocks, and an average luminance value is calculated for each of the divided blocks.

一方、メモリ102には、事前に準備されたシェーディング補正データと、ダーク補正用調整データと、クリップデータとが格納されている。シェーディング補正データは、レンズ群121等による光学系の周辺光量落ち補正用データであり、上述の横8×縦6のブロック毎にデータを圧縮して保持している。   On the other hand, the memory 102 stores shading correction data, dark correction adjustment data, and clip data prepared in advance. The shading correction data is data for correcting the peripheral light loss of the optical system by the lens group 121 and the like, and the data is compressed and held for each of the above described horizontal 8 × vertical 6 blocks.

ダーク補正用調整データは、AEセンサ107の固定パターンノイズと暗電流による固定パターンノイズを補正するための調整データであり、上述の横8×縦6のブロック毎にデータを保持している。なお、本実施形態において、「AEセンサ107の固定パターンノイズ」とは、暗電流による固定パターンノイズ以外の固定パターンノイズを指すものとする。   The adjustment data for dark correction is adjustment data for correcting the fixed pattern noise of the AE sensor 107 and the fixed pattern noise due to dark current, and holds data for each of the above described horizontal 8 × vertical 6 blocks. In the present embodiment, “fixed pattern noise of the AE sensor 107” refers to fixed pattern noise other than fixed pattern noise caused by dark current.

ダーク補正用調整データは、一例として、下記(1)〜(4)の駆動条件で暗中を撮像したときのブロック毎の輝度値の平均値DS1ij、DL1ij、DS2ij、DL2ijを、調整データとして保持する。ここで、“i”は横方向のブロックの番号で1〜8の値を取り、“j”は縦方向のブロックの番号1〜6の値を取る。   For example, the dark correction adjustment data holds, as adjustment data, average values DS1ij, DL1ij, DS2ij, and DL2ij of the luminance values for each block when the dark is imaged under the following driving conditions (1) to (4). . Here, “i” is a horizontal block number and takes a value of 1 to 8, and “j” takes a vertical block number of 1 to 6.

(1)全画素読み出し、温度K1、短時間蓄積TS1、ゲインG1
(2)全画素読み出し、温度K1、長時間蓄積TL1、ゲインG1
(3)4画素加算読み出し、温度K2、短時間蓄積TS2、ゲインG2
(4)4画素加算読み出し、温度K2、長時間蓄積TL2、ゲインG2
これらの調整データを用いて、AEセンサ107の駆動条件(画素加算方法、蓄積時間T、ゲインG)と温度Kにおける固定パターンノイズと暗電流による固定パターンノイズを算出し、補正する。
(1) All pixel readout, temperature K1, short-time accumulation TS1, gain G1
(2) All pixel readout, temperature K1, long-time accumulation TL1, gain G1
(3) 4-pixel addition readout, temperature K2, short-time accumulation TS2, gain G2
(4) 4-pixel addition readout, temperature K2, long-time accumulation TL2, gain G2
Using these adjustment data, the driving pattern of the AE sensor 107 (pixel addition method, accumulation time T, gain G), fixed pattern noise at temperature K, and fixed pattern noise due to dark current are calculated and corrected.

なお、AEセンサ107の固定パターンノイズは、AEセンサ107の面内のムラであり、蓄積時間Tと温度Kに依存せず、ほぼ一定であり、AEセンサ107の個体毎に異なる。全画素読み出し時と画素加算読み出し時のそれぞれにおける、ゲインGでの固定パターンノイズD1(1)ij,D2(1)ijはそれぞれ、下記式〔1〕,〔2〕により算出される。   Note that the fixed pattern noise of the AE sensor 107 is unevenness in the surface of the AE sensor 107, does not depend on the accumulation time T and the temperature K, is almost constant, and differs for each individual AE sensor 107. The fixed pattern noises D1 (1) ij and D2 (1) ij with the gain G at the time of all pixel readout and pixel addition readout are calculated by the following equations [1] and [2], respectively.

また、暗電流による固定パターンノイズは、AEセンサ107の駆動条件(画素加算方法、蓄積時間T、ゲインG)と温度Kとによって変化し、AEセンサ107の個体毎に異なる。全画素読み出し時と画素加算読み出し時のそれぞれにおける、蓄積時間T、ゲインG、温度Kでの暗電流による固定パターンノイズD1(2)ij,D2(2)ijはそれぞれ、下記式〔3〕,〔4〕により算出される。なお、“α”は温度係数であり、AEセンサ107の個体によらず、ほぼ一定の値を取る。   In addition, the fixed pattern noise due to the dark current varies depending on the driving conditions (pixel addition method, accumulation time T, gain G) of the AE sensor 107 and the temperature K, and is different for each AE sensor 107. The fixed pattern noises D1 (2) ij and D2 (2) ij due to the dark current at the accumulation time T, gain G, and temperature K at the time of all pixel readout and pixel addition readout are respectively expressed by the following equations [3], Calculated by [4]. “Α” is a temperature coefficient and takes a substantially constant value regardless of the individual AE sensor 107.

以上を纏めると、全画素読み出し時と画素加算読み出し時のそれぞれにおいて、蓄積時間T、ゲインG、温度Kにおけるダーク補正データD1ij,D2ijはそれぞれ、下記〔式5〕,〔式6〕により算出される。   In summary, the dark correction data D1ij and D2ij at the accumulation time T, the gain G, and the temperature K are calculated by the following [Equation 5] and [Equation 6] at the time of all pixel readout and pixel addition readout, respectively. The

Figure 0006590585
Figure 0006590585

クリップデータは、光ショットノイズを抑制するための補正データである。ブロック毎に算出された輝度値の平均値が小さい場合には、光ショットノイズによる露出値演算結果のばらつきが大きくなる。例えば、16カウントの測光出力値に光ショットノイズで最大±8カウントのばらつきがある場合には、測光結果に±約1段(=1EV)のばらつきが生じてしまう。そこで、光ショットノイズがある場合でも測光結果のばらつきが±1/3段以内となるようにクリップデータを用意する。例えば、39カウントの測光出力値に光ショットノイズで最大±8カウントのばらつきがある場合には、測光結果のばらつきは±1/3段以内となる。そのため、39カウント以下を39カウントにクリップすることにより、測光結果のばらつきを±1/3段以内に抑える。   Clip data is correction data for suppressing light shot noise. When the average value of luminance values calculated for each block is small, the variation in the exposure value calculation result due to light shot noise increases. For example, if the photometric output value of 16 counts has a maximum ± 8 count variation due to light shot noise, the photometric result will have a variation of ± about 1 stage (= 1 EV). Therefore, the clip data is prepared so that the variation in the photometric result is within ± 1/3 level even when there is optical shot noise. For example, when the photometric output value of 39 counts has a variation of ± 8 counts at maximum due to light shot noise, the variation of the photometric results is within ± 1/3 steps. Therefore, by clipping the 39 counts or less to 39 counts, variations in the photometric results are suppressed to within ± 1/3 steps.

また、本実施形態では、ゲインGと温度Kの少なくとも一方に応じて光ショットノイズが変わる場合に、各条件に応じてクリップデータを変える。全画素読み出し時と画素加算読み出し時のそれぞれにおける、ゲインG、温度KでのクリップデータC1,C2はそれぞれ、下記〔式7〕,〔式8〕により求められる。   In the present embodiment, when the light shot noise changes according to at least one of the gain G and the temperature K, the clip data is changed according to each condition. Clip data C1 and C2 at gain G and temperature K at the time of all pixel readout and pixel addition readout are obtained by the following [Equation 7] and [Equation 8], respectively.

なお、“CS1”は全画素読み出し、ゲインGS1、温度KS1のときに、測光結果のばらつきが±1/3段以内となる出力である。“CS2”は、画素加算読み出し、ゲインGS2、温度KS2のときに、測光結果のばらつきが±1/3段以内となる出力である。“β”は、温度係数であり、AEセンサ107の個体によらず、ほぼ一定の値を取る。以上が事前に準備するデータとなる。   Note that “CS1” is an output in which the variation in the photometric result is within ± 1/3 stage when all the pixels are read, the gain GS1, and the temperature KS1. “CS2” is an output in which the variation in the photometric result is within ± 1/3 stage in the case of pixel addition reading, gain GS2, and temperature KS2. “Β” is a temperature coefficient and takes a substantially constant value regardless of the individual AE sensor 107. The above is data prepared in advance.

Figure 0006590585
Figure 0006590585

次に、ステップS102のAE処理について、より詳細に説明する。図3は、ステップS102のAE処理で実行するAE処理の内容を決定するための処理のフローチャートである。ステップS201においてCPU101は、ステップS101でスイッチSW1がオンとなった後にステップS102のAE処理を初めて行うか、スイッチSW1がオンとなった後にステップS102のAE処理を行ったことがあるかを判定する。CPU101は、ステップS102のAE処理を初めて行う場合(S201でYES)、処理をステップS203へ進め、ステップS102のAE処理を行ったことがある場合(S201でNO)、処理をステップS202へ進める。   Next, the AE process in step S102 will be described in more detail. FIG. 3 is a flowchart of a process for determining the content of the AE process executed in the AE process of step S102. In step S201, the CPU 101 determines whether the AE process in step S102 is performed for the first time after the switch SW1 is turned on in step S101, or whether the AE process in step S102 has been performed after the switch SW1 is turned on. . When the CPU 101 performs the AE process of step S102 for the first time (YES in S201), the process proceeds to step S203, and when the AE process of step S102 has been performed (NO in S201), the process proceeds to step S202.

ステップS202においてCPU101は、スイッチSW1がオンされたことで実行される測光結果に基づいて、被写体像が低輝度か否かを判定する。ここでの判定は、顔検知等の被写体認識演算が可能な出力がAEセンサ107から得られていない場合に、低輝度であると判定するものとする。CPU101は、低輝度ではない場合(S201でNO)、処理をステップS203へ進め、低輝度である場合(S201でYES)、処理をステップS204へ進める。   In step S202, the CPU 101 determines whether or not the subject image has low luminance based on the photometric result that is executed when the switch SW1 is turned on. In this determination, it is determined that the luminance is low when an output capable of subject recognition calculation such as face detection is not obtained from the AE sensor 107. If the CPU 101 does not have low brightness (NO in S201), the process proceeds to step S203. If the brightness is low (YES in S201), the process proceeds to step S204.

ステップS203においてCPU101は、第1のAE処理による被写体認識演算と露出値演算を行う。一方、ステップS204においてCPU101は、第2のAE処理による露出値演算を行う。このように、本実施形態では、被写体像が低輝度か否かに応じて露出制御方法を切り替える。なお、ステップS203,S204のそれぞれで実行される処理の内容については、図4,5を参照して後述する。   In step S203, the CPU 101 performs subject recognition calculation and exposure value calculation by the first AE process. On the other hand, in step S204, the CPU 101 performs an exposure value calculation by the second AE process. Thus, in this embodiment, the exposure control method is switched according to whether or not the subject image has low luminance. The contents of the processes executed in steps S203 and S204 will be described later with reference to FIGS.

ステップS203,S204の後、処理はステップS205へ進められる。ステップS205においてCPU101は、ステップS201と同様に、スイッチSW1がオンとなった後にステップS102のAE処理を初めて行うか、スイッチSW1がオンとなった後にステップS102のAE処理を行ったことがあるかを判定する。CPU101は、ステップS102のAE処理を初めて行う場合(S205でYES)、処理をステップS202へ戻し、ステップS102のAE処理を行ったことがある場合(S205でNO)、本処理を終了させる。ステップS205の処理を行うことにより、低輝度時に第2のAE処理を行うことで、正確な露出値演算を行うことができる。なお、CPU101は、ステップS101でスイッチSW1がオフとなった場合とステップS105での本撮影終了後に、ステップS201,S205で用いるステップS102のAE処理を初めて行ったか否かの判定情報をリセットする。   After steps S203 and S204, the process proceeds to step S205. In step S205, as in step S201, the CPU 101 performs the AE process of step S102 for the first time after the switch SW1 is turned on, or has the AE process of step S102 been performed after the switch SW1 is turned on? Determine. When the CPU 101 performs the AE process in step S102 for the first time (YES in S205), the process returns to step S202. When the AE process in step S102 has been performed (NO in S205), the CPU 101 ends the process. By performing the process of step S205, an accurate exposure value calculation can be performed by performing the second AE process at low luminance. Note that the CPU 101 resets the determination information as to whether or not the AE process of step S102 used in steps S201 and S205 has been performed for the first time when the switch SW1 is turned off in step S101 and after the completion of the main photographing in step S105.

図4は、第1のAE処理(ステップS203)の詳細を示すフローチャートである。第1のAE処理では、被写体認識演算を行うためにシェーディング補正を行う。このとき、シェーディング補正を行うことで、光ショットノイズと暗電流による固定パターンノイズが増加し、特に周辺光量落ちが大きい画像周辺部でノイズの増加が大きくなる。そこで、第1のAE処理では、後述する測光出力値Yにおけるノイズ増加を抑制するために、ブロック毎のダーク補正データとクリップデータのそれぞれにシェーディング補正データを乗算して、ブロック毎に第1のダーク補正データとクリップデータを作成する。   FIG. 4 is a flowchart showing details of the first AE process (step S203). In the first AE process, shading correction is performed to perform subject recognition calculation. At this time, by performing the shading correction, the fixed pattern noise due to the light shot noise and the dark current increases, and the increase in noise increases particularly in the image peripheral portion where the peripheral light amount drop is large. Therefore, in the first AE process, in order to suppress an increase in noise in the photometric output value Y described later, the dark correction data and the clip data for each block are multiplied by the shading correction data, and the first AE process is performed for each block. Create dark correction data and clip data.

ステップS301〜S304では、事前に準備したデータを用いて補正データが算出される。具体的には、ステップS301においてCPU101は、横8×縦6のブロック毎に圧縮されているシェーディング補正データから、横320×縦240の画素単位に拡大した画素毎のシェーディング補正データを作成する。続く、ステップS302においてCPU101は、ダーク補正データ作成手段として働き、横8×縦6のブロック毎にダーク補正データを作成する。ここでは、AEセンサ107の駆動方法(蓄積時間、ゲイン)と温度に応じて、上記式〔5〕によりブロック毎のダーク補正データを算出する。   In steps S301 to S304, correction data is calculated using data prepared in advance. Specifically, in step S <b> 301, the CPU 101 creates shading correction data for each pixel that has been expanded to a horizontal 320 × vertical 240 pixel unit from the shading correction data compressed for each horizontal 8 × vertical 6 block. In step S302, the CPU 101 functions as dark correction data creation means, and creates dark correction data for each of horizontal 8 × vertical 6 blocks. Here, dark correction data for each block is calculated by the above equation [5] according to the driving method (accumulation time, gain) and temperature of the AE sensor 107.

ステップS303においてCPU101は、後のステップS309での第1のダーク補正処理で用いるブロック毎の第1のダーク補正データを作成する。第1のダーク補正データは、ステップS302で算出したブロック毎のダーク補正データと、ステップS301で作成したブロック毎のシェーディング補正データとの乗算により算出される。続いて、ステップS304においてCPU101は、クリップデータ作成手段として働き、後のステップS310での第1のクリップ処理で用いるブロック毎のクリップデータを作成する。ブロック毎のクリップデータは、上記式〔7〕により算出されるクリップデータC1と、ステップS301で用いたブロック毎のシェーディング補正データとの乗算により算出される。   In step S303, the CPU 101 creates first dark correction data for each block used in the first dark correction processing in the subsequent step S309. The first dark correction data is calculated by multiplying the dark correction data for each block calculated in step S302 and the shading correction data for each block created in step S301. Subsequently, in step S304, the CPU 101 functions as clip data creation means, and creates clip data for each block used in the first clip processing in later step S310. The clip data for each block is calculated by multiplying the clip data C1 calculated by the above equation [7] and the shading correction data for each block used in step S301.

次に、ステップS305〜S311では、画像(被写体像)の取得と、ステップS301〜S304で生成した各種補正データを用いた被写体認識演算と測光処理を行う。具体的には、ステップS305において、CPU101は、AEセンサ107の電荷蓄積と電荷読み出しを行い、横320×縦240の画素からなる被写体像の第1の画像データを生成し、メモリ102に保持する。このように、CPU101及びAEセンサ107は、画像データ生成手段として働く。   Next, in steps S305 to S311, an image (subject image) is acquired, and subject recognition calculation and photometry processing using the various correction data generated in steps S301 to S304 are performed. Specifically, in step S <b> 305, the CPU 101 performs charge accumulation and charge read of the AE sensor 107, generates first image data of a subject image composed of horizontal 320 × vertical 240 pixels, and stores the first image data in the memory 102. . As described above, the CPU 101 and the AE sensor 107 function as image data generation means.

続くステップS306においてCPU101は、レンズ群121等による光学系の周辺光量落ちを補正するための第1のシェーディング補正を行う。第1のシェーディング補正は、ステップS301で作成した画素毎のシェーディング補正データをステップS305で生成した第1の画像データに乗算することにより行われる。   In subsequent step S306, the CPU 101 performs a first shading correction for correcting a peripheral light amount drop of the optical system by the lens group 121 and the like. The first shading correction is performed by multiplying the first image data generated in step S305 by the shading correction data for each pixel generated in step S301.

その後、ステップS307においてCPU101は、ステップS306で生成した第1のシェーディング補正後の画像データを用いて、周知の被写体認識演算を行う。被写体認識演算では、被写界を照射する光源を判定する光源判定演算(AWB)や肌色等の特徴色を抽出する特徴色抽出演算、被写体をブロックマッチング等の手法で追尾する被写体追尾演算、顔等の特徴領域を抽出する顔検知演算等が行われる。   Thereafter, in step S307, the CPU 101 performs a well-known subject recognition calculation using the image data after the first shading correction generated in step S306. In the subject recognition calculation, a light source determination calculation (AWB) for determining a light source that illuminates the object scene, a feature color extraction calculation for extracting a feature color such as skin color, a subject tracking calculation for tracking a subject by a method such as block matching, a face A face detection calculation or the like for extracting a feature region such as is performed.

なお、被写体認識演算で実行される各種の処理には周知の技術を用いることができるため、その詳細についての説明は省略する。また、この時点では、光ショットノイズ、固定パターンノイズと暗電流による固定パターンノイズが残っているが、第1の画像データを用いた被写体認識演算は可能であるため、ダーク補正を行わなくとも、被写体認識演算の精度は低下しない。   It should be noted that well-known techniques can be used for the various types of processing executed in the subject recognition calculation, and a detailed description thereof will be omitted. At this time, light shot noise, fixed pattern noise, and fixed pattern noise due to dark current remain, but subject recognition calculation using the first image data is possible, so without performing dark correction, The accuracy of subject recognition calculation does not decrease.

続いて、ステップS308においてCPU101は、ステップS306で生成した第1のシェーディング補正後の画像データを用いて、縦40×横40の画素からなる領域を1ブロックとし、横8×縦6のブロック毎に輝度値の平均値を算出し、測光出力値Yとする。そして、ステップS309においてCPU101は、ステップS308において生成したブロック毎の測光出力値Yに対してステップS303で算出した第1のダーク補正データを適用して第1のダーク補正を行う。   Subsequently, in step S308, the CPU 101 uses the image data after the first shading correction generated in step S306 as one block of an area composed of pixels of 40 × 40 pixels, and each block of 8 × 6 blocks. Then, the average value of the luminance values is calculated as a photometric output value Y. In step S309, the CPU 101 performs the first dark correction by applying the first dark correction data calculated in step S303 to the photometric output value Y for each block generated in step S308.

なお、ステップS306で生成される第1のシェーディング補正後の画像データでは、固定パターンノイズ及び暗電流による固定パターンノイズにもシェーディング補正のゲインが掛かっている。そのため、周辺光量落ちが大きい画像周辺のブロックで、これらの固定パターンノイズが増加する。一方、ステップS303で算出した第1のダーク補正データは、固定パターンノイズ及び暗電流による固定パターンノイズを補正するダーク補正データ及びシェーディング補正データを乗算したものである。よって、第1のダーク補正データによる補正を行うことにより、シェーディング補正により増加したノイズを抑制することができる。   Note that in the image data after the first shading correction generated in step S306, the shading correction gain is also applied to the fixed pattern noise and the fixed pattern noise due to the dark current. Therefore, these fixed pattern noises increase in blocks around the image where the peripheral light amount drop is large. On the other hand, the first dark correction data calculated in step S303 is obtained by multiplying the dark correction data and the shading correction data for correcting the fixed pattern noise and the fixed pattern noise caused by the dark current. Therefore, the noise increased by the shading correction can be suppressed by performing the correction using the first dark correction data.

ステップS310においてCPU101は、ステップS309で生成した第1のダーク補正後のブロック毎の測光出力値Yを、ステップS304で算出したブロック毎のクリップデータを用いてクリップする第1のクリップ処理を行う。これは、以下の理由による。即ち、ステップS306で生成された第1のシェーディング補正後の画像データでは、光ショットノイズにもシェーディング補正のゲインが掛かっているため、周辺光量落ちが大きい画像周辺のブロックでのノイズが大きくなり、測光出力値Yのばらつきが大きくなる。ここで、ステップS304で算出したブロック毎のクリップデータは、測光出力値Yのばらつきを抑制するクリップデータにシェーディング補正データを乗算したものである。よって、ステップS304で算出したブロック毎のクリップデータを用いた補正を行うことにより、シェーディング補正で増加した光ショットノイズを抑えることができる。   In step S310, the CPU 101 performs first clip processing for clipping the photometric output value Y for each block after the first dark correction generated in step S309 using the clip data for each block calculated in step S304. This is due to the following reason. That is, in the image data after the first shading correction generated in step S306, since the shading correction gain is also applied to the light shot noise, the noise in the block around the image where the peripheral light amount drop is large increases. Variation in the photometric output value Y increases. Here, the clip data for each block calculated in step S304 is obtained by multiplying the clip data for suppressing the variation in the photometric output value Y by the shading correction data. Therefore, the light shot noise increased by the shading correction can be suppressed by performing the correction using the clip data for each block calculated in step S304.

ステップS311においてCPU101は、ステップS310で生成したクリップ処理後のブロック毎の測光出力値Yと露出制御値用の重み付け係数kとの加重平均値Ywを、下記式〔9〕により算出する。そして、CPU101は、算出した加重平均値Yw、蓄積時間等から得られる被写体輝度に基づいて、本撮影時の露出制御値(シャッタ速度、絞り値、感度等)を算出する露出値演算を行う。下記式〔9〕において、“Yij”と“kij”はそれぞれ、ブロック毎の測光出力値Yと重み付け係数kを示しており、“i”は横方向のブロックの番号で1〜8の値を取り、“j”は縦方向のブロックの番号1〜6の値を取る。   In step S311, the CPU 101 calculates a weighted average value Yw of the photometric output value Y for each block after the clipping process generated in step S310 and the weighting coefficient k for the exposure control value by the following equation [9]. Then, the CPU 101 performs an exposure value calculation for calculating an exposure control value (shutter speed, aperture value, sensitivity, etc.) at the time of actual photographing based on the calculated weighted average value Yw, the subject brightness obtained from the accumulation time, and the like. In the following equation [9], “Yij” and “kij” indicate the photometric output value Y and the weighting coefficient k for each block, and “i” is a horizontal block number that is a value from 1 to 8. “J” takes the values of numbers 1 to 6 of the vertical blocks.

Figure 0006590585
Figure 0006590585

なお、重み付け係数は、デジタルカメラ100の撮像モードや測光モード、撮影シーン等に応じて、複数の測光エリアの各測光出力値に対する重み付けを変えるための係数である。例えば、測光モードが中央重点測光モードであれば、画像周辺付近に対する重み付け係数よりも画像中央付近の測光エリアに対する重み付け係数を大きくする。また、デジタルカメラ100が特徴領域検出機能を有する場合、特徴領域検出機能を用いる撮像モードでは特徴領域に対応する測光エリアに対する重み付け係数を、他の測光エリアに対する重み付け係数よりも大きくする。更に、デジタルカメラ100が、被写界状況に応じてどのような撮影シーンかを自動判別するシーン判別機能を有する場合、判別されたシーンに最適な重み付け係数が各測光エリアに対して設定される。重み付け係数そのものは、本実施形態に係るノイズ増加を抑制する補正とは直接の関係はなく、そのため、これ以上の説明は省略する。また、露出制御値の決定方法は、本実施形態に係るノイズ増加を抑制する補正とは直接の関係はなく、周知の技術を用いることができるため、その説明を省略する。   The weighting coefficient is a coefficient for changing the weighting for each photometric output value in a plurality of photometric areas according to the imaging mode, photometric mode, shooting scene, etc. of the digital camera 100. For example, if the photometry mode is the center-weighted photometry mode, the weighting coefficient for the photometry area near the center of the image is set larger than the weighting coefficient for the vicinity of the image. Further, when the digital camera 100 has a feature area detection function, in the imaging mode using the feature area detection function, the weighting coefficient for the photometry area corresponding to the feature area is set larger than the weighting coefficients for the other photometry areas. Further, when the digital camera 100 has a scene discrimination function for automatically discriminating what kind of shooting scene is in accordance with the object scene situation, an optimal weighting coefficient for each discriminated scene is set for each photometric area. . The weighting coefficient itself is not directly related to the correction for suppressing an increase in noise according to the present embodiment, and thus further description thereof is omitted. Further, the method for determining the exposure control value is not directly related to the correction for suppressing the increase in noise according to the present embodiment, and a well-known technique can be used.

上述したように、ステップS203の第1のAE処理では、ブロック毎に第1のダーク補正データとクリップデータを作成し、シェーディング補正により増加したノイズを抑制した。しかし、ステップS301におけるシェーディング補正データの拡大によって生じた誤差等を完全に除去することはできず、補正後に残るノイズが測光出力値Yの精度に影響を与えるおそれがある。そこで、低輝度時のAE処理(ステップS204)では、画素毎のシェーディング補正を行わず、ブロック毎にダーク補正とクリップ処理を行った後にシェーディング補正を行うこととし、以下に詳細に説明する。   As described above, in the first AE process of step S203, the first dark correction data and clip data are created for each block, and the noise increased by the shading correction is suppressed. However, an error or the like caused by the expansion of the shading correction data in step S301 cannot be completely removed, and noise remaining after correction may affect the accuracy of the photometric output value Y. Therefore, in the AE process at the time of low luminance (step S204), shading correction is not performed for each pixel, but shading correction is performed after performing dark correction and clip processing for each block, which will be described in detail below.

図5は、第2のAE処理(ステップS204)のフローチャートである。ステップS401においてCPU101は、事前に準備したデータを用いて、ブロック毎にダーク補正データを作成する。具体的には、AEセンサ107の駆動方法(蓄積時間、ゲイン)と温度に応じて、上記式〔6〕によりブロック毎のダーク補正データを算出する。   FIG. 5 is a flowchart of the second AE process (step S204). In step S401, the CPU 101 creates dark correction data for each block using data prepared in advance. Specifically, dark correction data for each block is calculated by the above equation [6] according to the driving method (accumulation time, gain) and temperature of the AE sensor 107.

続くステップS402〜S407では、撮像(画像取得)と、ステップS401で生成したダーク補正データを用いた露出値演算を行う。即ち、ステップS402においてCPU101は、AEセンサ107の電荷蓄積と電荷読み出しを横2×縦2の4画素からの出力を加算することによって行い、横160×縦120の画素群からの出力を第2の画像データとしてメモリ102に保持する。続くステップS403においてCPU101は、ステップS402で生成した第2の画像データを用い、縦20×横20の画素群からなる領域を1ブロックとし、横8×縦6の各ブロックについて測光出力値Yを算出する。   In subsequent steps S402 to S407, imaging (image acquisition) and exposure value calculation using the dark correction data generated in step S401 are performed. That is, in step S402, the CPU 101 performs charge accumulation and charge reading of the AE sensor 107 by adding outputs from 4 pixels of 2 × 2 pixels, and outputs a second pixel group of 160 × 120 pixels to the second. Is stored in the memory 102 as image data. In the subsequent step S403, the CPU 101 uses the second image data generated in step S402, sets an area composed of 20 × 20 pixels as one block, and sets a photometric output value Y for each of the 8 × 6 blocks. calculate.

ステップS404においてCPU101は、48個のブロック毎に第2のダーク補正を行う。第2のダーク補正では、ステップS403で生成したブロック毎の測光出力値Yに、ステップS401で算出したブロック毎のダーク補正データを適用することにより、固定パターンノイズと暗電流による固定パターンノイズを補正する。続くステップS405においてCPU101は、ステップS404による第2のダーク補正後のブロック毎の測光出力値Yに対して、上記式〔8〕により算出されるクリップデータC2でクリップする第2のクリップ処理を行う。   In step S404, the CPU 101 performs the second dark correction every 48 blocks. In the second dark correction, the fixed pattern noise and the fixed pattern noise due to the dark current are corrected by applying the dark correction data for each block calculated in step S401 to the photometric output value Y for each block generated in step S403. To do. In the subsequent step S405, the CPU 101 performs a second clip process for clipping the photometric output value Y for each block after the second dark correction in step S404 with the clip data C2 calculated by the above equation [8]. .

続いて、ステップS406においてCPU101は、ステップS405で生成したクリップ処理後のブロック毎の測光出力値Yに対して事前に準備したシェーディング補正データを乗算することにより、第2のシェーディング補正を行う。こうして、第2のAE処理では、ブロック毎のシェーディング補正データの画素毎への拡大を行わないため、シェーディング補正データの拡大を行う場合に発生する誤差の影響をなくすことができる。   Subsequently, in step S406, the CPU 101 performs the second shading correction by multiplying the shading correction data prepared in advance by the photometric output value Y for each block after the clipping process generated in step S405. Thus, in the second AE process, since the shading correction data for each block is not enlarged for each pixel, it is possible to eliminate the influence of errors that occur when the shading correction data is enlarged.

次いで、ステップS407においてCPU101は、ステップS311と同様に、加重平均値Ywを算出し、加重平均値YwとAEセンサ107における電荷の蓄積時間等から得られる被写体輝度に基づいて、本撮影時の露出制御値を算出する。こうして、ダーク補正処理の回路規模を大きくすることなく、露出値演算を適切且つ迅速に行うことが可能となる。   Next, in step S407, as in step S311, the CPU 101 calculates the weighted average value Yw, and based on the subject luminance obtained from the weighted average value Yw and the charge accumulation time in the AE sensor 107, the exposure at the time of actual photographing is performed. Calculate the control value. Thus, the exposure value calculation can be performed appropriately and quickly without increasing the circuit scale of the dark correction processing.

以上、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。例えば、上記実施形態では、露出値演算や被写体認識演算はCPU101が行うとしたが、これらの演算を行う処理回路をAEセンサ107に付加し、CPU101の制御下で、上述した第1のAE処理や第2のAE処理が行われる構成としてもよい。   Although the present invention has been described in detail based on preferred embodiments thereof, the present invention is not limited to these specific embodiments, and various forms within the scope of the present invention are also included in the present invention. included. For example, in the above embodiment, the CPU 101 performs the exposure value calculation and the subject recognition calculation. However, a processing circuit for performing these calculations is added to the AE sensor 107, and the first AE process described above is controlled under the control of the CPU 101. Alternatively, the second AE process may be performed.

100 デジタルカメラ(撮像装置)
101 CPU
102 メモリ
103 撮影用撮像素子
107 AEセンサ
100 Digital camera (imaging device)
101 CPU
102 Memory 103 Image sensor for photographing 107 AE sensor

Claims (14)

撮像素子を用いて被写体に対する測光と画像データの生成を行う画像データ生成手段と、
周辺光量落ちを補正するためのシェーディング補正データを用いて画像データに対してシェーディング補正を行うシェーディング補正手段と、
前記画像データ生成手段が生成した画像を複数のブロックに分割したブロック毎に輝度値の平均値を算出する算出手段と、
前記平均値のばらつきを抑制するためのクリップデータと前記シェーディング補正データとから前記ブロック毎にクリップデータを作成するクリップデータ作成手段と、
前記算出手段により算出された前記ブロック毎の輝度値の平均値を前記ブロック毎のクリップデータを用いてクリップするクリップ処理手段と、
前記クリップ処理手段によるクリップが行われた後の画像データを用いて露出値を演算する露出値演算手段と、を備えることを特徴とする撮像装置。
Image data generation means for performing photometry and image data generation on a subject using an image sensor;
Shading correction means for performing shading correction on the image data using the shading correction data for correcting peripheral light loss, and
Calculating means for calculating an average value of luminance values for each block obtained by dividing the image generated by the image data generating means into a plurality of blocks;
Clip data creating means for creating clip data for each block from the clip data for suppressing variation in the average value and the shading correction data;
Clip processing means for clipping an average value of the luminance values for each block calculated by the calculation means using clip data for each block;
An image pickup apparatus comprising: an exposure value calculation unit that calculates an exposure value using image data after clipping by the clip processing unit.
前記クリップデータ作成手段は、前記ブロック毎のクリップデータを、前記撮像素子の画素加算方法、ゲイン、温度の少なくとも1つに応じて算出することを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the clip data creating unit calculates the clip data for each block according to at least one of a pixel addition method, a gain, and a temperature of the imaging element. 前記シェーディング補正が行われた後の画像データを用いて被写体認識を行う被写体認識手段と、
前記撮像素子からの出力に基づき前記被写体が低輝度か否かを判定する判定手段と、
前記判定手段が低輝度でないと判定したときに第1のAE処理を行い、前記判定手段が低輝度であると判定したときに第2のAE処理を行う制御手段と、を備え、
前記制御手段は、前記第1のAE処理では、前記撮像素子からの全画素読み出しによる画像データの生成を行うと共に、前記被写体認識手段による被写体認識を行い、前記第2のAE処理では、前記撮像素子からの画素加算読み出しによる画像データの生成を行い、前記被写体認識手段による前記被写体認識を行わないことを特徴とする請求項1又は2に記載の撮像装置。
Subject recognition means for performing subject recognition using the image data after the shading correction is performed;
Determination means for determining whether or not the subject has low luminance based on an output from the image sensor;
The determination means performs a first AE processing when it is judged that no low brightness, and a control means for performing a second AE processing when the determination means determines that the low intensity,
In the first AE process, the control unit generates image data by reading all pixels from the image sensor, and performs subject recognition by the subject recognition unit. In the second AE process, the imaging unit The imaging apparatus according to claim 1, wherein image data is generated by pixel addition reading from an element, and the subject recognition by the subject recognition unit is not performed.
前記シェーディング補正手段は、前記第1のAE処理では、前記撮像素子の全画素読み出しによる画像データに前記シェーディング補正データとして画素毎のシェーディング補正データを乗算することによりシェーディング補正を行い、前記第2のAE処理では、前記撮像素子の画素加算読み出しによる画像データに前記シェーディング補正データとして前記ブロック毎のシェーディング補正データを乗算することによりシェーディング補正を行うことを特徴とする請求項3に記載の撮像装置。   In the first AE process, the shading correction unit performs shading correction by multiplying image data obtained by reading all pixels of the image sensor by shading correction data for each pixel as the shading correction data, and the second AE process. The imaging apparatus according to claim 3, wherein in the AE processing, shading correction is performed by multiplying image data obtained by pixel addition reading of the imaging element by the shading correction data for each block as the shading correction data. 前記画素毎のシェーディング補正データは、前記ブロック毎のシェーディング補正データを画素単位に拡大したものであることを特徴とする請求項4に記載の撮像装置。   The imaging apparatus according to claim 4, wherein the shading correction data for each pixel is obtained by expanding the shading correction data for each block in units of pixels. 前記シェーディング補正手段は、前記第1のAE処理では、前記クリップが行われる前の画像データに対してシェーディング補正を施し、前記第2のAE処理では、前記クリップが行われた後の画像データに対してシェーディング補正を施すことを特徴とする請求項4又は5に記載の撮像装置。   In the first AE process, the shading correction means performs shading correction on the image data before the clip is performed, and in the second AE process, the image data after the clip is performed on the image data. 6. The imaging apparatus according to claim 4, wherein shading correction is performed on the imaging apparatus. 前記ブロック毎にダーク補正データを作成するダーク補正データ作成手段と、
前記算出手段により算出された前記ブロック毎の輝度値の平均値に、前記ブロック毎のダーク補正データと前記ブロック毎のシェーディング補正データとを適用してダーク補正を行うダーク補正手段と、を備え、
前記露出値演算手段が前記露出値を演算するために用いる画像データは、更に前記ダーク補正手段によるダーク補正が行われた後の画像データであることを特徴とする請求項3乃至6のいずれか1項に記載の撮像装置。
Dark correction data creating means for creating dark correction data for each block;
Dark correction means for performing dark correction by applying the dark correction data for each block and the shading correction data for each block to the average value of the luminance values for each block calculated by the calculation means,
7. The image data used by the exposure value calculation unit to calculate the exposure value is image data after dark correction is further performed by the dark correction unit. The imaging apparatus according to item 1.
撮像素子を用いて被写体に対する測光と画像データの生成を行う画像データ生成手段と、
周辺光量落ちを補正するためのシェーディング補正データを用いて画像データに対してシェーディング補正を行うシェーディング補正手段と、
前記画像データ生成手段が生成した画像を複数のブロックに分割したブロック毎に輝度値の平均値を算出する算出手段と、
前記複数のブロック毎にダーク補正データを作成するダーク補正データ作成手段と、
前記算出手段により算出された前記ブロック毎の輝度値の平均値に、前記ブロック毎のダーク補正データと前記ブロック毎のシェーディング補正データとを適用してダーク補正を行うダーク補正手段と、
前記ダーク補正手段によるダーク補正が行われた後の画像データを用いて露出値を演算する露出値演算手段と、を備えることを特徴とする撮像装置。
Image data generation means for performing photometry and image data generation on a subject using an image sensor;
Shading correction means for performing shading correction on the image data using the shading correction data for correcting peripheral light loss, and
Calculating means for calculating an average value of luminance values for each block obtained by dividing the image generated by the image data generating means into a plurality of blocks;
Dark correction data creating means for creating dark correction data for each of the plurality of blocks;
Dark correction means for performing dark correction by applying dark correction data for each block and shading correction data for each block to the average value of the luminance values for each block calculated by the calculation means;
An image pickup apparatus comprising: an exposure value calculation unit that calculates an exposure value using image data after dark correction is performed by the dark correction unit.
前記ダーク補正データ作成手段は、前記ブロック毎のダーク補正データを、前記撮像素子の画素加算方法、ゲイン、温度の少なくとも1つに応じて算出することを特徴とする請求項8に記載の撮像装置。   The imaging apparatus according to claim 8, wherein the dark correction data creating unit calculates dark correction data for each block according to at least one of a pixel addition method, a gain, and a temperature of the imaging element. . 前記シェーディング補正が行われた後の画像データを用いて被写体認識演算を行う被写体認識手段と、
前記撮像素子からの出力に基づき前記被写体が低輝度か否かを判定する判定手段と、
前記判定手段が低輝度でないと判定したときに第1のAE処理を行い、前記判定手段が低輝度であると判定したときに第2のAE処理を行う制御手段と、を備え、
前記制御手段は、前記第1のAE処理では、前記撮像素子からの全画素読み出しによる画像データの生成を行うと共に、前記被写体認識手段による被写体認識を行い、前記第2のAE処理では、前記撮像素子からの画素加算読み出しによる画像データの生成を行い、前記被写体認識手段による前記被写体認識を行わないことを特徴とする請求項8又は9に記載の撮像装置。
Subject recognition means for performing subject recognition calculation using the image data after the shading correction is performed;
Determination means for determining whether or not the subject has low luminance based on an output from the image sensor;
The determination means performs a first AE processing when it is judged that no low brightness, and a control means for performing a second AE processing when the determination means determines that the low intensity,
In the first AE process, the control unit generates image data by reading all pixels from the image sensor, and performs subject recognition by the subject recognition unit. In the second AE process, the imaging unit The image pickup apparatus according to claim 8 or 9, wherein image data is generated by pixel addition reading from an element, and the subject recognition by the subject recognition means is not performed.
前記シェーディング補正手段は、前記第1のAE処理では、更に前記ダーク補正手段によるダーク補正を行う前の画像データに対してシェーディング補正を施し、前記第2のAE処理では、更に前記ダーク補正手段によるダーク補正が行われた後の画像データに対してシェーディング補正を施すことを特徴とする請求項7又は10に記載の撮像装置。   In the first AE process, the shading correction unit further performs shading correction on image data before dark correction by the dark correction unit, and in the second AE process, further by the dark correction unit. 11. The imaging apparatus according to claim 7, wherein shading correction is performed on the image data after dark correction is performed. 前記被写体認識手段は、顔検知、被写体追尾、光源判定、特徴色抽出の少なくとも1つを行うことを特徴とする請求項3乃至7、10又は11に記載の撮像装置。   The imaging apparatus according to claim 3, wherein the subject recognition unit performs at least one of face detection, subject tracking, light source determination, and feature color extraction. 撮像素子を用いて被写体に対する測光と撮像を行うステップと、
前記撮像により得られた画像に対して周辺光量落ちを補正するためのシェーディング補正データを用いて画像データに対してシェーディング補正を行うステップと、
前記撮像により得られた画像を複数のブロックに分割し、ブロック毎に輝度値の平均値を算出するステップと、
前記平均値のばらつきを抑制するためのクリップデータと前記シェーディング補正データとから前記ブロック毎にクリップデータを作成するステップと、
前記ブロック毎の輝度値の平均値を前記ブロック毎のクリップデータを用いてクリップするステップと、
前記クリップデータによるクリップが行われた後の画像データを用いて露出値を演算するステップと、を有することを特徴とする露出制御方法。
Performing photometry and imaging on a subject using an imaging device;
Performing shading correction on image data using shading correction data for correcting a marginal light loss for an image obtained by the imaging;
Dividing an image obtained by the imaging into a plurality of blocks, and calculating an average value of luminance values for each block;
Creating clip data for each block from clip data for suppressing variation in the average value and the shading correction data;
Clipping the average value of the luminance value for each block using the clip data for each block;
And a step of calculating an exposure value using image data after the clip data is clipped.
撮像素子を用いて被写体に対する測光と撮像を行うステップと、
前記撮像により得られた画像に対して周辺光量落ちを補正するためのシェーディング補正データを用いて画像データに対してシェーディング補正を行うステップと、
前記撮像により得られた画像を複数のブロックに分割し、ブロック毎に輝度値の平均値を算出するステップと、
前記複数のブロック毎にダーク補正データを作成するステップと、
前記ブロック毎の輝度値の平均値に、前記ブロック毎のダーク補正データと前記ブロック毎のシェーディング補正データとを適用してダーク補正を行うダーク補正手段と、
前記ダーク補正が行われた後の画像データを用いて露出値を演算するステップと、を有することを特徴とする露出制御方法。
Performing photometry and imaging on a subject using an imaging device;
Performing shading correction on image data using shading correction data for correcting a marginal light loss for an image obtained by the imaging;
Dividing an image obtained by the imaging into a plurality of blocks, and calculating an average value of luminance values for each block;
Creating dark correction data for each of the plurality of blocks;
Dark correction means for performing dark correction by applying dark correction data for each block and shading correction data for each block to the average value of luminance values for each block;
And a step of calculating an exposure value using the image data after the dark correction is performed.
JP2015162691A 2015-08-20 2015-08-20 Imaging apparatus and exposure control method Expired - Fee Related JP6590585B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015162691A JP6590585B2 (en) 2015-08-20 2015-08-20 Imaging apparatus and exposure control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015162691A JP6590585B2 (en) 2015-08-20 2015-08-20 Imaging apparatus and exposure control method

Publications (2)

Publication Number Publication Date
JP2017041779A JP2017041779A (en) 2017-02-23
JP6590585B2 true JP6590585B2 (en) 2019-10-16

Family

ID=58203638

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015162691A Expired - Fee Related JP6590585B2 (en) 2015-08-20 2015-08-20 Imaging apparatus and exposure control method

Country Status (1)

Country Link
JP (1) JP6590585B2 (en)

Also Published As

Publication number Publication date
JP2017041779A (en) 2017-02-23

Similar Documents

Publication Publication Date Title
US8289441B2 (en) Imaging apparatus and imaging control method
US9451150B2 (en) Image capturing apparatus comprising focus detection, and method for controlling the same
US8094211B2 (en) Method and apparatus for obtaining image using entropy
US9137450B2 (en) Image sensing apparatus, exposure control method and recording medium
CN101800858B (en) Image capturing apparatus and control method thereof
US9838625B2 (en) Image processing apparatus and control method for image processing apparatus for controlling correction of a black level in a combined image signal
US8294795B2 (en) Image capturing apparatus and medium storing image processing program
US9071766B2 (en) Image capturing apparatus and control method thereof
JP2010072619A (en) Exposure operation device and camera
US11159740B2 (en) Image capturing device and control method thereof and medium
US10491840B2 (en) Image pickup apparatus, signal processing method, and signal processing program
EP3886429A1 (en) Information processing apparatus, image capturing apparatus, method, program and storage medium
JP6305290B2 (en) Image processing apparatus, imaging apparatus, and image processing method
JP2007036438A (en) Color discrimination method and device of imaging apparatus, and exposure control method of imaging apparatus
EP3051799A1 (en) Imaging device and image processing method
JP4381910B2 (en) Imaging device
JP5849515B2 (en) Exposure calculation device and camera
JP6590585B2 (en) Imaging apparatus and exposure control method
US11258943B2 (en) Imaging apparatus and method for controlling the same
JP5345657B2 (en) Method and apparatus for automatic focusing of camera
JP6573382B2 (en) Imaging apparatus and photometric method
JP6645690B2 (en) Automatic focus adjustment device, imaging device, and automatic focus adjustment method
JP2015037222A (en) Image processing apparatus, imaging apparatus, control method, and program
JP2017220811A (en) Imaging apparatus and camera system
JP2017163233A (en) Photographing apparatus and photographing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180807

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190529

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190604

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190730

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190820

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190917

R151 Written notification of patent or utility model registration

Ref document number: 6590585

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees