JP2010183461A - Image capturing apparatus and method of controlling the same - Google Patents

Image capturing apparatus and method of controlling the same Download PDF

Info

Publication number
JP2010183461A
JP2010183461A JP2009026695A JP2009026695A JP2010183461A JP 2010183461 A JP2010183461 A JP 2010183461A JP 2009026695 A JP2009026695 A JP 2009026695A JP 2009026695 A JP2009026695 A JP 2009026695A JP 2010183461 A JP2010183461 A JP 2010183461A
Authority
JP
Japan
Prior art keywords
imaging
amount
image
sensitivity
range expansion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009026695A
Other languages
Japanese (ja)
Other versions
JP2010183461A5 (en
Inventor
Takaaki Fukui
貴明 福井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2009026695A priority Critical patent/JP2010183461A/en
Priority to US12/694,066 priority patent/US9077905B2/en
Priority to US12/694,111 priority patent/US8355059B2/en
Priority to EP13168007.6A priority patent/EP2645705B1/en
Priority to EP10151796.9A priority patent/EP2216987B1/en
Priority to CN201010112169.8A priority patent/CN101800857B/en
Priority to CN201010112187.6A priority patent/CN101800858B/en
Publication of JP2010183461A publication Critical patent/JP2010183461A/en
Publication of JP2010183461A5 publication Critical patent/JP2010183461A5/ja
Priority to US13/592,868 priority patent/US9007486B2/en
Pending legal-status Critical Current

Links

Landscapes

  • Exposure Control For Cameras (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Color Television Image Signal Generators (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image capturing apparatus capable of obtaining an image with a wide dynamic range while suppressing an increase of noise, and to provide a method of controlling the same. <P>SOLUTION: The apparatus includes a means for determining a dynamic range expansion amount for decreasing the halation amount, based upon a halation amount of the image. The apparatus also captures the image with sensitivity reduced, based upon the dynamic range expansion amount, and corrects a decrease in lightness of the captured image due to the sensitivity reduction, thereby obtaining the image having an expanded dynamic range. When the reduction of the sensitivity based upon the dynamic range expansion amount is performed by giving priority to a sensitivity setup, and when the reduction can not be achieved only with the sensitivity setup, change of exposure conditions is combined. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、撮像装置およびその制御方法に関する。   The present invention relates to an imaging apparatus and a control method thereof.

従来、CCDイメージセンサやCMOSイメージセンサなどの撮像素子を用いたデジタルカメラやデジタルビデオが広く用いられている。しかし、これらの撮像素子は銀塩フィルムと比較してダイナミックスレンジ(ラチチュード)が狭い。そのため、高コントラストのシーンを撮像すると、低輝度部分の階調性悪化(黒つぶれ)や高輝度部分の階調性悪化(白飛び)が発生しやすかった。   Conventionally, digital cameras and digital videos using image sensors such as CCD image sensors and CMOS image sensors have been widely used. However, these image sensors have a narrow dynamic range (latitude) compared to silver salt films. For this reason, when a high-contrast scene is imaged, it is easy to cause gradation deterioration (blackout) in a low luminance part and gradation deterioration (whiteout) in a high luminance part.

このような問題に対し、自動的にダイナミックスレンジをコントロール可能なシステムが提案されている。   In response to such a problem, a system capable of automatically controlling the dynamic range has been proposed.

例えば特許文献1では、撮像された画像から、主要被写体が逆光又はハイコントラストであると検出された場合には、画像のヒストグラムから黒色飽和点及び白色飽和点を特定し、主要被写体の明るさが適正となるように階調補正を行うことが提案されている。   For example, in Patent Document 1, when a main subject is detected to be backlit or high-contrast from a captured image, a black saturation point and a white saturation point are specified from the histogram of the image, and the brightness of the main subject is determined. It has been proposed to perform gradation correction so as to be appropriate.

また、特許文献2では、高感度の受光素子と低感度の受光素子を配置した撮像素子を用い、同一シーンを異なる感度の受光素子で撮像してダイナミックレンジの異なる2種類の画像を取得し、それらをシーン解析結果に応じて合成することが提案されている。   Moreover, in patent document 2, using the imaging device which has arrange | positioned the high sensitivity light receiving element and the low sensitivity light receiving element, the same scene is imaged with the light receiving element of different sensitivity, and two types of images with different dynamic ranges are acquired, It has been proposed to synthesize them according to the scene analysis results.

特開2005−209012号公報Japanese Patent Application Laid-Open No. 2005-209012 特開2004−186876号公報JP 2004-186876 A

しかし、特許文献1の方法では、コントラスト感を高めるための効果はあるものの、センサーが飽和するポイントは変わらないため、ダイナミックレンジを拡げる効果は得られない。また、入力に対して出力が大きくなるように階調補正すると、ノイズ成分も同時に増幅してしまうという問題があった。   However, in the method of Patent Document 1, although there is an effect for enhancing the contrast feeling, the point at which the sensor is saturated does not change, so the effect of expanding the dynamic range cannot be obtained. In addition, when tone correction is performed so that the output is larger than the input, there is a problem that noise components are also amplified simultaneously.

また、特許文献2の方法では、ダイナミックレンジを拡げる効果は得られるが、感度の低い受光素子の出力と感度の高い受光素子の出力とを合成するため、感度の低い受光素子の出力を加算する際にノイズ成分も加算されてしまう。そのため、画質劣化が生じるという問題があった。   In addition, the method of Patent Document 2 can obtain the effect of expanding the dynamic range, but in order to synthesize the output of the light receiving element with low sensitivity and the output of the light receiving element with high sensitivity, the output of the light receiving element with low sensitivity is added. In this case, noise components are also added. Therefore, there has been a problem that image quality deterioration occurs.

本発明はこのような従来技術の課題に鑑みてなされたものであり、ノイズの増加を抑制しながら広ダイナミックレンジの画像を得ることが可能な撮像装置及びその制御方法を提供することを目的の1つとする。   The present invention has been made in view of such a problem of the prior art, and an object thereof is to provide an imaging apparatus capable of obtaining an image with a wide dynamic range while suppressing an increase in noise, and a control method thereof. One.

上述の目的は、撮像素子を用いて撮像された画像から、当画像の白飛び量を算出する白飛び量算出手段と、白飛び量の大きさに基づいて、白飛び量を低減するためのダイナミックレンジ拡大量を決定するDレンジ拡大量決定手段と、ダイナミックレンジ拡大量に応じた撮像感度の低減量と、当低減された撮像感度で撮像された画像の明るさを補正するための補正量とを決定する補正量決定手段と、撮像感度の低減量を実現する撮像条件を設定する設定手段であって、撮像感度の設定により低減量の実現が可能である場合には、低減量を実現する撮像感度を撮像条件として設定し、撮像感度の設定により低減量が実現できない場合には、可能な範囲で低減した撮像感度と、当撮像感度との組み合わせにより低減量を実現する露出条件とを撮像条件として設定する設定手段と、撮像素子を用い、設定手段が設定した撮像条件に従って撮像を行う撮像制御手段と、撮像制御手段で撮像された画像の明るさを、補正量に従って補正する補正手段とを有することを特徴とする撮像装置によって達成される。   The above-described object is to reduce the amount of whiteout based on the amount of whiteout amount calculation means for calculating the amount of whiteout from the image captured using the image sensor, and the amount of whiteout amount. D range expansion amount determining means for determining the dynamic range expansion amount, a reduction amount of the imaging sensitivity according to the dynamic range expansion amount, and a correction amount for correcting the brightness of an image captured with the reduced imaging sensitivity A correction amount determining means for determining the imaging sensitivity and a setting means for setting an imaging condition for realizing a reduction amount of the imaging sensitivity. If the reduction amount can be realized by setting the imaging sensitivity, the reduction amount is realized. If the imaging sensitivity is set as the imaging condition and the reduction amount cannot be realized by setting the imaging sensitivity, the imaging sensitivity reduced as much as possible and the exposure condition that realizes the reduction amount by combining this imaging sensitivity are set. Imaging strip A setting unit that sets the image, an imaging control unit that uses the image sensor and performs imaging according to the imaging conditions set by the setting unit, and a correction unit that corrects the brightness of the image captured by the imaging control unit according to the correction amount. It is achieved by an imaging device characterized by having.

また、上述の目的は、撮像素子を用いて撮像された画像から、当画像の白飛び量を算出する白飛び量算出ステップと、白飛び量の大きさに基づいて、白飛び量を低減するためのダイナミックレンジ拡大量を決定するDレンジ拡大量決定ステップと、ダイナミックレンジ拡大量に応じた撮像感度の低減量と、当低減された撮像感度で撮像された画像の明るさを補正するための補正量とを決定する補正量決定ステップと、撮像感度の低減量を実現する撮像条件を設定する設定ステップであって、撮像感度の設定により低減量の実現が可能である場合には、低減量を実現する撮像感度を撮像条件として設定し、撮像感度の設定により低減量が実現できない場合には、可能な範囲で低減した撮像感度と、当撮像感度との組み合わせにより低減量を実現する露出条件とを撮像条件として設定する設定ステップと、撮像素子を用い、設定ステップで設定された撮像条件に従って撮像を行う撮像制御ステップと、撮像制御ステップにおいて撮像された画像の明るさを、補正量に従って補正する補正ステップとを有することを特徴とする撮像装置の制御方法によっても達成される。   Further, the above-described object is to reduce the amount of whiteout based on the amount of whiteout amount calculation step for calculating the amount of whiteout of the image from the image captured using the image sensor and the amount of whiteout amount. A D range expansion amount determination step for determining a dynamic range expansion amount, an imaging sensitivity reduction amount corresponding to the dynamic range expansion amount, and brightness of an image captured with the reduced imaging sensitivity. A correction amount determining step for determining a correction amount, and a setting step for setting an imaging condition for realizing a reduction amount of the imaging sensitivity. If the reduction amount can be realized by setting the imaging sensitivity, the reduction amount If the imaging sensitivity is set as the imaging condition and the reduction amount cannot be realized by setting the imaging sensitivity, the reduction amount is realized by combining the imaging sensitivity with the imaging sensitivity reduced to the extent possible. A setting step for setting an exposure condition to be captured as an imaging condition, an imaging control step for performing imaging in accordance with the imaging condition set in the setting step using an imaging device, and correcting the brightness of the image captured in the imaging control step. It is also achieved by a method for controlling an imaging apparatus, comprising a correction step for correcting according to a quantity.

このような構成により、本発明によれば、ノイズの増加を抑制しながら広ダイナミックレンジの画像を得ることが可能となる。   With such a configuration, according to the present invention, it is possible to obtain an image with a wide dynamic range while suppressing an increase in noise.

本発明の実施形態に係る撮像装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the imaging device which concerns on embodiment of this invention. 原画像から顔が検出される過程を模式的に示した図である。It is the figure which showed typically the process in which a face is detected from an original image. 本発明の実施形態に係る撮像装置の顔検出回路における顔検出動作を説明するためのフローチャートである。It is a flowchart for demonstrating the face detection operation | movement in the face detection circuit of the imaging device which concerns on embodiment of this invention. CIE−L*a*b*色空間における代表色を示した色度図である。It is a chromaticity diagram showing representative colors in the CIE-L * a * b * color space. 本発明の実施形態に係る撮像装置の顔検出回路が用いる2次元ハイパスフィルタの係数の例を示す図である。It is a figure which shows the example of the coefficient of the two-dimensional high pass filter which the face detection circuit of the imaging device which concerns on embodiment of this invention uses. 本発明の実施形態に係る撮像装置のAFE回路の構成例を示すブロック図である。It is a block diagram showing an example of composition of an AFE circuit of an imaging device concerning an embodiment of the present invention. 本発明の実施形態に係る撮像装置のヒストグラム作成回路が作成するヒストグラムの例を模式的に示す図である。It is a figure which shows typically the example of the histogram which the histogram preparation circuit of the imaging device which concerns on embodiment of this invention produces. 本発明の実施形態に係る撮像装置における、撮像スタンバイ時の信号処理の流れを示したブロック図である。It is the block diagram which showed the flow of the signal processing at the time of imaging standby in the imaging device which concerns on embodiment of this invention. 本発明の実施形態に係る撮像装置における、ダイナミックレンジ(Dレンジ)拡大量の決定動作を説明するためのフローチャートである。It is a flowchart for demonstrating the determination operation | movement of the dynamic range (D range) expansion amount in the imaging device which concerns on embodiment of this invention. 本発明の実施形態に係る撮像装置において、顔領域のDレンジ拡大量と画像全体のDレンジ拡大量の大きさに応じて最終的に決定するDレンジ拡大量の具体例を示す図である。In the imaging device concerning an embodiment of the present invention, it is a figure showing the example of the D range expansion amount finally determined according to the size of the D range expansion amount of the face area, and the D range expansion amount of the whole image. 本発明の実施形態に係る撮像装置におけるDレンジの概念図を表す図である。It is a figure showing the conceptual diagram of D range in the imaging device concerning an embodiment of the present invention. 本発明の実施形態に係る撮像装置における、AE目標値、飽和信号値およびDレンジの関係例を示す図である。It is a figure which shows the example of a relationship between AE target value, a saturation signal value, and D range in the imaging device which concerns on embodiment of this invention. 本発明の実施形態に係る撮像装置の信号処理回路におけるガンマ補正特性の設定例を示す図である。It is a figure which shows the example of a setting of the gamma correction characteristic in the signal processing circuit of the imaging device which concerns on embodiment of this invention. 本発明の実施形態に係る撮像装置における、Dレンジ拡大時の本撮像処理の動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the main imaging process at the time of D range expansion in the imaging device which concerns on embodiment of this invention.

以下、添付図面を参照して、本発明を例示的な実施形態に基づき詳細に説明する。
図1は、本発明の実施形態に係る撮像装置の構成例を示すブロック図である。本実施形態の撮像装置は、撮像素子を用いて画像を撮像する機能を有する任意の装置を包含する。このような装置は、デジタルスチルカメラおよびデジタルビデオカメラはもとより、カメラを内蔵または接続した携帯電話、PDA、パーソナルコンピュータなどを含む。
Hereinafter, the present invention will be described in detail based on exemplary embodiments with reference to the accompanying drawings.
FIG. 1 is a block diagram illustrating a configuration example of an imaging apparatus according to an embodiment of the present invention. The imaging apparatus according to the present embodiment includes any apparatus having a function of capturing an image using an imaging element. Such devices include not only digital still cameras and digital video cameras, but also mobile phones, PDAs, personal computers, etc. that have built-in or connected cameras.

図1において、操作部112は、ボタン、スイッチなどを含み、ユーザが撮像装置に指示を与えたり、設定を行ったりするために用いられる。シャッターボタンも操作部112に含まれ、本実施形態ではシャッターボタンの半押し状態と全押し状態とを検出可能であるものとする。   In FIG. 1, the operation unit 112 includes buttons, switches, and the like, and is used by a user to give an instruction to the imaging apparatus or make settings. A shutter button is also included in the operation unit 112, and in this embodiment, it is possible to detect a half-pressed state and a fully-pressed state of the shutter button.

システムコントローラ107は、シャッターボタンの半押し状態を撮像準備開始指示、全押し状態を撮像開始指示として認識する。システムコントローラ107は、例えば、CPU、ROM、RAMなどを含み、ROMに記憶されたプログラムをRAMを用いてCPUが実行することにより、撮像装置の動作全般を制御する。   The system controller 107 recognizes the half-pressed state of the shutter button as an imaging preparation start instruction and the fully-pressed state as an imaging start instruction. The system controller 107 includes, for example, a CPU, a ROM, a RAM, and the like, and controls the overall operation of the imaging apparatus when the CPU executes a program stored in the ROM using the RAM.

レンズ装置200は、フォーカスレンズを含むレンズ群と、フォーカスレンズを駆動する駆動装置と、絞りと、メカニカルシャッターとを有し、システムコントローラ107の制御に基づいて動作する。   The lens device 200 includes a lens group including a focus lens, a drive device that drives the focus lens, a diaphragm, and a mechanical shutter, and operates based on control of the system controller 107.

撮像素子101はCCDイメージセンサ、CMOSイメージセンサなどの光電変換素子である。アナログフロントエンド(AFE)回路150は、撮像素子101から出力されるアナログ画像信号に対してゲイン調整やA/D変換などを行い、デジタル画像信号として出力する。AFE回路150の詳細については後述する。   The imaging element 101 is a photoelectric conversion element such as a CCD image sensor or a CMOS image sensor. An analog front end (AFE) circuit 150 performs gain adjustment, A / D conversion, and the like on the analog image signal output from the image sensor 101 and outputs the digital image signal. Details of the AFE circuit 150 will be described later.

バッファメモリ103は、AFE回路150が出力するデジタル画像信号を一時的に記憶する。
圧縮・伸長回路104は、撮像画像データを記録用の画像ファイル(例えばJPEGファイル)の形式に符号化したり、記録媒体106から読み出された画像ファイルの復号化を行ったりする。
The buffer memory 103 temporarily stores the digital image signal output from the AFE circuit 150.
The compression / decompression circuit 104 encodes the captured image data into a recording image file (for example, JPEG file) format, or decodes the image file read from the recording medium 106.

記録装置105は、内蔵メモリや、着脱可能なメモリカードのような記録媒体106に対し、システムコントローラ107の制御に従ってデータの読み書きを行う。
表示制御回路108は、システムコントローラ107の制御に従い、LCDなどの表示デバイスを有する表示部110への表示動作を制御する。
D/Aコンバータ109は、表示制御回路108が出力する表示用のデジタル画像信号を表示部110が表示可能なアナログ画像信号に変換する。
The recording device 105 reads / writes data from / to a recording medium 106 such as a built-in memory or a removable memory card under the control of the system controller 107.
The display control circuit 108 controls the display operation on the display unit 110 having a display device such as an LCD in accordance with the control of the system controller 107.
The D / A converter 109 converts the display digital image signal output from the display control circuit 108 into an analog image signal that can be displayed by the display unit 110.

表示部110は、撮像した画像の表示はもとより、ユーザが撮像装置に対して各種の設定や指示を行うためのGUI画面や、撮像装置に関する各種情報などの表示を行う。また、連続的に撮像した画像を表示部110に逐次表示することにより、表示部110を電子ビューファインダ(EVF)として機能させることができる。この、表示部110をEVFとして機能させるための逐次撮像・表示動作は、スルー表示、ライブビュー表示とも呼ばれる。   The display unit 110 displays not only the captured image but also a GUI screen for the user to make various settings and instructions to the imaging device, and various information related to the imaging device. In addition, by sequentially displaying continuously captured images on the display unit 110, the display unit 110 can function as an electronic viewfinder (EVF). This sequential imaging / display operation for causing the display unit 110 to function as an EVF is also referred to as a through display or a live view display.

顔検出回路120は、バッファメモリ103に記憶された、YUV形式またはRAW形式の画像データに対して顔検出処理を行い、画像中の顔領域の大きさ、位置を含む顔検出結果をヒストグラム作成回路130に出力する。   The face detection circuit 120 performs face detection processing on image data in YUV format or RAW format stored in the buffer memory 103, and generates a face detection result including the size and position of the face area in the image as a histogram generation circuit. To 130.

顔検出回路120が用いる顔検出方法に特に制限はなく、任意かつ公知の方法を適用することができる。公知の顔検出技術としては、ニューラルネットワークなどを利用した学習に基づく手法、テンプレートマッチングを用いて目、鼻、口等の形状に特徴のある部位を画像から探し出し、類似度が高ければ顔とみなす手法などがある。また、他にも、肌の色や目の形といった画像特徴量を検出し、統計的解析を用いた手法等、多数提案されている。これらの手法を複数組み合わせ、顔検出の精度を向上させることもできる。具体的な例としては特開2002−251380号公報に記載のウェーブレット変換と画像特徴量を利用して顔検出する方法などが挙げられる。   The face detection method used by the face detection circuit 120 is not particularly limited, and any known method can be applied. As a known face detection technique, a method based on learning using a neural network or the like, template matching is used to search a part having a characteristic shape of eyes, nose, mouth, etc. from an image, and if the degree of similarity is high, it is regarded as a face There are methods. In addition, many other methods have been proposed, such as a method that detects image feature amounts such as skin color and eye shape and uses statistical analysis. A plurality of these methods can be combined to improve the accuracy of face detection. Specific examples include a face detection method using wavelet transform and image feature amount described in JP-A-2002-251380.

ここで、図2〜図4を参照して、顔検出回路120の具体的な顔検出動作例について説明する。
図2は、原画像から顔が検出される過程を模式的に示した図であり、図2(a)が原画像を示している。
Here, a specific face detection operation example of the face detection circuit 120 will be described with reference to FIGS.
FIG. 2 is a diagram schematically showing the process of detecting a face from an original image, and FIG. 2A shows the original image.

図3は、顔検出回路120の顔検出動作を説明するためのフローチャートである。
S101で顔検出回路120は原画像から、肌色領域を抽出する。図4は、CIE−L*a*b*色空間における代表色を示した色度図であり、その中の楕円は、肌色である可能性が高い領域である。
顔検出回路120は、RGB形式の原画像データを公知の方法でL*a*b*形式に変換し、図4の楕円で示した領域内の色度を有する画素からなる肌色領域を抽出する。図2(b)は、原画像から抽出された肌色領域を模式的に示している。
FIG. 3 is a flowchart for explaining the face detection operation of the face detection circuit 120.
In S101, the face detection circuit 120 extracts a skin color area from the original image. FIG. 4 is a chromaticity diagram showing representative colors in the CIE-L * a * b * color space, and an ellipse therein is an area that is highly likely to be a skin color.
The face detection circuit 120 converts the original image data in RGB format into the L * a * b * format by a known method, and extracts a skin color region composed of pixels having chromaticity within the region indicated by the ellipse in FIG. . FIG. 2B schematically shows a skin color area extracted from the original image.

次に、S102で顔検出回路120は、抽出した肌色領域から高周波成分を抽出する。具体的には、顔検出回路120は、肌色領域に対してハイパスフィルタを適用する。図5は、2次元ハイパスフィルタの係数の例を示す図である。図2(b)の画像にハイパスフィルタを適用した画像の例を図2(c)に示す。   Next, in S102, the face detection circuit 120 extracts a high frequency component from the extracted skin color region. Specifically, the face detection circuit 120 applies a high-pass filter to the skin color area. FIG. 5 is a diagram illustrating an example of coefficients of a two-dimensional high-pass filter. An example of an image obtained by applying a high-pass filter to the image of FIG. 2B is shown in FIG.

S103で顔検出回路120は、ハイパスフィルタを適用後の画像に対し、図2(d)二示すように目のテンプレートを用いたテンプレートマッチングを行い、画像中における目の検出を行う。
S104で顔検出回路120は、S103で検出した目の領域の位置関係などに基づいて顔領域を判定し、顔領域の位置や大きさ等を含んだ顔検出結果を求める。
In S103, the face detection circuit 120 performs template matching using an eye template as shown in FIG. 2D on the image after the high-pass filter is applied, and detects an eye in the image.
In S104, the face detection circuit 120 determines the face area based on the positional relationship of the eye area detected in S103, and obtains a face detection result including the position and size of the face area.

図1に戻って、ヒストグラム作成回路130は、顔領域の検出結果を顔検出回路120から取得し、顔領域に含まれる画素の輝度値に関するヒストグラムを作成する。ヒストグラム作成回路130はまた、画像を複数に分割した部分領域毎に、含まれる画素の輝度値のヒストグラムも作成することが可能である。作成したヒストグラムはバッファメモリ103に格納する。   Returning to FIG. 1, the histogram creation circuit 130 acquires the detection result of the face area from the face detection circuit 120, and creates a histogram related to the luminance value of the pixels included in the face area. The histogram creation circuit 130 can also create a histogram of the luminance values of the included pixels for each partial region obtained by dividing the image into a plurality of regions. The created histogram is stored in the buffer memory 103.

信号処理回路140は、システムコントローラ107によって設定される信号処理パラメータ(ホワイトバランス補正係数やガンマパラメータなど)に従って、バッファメモリ103に格納されている画像データに対して信号処理を適用する。そして、信号処理回路140は、YUV形式の画像データを生成し、再びバッファメモリ103に格納する。   The signal processing circuit 140 applies signal processing to the image data stored in the buffer memory 103 in accordance with signal processing parameters (white balance correction coefficient, gamma parameter, etc.) set by the system controller 107. Then, the signal processing circuit 140 generates YUV format image data and stores it again in the buffer memory 103.

後述するように、本実施形態の撮像装置は、AFE回路150における感度調整(ゲイン調整)と、信号処理回路140におけるガンマ補正とによって、ダイナミックレンジの拡大を実現する。   As will be described later, the imaging apparatus according to the present embodiment realizes expansion of the dynamic range by sensitivity adjustment (gain adjustment) in the AFE circuit 150 and gamma correction in the signal processing circuit 140.

図6は、AFE回路150の構成例を示すブロック図である。
クランプ回路151は、撮像素子101から出力された信号を、センサーの遮光レベルまたは基準電圧領域の出力値が0となるよう、基準黒レベルにクランプする。
CDSゲイン回路152は、クランプされた信号に対し、CDSゲイン(アナログゲイン)を適用する。一般的なAFE回路で適用されるCDSゲインは0,3,6[dB]といった離散的な値を有する。
FIG. 6 is a block diagram illustrating a configuration example of the AFE circuit 150.
The clamp circuit 151 clamps the signal output from the image sensor 101 to the reference black level so that the light shielding level of the sensor or the output value of the reference voltage region becomes zero.
The CDS gain circuit 152 applies a CDS gain (analog gain) to the clamped signal. The CDS gain applied in a general AFE circuit has discrete values such as 0, 3, 6 [dB].

アナログゲインが適用された信号は、A/Dコンバータ153でデジタルデータに変換される。次に、可変利得増幅器(VGA)ゲイン回路154が、デジタルデータに対してVGAゲインを適用する。本実施形態において、VGAゲインの値は、例えば0〜36dBの範囲で、0.125dB単位で調整可能であるとする。VGAゲインが適用された信号は、クリップ回路155で所定のビット数にクリップしてバッファメモリ103へ出力する。   The signal to which the analog gain is applied is converted into digital data by the A / D converter 153. Next, a variable gain amplifier (VGA) gain circuit 154 applies a VGA gain to the digital data. In the present embodiment, it is assumed that the value of the VGA gain can be adjusted in units of 0.125 dB, for example, in the range of 0 to 36 dB. The signal to which the VGA gain is applied is clipped to a predetermined number of bits by the clip circuit 155 and output to the buffer memory 103.

本実施形態において、撮像装置の撮像感度(ISO感度)設定は、AFE回路150で適用するCDSゲインおよびVGAゲインの値をシステムコントローラ107によって制御することにより実現される。   In this embodiment, the imaging sensitivity (ISO sensitivity) setting of the imaging apparatus is realized by controlling the values of the CDS gain and the VGA gain applied by the AFE circuit 150 by the system controller 107.

また、基準光量の光で撮像装置を照射し、撮像装置から一定の輝度信号値が出力されるようにCDSゲインおよびVGAゲインを制御することにより、撮像素子101の感度特性のバラツキを補正する感度調整を行うことができる。   Also, the sensitivity for correcting variations in the sensitivity characteristics of the image sensor 101 by irradiating the imaging device with a reference amount of light and controlling the CDS gain and VGA gain so that a constant luminance signal value is output from the imaging device. Adjustments can be made.

本実施形態において、感度設定はCDSゲインとVGAゲインの組み合わせて行う。例えば低感度時に全体で6dBのゲインを設定する場合、例えばCDSゲインを3dB、VGAゲインを3dBに設定する。また高感度時に24dBのゲインを設定する場合には、例えばCDSゲインを6dB、VGAゲインを18dBに設定する。上述の通り、一般にCDSゲインは細かい設定ができないため、大まかなゲインを前段のCDSゲインで設定し、感度調整部分など微妙な感度コントロールを行うためにVGAゲインをコントロールする。   In the present embodiment, sensitivity setting is performed by combining a CDS gain and a VGA gain. For example, when setting a gain of 6 dB as a whole at low sensitivity, for example, the CDS gain is set to 3 dB and the VGA gain is set to 3 dB. When a gain of 24 dB is set at high sensitivity, for example, the CDS gain is set to 6 dB and the VGA gain is set to 18 dB. As described above, since the CDS gain cannot generally be set finely, a rough gain is set by the preceding CDS gain, and the VGA gain is controlled in order to perform delicate sensitivity control such as a sensitivity adjustment portion.

一般的に、ゲイン回路は信号成分と同時にノイズ成分も増幅させる。そのため、アナログ回路で重畳するノイズ成分が増幅されることを抑制するために、合計のゲイン量を実現できるCDSゲインとVGAゲインの組み合わせにおいて、前段のCDSゲインをなるべく高めに設定することが好ましい。そのような設定により、A/Dコンバータ153の量子化精度を最大限に有効利用可能となるという効果も実現できる。   Generally, a gain circuit amplifies a noise component simultaneously with a signal component. Therefore, in order to suppress the amplification of the noise component superimposed in the analog circuit, it is preferable to set the preceding CDS gain as high as possible in the combination of the CDS gain and the VGA gain that can realize the total gain amount. Such a setting can also realize an effect that the quantization accuracy of the A / D converter 153 can be effectively utilized to the maximum extent.

次に、上述の構成を有する撮像装置における、撮像時の動作について説明する。
撮像モードで動作しており、撮像準備指示や撮像開始指示が入力されていないスタンバイ時において、本実施形態の撮像装置は、表示部110をEVFとして機能させている。すなわち、システムコントローラ107は、所定のレート(例えば30フレーム/秒)で連続的に撮像し、撮像した画像から表示用画像を生成して、表示部110に表示させる処理を実行している。
Next, an operation at the time of imaging in the imaging apparatus having the above-described configuration will be described.
In the standby mode when operating in the imaging mode and no imaging preparation instruction or imaging start instruction is input, the imaging apparatus of the present embodiment causes the display unit 110 to function as an EVF. That is, the system controller 107 performs processing for continuously capturing images at a predetermined rate (for example, 30 frames / second), generating a display image from the captured images, and displaying the display image on the display unit 110.

顔検出の実行が設定されている場合、顔検出回路120は表示用画像(以下、EVF画像とも呼ぶ)に対して顔検出し、検出結果をシステムコントローラ107に出力する。そして、システムコントローラ107は、検出された顔領域をユーザに提示するための顔枠をEVF画像に重畳表示するよう、顔領域の位置情報とともに表示制御回路108に対して指示する。   When face detection execution is set, the face detection circuit 120 detects a face for a display image (hereinafter also referred to as an EVF image), and outputs the detection result to the system controller 107. Then, the system controller 107 instructs the display control circuit 108 together with the position information of the face area to superimpose and display the face frame for presenting the detected face area to the user on the EVF image.

また、顔検出結果はヒストグラム作成回路130にも供給され、ヒストグラム作成回路130はEVF画像中の顔領域に含まれる画素からヒストグラムを作成する。また、ヒストグラム作成回路130は、画像全体を複数に分割した領域ごとのヒストグラムを作成することもできる。作成したヒストグラムはバッファメモリ103に格納される。   The face detection result is also supplied to the histogram creation circuit 130, which creates a histogram from pixels included in the face area in the EVF image. The histogram creation circuit 130 can also create a histogram for each region obtained by dividing the entire image into a plurality of regions. The created histogram is stored in the buffer memory 103.

図7は、本実施形態においてヒストグラム作成回路130が作成するヒストグラムの例を模式的に示す図である。
図7において、画像全体を縦横それぞれ4等分して得られる部分領域71の各々についてのヒストグラム73と、顔領域72についてのヒストグラム74がそれぞれ作成されることを示している。なお、図7におけるヒストグラム73,74は累積ヒストグラムである。なお、部分領域についてヒストグラムを作成する際、顔領域を除外してもよい。そうすることで、顔領域とそれ以外(背景)とのヒストグラムを作成することができる。
FIG. 7 is a diagram schematically showing an example of a histogram created by the histogram creation circuit 130 in the present embodiment.
FIG. 7 shows that a histogram 73 for each of the partial areas 71 obtained by dividing the entire image into four equal parts in the vertical and horizontal directions and a histogram 74 for the face area 72 are created. Note that the histograms 73 and 74 in FIG. 7 are cumulative histograms. Note that when creating a histogram for a partial region, the face region may be excluded. By doing so, it is possible to create a histogram of the face region and the rest (background).

本実施形態において、部分領域71の累積ヒストグラム73において、頻度80%となる輝度値YHiと、顔領域72の累積ヒストグラム74において頻度90%となる輝度値YHiFaceは、後述するように、撮像画像の白飛び領域の評価に用いられる。   In the present embodiment, the luminance value YHi having a frequency of 80% in the cumulative histogram 73 of the partial region 71 and the luminance value YHiFace having a frequency of 90% in the cumulative histogram 74 of the face region 72 are as follows. It is used for evaluation of a whiteout area.

ユーザがシャッターボタンを全押しして撮像開始指示が入力されると、システムコントローラ107は、自動露出制御(AE)、自動焦点検出(AF)などの処理結果に基づく撮像動作を行う。具体的には、システムコントローラ107は、レンズ装置200の焦点位置や絞り、メカニカルシャッター、撮像素子101、さらに必要に応じてフラッシュ(図示せず)などを制御し、撮像する。   When the user fully presses the shutter button and an imaging start instruction is input, the system controller 107 performs an imaging operation based on processing results such as automatic exposure control (AE) and automatic focus detection (AF). Specifically, the system controller 107 controls the focal position and aperture of the lens device 200, the mechanical shutter, the image sensor 101, and further, if necessary, a flash (not shown) to capture an image.

撮像素子101から出力されるアナログ画像信号は、上述したAFE回路150を通じて、デジタル画像データとしてバッファメモリ103に格納される。このデジタル画像データに対し、信号処理回路140は、システムコントローラ107から設定された様々な信号処理パラメータに従って処理し、YUV形式の画像データを生成して、バッファメモリ103に再度格納する。   The analog image signal output from the image sensor 101 is stored in the buffer memory 103 as digital image data through the AFE circuit 150 described above. The signal processing circuit 140 processes the digital image data in accordance with various signal processing parameters set by the system controller 107, generates image data in YUV format, and stores it again in the buffer memory 103.

信号処理回路140で処理された画像データは、圧縮・伸長回路104によって例えばJPEG形式のファイルに符号化され、記録装置105によって記録媒体106に記録される。   The image data processed by the signal processing circuit 140 is encoded into, for example, a JPEG format file by the compression / decompression circuit 104 and recorded on the recording medium 106 by the recording device 105.

また、表示制御回路108は、バッファメモリ103に格納されたYUV形式の画像データから表示用の画像を生成し、クイックレビュー画像として、D/Aコンバータ109を通じて表示部110に表示させる。   Further, the display control circuit 108 generates a display image from the YUV format image data stored in the buffer memory 103 and causes the display unit 110 to display it as a quick review image through the D / A converter 109.

図8は、本実施形態の撮像装置における、撮像スタンバイ時の信号処理の流れを示したブロック図である。上述の通り、撮像スタンバイ時において、本実施形態の撮像装置は表示部110をEVFとして機能させるための連続的な撮像及び表示を行っている。   FIG. 8 is a block diagram illustrating the flow of signal processing during imaging standby in the imaging apparatus of the present embodiment. As described above, at the time of imaging standby, the imaging apparatus of the present embodiment performs continuous imaging and display for causing the display unit 110 to function as an EVF.

撮像素子101から出力されたアナログ画像信号は、AFE回路150によりゲイン調整(感度調整)及びデジタルデータ化される。そして、このRAW形式の画像データに対して信号処理回路140にて画素補間処理やホワイトバランス補正などの所謂現像処理を行い、YUV形式のデジタル画像データを生成する。   The analog image signal output from the image sensor 101 is converted into gain data (sensitivity adjustment) and digital data by the AFE circuit 150. Then, so-called development processing such as pixel interpolation processing and white balance correction is performed on the RAW format image data by the signal processing circuit 140 to generate YUV format digital image data.

このデジタル画像データは、バッファメモリ103の表示用領域(通称VRAM)103aに格納され、表示制御回路108およびD/Aコンバータ109を通じて表示部110に出力される。   The digital image data is stored in a display area (commonly referred to as VRAM) 103 a of the buffer memory 103 and is output to the display unit 110 through the display control circuit 108 and the D / A converter 109.

一方、信号処理回路140が生成したデジタル画像データは、バッファメモリ103の画像解析用領域(画像解析用バッファ)103bにも格納される。画像解析用バッファ103bに格納された画像データは、顔検出回路120による顔検出および、ヒストグラム作成回路130によるヒストグラム作成に用いられる。なお、画像解析用バッファ103bには、全てのEVF画像データが格納される必要はなく、顔検出及びヒストグラム作成を行う周期に応じた一部のEVF画像データが格納される。   On the other hand, the digital image data generated by the signal processing circuit 140 is also stored in the image analysis area (image analysis buffer) 103 b of the buffer memory 103. The image data stored in the image analysis buffer 103 b is used for face detection by the face detection circuit 120 and histogram creation by the histogram creation circuit 130. Note that it is not necessary to store all EVF image data in the image analysis buffer 103b, and a part of EVF image data corresponding to the period of face detection and histogram creation is stored.

顔検出回路120は、画像解析用バッファ103bに格納されている画像データに対して顔検出を行い、顔が検出された場合には、顔領域を特定可能な情報(例えば位置及び大きさ)を含んだ顔検出結果を出力する。   The face detection circuit 120 performs face detection on the image data stored in the image analysis buffer 103b. When a face is detected, information (for example, position and size) that can specify the face area is detected. The included face detection result is output.

ヒストグラム作成回路130は、画像解析用バッファ103bに格納されている画像データと、顔検出回路120からの顔検出結果とに基づいて、ヒストグラムを作成する。上述の通り、ヒストグラム作成回路130は、顔領域についての顔領域ヒストグラム130aと、画像全体を分割した領域画像ごとの分割領域ヒストグラム130bとを作成することができる。   The histogram creation circuit 130 creates a histogram based on the image data stored in the image analysis buffer 103 b and the face detection result from the face detection circuit 120. As described above, the histogram creation circuit 130 can create the face area histogram 130a for the face area and the divided area histogram 130b for each area image obtained by dividing the entire image.

分割領域ヒストグラム130bは、画像全体について、顔領域を含んだ領域画像毎に作成することも、顔領域を除外した領域画像毎に求めることもできる。前者は処理が容易であるが、白飛びしている領域が顔領域か背景領域かを精度良く検出するためには、後者が好ましい。   The divided region histogram 130b can be created for each region image including the face region for the entire image, or can be obtained for each region image excluding the face region. The former is easy to process, but the latter is preferable in order to accurately detect whether a whiteout region is a face region or a background region.

上述のように、表示部110をEVFとして機能させている間は、連続的に撮像が繰り返され、VRAMは短時間で書き換えられてしまう。一般に、顔検出やヒストグラムの作成に要する時間は、EVF画像の表示周期(例えば1/30秒)よりも長い。そのため、本実施形態では、VRAMの他に画像解析用バッファ103bを設け、画像解析用バッファ103bに格納されている画像データに対する顔検出およびヒストグラム作成が終了するまでは、画像解析用バッファ103bを更新しない。   As described above, while the display unit 110 is functioning as an EVF, imaging is continuously repeated, and the VRAM is rewritten in a short time. In general, the time required for face detection and histogram creation is longer than the EVF image display period (for example, 1/30 second). Therefore, in this embodiment, an image analysis buffer 103b is provided in addition to the VRAM, and the image analysis buffer 103b is updated until face detection and histogram creation for the image data stored in the image analysis buffer 103b are completed. do not do.

この構成により、同一EVF画像に対して顔検出及びヒストグラム作成を行うことが可能になり、画像解析を容易かつ高精度に行うことが可能となる。もちろん、EVF画像の各フレームに対して顔検出及びヒストグラム作成が可能であれば実行しても構わないが、一般にはフレーム毎に撮像シーンが大幅に変化する可能性は低いため、各フレームに対して実行しなくてもよい。   With this configuration, face detection and histogram creation can be performed on the same EVF image, and image analysis can be performed easily and with high accuracy. Of course, it may be performed if face detection and histogram creation are possible for each frame of the EVF image. However, since it is generally unlikely that the captured scene will change significantly from frame to frame, It is not necessary to execute.

図9は、本実施形態の撮像装置におけるダイナミックレンジ拡大量(Dレンジ拡大量)の決定動作を説明するためのフローチャートである。
本実施形態では、EVF画像に対する顔検出結果及びヒストグラム作成結果に基づいて撮像画像における白飛び量を求め、白飛び量に応じてDレンジ拡大量を決定する。そして、EVF画像を用いて予め決定しておいたDレンジ拡大量を用いて、本撮像時の露出や感度を調整する。
FIG. 9 is a flowchart for explaining the determination operation of the dynamic range expansion amount (D range expansion amount) in the imaging apparatus of the present embodiment.
In this embodiment, the amount of whiteout in the captured image is obtained based on the face detection result and the histogram creation result for the EVF image, and the D range expansion amount is determined according to the amount of whiteout. Then, the exposure and sensitivity at the time of actual imaging are adjusted using the D range expansion amount that is determined in advance using the EVF image.

S201で、システムコントローラ107は、上述のように連続的に撮像を行い、EVF画像を生成させ、信号処理回路140から順次バッファメモリ103の表示用領域103aに格納させる。また、予め定めた周期で、EVF画像をバッファメモリ103の画像解析用領域103bにも格納させる。   In step S <b> 201, the system controller 107 continuously captures images as described above, generates an EVF image, and sequentially stores the EVF image from the signal processing circuit 140 in the display area 103 a of the buffer memory 103. The EVF image is also stored in the image analysis area 103 b of the buffer memory 103 at a predetermined cycle.

S202で顔検出回路120は、画像解析用バッファ103bに格納されたEVF画像に対して顔検出を行う。
顔検出に成功した場合(S203,Y)、ヒストグラム作成回路130は、顔検出回路120からの顔検出結果に基づいてEVF画像の顔領域から顔領域ヒストグラムを作成する(S204)。
S205で、白飛び量算出手段としてのシステムコントローラ107は、顔領域のヒストグラムから、顔領域の白飛び量を算出する。
In S202, the face detection circuit 120 performs face detection on the EVF image stored in the image analysis buffer 103b.
When the face detection is successful (S203, Y), the histogram creation circuit 130 creates a face area histogram from the face area of the EVF image based on the face detection result from the face detection circuit 120 (S204).
In step S <b> 205, the system controller 107 serving as a whiteout amount calculation unit calculates a whiteout amount of the face area from the histogram of the face area.

顔検出に失敗した場合(S203,N)および、顔領域の白飛び量の算出後、S206で、ヒストグラム作成回路130は、EVF画像全体を分割した領域画像ごとの分割領域ヒストグラムを作成する。   When face detection fails (S203, N), and after calculating the amount of whiteout in the face area, in S206, the histogram creation circuit 130 creates a divided area histogram for each area image obtained by dividing the entire EVF image.

S207で、システムコントローラ107は、分割領域ヒストグラムからEVF画像全体における白飛び量を算出する。
S208で、Dレンジ拡大量決定手段としてのシステムコントローラ107は、少なくともS207で求めた画像全体における白飛び量に基づいて、Dレンジ拡大量を決定する。
In step S207, the system controller 107 calculates the amount of whiteout in the entire EVF image from the divided region histogram.
In S208, the system controller 107 as the D range expansion amount determination means determines the D range expansion amount based on at least the amount of whiteout in the entire image obtained in S207.

次に、図9のS205及びS207でシステムコントローラ107が行う白飛び量の算出処理の具体例を説明する。
まず、顔領域の白飛び量の算出処理について説明する。
S205で、システムコントローラ107は、S204で作成された顔領域ヒストグラムから、顔領域の白飛び量として、累積ヒストグラムの累積頻度が所定値(図7の例では90%)となる輝度値YHiFaceを算出する。
Next, a specific example of the whiteout amount calculation process performed by the system controller 107 in S205 and S207 of FIG. 9 will be described.
First, the calculation process of the amount of whiteout in the face area will be described.
In step S205, the system controller 107 calculates a luminance value YHiFace from which the cumulative frequency of the cumulative histogram becomes a predetermined value (90% in the example of FIG. 7) as the amount of whiteout in the face region from the face region histogram created in S204. To do.

そして、S208で、システムコントローラ107は、顔領域の白飛び量YHiFaceの値と、予め定めたしきい値との大小関係に応じて、顔領域のDレンジ拡大量(D+(顔))を決定する。   In step S <b> 208, the system controller 107 determines the D range expansion amount (D + (face)) of the face area according to the magnitude relationship between the value of the whiteout amount YHiFace of the face area and a predetermined threshold value. To do.

具体的には、例えば、予め定めたしきい値を、大きい値から順にTHHiFace、THMidFace、THLowFaceの3段階とすると、
D+(顔)=補正レベル1段 (YHiFace>THHiFaceの場合)
D+(顔)=補正レベル2/3段 (THHiFace≧YHiFace>THMidFaceの場合)
D+(顔)=補正レベル1/3段 (THMidFace≧YHiFace>THLowFaceの場合)
D+(顔)=補正レベル0段 (THLowFace≧YHiFaceの場合)
と決定する。
Specifically, for example, when the predetermined threshold is set in three stages of THHiFace, THMidFace, and THLowFace in descending order,
D + (face) = 1 correction level (when YHiFace> THHiFace)
D + (face) = correction level 2/3 stage (when THHiFace ≧ YHiFace> THMidFace)
D + (face) = correction level 1/3 step (when THMidFace ≧ YHiFace> THLowFace)
D + (face) = correction level 0 stage (when THLowFace ≧ YHiFace)
And decide.

またS206で、システムコントローラ107は、S206で作成された分割領域ヒストグラムの各々について、部分領域の白飛び量として、累積ヒストグラムの累積頻度が所定値(図7の例では80%)となる輝度値YHi_n(nは1〜分割数。図7の例では16)を算出する。   In S206, the system controller 107 determines the luminance value at which the cumulative frequency of the cumulative histogram is a predetermined value (80% in the example of FIG. 7) as the amount of whiteout in the partial region for each of the divided region histograms created in S206. YHi_n (n is 1 to the number of divisions, 16 in the example of FIG. 7) is calculated.

S207で、システムコントローラ107は、輝度値YHi_nが、予め定められたしきい値Y_B_Thを超えた領域の数YH_BNumをカウントする。そして、システムコントローラ107は、領域の数YH_BNumと、予め定めたしきい値との大小関係に応じて、画像全体のDレンジ拡大量(D+(背景))を決定する。   In S207, the system controller 107 counts the number YH_BNum of regions where the luminance value YHi_n exceeds a predetermined threshold Y_B_Th. Then, the system controller 107 determines the D range expansion amount (D + (background)) of the entire image according to the magnitude relationship between the number of regions YH_BNum and a predetermined threshold value.

具体的には、例えば、予め定めたしきい値を、大きい値から順にThYH_BNumHi,ThYH_BNumMid、ThYH_BNumLowとすると、
D+(背景)=補正レベル1段 (YH_BNum>ThYH_BNumHiの場合)
D+(背景)=補正レベル2/3段 (ThYH_BNumHi≧YH_BNum>ThYH_BNumMidの場合)
D+(背景)=補正レベル1/3段 (ThYH_BNumMid≧YH_BNum>ThYH_BNumLowの場合)
D+(背景)=補正レベル0段 (ThYH_BNumLow≧YH_BNumの場合)
と決定する。
Specifically, for example, assuming that the predetermined threshold value is ThYH_BNumHi, ThYH_BNumMid, ThYH_BNNumlow in order from the largest value,
D + (background) = 1 correction level (when YH_BNum> ThYH_BNumHi)
D + (background) = correction level 2/3 stage (when ThYH_BNumHi ≧ YH_BNum> ThYH_BnumMid)
D + (background) = correction level 1/3 stage (when ThYH_BnumMid ≧ YH_BNum> ThYH_BNNumlow)
D + (background) = 0 correction level (when ThYH_BNNumLo ≧ YH_BNum)
And decide.

つまり、システムコントローラ107は、画像中の白飛び領域の面積が多いほど、大きなDレンジ拡大量を決定する。
なお、白飛び領域の決定方法はここで説明した累積ヒストグラムを用いた手法に限定されず、他の任意の手法を用いることができる。
That is, the system controller 107 determines a larger D range expansion amount as the area of the whiteout region in the image is larger.
Note that the method for determining the whiteout region is not limited to the method using the cumulative histogram described here, and any other method can be used.

S208で、システムコントローラ107は、最終的なDレンジ拡大量を決定する。ここで、顔検出が成功している場合、Dレンジ拡大量決定手段としてのシステムコントローラ107は、S205およびS207で決定したDレンジ拡大量を比較して、最終的なDレンジ拡大量を決定する。例えば、システムコントローラ107は、顔領域のDレンジ拡大量と画像全体のDレンジ拡大量のうち、拡大量が大きいほうを最終的なDレンジ拡大量として決定することができる。   In step S208, the system controller 107 determines a final D range expansion amount. If the face detection is successful, the system controller 107 as the D range expansion amount determination means compares the D range expansion amounts determined in S205 and S207 to determine the final D range expansion amount. . For example, the system controller 107 can determine the larger D range expansion amount as the final D range expansion amount among the D range expansion amount of the face area and the D range expansion amount of the entire image.

あるいは、操作部112に含まれるモードダイヤルなどにより設定されている撮像モードに応じて顔領域のDレンジ拡大量と画像全体のDレンジ拡大量の一方を最終的なDレンジ拡大量として決定してもよい。例えば、人物の撮像モード(例えばポートレートモード)の場合には、顔領域のDレンジ拡大量を、風景の撮像モード(例えば風景モード)の場合には、画像全体のDレンジ拡大量をそれぞれ最終的なDレンジ拡大量として決定することができる。   Alternatively, one of the D range expansion amount of the face area and the D range expansion amount of the entire image is determined as the final D range expansion amount according to the imaging mode set by the mode dial included in the operation unit 112. Also good. For example, in the case of a person imaging mode (for example, portrait mode), the D range expansion amount of the face area is final. In the case of a landscape imaging mode (for example, landscape mode), the D range expansion amount of the entire image is final. It can be determined as a typical D range expansion amount.

また、モードダイヤルなどで予め設定されている撮像モードだけでなく、シーン判別結果に応じて自動的に選択された撮像モードに応じて選択されている場合などにおいても同様に決定することができる。   Further, not only the imaging mode preset with the mode dial or the like, but also the case where it is selected according to the imaging mode automatically selected according to the scene discrimination result can be determined similarly.

また、顔領域のDレンジ拡大量と画像全体のDレンジ拡大量の一方を選択して最終的なDレンジ拡大量として決定するだけでなく、顔領域のDレンジ拡大量と画像全体のDレンジ拡大量の大きさに応じて最終的なDレンジ拡大量を決定することもできる。   In addition to selecting one of the D range expansion amount of the face area and the D range expansion amount of the entire image and determining it as the final D range expansion amount, the D range expansion amount of the face area and the D range of the entire image are also determined. The final D range expansion amount can also be determined according to the size of the expansion amount.

図10は、顔領域のDレンジ拡大量と画像全体のDレンジ拡大量の大きさに応じて最終的に決定するDレンジ拡大量の具体例を示す図である。
図10に示す例では、撮像モード毎に、最終的に決定されるDレンジ拡大量の値を変えている。例えば、顔領域のDレンジ拡大量が1/3段、画像全体のDレンジ拡大量が0/3段の場合、最終的なDレンジ拡大量は、Autoモード(図10(a))及びポートレートモード(図10(c))では1/3段、風景モード(図10(b))では0/3段である。
FIG. 10 is a diagram illustrating a specific example of the D range expansion amount that is finally determined according to the D range expansion amount of the face area and the D range expansion amount of the entire image.
In the example shown in FIG. 10, the value of the D range expansion amount finally determined is changed for each imaging mode. For example, when the D range expansion amount of the face area is 1/3 step and the D range expansion amount of the entire image is 0/3 step, the final D range expansion amount is the Auto mode (FIG. 10A) and the port. In the rate mode (FIG. 10C), 1/3 step, and in the landscape mode (FIG. 10B), 0/3 step.

システムコントローラ107は、以上のように決定したDレンジ拡大量をバッファメモリ103に格納し、本撮像時に参照する。Dレンジ拡大量の決定動作は、スタンバイ時において、例えばEVF画像の一定フレーム毎、あるいは一定時間毎に行うことができ、バッファメモリ103には最新のDレンジ拡大量が格納される。   The system controller 107 stores the D range expansion amount determined as described above in the buffer memory 103 and refers to it during the main imaging. The determination operation of the D range expansion amount can be performed at the time of standby, for example, every fixed frame or every fixed time of the EVF image, and the buffer memory 103 stores the latest D range expansion amount.

図11は、本実施形態におけるDレンジの概念図を表す図である。
本実施形態において、Dレンジとは、適正輝度に対する撮像素子の飽和信号量輝度の比率と定義する。適正輝度とは、自動露出制御(AE)を行う際の輝度目標値レベルであり、例えばAEのモードが平均測光モードであれば、画面輝度の平均値に相当する。
FIG. 11 is a diagram illustrating a conceptual diagram of the D range in the present embodiment.
In the present embodiment, the D range is defined as the ratio of the saturation signal amount luminance of the image sensor to the appropriate luminance. The appropriate luminance is a luminance target value level when performing automatic exposure control (AE). For example, if the AE mode is the average photometry mode, it corresponds to the average value of the screen luminance.

従って、
Dレンジ=センサー飽和信号量輝度/AE目標値
と定義することができる。
なお、ここでのAE目標値はAFE回路150で感度調整を行う前の、撮像素子101の出力信号に基づくAE目標値である。
Therefore,
D range = sensor saturation signal amount luminance / AE target value.
Here, the AE target value is an AE target value based on the output signal of the image sensor 101 before sensitivity adjustment is performed by the AFE circuit 150.

AE目標値は、AEのモードに応じて変化してよく、評価測光モードやスポット測光モードであっても、それぞれのモードによるAE目標値を用いることができる。
図12は、AE目標値、飽和信号値およびDレンジの関係例を示す図である。
図12から、AE目標値を下げることにより、Dレンジ量を大きくしていくことが可能であることがわかる。
The AE target value may change according to the AE mode, and the AE target value in each mode can be used even in the evaluation photometry mode or the spot photometry mode.
FIG. 12 is a diagram illustrating a relationship example between the AE target value, the saturation signal value, and the D range.
FIG. 12 shows that the D range amount can be increased by lowering the AE target value.

図13は、本実施形態の信号処理回路140におけるガンマ補正特性の設定例を示す図である。
Dレンジ拡大量を、通常(0/3段)、+1/3段、+2/3段、+3/3段分の4段階に設定した場合のガンマ特性(明るさ補正量)の設定例を示している。
FIG. 13 is a diagram illustrating a setting example of gamma correction characteristics in the signal processing circuit 140 of the present embodiment.
An example of setting the gamma characteristic (brightness correction amount) when the D range expansion amount is set to four levels of normal (0/3 step), +1/3 step, +2/3 step, and +3/3 step. ing.

ここで各Dレンジ拡大量に対応したAE目標値は図12で示したものと同値である。図13に示すように、各Dレンジ拡大時におけるAE目標値に対してガンマ補正した後のAE目標値が、Dレンジ拡大量によらず、Dレンジ拡大をしない通常のAE目標値となるようにガンマ補正特性を設定する。   Here, the AE target value corresponding to each D range expansion amount is the same as that shown in FIG. As shown in FIG. 13, the AE target value after performing gamma correction on the AE target value at the time of each D range expansion becomes a normal AE target value that does not perform the D range expansion regardless of the D range expansion amount. Set the gamma correction characteristics to.

図11および図12を用いて説明したように、AE目標値を下げることで、Dレンジを拡大することができる。しかし、単純にAE目標値を下げると、露出アンダーとなり、撮像画像が暗くなってしまう。そのため、Dレンジ拡大量に応じて、撮像後の画像データを明るくするように信号処理回路140でガンマ補正することにより、撮像画像の明るさ(露出)を適正にしながら、Dレンジを拡大することができる。従って、信号処理回路140は補正手段として動作する。   As described with reference to FIGS. 11 and 12, the D range can be expanded by lowering the AE target value. However, simply lowering the AE target value results in underexposure and the captured image becomes dark. Therefore, the D range is expanded while the brightness (exposure) of the captured image is appropriately adjusted by performing gamma correction by the signal processing circuit 140 so that the image data after imaging is brightened according to the D range expansion amount. Can do. Therefore, the signal processing circuit 140 operates as correction means.

なお、本実施形態では、AE目標値を下げたことによる撮像画像の輝度低下を、ガンマ補正により補償する構成について例示したが、ルックアップテーブルなど別の手段を用いて同様の輝度補正を行ってもよい。   In the present embodiment, the configuration in which the decrease in luminance of the captured image due to the decrease in the AE target value is compensated by gamma correction is described, but the same luminance correction is performed using another means such as a lookup table. Also good.

また、ホワイトバランスを補正するホワイトバランス係数のゲインなどのゲインと、飽和信号量を決定するクリッピング量とを制御してもよい。つまり、露光量の低減やAFEゲインの低減などによりゲインダウンされた画像信号をA/D変換した後、後段の信号処理回路でゲインアップし、クリッピング量をゲインアップ分だけ拡大させる(飽和信号量を大きくする)ことによっても同じ効果が得られる。   Further, a gain such as a gain of a white balance coefficient for correcting white balance and a clipping amount for determining a saturation signal amount may be controlled. That is, after the A / D conversion is performed on the image signal whose gain has been reduced by reducing the exposure amount or the AFE gain, the gain is increased by the signal processing circuit in the subsequent stage, and the clipping amount is increased by the gain increase (saturation signal amount The same effect can be obtained.

図14は、本実施形態の撮像装置における、Dレンジ拡大時の本撮像処理の動作を説明するフローチャートである。
なお、撮像スタンバイ時において、EVF画像から上述した方法によりDレンジ拡大量を例えば一定周期で決定しているものとする。本実施形態ではDレンジ拡大量(AE目標値の低減量)を1/3段単位で0/3段から3/3段までの4段階で決定可能であるとする。なお、Dレンジ拡大量の範囲および1段階あたりの大きさは任意に設定することが可能である。
FIG. 14 is a flowchart for explaining the operation of the main imaging process when the D range is expanded in the imaging apparatus of the present embodiment.
It is assumed that the D-range expansion amount is determined, for example, at a constant period from the EVF image by the above-described method during imaging standby. In this embodiment, it is assumed that the D range expansion amount (AE target value reduction amount) can be determined in four steps from 0/3 step to 3/3 step in units of 1/3 step. The range of the D range expansion amount and the size per stage can be set arbitrarily.

そして、撮像スタンバイ時において、操作部112に含まれるシャッターボタンが全押しされ、撮像開始指示が入力されたことに応答して、以下の処理を撮像制御手段としてのシステムコントローラ107が開始する。   Then, at the time of imaging standby, in response to the shutter button included in the operation unit 112 being fully pressed and an imaging start instruction being input, the system controller 107 as imaging control means starts the following processing.

S401で、システムコントローラ107は、撮像開始指示が入力される直前に決定されたDレンジ拡大量をバッファメモリ103から取得する。
S402でシステムコントローラ107は、取得したDレンジ拡大量、すなわちAE目標値の低減量が、AFE回路150における感度調整(CDSゲイン回路およびVGAゲイン回路の制御)により実現可能であるか否か判定する。この判定は、AFE回路150で調整可能な感度の範囲とS401で取得したDレンジ拡大量とを比較して行うことができる。Dレンジ拡大量に相当する感度の低減(ゲインの低減)ができない場合、システムコントローラ107は、AFE回路150での感度調整のみではDレンジ拡大量を実現できないと判断する。
In step S <b> 401, the system controller 107 acquires from the buffer memory 103 the D range expansion amount determined immediately before the imaging start instruction is input.
In S402, the system controller 107 determines whether or not the acquired D range expansion amount, that is, the reduction amount of the AE target value can be realized by sensitivity adjustment (control of the CDS gain circuit and the VGA gain circuit) in the AFE circuit 150. . This determination can be made by comparing the sensitivity range adjustable by the AFE circuit 150 with the D range expansion amount acquired in S401. If the sensitivity corresponding to the D range expansion amount cannot be reduced (gain reduction), the system controller 107 determines that the D range expansion amount cannot be realized only by sensitivity adjustment in the AFE circuit 150.

AFE回路150における感度調整でDレンジ拡大量を実現可能な場合、補正量決定手段としてのシステムコントローラ107は、S404で、ゲイン設定を撮像条件として算出する。なお、CDSゲインとVGAゲインとをどのように組み合わせて設定するかには特に制限はなく、任意の組み合わせで設定可能である。   When the D range expansion amount can be realized by sensitivity adjustment in the AFE circuit 150, the system controller 107 as the correction amount determination unit calculates the gain setting as an imaging condition in S404. Note that there is no particular limitation on how the CDS gain and the VGA gain are set in combination, and any combination can be set.

一方、AFE回路150での感度調整だけではDレンジ拡大量を実現できないと判断される場合、システムコントローラ107はAFE回路150で可能なゲイン制御を行っても依然として不足するゲイン量に基づいて、露出条件を変更する(S405)。具体的には、システムコントローラ107は、不足するゲイン量を実現するための露出補正量を算出する。
ここでの露出補正はマイナス補正であり、絞りを小さくする、シャッター速度を早くする、減光フィルタ(NDフィルタ)を挿入するといった、一般的な方法によって実現することができる。
On the other hand, when it is determined that the D range expansion amount cannot be realized only by the sensitivity adjustment in the AFE circuit 150, the system controller 107 performs exposure based on the gain amount that is still insufficient even if the AFE circuit 150 performs the gain control that is possible. The condition is changed (S405). Specifically, the system controller 107 calculates an exposure correction amount for realizing an insufficient gain amount.
The exposure correction here is a minus correction, and can be realized by a general method such as reducing the aperture, increasing the shutter speed, or inserting a neutral density filter (ND filter).

S406でシステムコントローラ107は、S405で算出した露出補正が可能か否かを判定する。例えば、NDフィルタを持たない撮像装置では、自動露出制御により、シャッター速度が最高速度に、かつ絞りが最小(絞り値が最大)に既に設定されている場合、露出をマイナス補正することはできない。また、フラッシュ撮像時において、同調可能な最高シャッター速度に設定されている場合には、シャッター速度を上げることはできない。その他、シャッター速度の上限が決定されている場合なども同様である。なお、絞り優先AEモードであれば、ユーザが設定した絞り値を変えないことが好ましいので、既にシャッター速度が最高速であれば、マイナス補正できないとの判定になることもある。シャッター速度優先AEモードであっても同様である。   In step S406, the system controller 107 determines whether the exposure correction calculated in step S405 is possible. For example, in an imaging apparatus that does not have an ND filter, the exposure cannot be negatively corrected when the shutter speed is already set to the maximum speed and the aperture is set to the minimum (the aperture value is maximum) by automatic exposure control. Also, when the maximum shutter speed that can be tuned is set during flash imaging, the shutter speed cannot be increased. The same applies to the case where the upper limit of the shutter speed is determined. In the aperture priority AE mode, it is preferable that the aperture value set by the user is not changed. Therefore, if the shutter speed is already the highest speed, it may be determined that minus correction cannot be performed. The same applies to the shutter speed priority AE mode.

ゲイン調整での不足分に相当する露出のマイナス補正ができないと判定される場合、システムコントローラ107は、S407で、Dレンジ拡大量を、感度調整および露出補正によって実現可能な最大の値に補正する。そして、システムコントローラ107は、AFE回路150に設定するゲイン量と、必要に応じてさらに露出補正量を算出する。   If it is determined that the negative exposure correction corresponding to the insufficient gain adjustment cannot be performed, the system controller 107 corrects the D range expansion amount to the maximum value that can be realized by the sensitivity adjustment and the exposure correction in S407. . Then, the system controller 107 calculates a gain amount set in the AFE circuit 150 and an exposure correction amount as necessary.

S408で、システムコントローラ107は、AFE回路150のCDSゲイン回路152およびVGAゲイン回路154に、撮像条件としてのゲイン量を設定する。また、露出補正を行う場合には、AE結果に応じた露出パラメータ(シャッター速度、絞り値、NDフィルタの使用有無の設定など)を、露出補正量に応じて変更し、やはり撮像条件としてレンズ装置200に設定する。   In step S <b> 408, the system controller 107 sets a gain amount as an imaging condition in the CDS gain circuit 152 and the VGA gain circuit 154 of the AFE circuit 150. When performing exposure correction, the exposure parameters (shutter speed, aperture value, use / non-use filter setting, etc.) corresponding to the AE result are changed according to the exposure correction amount, and the lens apparatus is also used as the imaging condition. Set to 200.

S409でシステムコントローラ107は、Dレンジ拡大量に応じたガンマパラメータを信号処理回路140に設定する。
S410でシステムコントローラ107は、静止画撮像(本露光)を行う。
In step S409, the system controller 107 sets a gamma parameter corresponding to the D range expansion amount in the signal processing circuit 140.
In step S410, the system controller 107 performs still image shooting (main exposure).

ここで、感度設定(AFE回路150のゲイン設定)と、撮像素子101の飽和との関係について説明を行う。
一般に、光量およびカメラの露出値(入力)に対して、出力が所定の関係を満たすように、撮像素子の出力信号に対するゲインが制御される。
Here, the relationship between sensitivity setting (gain setting of the AFE circuit 150) and saturation of the image sensor 101 will be described.
Generally, the gain for the output signal of the image sensor is controlled so that the output satisfies a predetermined relationship with respect to the light amount and the exposure value (input) of the camera.

しかしながら、撮像素子が有するフォトダイオードに蓄積可能な電荷量は上限がある。そのため、撮像素子の撮像感度を下げる目的で、AFE回路150で適用するゲインを下げると、ゲイン適用後の最大信号量も低下する。従って、ゲインの低下とともに飽和信号量も低下する。   However, there is an upper limit on the amount of charge that can be accumulated in the photodiode of the image sensor. Therefore, if the gain applied by the AFE circuit 150 is reduced for the purpose of reducing the imaging sensitivity of the image sensor, the maximum signal amount after gain application is also reduced. Therefore, the saturation signal amount decreases as the gain decreases.

このように、撮像素子の感度を増加させる方向については、ノイズの増幅を無視すれば所望の感度設定を行うことは可能であるのに対し、感度を低減させる方向では、飽和信号量から生じる限界値が存在する。   As described above, in the direction of increasing the sensitivity of the image sensor, it is possible to set a desired sensitivity if the amplification of noise is ignored, whereas in the direction of decreasing the sensitivity, the limit caused by the saturation signal amount. Value exists.

図14のS408において、感度が下げられない場合は、撮像装置で設定可能な最低感度が既に設定されている場合であることが多い。これは、撮像素子の出力信号に対するゲインがすでに最低感度に相当にする値まで低減されていることを意味する。そのため、AFE回路150のゲインを制御することによってさらに感度を低減することはできない。従って、本実施形態では、AFE回路150のゲインを制御しても目標のAE目標値(感度)低減量を実現できない場合、露出補正によってさらなる感度低減を実現する。   In S408 of FIG. 14, when the sensitivity cannot be lowered, the minimum sensitivity that can be set by the imaging apparatus is often set. This means that the gain for the output signal of the image sensor has already been reduced to a value corresponding to the minimum sensitivity. Therefore, the sensitivity cannot be further reduced by controlling the gain of the AFE circuit 150. Therefore, in this embodiment, when the target AE target value (sensitivity) reduction amount cannot be realized even if the gain of the AFE circuit 150 is controlled, further sensitivity reduction is realized by exposure correction.

露出補正によって感度を低減した撮像を行い、得られた暗い画像に対して信号処理回路140でガンマ補正して明るさを補正する操作は、結局のところ感度を増加することと同じであり、ガンマ補正時にノイズも増幅され、画質の劣化を生じる。   The operation of performing imaging with reduced sensitivity by exposure correction, and correcting the brightness by performing gamma correction on the obtained dark image by the signal processing circuit 140 is the same as increasing the sensitivity after all. Noise is also amplified during correction, resulting in degradation of image quality.

しかし、本実施形態においては、Dレンジ拡大量に対応する撮像感度の低減をAFE回路150のゲイン制御で実現できる場合には、ゲイン制御での撮像感度低減を優先して行う。そして、ゲイン制御のみではDレンジ拡大量に対応する撮像感度の低減を実現できない場合でも、ゲインを最低まで低減し、不足分の感度低減を露出補正で補っている。この場合、ガンマ補正時にノイズが増幅されたとしても、既にAFE回路150のゲインが最低感度に相当するレベルまで低減されているため、ノイズ自体が大きくない。そのため、画質の劣化は最低限に抑制することができる。   However, in the present embodiment, when the imaging sensitivity reduction corresponding to the D range expansion amount can be realized by the gain control of the AFE circuit 150, the imaging sensitivity reduction by the gain control is performed with priority. Even when the gain control alone cannot achieve a reduction in imaging sensitivity corresponding to the D range expansion amount, the gain is reduced to the minimum, and the insufficient sensitivity reduction is compensated by exposure correction. In this case, even if noise is amplified during gamma correction, the noise itself is not large because the gain of the AFE circuit 150 has already been reduced to a level corresponding to the lowest sensitivity. For this reason, deterioration in image quality can be minimized.

(他の実施形態)
上述の実施形態においては、静止画撮像において本発明によるDレンジ拡大を適用した場合について説明したが、EVF画像の撮像時や動画撮像時にも同様に適応可能である。この場合、AFE回路150のゲイン制御(および必要に応じた露出補正)と、信号処理回路140におけるガンマ補正とが同じ画像に対して適用されるよう、これらパラメータ設定のタイミングを調整する。
(Other embodiments)
In the above-described embodiment, the case where the D range expansion according to the present invention is applied to still image capturing has been described. However, the present invention can be similarly applied to EVF image capturing or moving image capturing. In this case, the timing for setting these parameters is adjusted so that the gain control of the AFE circuit 150 (and exposure correction as necessary) and the gamma correction in the signal processing circuit 140 are applied to the same image.

上述の実施形態は、システム或は装置のコンピュータ(或いはCPU、MPU等)によりソフトウェア的に実現することも可能である。
従って、上述の実施形態をコンピュータで実現するために、該コンピュータに供給されるプログラム自体も本発明を実現するものである。つまり、上述の実施形態の機能を実現するためのプログラム自体も本発明の一つである。
The above-described embodiment can also be realized in software by a computer of a system or apparatus (or CPU, MPU, etc.).
Therefore, in order to realize the above-described embodiment by a computer, a program itself supplied to the computer also realizes the present invention. That is, the program itself for realizing the functions of the above-described embodiments is also one aspect of the present invention.

なお、上述の実施形態を実現するためのプログラムは、コンピュータで読み取り可能であれば、どのような形態であってもよい。例えば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等で構成することができるが、これらに限るものではない。   The program for realizing the above-described embodiment may be in any form as long as it can be read by a computer. For example, it can be composed of object code, a program executed by an interpreter, script data supplied to the OS, but is not limited thereto.

上述の実施形態を実現するためのプログラムは、コンピュータ読み取り可能な記録媒体又は有線/無線通信によりコンピュータに供給される。プログラムを供給するためのコンピュータ読み取り可能な記録媒体としては、例えば、フレキシブルディスク、ハードディスク、磁気テープ等の磁気記録媒体、MO、CD、DVD等の光/光磁気記録媒体、不揮発性の半導体メモリなどがある。   A program for realizing the above-described embodiment is supplied to a computer by a computer-readable recording medium or wired / wireless communication. Examples of computer-readable recording media for supplying programs include magnetic recording media such as flexible disks, hard disks, and magnetic tapes, optical / magneto-optical recording media such as MO, CD, and DVD, and non-volatile semiconductor memories. There is.

有線/無線通信を用いたコンピュータプログラムの供給方法としては、コンピュータネットワーク上のサーバを利用する方法がある。この場合、本発明を形成するコンピュータプログラムとなりうるデータファイル(プログラムファイル)をサーバに記録しておく。プログラムファイルとしては、実行形式のものであっても、ソースコードであっても良い。   As a computer program supply method using wired / wireless communication, there is a method of using a server on a computer network. In this case, a data file (program file) that can be a computer program forming the present invention is recorded in the server. The program file may be an executable format or a source code.

そして、このサーバにアクセスしたクライアントコンピュータに、プログラムファイルをダウンロードすることによって供給する。この場合、プログラムファイルを複数のセグメントファイルに分割し、セグメントファイルを異なるサーバに分散して配置することも可能である。
つまり、上述の実施形態を実現するためのプログラムファイルをクライアントコンピュータに提供するサーバ装置も本発明の一つである。
Then, the program file is supplied by downloading to a client computer that has accessed the server. In this case, the program file can be divided into a plurality of segment files, and the segment files can be distributed and arranged on different servers.
That is, a server apparatus that provides a client computer with a program file for realizing the above-described embodiment is also one aspect of the present invention.

また、上述の実施形態を実現するためのコンピュータプログラムを暗号化して格納した記録媒体を配布し、所定の条件を満たしたユーザに、暗号化を解く鍵情報を供給し、ユーザの有するコンピュータへのインストールを許可してもよい。鍵情報は、例えばインターネットを介してホームページからダウンロードさせることによって供給することができる。   In addition, a recording medium in which a computer program for realizing the above-described embodiment is encrypted and distributed is distributed, key information for decrypting is supplied to a user who satisfies a predetermined condition, and Installation may be allowed. The key information can be supplied by being downloaded from a homepage via the Internet, for example.

また、上述の実施形態を実現するためのコンピュータプログラムは、すでにコンピュータ上で稼働するOSの機能を利用するものであってもよい。
さらに、上述の実施形態を実現するためのコンピュータプログラムは、その一部をコンピュータに装着される拡張ボード等のファームウェアで構成してもよいし、拡張ボード等が備えるCPUで実行するようにしてもよい。
Further, the computer program for realizing the above-described embodiment may use an OS function already running on the computer.
Further, a part of the computer program for realizing the above-described embodiment may be configured by firmware such as an expansion board attached to the computer, or may be executed by a CPU provided in the expansion board. Good.

Claims (7)

撮像素子を用いて撮像された画像から、当該画像の白飛び量を算出する白飛び量算出手段と、
前記白飛び量の大きさに基づいて、前記白飛び量を低減するためのダイナミックレンジ拡大量を決定するDレンジ拡大量決定手段と、
前記ダイナミックレンジ拡大量に応じた撮像感度の低減量と、当該低減された撮像感度で撮像された画像の明るさを補正するための補正量とを決定する補正量決定手段と、
前記撮像感度の低減量を実現する撮像条件を設定する設定手段であって、撮像感度の設定により前記低減量の実現が可能である場合には、前記低減量を実現する撮像感度を前記撮像条件として設定し、撮像感度の設定により前記低減量が実現できない場合には、可能な範囲で低減した撮像感度と、当該撮像感度との組み合わせにより前記低減量を実現する露出条件とを前記撮像条件として設定する設定手段と、
前記撮像素子を用い、前記設定手段が設定した撮像条件に従って撮像を行う撮像制御手段と、
前記撮像制御手段で撮像された画像の明るさを、前記補正量に従って補正する補正手段とを有することを特徴とする撮像装置。
A whiteout amount calculating means for calculating a whiteout amount of the image from an image captured using the imaging element;
D range expansion amount determining means for determining a dynamic range expansion amount for reducing the whiteout amount based on the size of the whiteout amount;
A correction amount determination means for determining a reduction amount of the imaging sensitivity according to the dynamic range expansion amount and a correction amount for correcting the brightness of an image captured with the reduced imaging sensitivity;
Setting means for setting an imaging condition for realizing a reduction amount of the imaging sensitivity, and when the reduction amount can be realized by setting the imaging sensitivity, the imaging sensitivity for realizing the reduction amount is set as the imaging condition. If the reduction amount cannot be realized by setting the imaging sensitivity, the imaging sensitivity reduced as much as possible and the exposure condition that realizes the reduction amount by a combination of the imaging sensitivity are used as the imaging condition. Setting means for setting;
An imaging control unit that performs imaging according to the imaging condition set by the setting unit using the imaging element;
An image pickup apparatus comprising: correction means for correcting the brightness of an image picked up by the image pickup control means according to the correction amount.
前記設定手段は、撮像感度の設定及び露出条件の組み合わせによっても前記低減量を実現できないと判断される場合、実現可能な最大の低減量に対応する撮像感度及び露出条件を前記撮像条件として設定するとともに、前記補正量を、前記実現可能な最大の低減量に対応した値に補正することを特徴とする請求項1記載の撮像装置。   The setting means sets an imaging sensitivity and an exposure condition corresponding to the maximum realizable reduction amount as the imaging condition when it is determined that the reduction amount cannot be realized even by a combination of imaging sensitivity setting and exposure condition. The imaging apparatus according to claim 1, wherein the correction amount is corrected to a value corresponding to the maximum realizable reduction amount. 撮像された画像から、顔領域を検出する顔検出手段をさらに有し、
前記白飛び量算出手段は、前記顔領域と、前記画像全体のそれぞれについて前記白飛び量を求め、
前記決定手段は、前記ダイナミックレンジ拡大量を、前記顔領域と、前記画像全体のそれぞれについてのダイナミックレンジ拡大量に基づいて決定する、
ことを特徴とする請求項1または請求項2記載の撮像装置。
It further has face detection means for detecting a face area from the captured image,
The whiteout amount calculating means obtains the whiteout amount for each of the face area and the entire image,
The determining means determines the dynamic range expansion amount based on the dynamic range expansion amount for each of the face region and the entire image.
The imaging apparatus according to claim 1 or 2, wherein
前記決定手段は、人物を撮像するための撮像モードでは、前記顔領域についてのダイナミックレンジ拡大量を前記画像全体についてのダイナミックレンジ拡大量より優先させて前記ダイナミックレンジ拡大量を決定することを特徴とする請求項3記載の撮像装置。   In the imaging mode for capturing a person, the determining unit determines the dynamic range expansion amount by giving priority to the dynamic range expansion amount for the face area over the dynamic range expansion amount for the entire image. The imaging device according to claim 3. 前記白飛び量算出手段による前記白飛び量の算出、前記決定手段による前記ダイナミックレンジ拡大量の決定および前記補正量決定手段による前記撮像感度及び補正量の決定を、静止画撮像のスタンバイ時において撮像されるEVF画像に対して行い、
前記撮像制御手段は、撮像開始指示に応答して、直前に決定された前記撮像感度及び補正量を用いて前記撮像を行うことを特徴とする請求項1乃至請求項4のいずれか1項に記載の撮像装置。
The calculation of the whiteout amount by the whiteout amount calculation unit, the determination of the dynamic range expansion amount by the determination unit, and the determination of the imaging sensitivity and correction amount by the correction amount determination unit are performed at the time of standby for still image shooting. To the EVF image
5. The imaging control unit according to claim 1, wherein the imaging control unit performs the imaging using the imaging sensitivity and the correction amount determined immediately before in response to an imaging start instruction. The imaging device described.
撮像素子を用いて撮像された画像から、当該画像の白飛び量を算出する白飛び量算出ステップと、
前記白飛び量の大きさに基づいて、前記白飛び量を低減するためのダイナミックレンジ拡大量を決定するDレンジ拡大量決定ステップと、
前記ダイナミックレンジ拡大量に応じた撮像感度の低減量と、当該低減された撮像感度で撮像された画像の明るさを補正するための補正量とを決定する補正量決定ステップと、
前記撮像感度の低減量を実現する撮像条件を設定する設定ステップであって、撮像感度の設定により前記低減量の実現が可能である場合には、前記低減量を実現する撮像感度を前記撮像条件として設定し、撮像感度の設定により前記低減量が実現できない場合には、可能な範囲で低減した撮像感度と、当該撮像感度との組み合わせにより前記低減量を実現する露出条件とを前記撮像条件として設定する設定ステップと、
前記撮像素子を用い、前記設定ステップで設定された撮像条件に従って撮像を行う撮像制御ステップと、
前記撮像制御ステップにおいて撮像された画像の明るさを、前記補正量に従って補正する補正ステップとを有することを特徴とする撮像装置の制御方法。
A whiteout amount calculating step for calculating a whiteout amount of the image from an image captured using the imaging element;
A D range expansion amount determination step for determining a dynamic range expansion amount for reducing the whiteout amount based on the size of the whiteout amount;
A correction amount determining step for determining a reduction amount of the imaging sensitivity according to the dynamic range expansion amount and a correction amount for correcting the brightness of an image captured with the reduced imaging sensitivity;
A setting step for setting an imaging condition for realizing the reduction amount of the imaging sensitivity, and when the reduction amount can be realized by setting the imaging sensitivity, the imaging sensitivity for realizing the reduction amount is set as the imaging condition; If the reduction amount cannot be realized by setting the imaging sensitivity, the imaging sensitivity reduced as much as possible and the exposure condition that realizes the reduction amount by a combination of the imaging sensitivity are used as the imaging condition. A setting step to set;
An imaging control step of performing imaging according to the imaging conditions set in the setting step using the imaging element;
A control method for an imaging apparatus, comprising: a correction step of correcting the brightness of the image captured in the imaging control step according to the correction amount.
撮像素子を有する撮像装置のコンピュータに、請求項6記載の撮像装置の制御方法の各ステップを実行させるためのプログラム。   The program for making the computer of the imaging device which has an imaging device perform each step of the control method of the imaging device of Claim 6.
JP2009026695A 2009-02-06 2009-02-06 Image capturing apparatus and method of controlling the same Pending JP2010183461A (en)

Priority Applications (8)

Application Number Priority Date Filing Date Title
JP2009026695A JP2010183461A (en) 2009-02-06 2009-02-06 Image capturing apparatus and method of controlling the same
US12/694,066 US9077905B2 (en) 2009-02-06 2010-01-26 Image capturing apparatus and control method thereof
US12/694,111 US8355059B2 (en) 2009-02-06 2010-01-26 Image capturing apparatus and control method thereof
EP13168007.6A EP2645705B1 (en) 2009-02-06 2010-01-27 Image capturing apparatus and control method thereof
EP10151796.9A EP2216987B1 (en) 2009-02-06 2010-01-27 Image capturing apparatus and control method thereof
CN201010112169.8A CN101800857B (en) 2009-02-06 2010-02-08 Image capturing apparatus and control method thereof
CN201010112187.6A CN101800858B (en) 2009-02-06 2010-02-08 Image capturing apparatus and control method thereof
US13/592,868 US9007486B2 (en) 2009-02-06 2012-08-23 Image capturing apparatus and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009026695A JP2010183461A (en) 2009-02-06 2009-02-06 Image capturing apparatus and method of controlling the same

Publications (2)

Publication Number Publication Date
JP2010183461A true JP2010183461A (en) 2010-08-19
JP2010183461A5 JP2010183461A5 (en) 2012-03-22

Family

ID=42764615

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009026695A Pending JP2010183461A (en) 2009-02-06 2009-02-06 Image capturing apparatus and method of controlling the same

Country Status (1)

Country Link
JP (1) JP2010183461A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015041878A (en) * 2013-08-21 2015-03-02 キヤノン株式会社 Imaging apparatus and control method
US9357138B2 (en) 2012-07-20 2016-05-31 Canon Kabushiki Kaisha Image capture apparatus, method of controlling image capture apparatus, and electronic device
US10271029B2 (en) 2016-12-14 2019-04-23 Canon Kabushiki Kaisha Image pickup apparatus and method of controlling an image pickup apparatus

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63202187A (en) * 1987-02-17 1988-08-22 Sony Corp Image pickup device
JPH05158103A (en) * 1991-12-09 1993-06-25 Minolta Camera Co Ltd Exposure controller for camera
JP2007324856A (en) * 2006-05-31 2007-12-13 Sony Corp Imaging apparatus and imaging control method
JP2008131530A (en) * 2006-11-24 2008-06-05 Sony Corp Image pickup device, image processing apparatus and method, and computer program
JP2009008961A (en) * 2007-06-29 2009-01-15 Fujifilm Corp Photographing apparatus and control method thereof
JP2009017229A (en) * 2007-07-04 2009-01-22 Fujifilm Corp Imaging device and imaging control method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63202187A (en) * 1987-02-17 1988-08-22 Sony Corp Image pickup device
JPH05158103A (en) * 1991-12-09 1993-06-25 Minolta Camera Co Ltd Exposure controller for camera
JP2007324856A (en) * 2006-05-31 2007-12-13 Sony Corp Imaging apparatus and imaging control method
JP2008131530A (en) * 2006-11-24 2008-06-05 Sony Corp Image pickup device, image processing apparatus and method, and computer program
JP2009008961A (en) * 2007-06-29 2009-01-15 Fujifilm Corp Photographing apparatus and control method thereof
JP2009017229A (en) * 2007-07-04 2009-01-22 Fujifilm Corp Imaging device and imaging control method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9357138B2 (en) 2012-07-20 2016-05-31 Canon Kabushiki Kaisha Image capture apparatus, method of controlling image capture apparatus, and electronic device
JP2015041878A (en) * 2013-08-21 2015-03-02 キヤノン株式会社 Imaging apparatus and control method
US10271029B2 (en) 2016-12-14 2019-04-23 Canon Kabushiki Kaisha Image pickup apparatus and method of controlling an image pickup apparatus

Similar Documents

Publication Publication Date Title
US8355059B2 (en) Image capturing apparatus and control method thereof
US9077905B2 (en) Image capturing apparatus and control method thereof
TWI408953B (en) Image pickup device and image pickup method
US8059187B2 (en) Image capturing apparatus
JP6720881B2 (en) Image processing apparatus and image processing method
JP4999871B2 (en) Imaging apparatus and control method thereof
JP6873679B2 (en) Imaging device, control method and program of imaging device
JP6092690B2 (en) Imaging apparatus and control method thereof
JP2019029833A (en) Imaging apparatus
JP2010183460A (en) Image capturing apparatus and method of controlling the same
JP2011119944A (en) Imaging apparatus and method of controlling the same
JP5335964B2 (en) Imaging apparatus and control method thereof
JP2010183461A (en) Image capturing apparatus and method of controlling the same
JP2012124652A (en) Imaging apparatus and image processing method
JP6786273B2 (en) Image processing equipment, image processing methods, and programs
KR101750986B1 (en) An apparatus and a method for processing image, and a computer-readable storage medium
JP2015080157A (en) Image processing device, image processing method and program
JP2018181070A (en) Image processing device and image processing method
JP5789330B2 (en) Imaging apparatus and control method thereof
JP2017068513A (en) Image processing device and method thereof, program, and storage medium
JP2016213717A (en) Image processing apparatus, image processing method, program, and storage medium
JP5351663B2 (en) Imaging apparatus and control method thereof
JP6849351B2 (en) Image processing equipment, image processing methods, and programs
US20240048822A1 (en) Image capture apparatus and control method for same
JP2008306326A (en) Image processing device and image processing method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120206

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130307

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131024

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140411